ITить-КОЛОТИТЬ, серии 7-9
Продолжаем выкладывать новые выпуски нашего сериала про айтишников. Как он появился и как снимался второй сезон нашего мини-сериала, рассказывали ранее.
Читать: https://habr.com/ru/post/686132/
Продолжаем выкладывать новые выпуски нашего сериала про айтишников. Как он появился и как снимался второй сезон нашего мини-сериала, рассказывали ранее.
Читать: https://habr.com/ru/post/686132/
Как создать HandBook для своей компании
Чем больше сотрудников становится в компании, тем больше появляется необходимость собрать всю информацию и все данные компании в одном месте.
В этой статье мы расскажем вам как решить эту проблему с помощью корпоративной книги, а также поделимся основными моментами разработки, на которые стоит обратить внимание, чтобы ускорить процесс ее создания.
Читать: https://habr.com/ru/post/686500/
Чем больше сотрудников становится в компании, тем больше появляется необходимость собрать всю информацию и все данные компании в одном месте.
В этой статье мы расскажем вам как решить эту проблему с помощью корпоративной книги, а также поделимся основными моментами разработки, на которые стоит обратить внимание, чтобы ускорить процесс ее создания.
Читать: https://habr.com/ru/post/686500/
Куда мы катимся? Первая часть
Сегодня я хочу поговорить с вами про такую замечательную вещь как Point in time recovery (PITR) в PostgreSQL.
Механизм восстановления на определенную точку во времени работает таким образом – у нас есть базовый бэкап, созданный при помощи какой-либо утилиты создания бэкапов (например pg_basebackup), а также набор журнальных файлов, постепенно применяя (накатывая) который, мы можем восстановиться до указанной точки.
Звучит это довольно просто, но, как водится, в каждой простой вещи есть какие-то нюансы, вот о них мы сегодня с вами и поговорим.
Читать: https://habr.com/ru/post/685800/
Сегодня я хочу поговорить с вами про такую замечательную вещь как Point in time recovery (PITR) в PostgreSQL.
Механизм восстановления на определенную точку во времени работает таким образом – у нас есть базовый бэкап, созданный при помощи какой-либо утилиты создания бэкапов (например pg_basebackup), а также набор журнальных файлов, постепенно применяя (накатывая) который, мы можем восстановиться до указанной точки.
Звучит это довольно просто, но, как водится, в каждой простой вещи есть какие-то нюансы, вот о них мы сегодня с вами и поговорим.
Читать: https://habr.com/ru/post/685800/
Использование HTMS для хранения и применения нейронных сетей
Новый подход к моделированию нейронных сетей в таблично-сетевых базах данных.
[Это перевод статьи, которую я опубликовал на www.medium.com в серии постов о таблично-сетевой модели данных. Смотрите ссылки на все посты здесь.]
Система управления HyperTable Management System — HTMS разработана для универсального использования. Одной из предметных областей, где признаки базовой для HTMS — таблично-сетевой модели данных соответствуют ей максимально адекватно, являются нейронные сети¹. Нейронная сеть представляет собой направленный, взвешенный граф.
В качестве базовой модели нейросети я буду использовать многослойный персептрон MultyLayer Percehtron— MLP² с одним скрытым слоем.
Читать: https://habr.com/ru/post/686696/
Новый подход к моделированию нейронных сетей в таблично-сетевых базах данных.
[Это перевод статьи, которую я опубликовал на www.medium.com в серии постов о таблично-сетевой модели данных. Смотрите ссылки на все посты здесь.]
Система управления HyperTable Management System — HTMS разработана для универсального использования. Одной из предметных областей, где признаки базовой для HTMS — таблично-сетевой модели данных соответствуют ей максимально адекватно, являются нейронные сети¹. Нейронная сеть представляет собой направленный, взвешенный граф.
В качестве базовой модели нейросети я буду использовать многослойный персептрон MultyLayer Percehtron— MLP² с одним скрытым слоем.
Читать: https://habr.com/ru/post/686696/
Debug AWS DMS tasks using Time Travel
Read: https://aws.amazon.com/blogs/database/debug-aws-dms-tasks-using-time-travel/
Read: https://aws.amazon.com/blogs/database/debug-aws-dms-tasks-using-time-travel/
Free your data with the MongoDB Relational Migrator
Read: https://www.mongodb.com/blog/post/free-data-with-mongodb-relational-migrator
Read: https://www.mongodb.com/blog/post/free-data-with-mongodb-relational-migrator
Whether to Restart Postgresql Upon Configuration Change
I encountered a situation where I needed to update some configuration settings for PostgresSQL. However, I was unsure whether it required a restart upon configuration change.
Restarting the service means downtime and it’s not feasible for the product...
Read: https://anasanjaria.hashnode.dev/whether-to-restart-postgresql-upon-configuration-change-57a3f7438566
I encountered a situation where I needed to update some configuration settings for PostgresSQL. However, I was unsure whether it required a restart upon configuration change.
Restarting the service means downtime and it’s not feasible for the product...
Read: https://anasanjaria.hashnode.dev/whether-to-restart-postgresql-upon-configuration-change-57a3f7438566
Как объединить два корпоративных хранилища так, чтобы не перессориться со всеми
Корпоративное хранилище в ГПБ существует с девяностых. Тогда оно создавалось исключительно под задачи регуляторной и текущей отчетности. Соответственно и архитектура была такой, чтобы соответствовать требованиям этих задач
Изначально мы использовали SAP ASE. В нем была реализована довольно сложная бизнес-логика, и все работало довольно неплохо, но старая система не потянула бы расширение, не хватало производительности. Также были пробелы и в документировании — из-за огромного легаси, о котором даже спросить было некого.
По мере развития IT-ландшафта и появления новых систем, росли требования заказчиков, ставились новые задачи. В 2009 году стало понятно, что надо менять подход к работе с КХД, аналитическую платформу и инструменты по работе с хранилищем. Выбрали новые: SAP IQ, а в качестве «интеллекта» — DataStage (тогда он еще не принадлежал IBM).
Перед командой стояла задача создать объединенное хранилище данных, не порушив при этом работу всех систем. Эта история о том, как команда Газпромбанка сумела незаметно перетащить потребителей со старого хранилища на новое.
Читать: https://habr.com/ru/post/685860/
Корпоративное хранилище в ГПБ существует с девяностых. Тогда оно создавалось исключительно под задачи регуляторной и текущей отчетности. Соответственно и архитектура была такой, чтобы соответствовать требованиям этих задач
Изначально мы использовали SAP ASE. В нем была реализована довольно сложная бизнес-логика, и все работало довольно неплохо, но старая система не потянула бы расширение, не хватало производительности. Также были пробелы и в документировании — из-за огромного легаси, о котором даже спросить было некого.
По мере развития IT-ландшафта и появления новых систем, росли требования заказчиков, ставились новые задачи. В 2009 году стало понятно, что надо менять подход к работе с КХД, аналитическую платформу и инструменты по работе с хранилищем. Выбрали новые: SAP IQ, а в качестве «интеллекта» — DataStage (тогда он еще не принадлежал IBM).
Перед командой стояла задача создать объединенное хранилище данных, не порушив при этом работу всех систем. Эта история о том, как команда Газпромбанка сумела незаметно перетащить потребителей со старого хранилища на новое.
Читать: https://habr.com/ru/post/685860/
Четыре важных теста для Apache Kafka CI/CD с GitHub Actions
Если вы используете GitHub для создания приложений Apache Kafka®, наверняка вы захотите интегрировать Kafka в свою среду разработки и эксплуатации GitOps. Эта статья для тех, кто понимает принципы GitOps, ценность непрерывной интеграции и поставки (CI/CD) и важность промежуточных сред (staging).
Мы поговорим о том, как применять принципы GitOps к жизненному циклу разработки клиентского приложения Kafka с помощью GitHub Actions — для тестирования в локальной среде и Confluent Cloud, со Schema Registry и без него, и для эволюции схемы.
Читать: https://habr.com/ru/post/686922/
Если вы используете GitHub для создания приложений Apache Kafka®, наверняка вы захотите интегрировать Kafka в свою среду разработки и эксплуатации GitOps. Эта статья для тех, кто понимает принципы GitOps, ценность непрерывной интеграции и поставки (CI/CD) и важность промежуточных сред (staging).
Мы поговорим о том, как применять принципы GitOps к жизненному циклу разработки клиентского приложения Kafka с помощью GitHub Actions — для тестирования в локальной среде и Confluent Cloud, со Schema Registry и без него, и для эволюции схемы.
Читать: https://habr.com/ru/post/686922/
Особенности бинарных систем в Notion на примере Zettelkasten
Статья описывает особенности настройки фильтрации шаблонов записей в базу данных Notion в бинарной системе Zetteskastena
Читать: https://habr.com/ru/post/686992/
Статья описывает особенности настройки фильтрации шаблонов записей в базу данных Notion в бинарной системе Zetteskastena
Читать: https://habr.com/ru/post/686992/
MongoDB Partners With Codecademy on New “Learn MongoDB” Course
Read: https://www.mongodb.com/blog/post/partners-codecademy-new-learn-mongodb-course
Read: https://www.mongodb.com/blog/post/partners-codecademy-new-learn-mongodb-course
Complete Airports Database for Developers by Developers
Airports Database by Aviation Edge includes more than 10,000 airports and train stations worldwide. It performs as a one-in-all airport data source with many useful details for any aviation project. Instead of having to collect airport data through d...
Read: https://aviationedgeapi.hashnode.dev/complete-airports-database-for-developers-by-developers
Airports Database by Aviation Edge includes more than 10,000 airports and train stations worldwide. It performs as a one-in-all airport data source with many useful details for any aviation project. Instead of having to collect airport data through d...
Read: https://aviationedgeapi.hashnode.dev/complete-airports-database-for-developers-by-developers
👍1
Многопоточный бекап и рестор в СУБД Ред База Данных
Добрый день. Меня зовут Сергей Волков, я работаю системным архитектором в компании "РЕД СОФТ". При эксплуатации СУБД Ред База Данных или Firebird возникает необходимость выполнить операцию резервного копирования и восстановления. На БД размером сотни гигабайт бекап и рестор занимает часы, а на БД размером несколько терабайт занимает сутки и более. Как ускорить процесс я расскажу под катом.
Читать: https://habr.com/ru/post/687130/
Добрый день. Меня зовут Сергей Волков, я работаю системным архитектором в компании "РЕД СОФТ". При эксплуатации СУБД Ред База Данных или Firebird возникает необходимость выполнить операцию резервного копирования и восстановления. На БД размером сотни гигабайт бекап и рестор занимает часы, а на БД размером несколько терабайт занимает сутки и более. Как ускорить процесс я расскажу под катом.
Читать: https://habr.com/ru/post/687130/
Smart Forms: Наш опыт автоматизации сбора данных
Привет, Хабр! Сегодня я хочу поговорить о проблеме автоматизации сбора данных. В этом посте мы обсудим, какие именно минусы несет сбор данных через файлы Excel, а также расскажем подробнее о наших собственных наработках по автоматизации сбора информации. Речь пойдет о практических аспектах применения инструмента Smart Forms, поэтому пост будет интересен в первую очередь пользователям решений Visiology, а также специалистам, которые организуют сбор информации или планируют это делать. Всех, у кого уже есть подобный опыт на любой платформе приглашаю присоединиться к обсуждению в комментариях.
Читать: https://habr.com/ru/post/650141/
Привет, Хабр! Сегодня я хочу поговорить о проблеме автоматизации сбора данных. В этом посте мы обсудим, какие именно минусы несет сбор данных через файлы Excel, а также расскажем подробнее о наших собственных наработках по автоматизации сбора информации. Речь пойдет о практических аспектах применения инструмента Smart Forms, поэтому пост будет интересен в первую очередь пользователям решений Visiology, а также специалистам, которые организуют сбор информации или планируют это делать. Всех, у кого уже есть подобный опыт на любой платформе приглашаю присоединиться к обсуждению в комментариях.
Читать: https://habr.com/ru/post/650141/
Куда мы катимся? Вторая часть
Продолжим наше знакомство с Point in time Recovery.
В первой части мы рассмотрели ситуацию, когда нужно найти момент, в который была очищена таблица и произвели восстановление до точки находящейся перед этим событием.
В этот раз мы рассмотрим более сложную ситуацию.
Читать: https://habr.com/ru/post/686598/
Продолжим наше знакомство с Point in time Recovery.
В первой части мы рассмотрели ситуацию, когда нужно найти момент, в который была очищена таблица и произвели восстановление до точки находящейся перед этим событием.
В этот раз мы рассмотрим более сложную ситуацию.
Читать: https://habr.com/ru/post/686598/
Why Databases go under stress and how to recover them?
Placeholder text
Read: https://notes.drdroid.io/why-databases-go-under-stress-and-how-to-recover-them
Placeholder text
Read: https://notes.drdroid.io/why-databases-go-under-stress-and-how-to-recover-them
Philips DCC175: Компьютерная цифровая кассета
За четыре года существования формата Digital Compact Cassette было разработано огромное количество устройств с поддержкой этого довольно странного цифрового носителя на магнитной ленте. Большие стационарные магнитофоны и минисистемы. Портативные плееры и рекордеры. Магнитолы в автомобиль, чистые кассеты, тысяча с лишним наименований фирменных кассет с музыкой. Это, если хотите, такой анти-MVP: не пробуем, как сейчас принято, вывести на рынок один базовый продукт без особых затрат, а сразу стратегически вкладываемся в построение целой экосистемы. Для одного из последних потребительских аудионосителей это наверное было оправдано. Но не помогло: в 1996 году, больше четверти века назад, компания Philips прекратила выпуск устройств, распродала остатки магнитофонов и кассет, и забыла про свои амбиции: пересадить всех на новый носитель звука, относительно недорогой заменитель традиционной аудиокассеты.
Но незадолго до бесславного конца, в 1995 году, Philips разработала и начала продавать самое последнее и самое интересное устройство DCC, портативный рекордер Philips DCC175. У этого записывающего магнитофона был разъем для подключения к компьютеру. При наличии специального кабеля, он позволял записывать цифровые кассеты прямо с ПК. И музыку можно было записывать, и данные. Для 1995 года это было необычно и очень круто. Конкурент Philips DCC, минидиск, подобную функциональность приобрел только в 2001 году, да и то, с ограничениями. DCC — мой любимый, самый «страдательный» источник ретроартефактов. Естественно, я очень хотел найти DCC175, только надежды было мало — они крайне редкие даже по меркам этого забытого формата. Но мне повезло, и недавно я стал обладателем такого устройства. Естественно, оно было сломано. Сегодня я расскажу об опыте эксплуатации, пожалуй, самого редкого аппарата в моей коллекции. Это также достаточно необычный случай, когда компьютерное и музыкальное направления моего хобби соединились.
Читать: https://habr.com/ru/post/687208/
За четыре года существования формата Digital Compact Cassette было разработано огромное количество устройств с поддержкой этого довольно странного цифрового носителя на магнитной ленте. Большие стационарные магнитофоны и минисистемы. Портативные плееры и рекордеры. Магнитолы в автомобиль, чистые кассеты, тысяча с лишним наименований фирменных кассет с музыкой. Это, если хотите, такой анти-MVP: не пробуем, как сейчас принято, вывести на рынок один базовый продукт без особых затрат, а сразу стратегически вкладываемся в построение целой экосистемы. Для одного из последних потребительских аудионосителей это наверное было оправдано. Но не помогло: в 1996 году, больше четверти века назад, компания Philips прекратила выпуск устройств, распродала остатки магнитофонов и кассет, и забыла про свои амбиции: пересадить всех на новый носитель звука, относительно недорогой заменитель традиционной аудиокассеты.
Но незадолго до бесславного конца, в 1995 году, Philips разработала и начала продавать самое последнее и самое интересное устройство DCC, портативный рекордер Philips DCC175. У этого записывающего магнитофона был разъем для подключения к компьютеру. При наличии специального кабеля, он позволял записывать цифровые кассеты прямо с ПК. И музыку можно было записывать, и данные. Для 1995 года это было необычно и очень круто. Конкурент Philips DCC, минидиск, подобную функциональность приобрел только в 2001 году, да и то, с ограничениями. DCC — мой любимый, самый «страдательный» источник ретроартефактов. Естественно, я очень хотел найти DCC175, только надежды было мало — они крайне редкие даже по меркам этого забытого формата. Но мне повезло, и недавно я стал обладателем такого устройства. Естественно, оно было сломано. Сегодня я расскажу об опыте эксплуатации, пожалуй, самого редкого аппарата в моей коллекции. Это также достаточно необычный случай, когда компьютерное и музыкальное направления моего хобби соединились.
Читать: https://habr.com/ru/post/687208/
3 Factors Limiting Developers’ Innovation
Read: https://www.mongodb.com/blog/post/three-factors-limiting-developers-innovation
Read: https://www.mongodb.com/blog/post/three-factors-limiting-developers-innovation
Как обеспечить конфиденциальность и безопасность данных участников исследования
Обеспечение конфиденциальности и безопасности данных участников до, во время и после сбора данных критично важно для процесса исследования пользователей. Это защищает участников от утечек данных и киберугроз.
Из-за активного развития законодательной базы о защите данных, исследователям приходится всё больше уделять внимание тому, как обеспечивается конфиденциальность данных участников до, во время и после исследования. Собранные данные ценны для исследователей, но еще более они важны для самих участников исследования. В нашей зоне ответственности лежит задача убедиться, что мы не нарушаем принципы исследовательской этики и проявляем уважение к участникам на каждом из этапов.
Читать: https://habr.com/ru/post/687226/
Обеспечение конфиденциальности и безопасности данных участников до, во время и после сбора данных критично важно для процесса исследования пользователей. Это защищает участников от утечек данных и киберугроз.
Из-за активного развития законодательной базы о защите данных, исследователям приходится всё больше уделять внимание тому, как обеспечивается конфиденциальность данных участников до, во время и после исследования. Собранные данные ценны для исследователей, но еще более они важны для самих участников исследования. В нашей зоне ответственности лежит задача убедиться, что мы не нарушаем принципы исследовательской этики и проявляем уважение к участникам на каждом из этапов.
Читать: https://habr.com/ru/post/687226/
MindsDB: First Try
Hi All!
Today has been a great day. Specially because I got to explore something fun and had got me back to setting up MySQL database on EC2 Instance. It has been a while I had done that. So, let's begin!
First off, exploration of MindsDB was comple...
Read: https://anushasridharan.in/mindsdb-first-try
Hi All!
Today has been a great day. Specially because I got to explore something fun and had got me back to setting up MySQL database on EC2 Instance. It has been a while I had done that. So, let's begin!
First off, exploration of MindsDB was comple...
Read: https://anushasridharan.in/mindsdb-first-try