Real-Time Energy Monitoring for Smart Buildings with MongoDB and HiveMQ
Read: https://www.mongodb.com/blog/post/real-time-energy-monitoring-smart-buildings-mongodb-hivemq
Read: https://www.mongodb.com/blog/post/real-time-energy-monitoring-smart-buildings-mongodb-hivemq
Breaking News from MongoDB.local NYC
Read: https://www.mongodb.com/blog/post/breaking-news-mongodb-local-nyc
Read: https://www.mongodb.com/blog/post/breaking-news-mongodb-local-nyc
Boosting Developer Productivity with MongoDB Compass Settings
Read: https://www.mongodb.com/blog/post/boosting-developer-productivity-compass-settings
Read: https://www.mongodb.com/blog/post/boosting-developer-productivity-compass-settings
Lleva al siguiente nivel tu estrategia de fijación de precios con MongoDB y Databricks
Read: https://www.mongodb.com/blog/post/fueling-pricing-strategies-mongodb-databricks-esp
Read: https://www.mongodb.com/blog/post/fueling-pricing-strategies-mongodb-databricks-esp
July edition of newsletter for Autonomous Database Serverless
We are continually adding new features to Autonomous Database Serverless. Over the LAST 12 MONTHS, over 200 NEW FEATURES have been added, and the latest updates include the following:
Read: https://blogs.oracle.com/datawarehousing/post/july-edition-of-newsletter-for-autonomous-database-serverless
We are continually adding new features to Autonomous Database Serverless. Over the LAST 12 MONTHS, over 200 NEW FEATURES have been added, and the latest updates include the following:
Read: https://blogs.oracle.com/datawarehousing/post/july-edition-of-newsletter-for-autonomous-database-serverless
Oracle
July edition of newsletter for Autonomous Database Serverless
We are continually adding new features to Autonomous Database Serverless. Over the LAST 12 MONTHS, over 200 NEW FEATURES have been added, and the latest updates include the following:
Архитектура аналитической платформы Modus BI: ETL
Начинаем цикл статей об архитектуре аналитических платформ. Поговорим об общем устройстве и подробнее остановимся на анатомии ETL на примере Modus. Вы узнаете, из каких компонентов состоит аналитическая система, откуда она получает и как работает с данными, и что мы в Modus делаем такого, чтобы оптимизировать эти процессы.
Читать: https://habr.com/ru/companies/modusbi/articles/747866/
Начинаем цикл статей об архитектуре аналитических платформ. Поговорим об общем устройстве и подробнее остановимся на анатомии ETL на примере Modus. Вы узнаете, из каких компонентов состоит аналитическая система, откуда она получает и как работает с данными, и что мы в Modus делаем такого, чтобы оптимизировать эти процессы.
Читать: https://habr.com/ru/companies/modusbi/articles/747866/
Переоткрывая хэш-индексы в PostgreSQL
Если вы работает с базами данных, то, скорее всего, знакомы с B-tree индексами. У них множество применений и они являются дефолтными типа индекса в большинстве движков баз данных. Если вы работаете с полнотекстовым поиском или пространственными данными, то скорее всего вы знакомы еще и с GIN и GIST индексами. Если вы работаете с массивными временными рядами, то слышали еще и о BRIN индексах.
Однако, есть еще один менее популярный тип, о котором большинство даже ничего не слышало. Пару версий PostgreSQL назад он был не то что даже непопулярен, но и строго не рекомендован к использованию. Однако в некоторых случаях он может обойти даже B-tree в плане производительности.
Сейчас мы переоткроем хэш-индекс!
Читать: https://habr.com/ru/articles/747910/
Если вы работает с базами данных, то, скорее всего, знакомы с B-tree индексами. У них множество применений и они являются дефолтными типа индекса в большинстве движков баз данных. Если вы работаете с полнотекстовым поиском или пространственными данными, то скорее всего вы знакомы еще и с GIN и GIST индексами. Если вы работаете с массивными временными рядами, то слышали еще и о BRIN индексах.
Однако, есть еще один менее популярный тип, о котором большинство даже ничего не слышало. Пару версий PostgreSQL назад он был не то что даже непопулярен, но и строго не рекомендован к использованию. Однако в некоторых случаях он может обойти даже B-tree в плане производительности.
Сейчас мы переоткроем хэш-индекс!
Читать: https://habr.com/ru/articles/747910/
Highload-приложения: технологии для обработки больших объемов данных и запросов
Рассказали, что такое highload-система, как она справляется с большими нагрузками на сервер и о других важных аспектах данной области.
Читать: «Highload-приложения: технологии для обработки больших объемов данных и запросов»
Рассказали, что такое highload-система, как она справляется с большими нагрузками на сервер и о других важных аспектах данной области.
Читать: «Highload-приложения: технологии для обработки больших объемов данных и запросов»
Tproger
Highload-приложения: обработка больших данных и запросов
Рассказали, что такое highload-система, как она справляется с большими нагрузками на сервер и о других важных аспектах данной области.
Переезд c PostgreSQL на YDB. Кейс сервиса Яндекс Игры
Привет! Меня зовут Александр Смолин. Я бэкенд-разработчик в команде Яндекс Игр. Уже два года мы используем YDB для задач сервиса. В статье расскажу, как мы в Яндекс Играх внедряли YDB, зачем это было нужно, с какими сложностями столкнулись и какие результаты у нас сейчас.
Читать: https://habr.com/ru/companies/yandex_cloud_and_infra/articles/747998/
Привет! Меня зовут Александр Смолин. Я бэкенд-разработчик в команде Яндекс Игр. Уже два года мы используем YDB для задач сервиса. В статье расскажу, как мы в Яндекс Играх внедряли YDB, зачем это было нужно, с какими сложностями столкнулись и какие результаты у нас сейчас.
Читать: https://habr.com/ru/companies/yandex_cloud_and_infra/articles/747998/
Ping пакеты как временное хранилище данных на python raw socket
Payload (данные) в ping пакете действительно есть, однако до реальной пользы им далеко - это английский алфавит (нет, я не испытываю ненависть к латинице, просто мне хотелось бы уметь редактировать это содержимое).
Читать: https://habr.com/ru/articles/748230/
Payload (данные) в ping пакете действительно есть, однако до реальной пользы им далеко - это английский алфавит (нет, я не испытываю ненависть к латинице, просто мне хотелось бы уметь редактировать это содержимое).
Читать: https://habr.com/ru/articles/748230/
Lock-free reservation in 23c: how to start with
This blog posting illustrates the basice of lock-free reservations in 23c
Read: https://blogs.oracle.com/coretec/post/lock-free-reservation-in-23c
This blog posting illustrates the basice of lock-free reservations in 23c
Read: https://blogs.oracle.com/coretec/post/lock-free-reservation-in-23c
Oracle
Lock free reservation in 23c
This blog posting is about lock free reservations in 23c
Tata Digital Harmonizes a Variety of Data, Powered by MongoDB Atlas
Read: https://www.mongodb.com/blog/post/tata-digital-harmonizes-variety-data-powered-mongodb-atlas
Read: https://www.mongodb.com/blog/post/tata-digital-harmonizes-variety-data-powered-mongodb-atlas
Oracle DatabaseWorld at CloudWorld 2023
Announcing Oracle DatabaseWorld at CloudWorld 2023 - the place for DatabaseWorld fans to get up-to-speed with the latest Oracle database technology and try it hands on.
Read: https://blogs.oracle.com/database/post/oracle-databaseworld-at-oracle-cloudworld-2023
Announcing Oracle DatabaseWorld at CloudWorld 2023 - the place for DatabaseWorld fans to get up-to-speed with the latest Oracle database technology and try it hands on.
Read: https://blogs.oracle.com/database/post/oracle-databaseworld-at-oracle-cloudworld-2023
Oracle
Oracle DatabaseWorld at Oracle CloudWorld 2023
Announcing the Oracle DatabaseWorld event at CloudWorld 2023 - the place for DatabaseWorld fans to get up-to-speed with the latest Oracle database technology and try it hands on.
Amplifying Retail Operations with Generative AI and Vector Search: The Unexplored Potential
Read: https://www.mongodb.com/blog/post/amplifying-retail-operations-generative-ai-vector-search
Read: https://www.mongodb.com/blog/post/amplifying-retail-operations-generative-ai-vector-search
KeyDB и Redis: в поисках серебряной пули — in-memory replicated DB (Replicated IMDB)
На кластерах клиентов, которые мы обслуживаем, есть как «одноголовые» инсталляции Redis (обычно для кэшей, которые не страшно потерять), так и более отказоустойчивые решения — Redis Sentinel или Redis Cluster. По нашему опыту, во всех трех вариантах можно безболезненно переключиться с Redis на KeyDB и получить прирост производительности. Точнее, избавиться от бутылочного горлышка Redis в одно ядро. Хотя в новых версиях Redis(r) появилась обработка I/O в отдельных тредах, иногда этого бывает недостаточно.
В то же время, если мы хотим использовать отказоустойчивые решениями вроде Sentinel и Cluster, нам понадобится поддержка этих технологий на уровне библиотеки, которую приложение использует для подключения в Redis. Причем лишь немногие библиотеки умеют читать из реплик Redis — в обоих вариантах (Sentinel и Cluster) чтение, как правило, происходит с мастеров. И запись, естественно, тоже происходит в мастеры.
В итоге у нас есть несколько реплик довольно дорогого in-memory-хранилища, а в рабочем процессе используется только часть из них. Остальные — на подхвате. Хотя в большинстве кейсов операции с in-memory NoSQL DB — это именно операции чтения.
Однако если посмотреть в сторону KeyDB, то можно увидеть, что там есть киллер-фича — и даже две: я говорю о режимах Active Replica и Multi-Master. Использование этих режимов позволяет получить распределенный отказоустойчивый KeyDB, совместимый с Redis, писать в любую ноду, читать из любой ноды. И все это с точки зрения приложения выглядит как один экземпляр Redis без всяких Sentinel — то есть в коде приложения ничего менять не придется.
Звучит как фантастика?
Читать: https://habr.com/ru/companies/flant/articles/747760/
На кластерах клиентов, которые мы обслуживаем, есть как «одноголовые» инсталляции Redis (обычно для кэшей, которые не страшно потерять), так и более отказоустойчивые решения — Redis Sentinel или Redis Cluster. По нашему опыту, во всех трех вариантах можно безболезненно переключиться с Redis на KeyDB и получить прирост производительности. Точнее, избавиться от бутылочного горлышка Redis в одно ядро. Хотя в новых версиях Redis(r) появилась обработка I/O в отдельных тредах, иногда этого бывает недостаточно.
В то же время, если мы хотим использовать отказоустойчивые решениями вроде Sentinel и Cluster, нам понадобится поддержка этих технологий на уровне библиотеки, которую приложение использует для подключения в Redis. Причем лишь немногие библиотеки умеют читать из реплик Redis — в обоих вариантах (Sentinel и Cluster) чтение, как правило, происходит с мастеров. И запись, естественно, тоже происходит в мастеры.
В итоге у нас есть несколько реплик довольно дорогого in-memory-хранилища, а в рабочем процессе используется только часть из них. Остальные — на подхвате. Хотя в большинстве кейсов операции с in-memory NoSQL DB — это именно операции чтения.
Однако если посмотреть в сторону KeyDB, то можно увидеть, что там есть киллер-фича — и даже две: я говорю о режимах Active Replica и Multi-Master. Использование этих режимов позволяет получить распределенный отказоустойчивый KeyDB, совместимый с Redis, писать в любую ноду, читать из любой ноды. И все это с точки зрения приложения выглядит как один экземпляр Redis без всяких Sentinel — то есть в коде приложения ничего менять не придется.
Звучит как фантастика?
Читать: https://habr.com/ru/companies/flant/articles/747760/
Как мы снизили нагрузку на SAP HANA незаметно для пользователей
Объем информации в корпоративном хранилище данных (КХД) со временем неизбежно начинает превышать запланированные изначально мощности. Обычно эта проблема решается тем, что докупаются недостающие мощности (будет дорого). Когда с такой ситуацией столкнулся наш клиент, мы предложили ему другое решение. Оно позволило сэкономить бюджеты и сделать переходный период максимально безболезненным.
Читайте, что именно мы сделали и какой был результат.
Читать: https://habr.com/ru/companies/sapiens_solutions/articles/747142/
Объем информации в корпоративном хранилище данных (КХД) со временем неизбежно начинает превышать запланированные изначально мощности. Обычно эта проблема решается тем, что докупаются недостающие мощности (будет дорого). Когда с такой ситуацией столкнулся наш клиент, мы предложили ему другое решение. Оно позволило сэкономить бюджеты и сделать переходный период максимально безболезненным.
Читайте, что именно мы сделали и какой был результат.
Читать: https://habr.com/ru/companies/sapiens_solutions/articles/747142/
Алгоритм быстрого поиска при помощи хэширования
В этой статье я хочу представить мой алгоритм оптимизации суммирования ряда чисел в массиве (на примере контейнера map).
Итак, дано задание
Есть некая электронная книга, которую одновременно читает неограниченное количество читателей. Нужно сделать так, чтобы любой читатель в любой момент мог проверить, сколько еще читателей читают ту же страницу, что и он. Предложена наивное решение хранить в map<int,int в качестве ключа номера страниц, в качестве значения- количество прочитавших их пользователей. Конечно, при таком подходе программа медленно работает с большими тестами потому, что количество итераций по контейнеру map равняется числу прочитанных пользователем страниц. То есть, если пользователь прочел 1000 страниц из 1000 возможных, то в цикле нужно будет сделать 1000 итераций, и это сильно замедляет программу.
Чтобы уменьшить время работы программы, нужно упростить алгоритм подсчета пользователей. В этом алгоритме я отдельно считаю, сколько пользователей прочли столько же полных сотен страниц, как и искомый читатель, и затем уже постранично суммирую всех, кто прочел столько же страниц из той сотни, на которой сейчас находится читатель. Такой алгоритм позволяет вместо 999 итераций (если пользователь читает 999-ю страницу) сделать всего 108 (9 итераций сотням и 99 по единичным страницам).
Это вкратце, теперь перейдем к подробному описанию и для начала приведу код.
больше информации
Читать: https://habr.com/ru/articles/749600/
В этой статье я хочу представить мой алгоритм оптимизации суммирования ряда чисел в массиве (на примере контейнера map).
Итак, дано задание
Есть некая электронная книга, которую одновременно читает неограниченное количество читателей. Нужно сделать так, чтобы любой читатель в любой момент мог проверить, сколько еще читателей читают ту же страницу, что и он. Предложена наивное решение хранить в map<int,int в качестве ключа номера страниц, в качестве значения- количество прочитавших их пользователей. Конечно, при таком подходе программа медленно работает с большими тестами потому, что количество итераций по контейнеру map равняется числу прочитанных пользователем страниц. То есть, если пользователь прочел 1000 страниц из 1000 возможных, то в цикле нужно будет сделать 1000 итераций, и это сильно замедляет программу.
Чтобы уменьшить время работы программы, нужно упростить алгоритм подсчета пользователей. В этом алгоритме я отдельно считаю, сколько пользователей прочли столько же полных сотен страниц, как и искомый читатель, и затем уже постранично суммирую всех, кто прочел столько же страниц из той сотни, на которой сейчас находится читатель. Такой алгоритм позволяет вместо 999 итераций (если пользователь читает 999-ю страницу) сделать всего 108 (9 итераций сотням и 99 по единичным страницам).
Это вкратце, теперь перейдем к подробному описанию и для начала приведу код.
больше информации
Читать: https://habr.com/ru/articles/749600/
Amplificando las Operaciones de Retail con IA Generativa y Búsqueda Vectorial: El Potencial Inexplorado
Read: https://www.mongodb.com/blog/post/amplifying-retail-operations-generative-ai-vector-search-esp
Read: https://www.mongodb.com/blog/post/amplifying-retail-operations-generative-ai-vector-search-esp
Какой у вас профессиональный уровень в IT?
Anonymous Poll
2%
Ещё не работаю в IT (учусь или хочу начать учиться)
0%
Intern / Стажёр
22%
Junior / Младший разработчик
27%
Middle / «Миддл»
14%
Senior / Старший разработчик
16%
(Team) Lead / Руководитель команды или ведущий разработчик
6%
Руководитель разработки, департамента, топ-менеджер
12%
Связан с IT, но не разработчик (дизайнер, продакт, аналитик и т.д.)
2%
Посмотреть результаты
Что такое обезличивание и с чем его едят?
Три года назад, весной 2020, пандемия COVID-19 только начиналась и все переходили в режим самоизоляции. Мы в один миг оказались в ситуации, когда у нас имеется огромное количество данных, доступ к которым можно получить лишь из офиса, в который, разумеется, невозможно попасть. Работать без доступа к документам не реально, нам критически необходимо продолжать размечать данные, а значит нужно разработать подход, при котором можно это делать удалённо. Именно тогда мы в очередной раз подняли тему, которая и так периодически возникала в наших обсуждениях: а так ли нам нужны настоящие данные? Ответ очевидный: нет, если мы сохраняем их вид (ФИО меняем на ФИО, адрес на адрес и т.д.). Этот процесс называется обезличиванием.
Читать: https://habr.com/ru/companies/sberbank/articles/749906/
Три года назад, весной 2020, пандемия COVID-19 только начиналась и все переходили в режим самоизоляции. Мы в один миг оказались в ситуации, когда у нас имеется огромное количество данных, доступ к которым можно получить лишь из офиса, в который, разумеется, невозможно попасть. Работать без доступа к документам не реально, нам критически необходимо продолжать размечать данные, а значит нужно разработать подход, при котором можно это делать удалённо. Именно тогда мы в очередной раз подняли тему, которая и так периодически возникала в наших обсуждениях: а так ли нам нужны настоящие данные? Ответ очевидный: нет, если мы сохраняем их вид (ФИО меняем на ФИО, адрес на адрес и т.д.). Этот процесс называется обезличиванием.
Читать: https://habr.com/ru/companies/sberbank/articles/749906/