Куда летит бизнес виртуального каршеринга — хостинга в России и Беларуси
Продавать хостинг - дело замысловатое, это не пирожки горячие, которые разлетаются в миг, тут период принятия решения от 0 до 30 дней, а длина последовательности от 12+ касаний перед покупкой. Разберемся в процессе. Что вы делаете перед выбором? Смотрите характеристики, изучаете отзывы, рейтинги, думаете, сопоставляете, спрашиваете знакомых, каким они доверяет сервисам, услугам, где живут их сайты. И это понятно, хостинг не перчатки, переход порой дается с трудом.
Кроме всего прочего, рынок хостинга - очень высококонкурентный, вот прочтете вы эту статью и увидите десяток новых предложений, рекламные технологии не спят, анализируют не только ваши запросы, но и контент, который вы изучаете. От этого никуда не деться, а паранойя - штука неприятная, порой можно и позволить системам заглянуть чем вы увлекаетесь, что уж тут, ведь без патогенной микрофлоры - никуда, надо смириться, что она существует здесь и сейчас.
Очевидно, что чем более развитый рынок, тем выше конкуренция, тем больше предложений, скидок, акций, программ лояльности, это говорит о зрелости маркета: цены снижаются, качество растет - все счастливы. Есть правда, партизанский маркетинг, незаконные методы покупки отзывов, управление репутацией, когда конкуренты специально пишут негатив друг на друга и прочее и прочее, такое тоже имеет место быть в период роста и падения конкретных компаний. И это тоже свидетельствует о высокой конкуренции. Итак, попробуем разобраться, на каком этапе своего развития находится рынок России и для сравнения, рынок Беларуси, посмотрим общедоступные косвенные и прямые метрики, указывающие на данный процесс. А также на какие услуги спрос растет, на какие падает и спрогнозируем ближайшее будущее в мире хранения данных. Проанализируем цены в РБ и почему они такие разные.
Тенденции
Читать: https://habr.com/ru/post/709918/
Продавать хостинг - дело замысловатое, это не пирожки горячие, которые разлетаются в миг, тут период принятия решения от 0 до 30 дней, а длина последовательности от 12+ касаний перед покупкой. Разберемся в процессе. Что вы делаете перед выбором? Смотрите характеристики, изучаете отзывы, рейтинги, думаете, сопоставляете, спрашиваете знакомых, каким они доверяет сервисам, услугам, где живут их сайты. И это понятно, хостинг не перчатки, переход порой дается с трудом.
Кроме всего прочего, рынок хостинга - очень высококонкурентный, вот прочтете вы эту статью и увидите десяток новых предложений, рекламные технологии не спят, анализируют не только ваши запросы, но и контент, который вы изучаете. От этого никуда не деться, а паранойя - штука неприятная, порой можно и позволить системам заглянуть чем вы увлекаетесь, что уж тут, ведь без патогенной микрофлоры - никуда, надо смириться, что она существует здесь и сейчас.
Очевидно, что чем более развитый рынок, тем выше конкуренция, тем больше предложений, скидок, акций, программ лояльности, это говорит о зрелости маркета: цены снижаются, качество растет - все счастливы. Есть правда, партизанский маркетинг, незаконные методы покупки отзывов, управление репутацией, когда конкуренты специально пишут негатив друг на друга и прочее и прочее, такое тоже имеет место быть в период роста и падения конкретных компаний. И это тоже свидетельствует о высокой конкуренции. Итак, попробуем разобраться, на каком этапе своего развития находится рынок России и для сравнения, рынок Беларуси, посмотрим общедоступные косвенные и прямые метрики, указывающие на данный процесс. А также на какие услуги спрос растет, на какие падает и спрогнозируем ближайшее будущее в мире хранения данных. Проанализируем цены в РБ и почему они такие разные.
Тенденции
Читать: https://habr.com/ru/post/709918/
MongoDB Named a Leader in 2022 Gartner® Magic Quadrant™ for Cloud Database Management Systems
Read: https://www.mongodb.com/blog/post/mongodb-named-leader-2022-gartner-magic-quadrant-cloud-database-management-systems
Read: https://www.mongodb.com/blog/post/mongodb-named-leader-2022-gartner-magic-quadrant-cloud-database-management-systems
Break Down Silos with a Data Mesh Approach to Omnichannel Retail
Read: https://www.mongodb.com/blog/post/break-down-silos-wdata-mesh-approach-omnichannel-retail
Read: https://www.mongodb.com/blog/post/break-down-silos-wdata-mesh-approach-omnichannel-retail
Build Analytics-Driven Apps with MongoDB Atlas and the Microsoft Intelligent Data Platform
Read: https://www.mongodb.com/blog/post/build-analytics-driven-apps-atlas-microsoft-intelligent-data-platform
Read: https://www.mongodb.com/blog/post/build-analytics-driven-apps-atlas-microsoft-intelligent-data-platform
Automate compliance reports with Oracle Data Safe
Oracle Data Safe, the unified control center for your Oracle databases, now provides the capability to schedule and automate audit reports so that the auditors periodically receive them at a scheduled frequency.
Read: https://blogs.oracle.com/database/post/automate-compliance-reporting-with-oracle-data-safe
Oracle Data Safe, the unified control center for your Oracle databases, now provides the capability to schedule and automate audit reports so that the auditors periodically receive them at a scheduled frequency.
Read: https://blogs.oracle.com/database/post/automate-compliance-reporting-with-oracle-data-safe
Oracle
Automate compliance reporting with Oracle Data Safe
Oracle Data Safe, the unified control center for your Oracle databases, now provides the capability to schedule and automate audit reports so that the auditors periodically receive them at a scheduled frequency.
MongoDB Is A Best Place to Work in 2023, According to Our Employees on Glassdoor
Read: https://www.mongodb.com/blog/post/mongodb-best-place-work-2023-according-employees-glassdoor
Read: https://www.mongodb.com/blog/post/mongodb-best-place-work-2023-according-employees-glassdoor
Top 3 Wins and Wants from the Latest TDWI Modernization Report
Read: https://www.mongodb.com/blog/post/top-three-wins-wants-from-latest-tdwi-modernization-report
Read: https://www.mongodb.com/blog/post/top-three-wins-wants-from-latest-tdwi-modernization-report
User Assistance Enhancements in 2022: Autonomous Database On Dedicated Exadata Infrastructure
In this blog, Anjani Pothula, User Assistance Lead for Autonomous Database on Dedicated Exadata Infrastructure, tries to glimpse UA implementations and updates made through 2022.
Read: https://blogs.oracle.com/database/post/2022-in-review-user-assistance-for-autonomous-database-on-dedicated-exadata-infrastructure
In this blog, Anjani Pothula, User Assistance Lead for Autonomous Database on Dedicated Exadata Infrastructure, tries to glimpse UA implementations and updates made through 2022.
Read: https://blogs.oracle.com/database/post/2022-in-review-user-assistance-for-autonomous-database-on-dedicated-exadata-infrastructure
Oracle
User Assistance Enhancements in 2022 for Autonomous Database On Dedicated Exadata Infrastructure
In this blog, Anjani Pothula, User Assistance Lead for Autonomous Database on Dedicated Exadata Infrastructure, tries to glimpse UA implementations and updates made through 2022.
Жарим TOAST в PostgreSQL
У нас не подгорит!
Как PostgreSQL хранит большие значения столбцов? Какие явные и неявные ограничения есть у существующего механизма хранения? Что за проблемы вызваны этими ограничениями? И как можно решить эти проблемы, и расширить возможности PostgreSQL? Об этом, и чуть больше - данная статья.
Читать: https://habr.com/ru/post/710104/
У нас не подгорит!
Как PostgreSQL хранит большие значения столбцов? Какие явные и неявные ограничения есть у существующего механизма хранения? Что за проблемы вызваны этими ограничениями? И как можно решить эти проблемы, и расширить возможности PostgreSQL? Об этом, и чуть больше - данная статья.
Читать: https://habr.com/ru/post/710104/
Introducing MongoDB Connector for Apache Kafka version 1.9
Read: https://www.mongodb.com/blog/post/introducing-mongodb-connector-apache-kafka-version-1-9
Read: https://www.mongodb.com/blog/post/introducing-mongodb-connector-apache-kafka-version-1-9
Резервное копирование и восстановление СУБД PostgreSQL
Резервное копирование является одной из основных задач администрирования баз данных. Отсутствие бэкапа может привести к катастрофическим последствиям при эксплуатации базы данных. Однако недостаточно только настроить регулярное создание резервных копий, необходимо также регулярно проверять созданные копии на способность к восстановлению БД. В этой статье мы поговорим от том, как правильно настраивать резервное копирование в БД PostgreSQL.
Читать: https://habr.com/ru/post/710094/
Резервное копирование является одной из основных задач администрирования баз данных. Отсутствие бэкапа может привести к катастрофическим последствиям при эксплуатации базы данных. Однако недостаточно только настроить регулярное создание резервных копий, необходимо также регулярно проверять созданные копии на способность к восстановлению БД. В этой статье мы поговорим от том, как правильно настраивать резервное копирование в БД PostgreSQL.
Читать: https://habr.com/ru/post/710094/
Improving Building Sustainability with MongoDB Atlas and Bosch
Read: https://www.mongodb.com/blog/post/improving-building-sustainability-mongodb-atlas-bosch
Read: https://www.mongodb.com/blog/post/improving-building-sustainability-mongodb-atlas-bosch
Obsidian + Dataview: Таблицы
На статью меня вдохновил этот комментарий .
Dataview - это мощный плагин для Obsidian позволяющий отбирать данные (теги, даты, числа и любые другие пользовательские параметры) markdown-заметок, а затем их фильтровать и отбирать как пожелаешь.
Это такой своеобразный аналог Notion-таблиц, где можно создать таблицу с бесконечной вложенностью (таблица, внутри одной ячейки, а внутри еще таблица и еще и еще).
На КДПВ как раз собраны четыре кейса реализации функционала плагина Dataview.
Как всё это работает
1. Dataview работает на встроенном языке запросов
2. Все запросы должны писаться внутри подобного блока кода:
А разбирать каждый кейс будем под катом.
Читать: https://habr.com/ru/post/710356/
На статью меня вдохновил этот комментарий .
Dataview - это мощный плагин для Obsidian позволяющий отбирать данные (теги, даты, числа и любые другие пользовательские параметры) markdown-заметок, а затем их фильтровать и отбирать как пожелаешь.
Это такой своеобразный аналог Notion-таблиц, где можно создать таблицу с бесконечной вложенностью (таблица, внутри одной ячейки, а внутри еще таблица и еще и еще).
На КДПВ как раз собраны четыре кейса реализации функционала плагина Dataview.
Как всё это работает
1. Dataview работает на встроенном языке запросов
2. Все запросы должны писаться внутри подобного блока кода:
А разбирать каждый кейс будем под катом.
Читать: https://habr.com/ru/post/710356/
Telegram-бот счётчик сообщений на Java и Spring Boot
Пишем простой Телеграм-бот на Java, который будет подсчитывать сообщения от пользователей чата и записывать их в БД через PostgreSQL.
Читать: «Telegram-бот счётчик сообщений на Java и Spring Boot»
Пишем простой Телеграм-бот на Java, который будет подсчитывать сообщения от пользователей чата и записывать их в БД через PostgreSQL.
Читать: «Telegram-бот счётчик сообщений на Java и Spring Boot»
👍1
What is a Converged Database?
A converged database is a database that has native support for all modern data types and the latest development paradigms built into one product. A converged database does not mean data must be in one monolithic database. A converged database enables you to choose your data architecture for each application. You decide when to consolidate data into fewer databases and when a fully distributed design is best.
Read: https://blogs.oracle.com/database/post/what-is-a-converged-database
A converged database is a database that has native support for all modern data types and the latest development paradigms built into one product. A converged database does not mean data must be in one monolithic database. A converged database enables you to choose your data architecture for each application. You decide when to consolidate data into fewer databases and when a fully distributed design is best.
Read: https://blogs.oracle.com/database/post/what-is-a-converged-database
Oracle
What is a Converged Database?
A converged database is a database that has native support for all modern data types and the latest development paradigms built into one product. A converged database does not mean data must be in one monolithic database. A converged database enables you…
PostgreSQL Antipatterns: Индиана Джонс и максимальное значение ключа, или В поисках «последних» записей
Сегодняшняя задача вполне традиционна для любых учетных систем - поиск записей, содержащих максимальное значение по каждому из ключей. Что-то вроде "покажи мне последний заказ по каждому из клиентов", если переводить в прикладную область.
Кажется, что тут и споткнуться-то негде в реализации - но все оказывается совсем не тривиально.
Читать: https://habr.com/ru/post/710400/
Сегодняшняя задача вполне традиционна для любых учетных систем - поиск записей, содержащих максимальное значение по каждому из ключей. Что-то вроде "покажи мне последний заказ по каждому из клиентов", если переводить в прикладную область.
Кажется, что тут и споткнуться-то негде в реализации - но все оказывается совсем не тривиально.
Читать: https://habr.com/ru/post/710400/
👍1
Autonomous Database on Dedicated Exadata Infrastructure 2022 End of Year Roundup
In this blog post we take a look at 2022 in retrospective and report on the progress we made on key Autonomous Database features for our customers.
Read: https://blogs.oracle.com/database/post/adb-d-2022-end-of-year-roundup
In this blog post we take a look at 2022 in retrospective and report on the progress we made on key Autonomous Database features for our customers.
Read: https://blogs.oracle.com/database/post/adb-d-2022-end-of-year-roundup
Oracle
Autonomous Database on Dedicated Exadata Infrastructure 2022 End of Year Roundup
In this blog post we take a look at 2022 in retrospective and report on all the progress we made on key ADB-D features for our customers.
Зелёным вайтишникам: можно ли обойтись единственной таблицей?
Представим: есть одна большая главная таблица в базе данных. В эту таблицу пихают самые разные сущности: телеметрические атрибуты, ширину колонок отчётов, ссылки на справочники транслитерации, перечень команд станков ЧПУ, пути к иконкам для кнопок и пр. Это пример того, как делать не нужно.
Но если тема одной сверх-таблицы всё-таки всплывает в обсуждениях, может это всё-таки где-то применимо? Принцип одной таблицы чаще предлагается, когда пишут про такие штуки, как Activity Scheme и Event Sourcing.
Статьи чаще содержат только теоретические рассуждения этих концепций, иногда пишутся с позиции системного аналитика. Сейчас рассмотрим примеры с позиции программиста. Я не люблю абстрактные вузовские примеры, поэтому будут два сценария использования с моих мест работы: обработка маркированного товара (привет, «Честный знак»!) и телеметрия сети вендинговых устройств.
Статья ориентирована на совсем зелёных новичков, только прошедших курсы по базам данных и не видевших рабочих будней. В статье только структура таблиц, SQL-запросы и, конечно же, поговорим о размерах, если вы понимаете о чём я.
Статью нельзя назвать короткой!
Читать: https://habr.com/ru/post/710662/
Представим: есть одна большая главная таблица в базе данных. В эту таблицу пихают самые разные сущности: телеметрические атрибуты, ширину колонок отчётов, ссылки на справочники транслитерации, перечень команд станков ЧПУ, пути к иконкам для кнопок и пр. Это пример того, как делать не нужно.
Но если тема одной сверх-таблицы всё-таки всплывает в обсуждениях, может это всё-таки где-то применимо? Принцип одной таблицы чаще предлагается, когда пишут про такие штуки, как Activity Scheme и Event Sourcing.
Статьи чаще содержат только теоретические рассуждения этих концепций, иногда пишутся с позиции системного аналитика. Сейчас рассмотрим примеры с позиции программиста. Я не люблю абстрактные вузовские примеры, поэтому будут два сценария использования с моих мест работы: обработка маркированного товара (привет, «Честный знак»!) и телеметрия сети вендинговых устройств.
Статья ориентирована на совсем зелёных новичков, только прошедших курсы по базам данных и не видевших рабочих будней. В статье только структура таблиц, SQL-запросы и, конечно же, поговорим о размерах, если вы понимаете о чём я.
Статью нельзя назвать короткой!
Читать: https://habr.com/ru/post/710662/
Как изучить SQL за 2 месяца. План обучения
То, что данные называют нефтью 21 века известно уже давно: на них учатся нейросети, их мгновенная обработка и передача сильно упростили нашу жизнь, и одной из самых распространенных структур хранения данных является реляционная. Именно с ней знакомы большинство разработчиков и, скорее всего, знания как с ней работать вам тоже понадобятся.
Основным инструментом для взаимодействия с реляционными БД является структурированный язык запросов или же SQL.
Читать: https://habr.com/ru/post/709116/
То, что данные называют нефтью 21 века известно уже давно: на них учатся нейросети, их мгновенная обработка и передача сильно упростили нашу жизнь, и одной из самых распространенных структур хранения данных является реляционная. Именно с ней знакомы большинство разработчиков и, скорее всего, знания как с ней работать вам тоже понадобятся.
Основным инструментом для взаимодействия с реляционными БД является структурированный язык запросов или же SQL.
Читать: https://habr.com/ru/post/709116/
Лучший формат данных, для хранения pandas.DataFrame
Привет, Хабр!
Меня зовут Вадим Москаленко и я разработчик инновационных технологий Страхового Дома ВСК. В этой статье, хочу поделится с вами, информацией в области хранения данных.
На сегодняшний день существует огромное количество форматов для хранения данных, и, используя библиотеку Pandas при обработке большого объёма данных, возникает вопрос – а какой формат, с которыми Pandas работает «из коробки», даст наибольшую производительность, при дальнейшем использовании, обработанного DataFrame?
Ремарка: поиск информации по этой теме, привёл меня к репозиторию, за авторством Devforfu (ссылка), но так как информация в нём датируется 2019 годом, а за этот период вышло множество обновлений, я решил написать «свежий» бенчмарк, основываясь на принципах автора – ссылка на обновленный бенчмарк. Отмечу, что из-за слишком большой разницы в полученных результатах, я склоняюсь к тому, что мог совершить ошибку, поэтому далее в статье будет указана информация по оригиналу.
В качестве тестируемых форматов использовались следующие варианты: CSV (как самый популярный текстовый формат), Pickle, Feather, Parquet, Msgpack, HDF. Для сравнения будем использовать следующие метрики: размер сериализованного файла, время загрузки DataFrame из файла, время сохранения DataFrame в файл, потребление оперативной памяти при сохранении и загрузке DataFrame.
Тестовые данные – сгенерированный DataFrame с 1 миллионом строк, 15 столбцами цифр и 15 столбцами строковых значений. Генерация численных данных проводилась с помощью numpy. random.normal, в качестве строчных данных использовались UUID. С появлением в Pandas, категориального типа данных (Categorical data), который использует гораздо меньше памяти и более производительней в обработке (обширный материал для другой статьи), интересно также сравнить насколько изменится производительность форматов, поэтому ещё одним этапом сравнения в тестовых данных стал перевод формата «object» к формату «category».
Читать: https://habr.com/ru/post/710798/
Привет, Хабр!
Меня зовут Вадим Москаленко и я разработчик инновационных технологий Страхового Дома ВСК. В этой статье, хочу поделится с вами, информацией в области хранения данных.
На сегодняшний день существует огромное количество форматов для хранения данных, и, используя библиотеку Pandas при обработке большого объёма данных, возникает вопрос – а какой формат, с которыми Pandas работает «из коробки», даст наибольшую производительность, при дальнейшем использовании, обработанного DataFrame?
Ремарка: поиск информации по этой теме, привёл меня к репозиторию, за авторством Devforfu (ссылка), но так как информация в нём датируется 2019 годом, а за этот период вышло множество обновлений, я решил написать «свежий» бенчмарк, основываясь на принципах автора – ссылка на обновленный бенчмарк. Отмечу, что из-за слишком большой разницы в полученных результатах, я склоняюсь к тому, что мог совершить ошибку, поэтому далее в статье будет указана информация по оригиналу.
В качестве тестируемых форматов использовались следующие варианты: CSV (как самый популярный текстовый формат), Pickle, Feather, Parquet, Msgpack, HDF. Для сравнения будем использовать следующие метрики: размер сериализованного файла, время загрузки DataFrame из файла, время сохранения DataFrame в файл, потребление оперативной памяти при сохранении и загрузке DataFrame.
Тестовые данные – сгенерированный DataFrame с 1 миллионом строк, 15 столбцами цифр и 15 столбцами строковых значений. Генерация численных данных проводилась с помощью numpy. random.normal, в качестве строчных данных использовались UUID. С появлением в Pandas, категориального типа данных (Categorical data), который использует гораздо меньше памяти и более производительней в обработке (обширный материал для другой статьи), интересно также сравнить насколько изменится производительность форматов, поэтому ещё одним этапом сравнения в тестовых данных стал перевод формата «object» к формату «category».
Читать: https://habr.com/ru/post/710798/