Learn about Oracle Text
Oracle Text has been described as "Oracle's best-kept secret". A powerful full-text search engine, built in to the Oracle Database.
Read: https://blogs.oracle.com/database/post/learn-about-oracle-text
Oracle Text has been described as "Oracle's best-kept secret". A powerful full-text search engine, built in to the Oracle Database.
Read: https://blogs.oracle.com/database/post/learn-about-oracle-text
Oracle
Learn about Oracle Text
Oracle Text has been described as
Fourth Quarterly Update on Oracle Graph (2023)
Oracle Graph Server and Client 23.4 is now available. This release includes a PGQL function to validate the vertices and edges of a graph a PGQL function to aggregate values into a JSON array, the ability to create a new graph from an existing one, and more.
Read: https://blogs.oracle.com/database/post/fourth-quarterly-update-on-oracle-graph-2023
Oracle Graph Server and Client 23.4 is now available. This release includes a PGQL function to validate the vertices and edges of a graph a PGQL function to aggregate values into a JSON array, the ability to create a new graph from an existing one, and more.
Read: https://blogs.oracle.com/database/post/fourth-quarterly-update-on-oracle-graph-2023
Powering Network Topology Planning and Administration with Oracle Graph
Modeling network topologies as a graph enhances performance and enable many different kinds of applications.
Read: https://blogs.oracle.com/database/post/powering-network-topology-planning-and-administration-with-oracle-graph
Modeling network topologies as a graph enhances performance and enable many different kinds of applications.
Read: https://blogs.oracle.com/database/post/powering-network-topology-planning-and-administration-with-oracle-graph
Как автоматизировать проверки данных в Airflow с Great Expectations
В приведённой ниже статье подробно описывается, как настроить интеграцию инструмента Great Expectations для проверки качества данных с платформой Apache Airflow. Вы узнаете о различных методах запуска проверок с использованием Airflow, о том, как хранить конфигурационные файлы Great Expectations, а также о потенциальных сложностях, с которыми вы можете столкнуться при первоначальной настройке.
Автор делится ценным практическим опытом, полученным в процессе внедрения этих решений в одном из крупных российских банков.
Читать: https://habr.com/ru/companies/banki/articles/773884/
В приведённой ниже статье подробно описывается, как настроить интеграцию инструмента Great Expectations для проверки качества данных с платформой Apache Airflow. Вы узнаете о различных методах запуска проверок с использованием Airflow, о том, как хранить конфигурационные файлы Great Expectations, а также о потенциальных сложностях, с которыми вы можете столкнуться при первоначальной настройке.
Автор делится ценным практическим опытом, полученным в процессе внедрения этих решений в одном из крупных российских банков.
Читать: https://habr.com/ru/companies/banki/articles/773884/
❤1
Трансляция графических HANA Calculation View в SQL, или как переехать так, чтобы ничего не поменялось
Повинуясь всеобщей тенденции и следуя духу времени, мы в Норникеле переводим расчёты нашего хранилища на уровень БД. Так мы ускоряем обработку данных и формирование отчётности, да и система работает стабильнее.
Но пока мы оптимизируем и переносим "классический" код в базу, запрашиваемые заказчиком алгоритмы усложняются, а обрабатываемых данных становится больше. Чтобы склонить чашу весов на нашу сторону в этом извечном противостоянии мы решили применить новый метод!
Читать: https://habr.com/ru/companies/nornickel/articles/774566/
Повинуясь всеобщей тенденции и следуя духу времени, мы в Норникеле переводим расчёты нашего хранилища на уровень БД. Так мы ускоряем обработку данных и формирование отчётности, да и система работает стабильнее.
Но пока мы оптимизируем и переносим "классический" код в базу, запрашиваемые заказчиком алгоритмы усложняются, а обрабатываемых данных становится больше. Чтобы склонить чашу весов на нашу сторону в этом извечном противостоянии мы решили применить новый метод!
Читать: https://habr.com/ru/companies/nornickel/articles/774566/
Обзор Чипа Внешней I2C Памяти AT24Cхх
AT24C02M5/TR это EEPROM на 256 байт с доступом по двухпроводному проводному синхронному последовательному интерфейсу I2C.
В разработке электронных плат часто надо подписывать электронные платы каким-то серийным номером. Это нужно для идентификации платы при серийном производстве.
Внешние чипы памяти особенно важны так как прошивку могут полностью стереть. В связи с этим хранить серийный номер на микроконтроллере внутри on-chip NOR-Flash самого микроконтроллера ненадежно.
Читать: https://habr.com/ru/articles/774624/
AT24C02M5/TR это EEPROM на 256 байт с доступом по двухпроводному проводному синхронному последовательному интерфейсу I2C.
В разработке электронных плат часто надо подписывать электронные платы каким-то серийным номером. Это нужно для идентификации платы при серийном производстве.
Внешние чипы памяти особенно важны так как прошивку могут полностью стереть. В связи с этим хранить серийный номер на микроконтроллере внутри on-chip NOR-Flash самого микроконтроллера ненадежно.
Читать: https://habr.com/ru/articles/774624/
Своё облако на CasaOS
В последнее время я всё чаще задумывался о создании собственного домашнего облака. Я решил исследовать различные варианты операционных систем, специально предназначенных для домашних серверов. В моем поиске я рассмотрел несколько популярных решений, таких как TrueNAS и OpenMediaVault (OMV), каждое из которых предлагало свои уникальные функции и возможности. Однако, несмотря на их многочисленные преимущества, я искал что-то еще более простое и гибкое в настройке. И вот тогда я наткнулся на CasaOS – легковесную и интуитивно понятную операционную систему, которая идеально подошла для моих целей. В этой статье я поделюсь своим опытом работы с CasaOS, расскажу о ее особенностях, возможностях и преимуществах, которые сделали её идеальным решением для моего домашнего облака.
Читать: https://habr.com/ru/articles/774952/
В последнее время я всё чаще задумывался о создании собственного домашнего облака. Я решил исследовать различные варианты операционных систем, специально предназначенных для домашних серверов. В моем поиске я рассмотрел несколько популярных решений, таких как TrueNAS и OpenMediaVault (OMV), каждое из которых предлагало свои уникальные функции и возможности. Однако, несмотря на их многочисленные преимущества, я искал что-то еще более простое и гибкое в настройке. И вот тогда я наткнулся на CasaOS – легковесную и интуитивно понятную операционную систему, которая идеально подошла для моих целей. В этой статье я поделюсь своим опытом работы с CasaOS, расскажу о ее особенностях, возможностях и преимуществах, которые сделали её идеальным решением для моего домашнего облака.
Читать: https://habr.com/ru/articles/774952/
❤1
Clickhouse, Grafana и 3000 графиков. Как построить систему быстрых дашбордов
Меня зовут Валя Борисов, и я — аналитик в команде Ozon. Задача нашей команды — создавать инструменты для мониторинга и анализа скорости.
Наши усилия направлены на то, чтобы в реальном времени следить за тем, как быстро работают наши сервисы и платформа. Благодаря инструментам, которые мы создаём и поддерживаем, команды разработки получают представление о том, как пользователи видят работу нашего сайта или приложения. Мы помогаем выявлять причины деградации скорости и определять узкие места в инфраструктуре.
Наши дашборды играют ключевую роль в предоставлении информации о скорости работы платформы. Вместе с командой аналитиков я занимаюсь созданием и поддержкой этой системы в Grafana. Мы стремимся делать ее не только информативной, но и быстрой, стабильной и удобной для всех пользователей. В этой статье я хочу поделиться методами и приемами, к которым мы пришли в процессе работы.
Читать: https://habr.com/ru/companies/ozontech/articles/774712/
Меня зовут Валя Борисов, и я — аналитик в команде Ozon. Задача нашей команды — создавать инструменты для мониторинга и анализа скорости.
Наши усилия направлены на то, чтобы в реальном времени следить за тем, как быстро работают наши сервисы и платформа. Благодаря инструментам, которые мы создаём и поддерживаем, команды разработки получают представление о том, как пользователи видят работу нашего сайта или приложения. Мы помогаем выявлять причины деградации скорости и определять узкие места в инфраструктуре.
Наши дашборды играют ключевую роль в предоставлении информации о скорости работы платформы. Вместе с командой аналитиков я занимаюсь созданием и поддержкой этой системы в Grafana. Мы стремимся делать ее не только информативной, но и быстрой, стабильной и удобной для всех пользователей. В этой статье я хочу поделиться методами и приемами, к которым мы пришли в процессе работы.
Читать: https://habr.com/ru/companies/ozontech/articles/774712/
Как был создан потоковый SQL-движок
Возможно, вы как раз их тех, кто, просыпаясь каждое утро, задаёт себе три самых вечных жизненных вопроса: 1) как мне сделать потоковый SQL-движок? 2) Что это такое – потоковый SQL-движок? 3) Способен ли Господь наш сбрасывать те таблицы, коими владеет иной пользователь?
Я тоже ловил себя на том, что задаю себе эти вопросы, и порой они не оставляют меня даже во сне. Мне снятся различные SQL-операторы, которые тычут в меня пальцем, насмехаются над моей некомпетентностью, а я умоляю их, чтобы они ответили на эти вопросы.
Так вот, где-то год назад я (довольно смело, если «смелость» - это вообще про меня) снарядился как следует и пустился в долгий и тернистый путь, искать ответы на эти вопросы. Я шёл от монаха к пресвитеру, а от того – к жрецу макаронного монстра, и только в ужасе осознавал, сколь жалкие вопросы их занимают – например, каков смысл жизни, и как обрести мир с самим собой. Но, в конце концов, потерявшись в глубочайших расщелинах моего разума, я набрёл на часовенку, над входом которой значилось: “Epsio Labs”. Тут я преисполнился откровения и вошёл в двери этого храма.
Друзья, сегодня я поделюсь с вами теми таинствами, которые познал там (за исключением тех, что подпадают под многочисленные NDA).
Читать: https://habr.com/ru/articles/775156/
Возможно, вы как раз их тех, кто, просыпаясь каждое утро, задаёт себе три самых вечных жизненных вопроса: 1) как мне сделать потоковый SQL-движок? 2) Что это такое – потоковый SQL-движок? 3) Способен ли Господь наш сбрасывать те таблицы, коими владеет иной пользователь?
Я тоже ловил себя на том, что задаю себе эти вопросы, и порой они не оставляют меня даже во сне. Мне снятся различные SQL-операторы, которые тычут в меня пальцем, насмехаются над моей некомпетентностью, а я умоляю их, чтобы они ответили на эти вопросы.
Так вот, где-то год назад я (довольно смело, если «смелость» - это вообще про меня) снарядился как следует и пустился в долгий и тернистый путь, искать ответы на эти вопросы. Я шёл от монаха к пресвитеру, а от того – к жрецу макаронного монстра, и только в ужасе осознавал, сколь жалкие вопросы их занимают – например, каков смысл жизни, и как обрести мир с самим собой. Но, в конце концов, потерявшись в глубочайших расщелинах моего разума, я набрёл на часовенку, над входом которой значилось: “Epsio Labs”. Тут я преисполнился откровения и вошёл в двери этого храма.
Друзья, сегодня я поделюсь с вами теми таинствами, которые познал там (за исключением тех, что подпадают под многочисленные NDA).
Читать: https://habr.com/ru/articles/775156/
❤1
Building AI with MongoDB: Improving Productivity with WINN.AI’s Virtual Sales Assistant
WINN.AI is a company that uses AI-powered virtual sales assistants to improve productivity for sales teams. These assistants join virtual meetings, interpret customer questions, provide information to salespeople, and update the CRM system. WINN.AI uses advanced models for speech recognition, entity extraction, and meeting summarization, with MongoDB Atlas as the data layer. MongoDB was chosen for its flexibility in storing and querying data. The company plans to expand the application's capabilities with MongoDB's Atlas Search and Stream Processing features. The text emphasizes the importance of finding suitable models, training machine learning models with high-quality data, and using vector search for locating data points in multi-dimensional spaces. It discusses the historical development and increasing popularity of vector search and the use of large language models. The text concludes by mentioning the challenges of handling and storing large quantities of vectors and the transformative potential of vector embeddings and advanced search processes.
Read: https://www.mongodb.com/blog/post/building-ai-mongodb-improving-productivity-winnais-virtual-sales-assistant
WINN.AI is a company that uses AI-powered virtual sales assistants to improve productivity for sales teams. These assistants join virtual meetings, interpret customer questions, provide information to salespeople, and update the CRM system. WINN.AI uses advanced models for speech recognition, entity extraction, and meeting summarization, with MongoDB Atlas as the data layer. MongoDB was chosen for its flexibility in storing and querying data. The company plans to expand the application's capabilities with MongoDB's Atlas Search and Stream Processing features. The text emphasizes the importance of finding suitable models, training machine learning models with high-quality data, and using vector search for locating data points in multi-dimensional spaces. It discusses the historical development and increasing popularity of vector search and the use of large language models. The text concludes by mentioning the challenges of handling and storing large quantities of vectors and the transformative potential of vector embeddings and advanced search processes.
Read: https://www.mongodb.com/blog/post/building-ai-mongodb-improving-productivity-winnais-virtual-sales-assistant
Learn about the newest features available in MariaDB Community Server 11.2 (GA) and 11.3 (RC).
Read: https://mariadb.com/?p=38334
Read: https://mariadb.com/?p=38334
Late October's newsletter for Autonomous Database
Slight change this month because this newsletter brings together new features across all three deployment choices: Serverless. Dedicated, and Cloud@Customer. So here are the latest updates for Autonomous Database...
Read: https://blogs.oracle.com/datawarehousing/post/late-octobers-newsletter-for-autonomous-database
Slight change this month because this newsletter brings together new features across all three deployment choices: Serverless. Dedicated, and Cloud@Customer. So here are the latest updates for Autonomous Database...
Read: https://blogs.oracle.com/datawarehousing/post/late-octobers-newsletter-for-autonomous-database
Oracle
Late October's newsletter for Autonomous Database
Slight change this month because this newsletter brings together new features across all three deployment choices: Serverless. Dedicated, and Cloud@Customer. So here are the latest updates for Autonomous Database...
Announcing Oracle APEX 23.2 Availability
Announcement blog post for Oracle APEX 23.2 availability
Read: https://blogs.oracle.com/apex/post/announcing-oracle-apex-232
Announcement blog post for Oracle APEX 23.2 availability
Read: https://blogs.oracle.com/apex/post/announcing-oracle-apex-232
23c Deep Dive - In-Memory Vector Join Enhancements
In Oracle Database 23c In-Memory Deep Vectorization has been expanded to support the following additional join types: Multi-level hash joins, Multi join key, Semi joins, Outer joins, Full group by aggregation. This enhancement enables additional performance by leveraging Single Instruction Multiple Data (SIMD) vector instructions.
Read: https://blogs.oracle.com/in-memory/post/23c-im-vector-joins
In Oracle Database 23c In-Memory Deep Vectorization has been expanded to support the following additional join types: Multi-level hash joins, Multi join key, Semi joins, Outer joins, Full group by aggregation. This enhancement enables additional performance by leveraging Single Instruction Multiple Data (SIMD) vector instructions.
Read: https://blogs.oracle.com/in-memory/post/23c-im-vector-joins
Oracle
Oracle Database 23c In-Memory Deep Vectorization Enhancements
In Oracle Database 23c In-Memory Deep Vectorization has been expanded to support the following additional join types: Multi-level hash joins, Multi join key, Semi joins, Outer joins, Full group by aggregation. This enhancement enables additional performance…
Выбор СУБД: шпаргалка, чтобы не запутаться
Вопрос выбора СУБД для российской компании или госоргана – вопрос не праздный, тем более сейчас – когда с момента ухода с рынка западных вендоров прошло уже полтора года и пора что-то решать. Но как не запутаться в номенклатуре СУБД и выбрать ту, которая лучше всего подходит? Без ложной скромности скажу: мы в «Кругах Громова» уже немного поднаторели в систематизации, поэтому надеемся, что наша шпаргалка для тех, кто хочет выбрать СУБД, окажется полезной.
Начнем с классики. СУБД делятся на несколько типов. Не будем описывать их подробно, остановимся только на их основном предназначении.
Читать: https://habr.com/ru/articles/775574/
Вопрос выбора СУБД для российской компании или госоргана – вопрос не праздный, тем более сейчас – когда с момента ухода с рынка западных вендоров прошло уже полтора года и пора что-то решать. Но как не запутаться в номенклатуре СУБД и выбрать ту, которая лучше всего подходит? Без ложной скромности скажу: мы в «Кругах Громова» уже немного поднаторели в систематизации, поэтому надеемся, что наша шпаргалка для тех, кто хочет выбрать СУБД, окажется полезной.
Начнем с классики. СУБД делятся на несколько типов. Не будем описывать их подробно, остановимся только на их основном предназначении.
Читать: https://habr.com/ru/articles/775574/
🥰1
Организуем High Availability PostgreSQL
Чтобы система долго работала без сбоев и перерывов, нужно поработать над отказоустойчивостью. В статье дадим несколько способов её построить и покажем готовое решение.
Читать: https://habr.com/ru/companies/avito/articles/775922/
Чтобы система долго работала без сбоев и перерывов, нужно поработать над отказоустойчивостью. В статье дадим несколько способов её построить и покажем готовое решение.
Читать: https://habr.com/ru/companies/avito/articles/775922/
Кейс: как мы доработали SLA с помощью ETL
Привет, Хабр.
Мы с командой Modus решили один из внутренних кейсов по учету времени на решение и статусов задач. В этой статье я расскажу, как мы применили для этого ETL и сэкономили 80% времени и ресурсов на кастомизацию таск-трекера. Если у вас есть ETL – берите на вооружение.
Читать: https://habr.com/ru/companies/modusbi/articles/776248/
Привет, Хабр.
Мы с командой Modus решили один из внутренних кейсов по учету времени на решение и статусов задач. В этой статье я расскажу, как мы применили для этого ETL и сэкономили 80% времени и ресурсов на кастомизацию таск-трекера. Если у вас есть ETL – берите на вооружение.
Читать: https://habr.com/ru/companies/modusbi/articles/776248/
❤1
Вредные советы: как самостоятельно внедрить DWH и потратить впустую деньги и время
DWH — это единый репозиторий структурированных данных для построения бизнес-аналитики, отчётов и обеспечения исторического анализа данных.
Многие компании осознают необходимость создания корпоративного хранилища, но не все понимают, что внедрение DWH при неграмотном, спешном подходе может стать дорогим удовольствием, только усугубляющим проблемы в работе с данными.
Читать: https://habr.com/ru/articles/776258/
DWH — это единый репозиторий структурированных данных для построения бизнес-аналитики, отчётов и обеспечения исторического анализа данных.
Многие компании осознают необходимость создания корпоративного хранилища, но не все понимают, что внедрение DWH при неграмотном, спешном подходе может стать дорогим удовольствием, только усугубляющим проблемы в работе с данными.
Читать: https://habr.com/ru/articles/776258/
✍2❤1
Оптимизация запроса и запрос оптимизации
Как не грабить память, не пытать диск, не мучать кластер. Или делать все это всего одним запросом на Impala к Hadoop.
Среди задач аналитиков данных, в рамках которых необходимо иметь дело с большими объемами однотипных данных, выделяются задачи построения витрин данных, автоматизации процессов сбора и обработки данных. Многие аналитики используют различные реляционные базы данных, в таблицах которых хранятся огромные объемы информации, агрегация и доступ к которым может занимать долгое время, поэтому правильное составление и оптимизация запросов к этим таблицам становится критически необходимым фактором для работы аналитиков, инженеров данных и data scientist.
Читать: https://habr.com/ru/articles/776398/
Как не грабить память, не пытать диск, не мучать кластер. Или делать все это всего одним запросом на Impala к Hadoop.
Среди задач аналитиков данных, в рамках которых необходимо иметь дело с большими объемами однотипных данных, выделяются задачи построения витрин данных, автоматизации процессов сбора и обработки данных. Многие аналитики используют различные реляционные базы данных, в таблицах которых хранятся огромные объемы информации, агрегация и доступ к которым может занимать долгое время, поэтому правильное составление и оптимизация запросов к этим таблицам становится критически необходимым фактором для работы аналитиков, инженеров данных и data scientist.
Читать: https://habr.com/ru/articles/776398/
✍2
Так dd вы ещё не использовали: исследование скорости чтения и записи
Недавно, я вновь побывал в роли технического эксперта, когда занимался переводом книги «Understanding Software Dynamics» от Richard L. Sites. В ходе работы над главой — про скорость работы с жёстким диском, мне поступил вопрос от коллеги: каким образом можно просто и быстро измерить скорость чтения и записи твердотельных носителей информации, в разрабатываемых в компании устройствах? При этом стояла задача реализовать всё это наиболее простыми способами, чтобы они были переносимы между совершенно разными платформами и архитектурами. Носители же информации могут быть любыми: USB Flash, eMMC, SD, NAND и прочее, прочее. Единственное, что их объединяет — это Linux.
Задача захватила меня с головой…
Читать: https://habr.com/ru/companies/timeweb/articles/775230/
Недавно, я вновь побывал в роли технического эксперта, когда занимался переводом книги «Understanding Software Dynamics» от Richard L. Sites. В ходе работы над главой — про скорость работы с жёстким диском, мне поступил вопрос от коллеги: каким образом можно просто и быстро измерить скорость чтения и записи твердотельных носителей информации, в разрабатываемых в компании устройствах? При этом стояла задача реализовать всё это наиболее простыми способами, чтобы они были переносимы между совершенно разными платформами и архитектурами. Носители же информации могут быть любыми: USB Flash, eMMC, SD, NAND и прочее, прочее. Единственное, что их объединяет — это Linux.
Задача захватила меня с головой…
Читать: https://habr.com/ru/companies/timeweb/articles/775230/