ViTalk GPT: генератор DAX-запросов для Visiology 3
Привет, Хабр! Сегодня я хочу рассказать о нашем новом чат-боте ViTalk GPT. Он использует ИИ для генерации запросов на языке DAX, которые можно использовать в Visiology 3, причем учитывает не только особенности нашей платформы, но и контекст ваших запросов. О том как это работает, почему ViTalk GPT помогает переносить экспертизу не только из Power BI, в чем секрет создания “готовых” скриптов, которые можно просто вставлять в нужное поле в Visiology 3, и зачем вообще это нужно — читайте под катом.
Читать: https://habr.com/ru/companies/visiology/articles/742152/
Привет, Хабр! Сегодня я хочу рассказать о нашем новом чат-боте ViTalk GPT. Он использует ИИ для генерации запросов на языке DAX, которые можно использовать в Visiology 3, причем учитывает не только особенности нашей платформы, но и контекст ваших запросов. О том как это работает, почему ViTalk GPT помогает переносить экспертизу не только из Power BI, в чем секрет создания “готовых” скриптов, которые можно просто вставлять в нужное поле в Visiology 3, и зачем вообще это нужно — читайте под катом.
Читать: https://habr.com/ru/companies/visiology/articles/742152/
Как использовать клиентские данные для машинного обучения
Рассказываем, как правильно подобрать данные для машинного обучения, какие данные подойдут и как использовать данные клиентов для ML.
Читать: «Как использовать клиентские данные для машинного обучения»
Рассказываем, как правильно подобрать данные для машинного обучения, какие данные подойдут и как использовать данные клиентов для ML.
Читать: «Как использовать клиентские данные для машинного обучения»
Picodata: простое масштабирование Tarantool
Привет! Сегодня я хочу познакомить вас с ПО, которое мы разрабатываем в нашей компанией — кластерной СУБД и сервером приложений на языке Rust. Мы профессионально занимаемся созданием и эксплуатацией решений на основе Tarantool и с некоторых пор начали разработку своего ПО, о котором и пойдёт речь.
Picodata — это дальнейшее развитие истории Tarantool, в которой учтен опыт эксплуатации этой СУБД и предложены решения как архитектурных, так и функциональных недостатков открытой версии Tarantool. Также, наше ПО проще запускать, настраивать и поддерживать в рабочем состоянии благодаря единой точке входа и интеграции всего инструментария в одном исполняемом файле. Мы создавали Picodata как изначально кластерную СУБД, которой удобно пользоваться. Если не верите, что российская СУБД может быть удобной, попробуйте — в конце этой статьи есть раздел Практикум, где можно сразу же попробовать собрать кластер самому на паре-тройке виртуальных машин или на вашем локальном компьютере. Сейчас же будет немного теории о том, как вообще работает распределенный кластер, что именно не так в “ванильном” Tarantool и что нам пришлось сделать чтобы это исправить.
Погрузиться в детали
Читать: https://habr.com/ru/articles/742244/
Привет! Сегодня я хочу познакомить вас с ПО, которое мы разрабатываем в нашей компанией — кластерной СУБД и сервером приложений на языке Rust. Мы профессионально занимаемся созданием и эксплуатацией решений на основе Tarantool и с некоторых пор начали разработку своего ПО, о котором и пойдёт речь.
Picodata — это дальнейшее развитие истории Tarantool, в которой учтен опыт эксплуатации этой СУБД и предложены решения как архитектурных, так и функциональных недостатков открытой версии Tarantool. Также, наше ПО проще запускать, настраивать и поддерживать в рабочем состоянии благодаря единой точке входа и интеграции всего инструментария в одном исполняемом файле. Мы создавали Picodata как изначально кластерную СУБД, которой удобно пользоваться. Если не верите, что российская СУБД может быть удобной, попробуйте — в конце этой статьи есть раздел Практикум, где можно сразу же попробовать собрать кластер самому на паре-тройке виртуальных машин или на вашем локальном компьютере. Сейчас же будет немного теории о том, как вообще работает распределенный кластер, что именно не так в “ванильном” Tarantool и что нам пришлось сделать чтобы это исправить.
Погрузиться в детали
Читать: https://habr.com/ru/articles/742244/
🔥1
How MariaDB Helps Specialized Media Dashboard Save 7x its Database Cost
Read: https://mariadb.com/?p=36658
Read: https://mariadb.com/?p=36658
Dedup Windows vs Linux, MS снова “удивит”?
Меня давно заинтриговала тема дедупликации данных. Это произошло в далеком 2016 году, когда передо мной встала задача впихнуть не впихуемое, на продакшн-серверах. Но обнаружить доступное решение оказалось невероятно сложно (на тот момент не возможно). Со временем у меня возникли и личные задачи, когда я хотел уменьшить объем третьей или четвертой копии данных, чтобы сэкономить место на диске. Но, возможно, я просто одержим датахордингом, и это тоже не исключено.
Читать: https://habr.com/ru/articles/742286/
Меня давно заинтриговала тема дедупликации данных. Это произошло в далеком 2016 году, когда передо мной встала задача впихнуть не впихуемое, на продакшн-серверах. Но обнаружить доступное решение оказалось невероятно сложно (на тот момент не возможно). Со временем у меня возникли и личные задачи, когда я хотел уменьшить объем третьей или четвертой копии данных, чтобы сэкономить место на диске. Но, возможно, я просто одержим датахордингом, и это тоже не исключено.
Читать: https://habr.com/ru/articles/742286/
Fueling Pricing Strategies with MongoDB and Databricks
Read: https://www.mongodb.com/blog/post/fueling-pricing-strategies-mongodb-databricks
Read: https://www.mongodb.com/blog/post/fueling-pricing-strategies-mongodb-databricks
How to Build Advanced GraphQL-based APIs With MongoDB Atlas and AWS AppSync Merged APIs
Read: https://www.mongodb.com/blog/post/how-build-advanced-graphql-based-apis-mongodb-atlas-aws-appsync-merged-apis
Read: https://www.mongodb.com/blog/post/how-build-advanced-graphql-based-apis-mongodb-atlas-aws-appsync-merged-apis
Кто управляет информацией — тот владеет миром: как сделать так, чтобы данные генерировали прибыль, а не убытки?
У всех компаний есть разнообразные данные: о клиентах, транзакциях, закупках, оборудовании, доходах и расходах. Но для одних компаний данные – драйвер роста, а другие несут убытки, полагаясь на них. Разница в том, что первые управляют информацией: знают, как и в какой форме она поступает, как ее внести в корпоративные системы, обогатить, и главное - как использовать, а вторые пускают эту работу на самотек и живут в зоопарке информационных систем без единой версии правды.
Это обзорный материал, я расскажу в нем об объектах основных данных, о том, по каким причинам часто возникают ошибки, какими инструментами улучшить качество данных и рассмотрю шаги конкретного проекта по внедрению НСИ.
Читать: https://habr.com/ru/articles/742910/
У всех компаний есть разнообразные данные: о клиентах, транзакциях, закупках, оборудовании, доходах и расходах. Но для одних компаний данные – драйвер роста, а другие несут убытки, полагаясь на них. Разница в том, что первые управляют информацией: знают, как и в какой форме она поступает, как ее внести в корпоративные системы, обогатить, и главное - как использовать, а вторые пускают эту работу на самотек и живут в зоопарке информационных систем без единой версии правды.
Это обзорный материал, я расскажу в нем об объектах основных данных, о том, по каким причинам часто возникают ошибки, какими инструментами улучшить качество данных и рассмотрю шаги конкретного проекта по внедрению НСИ.
Читать: https://habr.com/ru/articles/742910/
Кто управляет информацией — тот владеет миром: как сделать так, чтобы данные генерировали прибыль, а не убытки?
У всех компаний есть разнообразные данные: о клиентах, транзакциях, закупках, оборудовании, доходах и расходах. Но для одних компаний данные – драйвер роста, а другие несут убытки, полагаясь на них. Разница в том, что первые управляют информацией: знают, как и в какой форме она поступает, как ее внести в корпоративные системы, обогатить, и главное - как использовать, а вторые пускают эту работу на самотек и живут в зоопарке информационных систем без единой версии правды.
Это обзорный материал, я расскажу в нем об объектах основных данных, о том, по каким причинам часто возникают ошибки, какими инструментами улучшить качество данных и рассмотрю шаги конкретного проекта по внедрению НСИ.
Читать: https://habr.com/ru/articles/742910/
У всех компаний есть разнообразные данные: о клиентах, транзакциях, закупках, оборудовании, доходах и расходах. Но для одних компаний данные – драйвер роста, а другие несут убытки, полагаясь на них. Разница в том, что первые управляют информацией: знают, как и в какой форме она поступает, как ее внести в корпоративные системы, обогатить, и главное - как использовать, а вторые пускают эту работу на самотек и живут в зоопарке информационных систем без единой версии правды.
Это обзорный материал, я расскажу в нем об объектах основных данных, о том, по каким причинам часто возникают ошибки, какими инструментами улучшить качество данных и рассмотрю шаги конкретного проекта по внедрению НСИ.
Читать: https://habr.com/ru/articles/742910/
Правильные и простые бэкапы. Инструменты Veeam для резервного копирования — в чем разница?
Чем сильнее бизнес зависит от IT-систем, тем большие убытки он понесет в случае потери данных и простоев из-за восстановления работоспособности. Поэтому важно настроить регулярное резервное копирование систем и данных.
Но какое решение для этого выбрать? И если Veeam, то что использовать — Backup & Replications, Agent или Сloud Connect? В тексте постарались объяснить, в чем разница между сервисами Veeam для резервного копирования.
Читать: https://habr.com/ru/companies/selectel/articles/743046/
Чем сильнее бизнес зависит от IT-систем, тем большие убытки он понесет в случае потери данных и простоев из-за восстановления работоспособности. Поэтому важно настроить регулярное резервное копирование систем и данных.
Но какое решение для этого выбрать? И если Veeam, то что использовать — Backup & Replications, Agent или Сloud Connect? В тексте постарались объяснить, в чем разница между сервисами Veeam для резервного копирования.
Читать: https://habr.com/ru/companies/selectel/articles/743046/
MongoDB and BigID Delivering Scalable Data Privacy Compliance for Financial Services
Read: https://www.mongodb.com/blog/post/mongodb-bigid-delivering-scalable-data-privacy-compliance-financial-services
Read: https://www.mongodb.com/blog/post/mongodb-bigid-delivering-scalable-data-privacy-compliance-financial-services
Modernize Your Factory Operations: Build a Virtual Factory with MongoDB Atlas in 5 Simple Steps
Read: https://www.mongodb.com/blog/post/modernize-your-factory-operations-build-virtual-factory-mongodb-atlas-five-simple-steps
Read: https://www.mongodb.com/blog/post/modernize-your-factory-operations-build-virtual-factory-mongodb-atlas-five-simple-steps
MongoDB Achieves AWS Financial Services Competency
Read: https://www.mongodb.com/blog/post/mongodb-achieves-aws-financial-services-competency
Read: https://www.mongodb.com/blog/post/mongodb-achieves-aws-financial-services-competency
2023년 데이터 전략에 대해 최고 경영진이 알아야 할 것들
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-ko
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-ko
2023년 데이터 전략에 대해 최고 경영진이 알아야 할 것들
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-ko
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-ko
Ce que les C-Level devraient savoir sur la stratégie des données pour 2023
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-fr
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-fr
Ce que les C-Level devraient savoir sur la stratégie des données pour 2023
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-fr
Read: https://www.mongodb.com/blog/post/what-c-suite-should-know-data-strategy-2023-fr
Unmasking Deception: Harnessing the Power of MongoDB Atlas and Amazon SageMaker Canvas for Fraud Detection
Read: https://www.mongodb.com/blog/post/unmasking-deception-harnessing-power-atlas-amazon-sage-maker-canvas-fraud-detection
Read: https://www.mongodb.com/blog/post/unmasking-deception-harnessing-power-atlas-amazon-sage-maker-canvas-fraud-detection
Introducing Exadata Cloud@Customer X10M
We are excited to announce Exadata Cloud@Customer X10M, the latest generation of the world’s best on-premises cloud database platform. Exadata Cloud@Customer X10M now has 3 times as many cores than in the previous generation. With 190 usable 4th Generation AMD EPYCTM processors per database server, you can consolidate more work into fewer servers, reducing the number of servers in your subnoscription and simplifying your deployment.
Read: https://blogs.oracle.com/database/post/introducing-exadata-cloudcustomer-x10m
We are excited to announce Exadata Cloud@Customer X10M, the latest generation of the world’s best on-premises cloud database platform. Exadata Cloud@Customer X10M now has 3 times as many cores than in the previous generation. With 190 usable 4th Generation AMD EPYCTM processors per database server, you can consolidate more work into fewer servers, reducing the number of servers in your subnoscription and simplifying your deployment.
Read: https://blogs.oracle.com/database/post/introducing-exadata-cloudcustomer-x10m
Oracle
Introducing Exadata Cloud@Customer X10M
We are excited to announce Exadata Cloud@Customer X10M, the latest generation of the world’s best on-premises cloud database platform. Exadata Cloud@Customer X10M now has 3 times as many cores than in the previous generation. With 190 usable 4th Generation…
КАК ВЫВЕСТИ МИЛЛИАРДЫ ключей из ScyllaDB
Мечтал ли я когда-либо ворочать миллиардами? Честно признаюсь, да. И нельзя сказать, что Вселенная меня не услышала. Вот только я никак не имел в виду миллиарды записей в базе данных...
Ранее я уже писал о нашем опыте использования ScyllaDB в качестве архивного хранилища. Разумеется, исследования и открытия, связанные с новой базой данных, для нас на этом не закончились... Создавая архив для данных, вероятность обращения к которым близка к нулю, мы, конечно, допускали, что время от времени клиенты будут просить вернуть данные обратно в оперативное хранилище. Но запрос на извлечение из архива сразу всех записей стал для нас неожиданностью. Хорошо ещё, что клиента интересовал только ключ записи, а не вся запись целиком. Тем не менее достать 10 млрд. ключей из ScyllaDB за приемлемое время звучало как челлендж. Ну надо так надо.
Читать: https://habr.com/ru/companies/stm_labs/articles/743276/
Мечтал ли я когда-либо ворочать миллиардами? Честно признаюсь, да. И нельзя сказать, что Вселенная меня не услышала. Вот только я никак не имел в виду миллиарды записей в базе данных...
Ранее я уже писал о нашем опыте использования ScyllaDB в качестве архивного хранилища. Разумеется, исследования и открытия, связанные с новой базой данных, для нас на этом не закончились... Создавая архив для данных, вероятность обращения к которым близка к нулю, мы, конечно, допускали, что время от времени клиенты будут просить вернуть данные обратно в оперативное хранилище. Но запрос на извлечение из архива сразу всех записей стал для нас неожиданностью. Хорошо ещё, что клиента интересовал только ключ записи, а не вся запись целиком. Тем не менее достать 10 млрд. ключей из ScyllaDB за приемлемое время звучало как челлендж. Ну надо так надо.
Читать: https://habr.com/ru/companies/stm_labs/articles/743276/