Forwarded from AW BI
На сайте AW BI вышел пост-релиз прошедшего вебинара с Евгением Стучалкиным и Анной Хорошиловой📊
Мы собрали ключевые выводы о концепции КУМБА и рассказали, как Loginom+DMP и AW BI работают вместе в единой архитектуре.
🔗 Читать пост-релиз.
Запись вебинара можно получить, заполнив короткую форму на сайте.😎
Мы собрали ключевые выводы о концепции КУМБА и рассказали, как Loginom+DMP и AW BI работают вместе в единой архитектуре.
Запись вебинара можно получить, заполнив короткую форму на сайте.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2
В этом году я снова иду на РУBIКОНФ, на этот раз в роли спикера.
В прошлом участвовал в РУBIЛОВО — дискуссия на острые BI-темы. Обсуждали с коллегами тренды в BI, было жарко и очень интересно. Помню, кто-то даже сравнил РУBIЛОВО со стендапом в BI.
7 октября расскажу: «Как организовать отдел аналитики, который помогает компании зарабатывать». Будем говорить:
- о том, как понять что у продвинутой аналитики есть потенциал в компании;
- что должно быть в основе аналитической системы, чтобы она не заросла мхом через год;
- как малыми шагами прийти к большим результатам без рисков.
Сама конференция — это десятки докладов от практиков, живые кейсы, мастер-классы по визуализации и самое ценное: возможность пообщаться с людьми, которые реально двигают рынок данных вперёд.
Очное участие — в Москве (кластер «Ломоносов»), запланирована и онлайн-трансляция. Участие бесплатное, нужна только регистрация.
Регистрируйтесь по ссылке, и увидимся на РУBIКОНФ.
В прошлом участвовал в РУBIЛОВО — дискуссия на острые BI-темы. Обсуждали с коллегами тренды в BI, было жарко и очень интересно. Помню, кто-то даже сравнил РУBIЛОВО со стендапом в BI.
7 октября расскажу: «Как организовать отдел аналитики, который помогает компании зарабатывать». Будем говорить:
- о том, как понять что у продвинутой аналитики есть потенциал в компании;
- что должно быть в основе аналитической системы, чтобы она не заросла мхом через год;
- как малыми шагами прийти к большим результатам без рисков.
Сама конференция — это десятки докладов от практиков, живые кейсы, мастер-классы по визуализации и самое ценное: возможность пообщаться с людьми, которые реально двигают рынок данных вперёд.
Очное участие — в Москве (кластер «Ломоносов»), запланирована и онлайн-трансляция. Участие бесплатное, нужна только регистрация.
Регистрируйтесь по ссылке, и увидимся на РУBIКОНФ.
rubiconf.ru
РУBIКОНФ '25|Ежегодная конференция лидеров российского BI
7 октября 2025 года. РУБИКОНФ - это опыт импортозамещения BI, реальные кейсы и мнение независимых экспертов
🔥6❤3👍3🤩2
Всем привет! Занимался тут самым веселым в мире делом - внесением в документацию изменений по фичам, добавленным за последний месяц в Data Monetization Pack - мою библиотеку для организации КХД с помощью Loginom на базе Clickhouse. Чтобы добру не пропадать, кратко опишу некоторый функционал и тут)
С развитием КХД-проекта, дата-инженер сталкивается с необходимостью настраивать инкрементальное обновление данных. Потому что на старте полный процесс обновления занимал 5 минут, потом 15, потом 30, а потом перевалил за час - объемы растут, полностью перезагружать данные в ETL и моделях не вариант.
Настройка инкрементального обновления - тоже не фунт изюма. Поэтому в DMP есть шаблоны, между которыми можно гибко переключаться при необходимости:
Для выгрузки в Stage и Core уровни хранилища, доступны сценарии:
- Полная перезапись данных: говорит само за себя :)
- Частичная перезапись в клоне целевой таблицы по произвольному ключу, с заменой целевой таблицы на обновленный клон: хорошо подходит для таблиц с небольшим объемом данных (несколько млн. строк), в которых нужна высокая точность обновления (на уровне отдельных строк)
- Обновление данных через замену партиций: используем функционал Clickhouse. Хорошо подходит для формирования больших таблиц (десятки и сотни млн. строк), но обновление проходит через замену больших фрагментов таблицы (как правило, по месяцам).
Для таблиц Core-уровня есть доп. сценарий: возможность добавить в структуру хранилища любую таблицу, доступную из Clickhouse (даже если она физически в нем не находится), не пропуская ее через ETL в Loginom. Хорошо подходит для больших транзакционных данных, которым не нужен ETL для очистки, а значит нет смысла пересохранять их из базы в базу.
Витрины в Data Mart (а в нашем случае, это полностью материализованные таблицы, сочетающие данные из набора таблиц core-уровня) также поддерживают обновления через перезапись партиций. А структура витрин такова, что обновлять в них можно данные отдельных таблиц, например, только данные по продажам, хотя в самой витрине совмещено еще 5 других таблиц фактов.
Все эти сценарии по умолчанию работают так, что на стороне пользователя данные обновляются одномоментно, и нет риска что запросив данные из таблицы, которая находится в состоянии полной перезаписи, пользователь получит неполные данные.
Таким образом, дата-инженер тратит меньше времени на настройку и поддержку сложных сценариев обновления. И больше времени уделят бизнес-задачам, повышая свою ценность в компании.
С развитием КХД-проекта, дата-инженер сталкивается с необходимостью настраивать инкрементальное обновление данных. Потому что на старте полный процесс обновления занимал 5 минут, потом 15, потом 30, а потом перевалил за час - объемы растут, полностью перезагружать данные в ETL и моделях не вариант.
Настройка инкрементального обновления - тоже не фунт изюма. Поэтому в DMP есть шаблоны, между которыми можно гибко переключаться при необходимости:
Для выгрузки в Stage и Core уровни хранилища, доступны сценарии:
- Полная перезапись данных: говорит само за себя :)
- Частичная перезапись в клоне целевой таблицы по произвольному ключу, с заменой целевой таблицы на обновленный клон: хорошо подходит для таблиц с небольшим объемом данных (несколько млн. строк), в которых нужна высокая точность обновления (на уровне отдельных строк)
- Обновление данных через замену партиций: используем функционал Clickhouse. Хорошо подходит для формирования больших таблиц (десятки и сотни млн. строк), но обновление проходит через замену больших фрагментов таблицы (как правило, по месяцам).
Для таблиц Core-уровня есть доп. сценарий: возможность добавить в структуру хранилища любую таблицу, доступную из Clickhouse (даже если она физически в нем не находится), не пропуская ее через ETL в Loginom. Хорошо подходит для больших транзакционных данных, которым не нужен ETL для очистки, а значит нет смысла пересохранять их из базы в базу.
Витрины в Data Mart (а в нашем случае, это полностью материализованные таблицы, сочетающие данные из набора таблиц core-уровня) также поддерживают обновления через перезапись партиций. А структура витрин такова, что обновлять в них можно данные отдельных таблиц, например, только данные по продажам, хотя в самой витрине совмещено еще 5 других таблиц фактов.
Все эти сценарии по умолчанию работают так, что на стороне пользователя данные обновляются одномоментно, и нет риска что запросив данные из таблицы, которая находится в состоянии полной перезаписи, пользователь получит неполные данные.
Таким образом, дата-инженер тратит меньше времени на настройку и поддержку сложных сценариев обновления. И больше времени уделят бизнес-задачам, повышая свою ценность в компании.
👍5🔥4❤2
"ВАШ BI ОПЯТЬ НЕ РАБОТАЕТ!" - пишет любимый бизнес-пользователь. И речь не о том, что сервер упал. Просто в отчете не те данные, которые пользователь ожидал увидеть.
Кто виноват? Операционисты внесли кривоту? В экселе съехали значения? API моргнуло? Скрипты не отработали? Так или иначе, вы стали гонцом с плохиминовостями данными, и часть шишек конечно же достанется вам. Чтобы избегать таких ситуаций, неплохо бы:
1) Знать заранее, что они происходят;
2) Иногда, лучше не допускать выгрузки данных вообще, чем отдавать ошибочные данные.
Для этого в Data Monetization Pack есть шаблон сценария "Аудит качества данных". Он работает по принципу:
1) Создаем логические проверочные поля, содержащие значение ИСТИНА, если в строке ошибка.
2) Подаем результат на вход компоненту подготовки отчета, который делает из таблицы сводку.
3) Есть возможность часть проверок определить как критические, и в отчете будут отмечены спец символом.
4) При наличии критических ошибок, сообщения запишутся в лог.
5) Есть возможность принудительно остановить сценарий при критических ошибках.
6) Отчет об ошибках отправляется через вашего бота в Телеграм. Есть возможность прикрепить ссылку на визуализатор Loginom, в котором будет детально показаны ошибки.
Гибкость сценариев Loginom позволяет встроить проверку данных для любой таблицы на любом этапе, в обязательном виде или выполняемую независимо от основного сценария.
Так, дата-инженер может действовать на опережение, беречь нервные клетки у себя и своих коллег.
Кто виноват? Операционисты внесли кривоту? В экселе съехали значения? API моргнуло? Скрипты не отработали? Так или иначе, вы стали гонцом с плохими
1) Знать заранее, что они происходят;
2) Иногда, лучше не допускать выгрузки данных вообще, чем отдавать ошибочные данные.
Для этого в Data Monetization Pack есть шаблон сценария "Аудит качества данных". Он работает по принципу:
1) Создаем логические проверочные поля, содержащие значение ИСТИНА, если в строке ошибка.
2) Подаем результат на вход компоненту подготовки отчета, который делает из таблицы сводку.
3) Есть возможность часть проверок определить как критические, и в отчете будут отмечены спец символом.
4) При наличии критических ошибок, сообщения запишутся в лог.
5) Есть возможность принудительно остановить сценарий при критических ошибках.
6) Отчет об ошибках отправляется через вашего бота в Телеграм. Есть возможность прикрепить ссылку на визуализатор Loginom, в котором будет детально показаны ошибки.
Гибкость сценариев Loginom позволяет встроить проверку данных для любой таблицы на любом этапе, в обязательном виде или выполняемую независимо от основного сценария.
Так, дата-инженер может действовать на опережение, беречь нервные клетки у себя и своих коллег.
👍4🔥2❤1
Есть 2 вида технических заданий:
1) Расплывчатое;
2) Перегруженное.
1) Расплывчатое;
2) Перегруженное.
💯6
Всем привет! 30 октября (четверг), 13:00, Москва, приглашаю всех на Loginom Day 2025: Аналитика данных, доступная каждому
Собираемся уже в седьмой раз! Loginom Day — это место, где аналитики, разработчики и руководители делятся опытом, находят новые идеи и просто отлично проводят время.
Что будет:
*Практические кейсы: как компании из ритейла, финансов и промышленности используют Loginom
*Демозона и стенды партнёров (в т.ч. мой): живые демонстрации, ответы на вопросы и полезные советы
*Секция для вузов: применение Loginom в учебном процессе и финал студенческих проектов
Темы докладов:
— Все секреты Loginom 7.3 и его ключевые фишки
— Data Science на базе Loginom: от сбора данных до принятия решений
— Переход с CRM на СПР: зачем мы сделали этот шаг и как помог Loginom
И ещё:
Живая музыка
Фуршет
Нетворкинг с экспертами и коллегами
Розыгрыши крутых призов
🎟 Количество мест ограничено, необходима регистрация
Собираемся уже в седьмой раз! Loginom Day — это место, где аналитики, разработчики и руководители делятся опытом, находят новые идеи и просто отлично проводят время.
Что будет:
*Практические кейсы: как компании из ритейла, финансов и промышленности используют Loginom
*Демозона и стенды партнёров (в т.ч. мой): живые демонстрации, ответы на вопросы и полезные советы
*Секция для вузов: применение Loginom в учебном процессе и финал студенческих проектов
Темы докладов:
— Все секреты Loginom 7.3 и его ключевые фишки
— Data Science на базе Loginom: от сбора данных до принятия решений
— Переход с CRM на СПР: зачем мы сделали этот шаг и как помог Loginom
И ещё:
Живая музыка
Фуршет
Нетворкинг с экспертами и коллегами
Розыгрыши крутых призов
🎟 Количество мест ограничено, необходима регистрация
day.loginom.ru
Loginom Day 2025
Специалисты крупных российских компаний расскажут о реальном опыте использования продвинутой аналитики в своих проектах и продемонстрируют актуальные бизнес-кейсы
❤5🔥1
Гастроли пряничной лавки продолжаются) Никогда ещё построение КХД / Аналитического слоя не было таким вкусным!
Кто на Loginom Day, забегайте)
Кто на Loginom Day, забегайте)
❤🔥10🔥3
Всем привет! В среду, 12 ноября в 12:00, проведем с Машей вебинар про использование Fastboard с КХД на базе Loginom + Data Monetization Pack.
Думаю, Маша в представлении не нуждается) Она расскажет об уникальных фичах Fastboard, в том числе о создании интерактивных макетов дашбордов и проектном подходе, который помогает точно попадать в ожидания заказчика и минимизировать переделки. Приходите, будет интересно.
Регистрация тут
Думаю, Маша в представлении не нуждается) Она расскажет об уникальных фичах Fastboard, в том числе о создании интерактивных макетов дашбордов и проектном подходе, который помогает точно попадать в ожидания заказчика и минимизировать переделки. Приходите, будет интересно.
Регистрация тут
👍6❤4
Тем временем, вышло новое исследования по ClickHouse в облаке. Почему делаю акцент на нем? А потому что Data Monetization Pack - часть этого исследования, и верный спутник в автоматизации дата-инжиниринга в работе с CH для аналитических проектов и не только :) Ознакомиться можно по ссылке:
Новое исследование – Развертывание СУБД ClickHouse в облаке 2025
«Круги Громова» выпустили практическое исследование о том, как безопасно и эффективно развернуть ClickHouse в российских облаках — от Yandex Cloud до Selectel и VK Cloud.
Что внутри:
– сравнение Yandex Cloud, VK Cloud, Selectel и K2 по 27 критериям,
– реальный опыт эксплуатации ClickHouse и Arenadata QuickMarts (ADQM),
– типичные инциденты, и как их избежать,
– выбор между IaaS, Kubernetes и PaaS-развёртываниями,
– требования безопасности, производительности и импортонезависимости.
👉 Полный отчёт доступен на сайте проекта «Круги Громова» — скачать бесплатно! Отчёт будет полезен всем, кто строит DWH, Lakehouse, ML-платформы или high-load-аналитику на ClickHouse.
Новое исследование – Развертывание СУБД ClickHouse в облаке 2025
«Круги Громова» выпустили практическое исследование о том, как безопасно и эффективно развернуть ClickHouse в российских облаках — от Yandex Cloud до Selectel и VK Cloud.
Что внутри:
– сравнение Yandex Cloud, VK Cloud, Selectel и K2 по 27 критериям,
– реальный опыт эксплуатации ClickHouse и Arenadata QuickMarts (ADQM),
– типичные инциденты, и как их избежать,
– выбор между IaaS, Kubernetes и PaaS-развёртываниями,
– требования безопасности, производительности и импортонезависимости.
👉 Полный отчёт доступен на сайте проекта «Круги Громова» — скачать бесплатно! Отчёт будет полезен всем, кто строит DWH, Lakehouse, ML-платформы или high-load-аналитику на ClickHouse.
🔥3
Господин Громов не только пишет круги, но и наполняет их)
16 декабря состоится премьера продукта DataForge. Это решение ориентировано на компании, которые консолидировали данные для аналитики в СУБД. Но теряют время на несогласованности показателей в аналитике, дублировании трудозатрат на построении моделей данных и переиспользуемости этих моделей в разных инструментах, тиражировании доступов к данным и управлением безопасностью.
Я этот инструмент уже видел, он легкий на подъем, его можно легко и быстро испытать в деле, сходу получив практические результаты. Рекомендую и вам познакомиться с ним на вебинаре.
16 декабря состоится премьера продукта DataForge. Это решение ориентировано на компании, которые консолидировали данные для аналитики в СУБД. Но теряют время на несогласованности показателей в аналитике, дублировании трудозатрат на построении моделей данных и переиспользуемости этих моделей в разных инструментах, тиражировании доступов к данным и управлением безопасностью.
Я этот инструмент уже видел, он легкий на подъем, его можно легко и быстро испытать в деле, сходу получив практические результаты. Рекомендую и вам познакомиться с ним на вебинаре.
DataFinder - готовые отраслевые решения, лучшая экспертиза и обучение по российским BI продуктам
Вебинар 16.12.2025: «DataForge: как навести порядок в показателях, витринах, бизнес-логике и BI-отчётах»
Приглашаем на главную премьеру уходящего года – вебинар, где мы впервые покажем DataForge – российскую self-service платформу централизованного управления аналитическими данными.
🔥4