Среда 9 Фев в 19:00 LIVE вебинар на платформе DataLearn.
Расскажу о решении, планах, покажу демо (exxclusive!), отвечу на вопросы.
Расскажу о решении, планах, покажу демо (exxclusive!), отвечу на вопросы.
Forwarded from Инжиниринг Данных (Roman Ponomarev)
❗️Друзья приветствую всех!
Завтра на нашем ютуб канале вебинар (10.02.2021) в 19:00 по МСК
Название вебинара: Путь Инженера Аналитики: Решение для Маркетинга на Azure SQL + dbt + Github Actions + Metabase
Описание:
Меня зовут Артемий Козырь. Расскажу про ниндзя-проект по сбору Сквозной Аналитики для Performance-маркетинга:
- Бизнес-цели проекта
- ELT и пылесосинг данных из источников
- Организация Хранилища на dbt
- Open Source BI на Metabase
- Нюансы Dev & Ops
Отвечу на вопросы: облака, выбор инструментов, обучение, карьера, пути развития
Ссылка: https://youtu.be/SoOcvYPSm7o
Как всегда всем быть, те кто смотрит лекции будущие Олимпийские чемпионы в дата мире :blush:
🟢 Что нужно сделать:
➡️ Перейти по ссылке и поставить колокольчик, чтобы в среду не пропустить
➡️ Отложить все дела на вечер среды
➡️ В среду в 19:00 быть на вебинаре
Всех обнял, до встречи в эфире ☺️
И ПОДПИШИТЕСЬ НА НАШ ЮТУБ
Завтра на нашем ютуб канале вебинар (10.02.2021) в 19:00 по МСК
Название вебинара: Путь Инженера Аналитики: Решение для Маркетинга на Azure SQL + dbt + Github Actions + Metabase
Описание:
Меня зовут Артемий Козырь. Расскажу про ниндзя-проект по сбору Сквозной Аналитики для Performance-маркетинга:
- Бизнес-цели проекта
- ELT и пылесосинг данных из источников
- Организация Хранилища на dbt
- Open Source BI на Metabase
- Нюансы Dev & Ops
Отвечу на вопросы: облака, выбор инструментов, обучение, карьера, пути развития
Ссылка: https://youtu.be/SoOcvYPSm7o
Как всегда всем быть, те кто смотрит лекции будущие Олимпийские чемпионы в дата мире :blush:
🟢 Что нужно сделать:
➡️ Перейти по ссылке и поставить колокольчик, чтобы в среду не пропустить
➡️ Отложить все дела на вечер среды
➡️ В среду в 19:00 быть на вебинаре
Всех обнял, до встречи в эфире ☺️
И ПОДПИШИТЕСЬ НА НАШ ЮТУБ
YouTube
Путь Инженера Аналитики: Решение для Маркетинга / Артемий Козырь
Меня зовут Артемий Козырь. Расскажу про ниндзя-проект по сбору Сквозной Аналитики для Performance-маркетинга:
- Бизнес-цели проекта
- ELT и пылесосинг данных из источников
- Организация Хранилища на dbt
- Open Source BI на Metabase
- Нюансы Dev & Ops
Отвечу…
- Бизнес-цели проекта
- ELT и пылесосинг данных из источников
- Организация Хранилища на dbt
- Open Source BI на Metabase
- Нюансы Dev & Ops
Отвечу…
Собрал аналитические задачи на SQL с интерактивными примерами / решениями на sqlfiddle.com
От простого к сложному:
- Конкатенация значений из нескольких строк
- CASE в агрегирующих функциях
- Дедупликация данных
- Анализ временных рядов
- NULL & IF-THEN-ELSE в SQL
- Аналитические функции
- Историзация со Slowly Changing Dimensions (SCD)
- FULL JOIN для соединений без потерь
- Разбиение пользовательских событий на сессии
https://habr.com/ru/company/otus/blog/541882/
От простого к сложному:
- Конкатенация значений из нескольких строк
- CASE в агрегирующих функциях
- Дедупликация данных
- Анализ временных рядов
- NULL & IF-THEN-ELSE в SQL
- Аналитические функции
- Историзация со Slowly Changing Dimensions (SCD)
- FULL JOIN для соединений без потерь
- Разбиение пользовательских событий на сессии
https://habr.com/ru/company/otus/blog/541882/
Хабр
SQL для аналитики — рейтинг прикладных задач с решениями
Привет, Хабр! У кого из вас black belt на sql-ex.ru , признавайтесь? На заре своей карьеры я немало времени провел на этом сайте, практикуясь и оттачивая навыки. Должен отметить, что это было...
Сегодня приглашаю на вебинар по Looker - топовый BI-инструмент на рынке!
- Моделирование данных: структура проекта и блоки LookML
- Исследование данных: pivot, drill-down, table calculations
- Визуализация: типы графиков, дашбординг, кросс-фильтры, sharing
https://youtu.be/-YMCafO_cZk
- Моделирование данных: структура проекта и блоки LookML
- Исследование данных: pivot, drill-down, table calculations
- Визуализация: типы графиков, дашбординг, кросс-фильтры, sharing
https://youtu.be/-YMCafO_cZk
Ура! Новый пост.
2+ года dbt в продакшн в управлении Хранилищем Данных.
- Структура хранилища + бизнес-вертикали
- Оптимизация физического хранения в Redshift
- SQL + Jinja = Flexibility
- Macro: UDF, currency exchange
- Importing modules: calendar, external data, logging
- Deployment with dbt Cloud: Schedule + Webhooks, Slack notifications
Мультитул для управления Хранилищем Данных — кейс Wheely + dbt
2+ года dbt в продакшн в управлении Хранилищем Данных.
- Структура хранилища + бизнес-вертикали
- Оптимизация физического хранения в Redshift
- SQL + Jinja = Flexibility
- Macro: UDF, currency exchange
- Importing modules: calendar, external data, logging
- Deployment with dbt Cloud: Schedule + Webhooks, Slack notifications
Мультитул для управления Хранилищем Данных — кейс Wheely + dbt
Хабр
Мультитул для управления Хранилищем Данных — кейс Wheely + dbt
Уже более двух лет data build tool активно используется в компании Wheely для управления Хранилищем Данных. За это время накоплен немалый опыт, мы на тернистом пути проб и ошибок к совершенству в...
Technology Enthusiast Digest
Here I will structure materials and talks chronologically ordered.
At the end you will find TBD heading with posts to be done. Please comment on topics you are interested in to prioritize them.
Here I will structure materials and talks chronologically ordered.
At the end you will find TBD heading with posts to be done. Please comment on topics you are interested in to prioritize them.
Data Engineering blog
Technology enthusiast digest
Data Apps Design pinned «Technology Enthusiast Digest Here I will structure materials and talks chronologically ordered. At the end you will find TBD heading with posts to be done. Please comment on topics you are interested in to prioritize them.»
Forwarded from OTUS IT News
#expert
⚡️ Всем привет! Сегодня в гостях у OTUS News Артемий Козырь — Analytics Engineer в компании Wheely, автор телеграмм-канала Technology Enthusiast, а также преподаватель курсов Data Engineer, Hadoop Ecosystem в OTUS.
Поговорили с Артемием про демократизацию аналитики. Подробнее о том, почему Большие Данные никогда не были ближе и доступнее, в посте ниже⬇️
***
Данные и результаты их обработки используются повсеместно. Взрывной спрос на специалистов по работе с данными и рост их зарплат – яркое тому подтверждение.
В то же время реализация востребованного data-проекта никогда не была доступнее, в том числе и для ниндзя-одиночки. Судите сами:
▪️Облака. Готовый MPP движок или Hadoop кластер за 3 минуты – посчитал, сохранил результат – погасил. Zero administration. При этом каждый вендор стремится создать лУчший по функционалу и удобству продукт.
▪️Фреймворки типа dbt элегантно абстрагируют рутинную часть работы и boilerplate code, фокусируя внимание на написании бизнес-логики и лучших практиках разработки. То, для чего раньше создавались целые отделы в компаниях, теперь может быть реализовано усилиями 1-2 людей.
▪️Экспертные сообщества, культура обмена знаниями, open source – это обеспечивает быстрый старт и снижает порог входа. Slack, discourse, telegram channels – места концентрации идей, мнений и крупиц золота. Взгляните на топ аналитических задач на SQL с интерактивными примерами / решениями на sqlfiddle.com
И, конечно, публикуйте свои открытия. Сегодня каждый может стать героем.
Несколько идей проектов, которыми делюсь с вами:
➖Парсинг телеграм-каналов. Перепосты и кластеры «либеральных» и «патриотических» медиа
➖Мониторинг блогосферы: «снова в школу» по воскресеньям и «наконец-то пятница»
➖Граф социальных связей и интересов. Начните с подписок своего Instagram
Тем временем я упорно работаю над содержанием нового курса Data Warehouse Analyst. Именно вы можете повлиять на структуру и акценты, высказав своё мнение. Запуск запланирован уже на май!
***
💬 Мы ищем гостей для новых выпусков рубрики.
Пиши мне, если есть, что рассказать.
Обсудить
⚡️ Всем привет! Сегодня в гостях у OTUS News Артемий Козырь — Analytics Engineer в компании Wheely, автор телеграмм-канала Technology Enthusiast, а также преподаватель курсов Data Engineer, Hadoop Ecosystem в OTUS.
Поговорили с Артемием про демократизацию аналитики. Подробнее о том, почему Большие Данные никогда не были ближе и доступнее, в посте ниже⬇️
***
Данные и результаты их обработки используются повсеместно. Взрывной спрос на специалистов по работе с данными и рост их зарплат – яркое тому подтверждение.
В то же время реализация востребованного data-проекта никогда не была доступнее, в том числе и для ниндзя-одиночки. Судите сами:
▪️Облака. Готовый MPP движок или Hadoop кластер за 3 минуты – посчитал, сохранил результат – погасил. Zero administration. При этом каждый вендор стремится создать лУчший по функционалу и удобству продукт.
▪️Фреймворки типа dbt элегантно абстрагируют рутинную часть работы и boilerplate code, фокусируя внимание на написании бизнес-логики и лучших практиках разработки. То, для чего раньше создавались целые отделы в компаниях, теперь может быть реализовано усилиями 1-2 людей.
▪️Экспертные сообщества, культура обмена знаниями, open source – это обеспечивает быстрый старт и снижает порог входа. Slack, discourse, telegram channels – места концентрации идей, мнений и крупиц золота. Взгляните на топ аналитических задач на SQL с интерактивными примерами / решениями на sqlfiddle.com
И, конечно, публикуйте свои открытия. Сегодня каждый может стать героем.
Несколько идей проектов, которыми делюсь с вами:
➖Парсинг телеграм-каналов. Перепосты и кластеры «либеральных» и «патриотических» медиа
➖Мониторинг блогосферы: «снова в школу» по воскресеньям и «наконец-то пятница»
➖Граф социальных связей и интересов. Начните с подписок своего Instagram
Тем временем я упорно работаю над содержанием нового курса Data Warehouse Analyst. Именно вы можете повлиять на структуру и акценты, высказав своё мнение. Запуск запланирован уже на май!
***
💬 Мы ищем гостей для новых выпусков рубрики.
Пиши мне, если есть, что рассказать.
Обсудить
CORE DWH module for Marketing Analytics is now open sourced and accessible for anyone who might want to try it out.
I have prepared a series of blog posts to cover all the details with explanations and examples.
They will appear in this channel gradually. Stay tuned.
I have prepared a series of blog posts to cover all the details with explanations and examples.
They will appear in this channel gradually. Stay tuned.
Next generation of marketing analytics
I want to leverage the whole power of cloud services and modern data stack: Azure SQL, dbt, Github Actions, Metabase.
Adapt your analytics in ever-changing business environments as well as maintain transparency and predictability to end users.
I want to leverage the whole power of cloud services and modern data stack: Azure SQL, dbt, Github Actions, Metabase.
Adapt your analytics in ever-changing business environments as well as maintain transparency and predictability to end users.
This media is not supported in your browser
VIEW IN TELEGRAM
The whole solution consists of several integral parts.
– Cloud ELT service
– CORE DWH module
– Client DWH deployment
– Data access layer
https://kzzzr.github.io/Building-reliable-product-from-the-start/
– Cloud ELT service
– CORE DWH module
– Client DWH deployment
– Data access layer
https://kzzzr.github.io/Building-reliable-product-from-the-start/
I want to use the best analytics engineering tool on the market – dbt from Fishtown Analytics.
myBI uses Azure SQL as a backend to store collected data in. It requires additional actions and steps to perform:
1. Use official image from Fishtown Analytics with latest dbt version 0.19.1
2. Install dependencies: MS SQL utilities as well as dbt-sqlserver package
3. Configure dbt to use profiles file (connection strings) in the project root directory
https://kzzzr.github.io/CORE-DWH-building-a-common-foundation/
myBI uses Azure SQL as a backend to store collected data in. It requires additional actions and steps to perform:
1. Use official image from Fishtown Analytics with latest dbt version 0.19.1
2. Install dependencies: MS SQL utilities as well as dbt-sqlserver package
3. Configure dbt to use profiles file (connection strings) in the project root directory
https://kzzzr.github.io/CORE-DWH-building-a-common-foundation/
Back from the weekend with a new small post.
Now describing how to configure data sources for dbt project:
https://kzzzr.github.io/Configuring-data-sources-for-dbt/
Now describing how to configure data sources for dbt project:
https://kzzzr.github.io/Configuring-data-sources-for-dbt/
28 апреля в 17.00 говорим о моделировании данных для аналитики и dbt.
Готовлю интересную программу и время для ответов на вопросы.
Зарегистрироваться.
Готовлю интересную программу и время для ответов на вопросы.
Зарегистрироваться.
owox
Transform your data into actionable insights with OWOX BI
Find your growth areas and achieve marketing goals faster with high-quality forecasts and useful insights from OWOX BI.
DWH staging area serves the following key purposes:
- Pointing to source data tables
- Listing available columns
- Generating surrogate keys
- Simple joins are performed
- Rows are filtered
https://kzzzr.github.io/Populating-DWH-staging-area/
- Pointing to source data tables
- Listing available columns
- Generating surrogate keys
- Simple joins are performed
- Rows are filtered
https://kzzzr.github.io/Populating-DWH-staging-area/
Covering models with schema tests:
– Uniqueness of keys
– Not null constraint
– Foreign keys (relationships test)
– Table not empty
There are precisely 335 tests for 56 models which stands for around 600% test coverage.
https://kzzzr.github.io/Covering-models-with-schema-tests/
– Uniqueness of keys
– Not null constraint
– Foreign keys (relationships test)
– Table not empty
There are precisely 335 tests for 56 models which stands for around 600% test coverage.
https://kzzzr.github.io/Covering-models-with-schema-tests/
Слайды с моего сегодняшнего доклада на конференции Power BI Russia
Ключевые тезисы:
– Шаг моделирования данных – необходимость, а не роскошь
– Power BI – отличный инструмент, но иногда его становится недостаточно
– Power BI ограничен в объеме данных
– Неоптимальные обновления и расчеты
– Поддержка большого количества метрик превращается в испытание
– Одновременная работа над PBIX может сломать отчеты
– Version control для отката и восстановления истории изменений
– Импорт готовых проектов и дашбордов для разных клиентов
– Альтернативный BI – рано или поздно Power BI захочется поменять
https://drive.google.com/file/d/1-w4KyLQHZ-jlZ6cbui-nsUKHK1A4g5GV/view?usp=sharing
Ключевые тезисы:
– Шаг моделирования данных – необходимость, а не роскошь
– Power BI – отличный инструмент, но иногда его становится недостаточно
– Power BI ограничен в объеме данных
– Неоптимальные обновления и расчеты
– Поддержка большого количества метрик превращается в испытание
– Одновременная работа над PBIX может сломать отчеты
– Version control для отката и восстановления истории изменений
– Импорт готовых проектов и дашбордов для разных клиентов
– Альтернативный BI – рано или поздно Power BI захочется поменять
https://drive.google.com/file/d/1-w4KyLQHZ-jlZ6cbui-nsUKHK1A4g5GV/view?usp=sharing
pbiconf.ru
Power BI Russia Conf 2021
Конференция по Power BI для бизнеса и для аналитиков
Establishing Integration Tests and CI
I find it pretty hard to build on top of the CORE DWH module if it is not stable enough. Testing of the whole module during every patch and PR and before you can use it ensures quality and reliability. That is where Integration tests and CI come essential.
The workflow is defined like this:
1. Triggered on Pull Requests to master branch.
2. Spins up an already familiar MS SQL Server database in a container as a service.
3. Performs several sequential steps: checking out the code, filling source tables from csv files, running models, testing them, cleaning up.
4. Provides context with environment variables (connections details, target database schema name)
https://kzzzr.github.io/Establishing-integration-tests-and-CI/
I find it pretty hard to build on top of the CORE DWH module if it is not stable enough. Testing of the whole module during every patch and PR and before you can use it ensures quality and reliability. That is where Integration tests and CI come essential.
The workflow is defined like this:
1. Triggered on Pull Requests to master branch.
2. Spins up an already familiar MS SQL Server database in a container as a service.
3. Performs several sequential steps: checking out the code, filling source tables from csv files, running models, testing them, cleaning up.
4. Provides context with environment variables (connections details, target database schema name)
https://kzzzr.github.io/Establishing-integration-tests-and-CI/
Now I would like to pin a specific version of code to a tag and release.
Importing this module becomes as simple as this:
https://kzzzr.github.io/Releasing-CORE-DWH-version/
Importing this module becomes as simple as this:
packages.yml:
packages:
- git: "https://github.com/kzzzr/mybi-dbt-core.git"
revision: 0.2.0
https://kzzzr.github.io/Releasing-CORE-DWH-version/
