26 октября (среда) в 20:00 проведу вебинар:
Работа с ГЕО-данными в DWH: координаты, зоны, агрегация
– Привязка событий к зонам на карте города
– Агрегирование и аналитика данных с помощью H3 (гексагоны)
– Оптмизация расчетов и производительности, кэширование
Расскажу подробно, как это устроено в проекте Wheely, над которым я работаю.
Как и зачем индексировать данные (например, с использованием библиотеки H3 от Uber).
Выполнение гео-операций, проверка вхождения точки в конкретные зоны (аэропорты, вокзалы, ТЦ, районы города).
⬇️ Ссылка на YouTube-трансляцию будет в этом канале
🌐 @data_apps | Навигация по каналу
Работа с ГЕО-данными в DWH: координаты, зоны, агрегация
– Привязка событий к зонам на карте города
– Агрегирование и аналитика данных с помощью H3 (гексагоны)
– Оптмизация расчетов и производительности, кэширование
Расскажу подробно, как это устроено в проекте Wheely, над которым я работаю.
Как и зачем индексировать данные (например, с использованием библиотеки H3 от Uber).
Выполнение гео-операций, проверка вхождения точки в конкретные зоны (аэропорты, вокзалы, ТЦ, районы города).
⬇️ Ссылка на YouTube-трансляцию будет в этом канале
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6
Data Apps Design
26 октября (среда) в 20:00 проведу вебинар: Работа с ГЕО-данными в DWH: координаты, зоны, агрегация – Привязка событий к зонам на карте города – Агрегирование и аналитика данных с помощью H3 (гексагоны) – Оптмизация расчетов и производительности, кэширование…
Запись вебинара в YouTube: https://www.youtube.com/watch?v=IS5PIOhXLdk
Посмотреть слайды можно по ссылке:
https://docs.google.com/presentation/d/1Z-SLGvpHL2CbguVS-71-eCW6-I1olkrQxJhIPKtnKps/edit?usp=sharing
🌐 @data_apps | Навигация по каналу
Посмотреть слайды можно по ссылке:
https://docs.google.com/presentation/d/1Z-SLGvpHL2CbguVS-71-eCW6-I1olkrQxJhIPKtnKps/edit?usp=sharing
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Работа с ГЕО-данными в DWH: координаты, зоны, агрегация // Демо-занятие курса «Data Engineer»
На открытом уроке рассмотрим:
- Привязка событий к зонам на карте города;
- Агрегирование и аналитика данных с помощью H3 (гексагоны);
- Оптмизация расчетов и производительности, кэширование.
«Data Engineer» - https://otus.pw/4Ogq/
Преподаватель: Артемий…
- Привязка событий к зонам на карте города;
- Агрегирование и аналитика данных с помощью H3 (гексагоны);
- Оптмизация расчетов и производительности, кэширование.
«Data Engineer» - https://otus.pw/4Ogq/
Преподаватель: Артемий…
👍5🔥1
Важнейшие критерии при выборе Extract – Load решения для интеграции данных в DWH
В публикации резюмирую свои знания:
— Каталог поддерживаемых источников и приемников данных.
— Метод чтения данных из источников (Extract).
— Способы репликации в целевое Хранилище (Load).
— Работа с изменениями структуры данных (Schema Evolution).
— Трансформации перед загрузкой данных (EtLT).
— Тип развертывания решения (Deployment).
Буду объяснять и показывать примеры на сервисах, которые использовал сам: Hevo Data, Fivetran, Airbyte. Однако критерии универсальны и применимы для любых других систем подобного класса.
Читать на Хабр →
#Pipelines #ELT
🌐 @data_apps | Навигация по каналу
В публикации резюмирую свои знания:
— Каталог поддерживаемых источников и приемников данных.
— Метод чтения данных из источников (Extract).
— Способы репликации в целевое Хранилище (Load).
— Работа с изменениями структуры данных (Schema Evolution).
— Трансформации перед загрузкой данных (EtLT).
— Тип развертывания решения (Deployment).
Буду объяснять и показывать примеры на сервисах, которые использовал сам: Hevo Data, Fivetran, Airbyte. Однако критерии универсальны и применимы для любых других систем подобного класса.
Читать на Хабр →
#Pipelines #ELT
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Важнейшие критерии при выборе Extract – Load решения для интеграции данных в DWH
Если вопросы о том, зачем нужна интеграция данных, в чем различия ETL и ELT, как правило уже не требуют пояснений и ответов, и очевидны почти всем, то вопросы о том, какой именно Extract - Load сервис...
🔥7👍3
Databricks - пока понятно то, что ничего непонятно
Пробую Databricks
– Установка в свой аккаунт AWS, сделать может только администратор (это не я) - ОК
– Развертывание в Cloud Formation Stack в пару кликов, вроде удобно. Однако очень сложно понять, что происходит и зачем: S3, IAM, Lambda, CopyZips(??)
– Сразу поднялись 3 жирных EC2 Instances i3.xlarge (зачем??), явным образом меня об этом не спросили, это не было очевидно
– Очень много текста в документации, но хочется поглотить всё
Кто пользуется Databricks?
Какие самые главные советы можете дать?
Пробую Databricks
– Установка в свой аккаунт AWS, сделать может только администратор (это не я) - ОК
– Развертывание в Cloud Formation Stack в пару кликов, вроде удобно. Однако очень сложно понять, что происходит и зачем: S3, IAM, Lambda, CopyZips(??)
– Сразу поднялись 3 жирных EC2 Instances i3.xlarge (зачем??), явным образом меня об этом не спросили, это не было очевидно
– Очень много текста в документации, но хочется поглотить всё
Кто пользуется Databricks?
Какие самые главные советы можете дать?
21 ноября (понедельник) в 20:00 проведу вебинар:
🚀 Аналитика продуктивности команд разработки на основе данных Github 🚀
Вы узнаете:
🔹 Каким образом собирать события организации из Github (Webhook, Airbyte)
🔹 С помощью чего осуществить парсинг, трансформации, сборку витрин данных (dbt)
🔹 Как приготовить метрики: PR Rate, Time to Review / Merge (Looker)
Кому подходит:
🔹 Начинающим и продолжающим специалистам в области Аналитики данных, Data Engineering
🔹 Тем, кто интересуется современными подходами организации Хранилищ Данных
🔹 Руководителям команд разработки, менеджерам и даже CTO
Результаты:
🔹 Познакомитесь с современными инструментами организации DWH
🔹 Поймете, как устроены процессы разработки ПО в современных компаниях
🔹 Получите понимание, какие метрики интересуют руководителей разработки
Регистрация по ссылке →
⬇️ Ссылка на YouTube-трансляцию будет в этом канале за час до начала
#webinars
🌐 @data_apps | Навигация по каналу
🚀 Аналитика продуктивности команд разработки на основе данных Github 🚀
Вы узнаете:
🔹 Каким образом собирать события организации из Github (Webhook, Airbyte)
🔹 С помощью чего осуществить парсинг, трансформации, сборку витрин данных (dbt)
🔹 Как приготовить метрики: PR Rate, Time to Review / Merge (Looker)
Кому подходит:
🔹 Начинающим и продолжающим специалистам в области Аналитики данных, Data Engineering
🔹 Тем, кто интересуется современными подходами организации Хранилищ Данных
🔹 Руководителям команд разработки, менеджерам и даже CTO
Результаты:
🔹 Познакомитесь с современными инструментами организации DWH
🔹 Поймете, как устроены процессы разработки ПО в современных компаниях
🔹 Получите понимание, какие метрики интересуют руководителей разработки
Регистрация по ссылке →
⬇️ Ссылка на YouTube-трансляцию будет в этом канале за час до начала
#webinars
Please open Telegram to view this post
VIEW IN TELEGRAM
otus.ru
Data Warehouse Analyst
Моделирование данных, продвинутая аналитика, дашбординг, BI, ELT, аналитические СУБД
👍7🔥2
Data Apps Design
21 ноября (понедельник) в 20:00 проведу вебинар: 🚀 Аналитика продуктивности команд разработки на основе данных Github 🚀 Вы узнаете: 🔹 Каким образом собирать события организации из Github (Webhook, Airbyte) 🔹 С помощью чего осуществить парсинг, трансформации…
🚀 Аналитика продуктивности команд разработки на основе данных Github 🚀
🔹 Запись вебинара в YouTube: https://youtu.be/Y_xGZzI5sNI
🔹 Слайды: https://docs.google.com/presentation/d/187qBQGZWYpCkBAptNCCgHr8YZonMuHuwiZ6GlN5XMBY/edit?usp=sharing
🌐 @data_apps | Навигация по каналу
🔹 Запись вебинара в YouTube: https://youtu.be/Y_xGZzI5sNI
🔹 Слайды: https://docs.google.com/presentation/d/187qBQGZWYpCkBAptNCCgHr8YZonMuHuwiZ6GlN5XMBY/edit?usp=sharing
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Аналитика продуктивности команд разработки на основе данных Github // курс «Data Warehouse Analyst»
Вы узнаете:
- Каким образом собирать события организации из Github (Webhook, Airbyte)
- С помощью чего осуществить парсинг, трансформации, сборку витрин данных (dbt)
- Как приготовить метрики: PR Rate, Time to Review / Merge (Looker)
Кому подходит этот урок:…
- Каким образом собирать события организации из Github (Webhook, Airbyte)
- С помощью чего осуществить парсинг, трансформации, сборку витрин данных (dbt)
- Как приготовить метрики: PR Rate, Time to Review / Merge (Looker)
Кому подходит этот урок:…
👍4
💎 Операционализация аналитики c инструментами класса reverse ETL – опыт использования Census 💎
В публикации:
— Место reverse ETL в схеме потоков данных
— Потребность в решении задач операционной аналитики
— Различные способы организации reverse ETL
— Кейс: Census для синхронизации данных в Pipedrive CRM
Сегодня Операционная аналитика и практики reverse ETL - не столько дань моде, сколько насущная потребность многих компаний. Создать идеальное Хранилище мало, ведь данные создают ценность только тогда, когда вы способны их использовать.
Читать на Хабр →
#Pipelines #reverse-ETL
🌐 @data_apps | Навигация по каналу
В публикации:
— Место reverse ETL в схеме потоков данных
— Потребность в решении задач операционной аналитики
— Различные способы организации reverse ETL
— Кейс: Census для синхронизации данных в Pipedrive CRM
Сегодня Операционная аналитика и практики reverse ETL - не столько дань моде, сколько насущная потребность многих компаний. Создать идеальное Хранилище мало, ведь данные создают ценность только тогда, когда вы способны их использовать.
Читать на Хабр →
#Pipelines #reverse-ETL
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Операционализация аналитики c инструментами класса reverse ETL – опыт использования Census
Сегодня Операционная аналитика и практики reverse ETL - не столько дань моде, сколько насущная потребность многих компаний. Создать идеальное Хранилище мало, ведь данные...
⚡4👍1
🚀 Released myBI dbt Core and myBI Market showcase
⚙️ myBI dbt Core module allows quick start transformations on top of data synced by myBI Connect along with multiple useful macros.
— Supported Adapters: Clickhouse, PostgreSQL
— Reference any data source as simple as
— Leverage macros:
⚡️ myBI Market showcase guides you through building Modern Data Stack analytics:
— Configure environment
— Install and configure
— Configure data sources
— Build staging layer models
— Model Data Marts
— Visualize on a dashboard
— Publish dbt project docs
— Introduce Continuous Integration
Check it out and leave your comments and questions in Tg discussions.
I will follow up with detailed publications on Habr soon.
🌐 @data_apps | Навигация по каналу
⚙️ myBI dbt Core module allows quick start transformations on top of data synced by myBI Connect along with multiple useful macros.
— Supported Adapters: Clickhouse, PostgreSQL
— Reference any data source as simple as
select * from source('general', 'dates')
— Build staging layer in one command with filters on account_id applied, pre-join with date dimension, comprehensive data testing (unique, not_null, relationships)— Leverage macros:
source_filter_rows to limit rows for dev/test environments, any macro from dbt_utils package⚡️ myBI Market showcase guides you through building Modern Data Stack analytics:
— Configure environment
— Install and configure
mybi_dbt_core package— Configure data sources
— Build staging layer models
— Model Data Marts
— Visualize on a dashboard
— Publish dbt project docs
— Introduce Continuous Integration
Check it out and leave your comments and questions in Tg discussions.
I will follow up with detailed publications on Habr soon.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - kzzzr/mybi-dbt-core: dbt module for myBI connect
dbt module for myBI connect. Contribute to kzzzr/mybi-dbt-core development by creating an account on GitHub.
🔥7🤩1🏆1
Finishing a new Analytics Engineering Lab on Github
🚀 DWH powered by Clickhouse and dbt
– Build DWH powered by Clickhouse and dbt
– Deploy Infrastructure as Code with Terraform and Yandex.Cloud
– Instant development with Github Codespaces
– Assignment checks with Github Actions
#lab #modeling #dbt #iac
🚀 DWH powered by Clickhouse and dbt
– Build DWH powered by Clickhouse and dbt
– Deploy Infrastructure as Code with Terraform and Yandex.Cloud
– Instant development with Github Codespaces
– Assignment checks with Github Actions
#lab #modeling #dbt #iac
GitHub
GitHub - kzzzr/dbt_clickhouse_lab: DWH powered by Clickhouse and dbt
DWH powered by Clickhouse and dbt. Contribute to kzzzr/dbt_clickhouse_lab development by creating an account on GitHub.
👍4🔥2
⚡️ I have run a Proof of Concept with Redshift Serverless
And here's the summary:
— Reserving Redshift nodes is the best option given specific usage patterns.
— Reserved nodes are 30% cheaper than on-demand ones.
— Serverless doesn't show stable and production-ready results: faced with multiple query failures during data refresh.
— Moreover, Serverless will definitely cost more with the same usage patterns.
Read more →
#dbt #redshift #database #serverless
🌐 @data_apps | Навигация по каналу
And here's the summary:
— Reserving Redshift nodes is the best option given specific usage patterns.
— Reserved nodes are 30% cheaper than on-demand ones.
— Serverless doesn't show stable and production-ready results: faced with multiple query failures during data refresh.
— Moreover, Serverless will definitely cost more with the same usage patterns.
Read more →
#dbt #redshift #database #serverless
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Redshift Serverless PoC
Summary Reserving Redshift nodes is the best option given specific usage patterns. Reserved nodes are 30% cheaper than on-demand ones. Serverless doesn't show stable and production-ready results: faced with multiple query failures during data refresh. Moreover…
👍3⚡1🔥1
Why I use dev containers?
How to package dbt and dependencies to a reproducible container
– works almost instanty for you and team members
– latest stable dbt + adapter versions
– easy inividual secrets set up
– configuring multiple dbt targets
– fancy terminal: zsh + git plugin + shell history
+ 30 second gif live demo
Read more →
#dbt #dev #container
🌐 @data_apps | Навигация по каналу
How to package dbt and dependencies to a reproducible container
– works almost instanty for you and team members
– latest stable dbt + adapter versions
– easy inividual secrets set up
– configuring multiple dbt targets
– fancy terminal: zsh + git plugin + shell history
+ 30 second gif live demo
Read more →
#dbt #dev #container
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Why I use dev containers?
How to package dbt and dependencies to a reproducible container works almost instanty for you and team members latest stable dbt + adapter versions easy inividual secrets set up configuring multiple dbt targets fancy terminal: zsh + git plugin + shell history…
❤🔥3⚡1🍓1
What I value most in BI tool
❄️ I use Looker and totally satisfied with it.
Here's my list of features labeled with (H)igh, (M)edium and (L)ow priority and grouped by:
— Developer experience
— User experience
— Administration
— Monitoring, System activity
— Integrations & Apps
I used this list to compare different solutions against what I currently use to see if I can benefit from switching to another tool.
You can use it as reference to populate BI tool comparison matrix (included).
➡️ https://telegra.ph/What-I-value-most-in-BI-tool-03-14 →
#bi #tool #solution
🌐 @data_apps | Навигация по каналу
❄️ I use Looker and totally satisfied with it.
Here's my list of features labeled with (H)igh, (M)edium and (L)ow priority and grouped by:
— Developer experience
— User experience
— Administration
— Monitoring, System activity
— Integrations & Apps
I used this list to compare different solutions against what I currently use to see if I can benefit from switching to another tool.
You can use it as reference to populate BI tool comparison matrix (included).
➡️ https://telegra.ph/What-I-value-most-in-BI-tool-03-14 →
#bi #tool #solution
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
What I value most in BI tool
I use Looker and totally satisfied with it. Here's my list of features labeled with (H)igh, (M)edium and (L)ow priority. I used this list to compare different solutions against what I currently use to see if I can benefit from switching to another tool. You…
👍3
Аналитика ключевых метрик компании: dbt Metrics / Cube.js / LookML
Привет! 25 апреля Вт в 20:00 проведу вебинар на YouTube.
Рассмотрим на практике грани интересной темы:
🔸 Что такое семантический слой, и в чем разница между Метрикой и Витриной данных
🔸 Пути формирования метрик: SQL (ad-hoc), dbt Metrics package, Cube.js, LookML (Looker)
🔸 Примеры декларативной конфигурации dbt metrics в yaml
🔸 Как использовать продвинутые возможности dbt Metrics (derived metrics, secondary calculations)
Важные выводы и идеи при выборе решения:
🔸 Open source solutions vs. Vendor lock-in
🔸 Flexibility vs. Speed tradeoff (online queries vs. pre-materialized)
🔸 Access vs. Expressiveness (in-depth features vs. ease of use)
Если тема интересна, приходите на транcляцию - буду отвечать на вопросы, можно будет подискутировать.
❗ Ссылка будет в этом канале за 10-15 минут до начала трансляции.
#dbt #metrics #bi
🌐 @data_apps | Навигация по каналу
Привет! 25 апреля Вт в 20:00 проведу вебинар на YouTube.
Рассмотрим на практике грани интересной темы:
🔸 Что такое семантический слой, и в чем разница между Метрикой и Витриной данных
🔸 Пути формирования метрик: SQL (ad-hoc), dbt Metrics package, Cube.js, LookML (Looker)
🔸 Примеры декларативной конфигурации dbt metrics в yaml
🔸 Как использовать продвинутые возможности dbt Metrics (derived metrics, secondary calculations)
Важные выводы и идеи при выборе решения:
🔸 Open source solutions vs. Vendor lock-in
🔸 Flexibility vs. Speed tradeoff (online queries vs. pre-materialized)
🔸 Access vs. Expressiveness (in-depth features vs. ease of use)
Если тема интересна, приходите на транcляцию - буду отвечать на вопросы, можно будет подискутировать.
#dbt #metrics #bi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍7
❓Вопросы задавайте в комментарии к этому посту либо через чат:
https://otus.ru/lessons/event-chat/2847/
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Аналитика ключевых метрик компании с использованием dbt Metrics // Курс «Data Warehouse Analyst»
Вы узнаете:
- Что такое семантический слой и в чем разница между метрикой и витриной данных
- О правилах декларативной конфигурации метрик в yaml
- Как использовать продвинутые возможности dbt Metrics (derived metrics, secondary calculations)
Кому подходит…
- Что такое семантический слой и в чем разница между метрикой и витриной данных
- О правилах декларативной конфигурации метрик в yaml
- Как использовать продвинутые возможности dbt Metrics (derived metrics, secondary calculations)
Кому подходит…
🔥7
Data Apps Design
🔸 Запись вебинара: https://youtu.be/lb20Rrezszc
🔸 Слайды: https://docs.google.com/presentation/d/1pFxOjEW1lSdFLTWV6K0ebtuVCfNCKCRewUM_daxwPdM/edit?usp=sharing
🔸 Демо-проект на github: https://github.com/kzzzr/mybi-dbt-showcase#set-up-metrics-layer
🔸 Metrics layer PR (by commits): https://github.com/kzzzr/mybi-dbt-showcase/pull/6
#dbt #metrics #bi
🔸 Слайды: https://docs.google.com/presentation/d/1pFxOjEW1lSdFLTWV6K0ebtuVCfNCKCRewUM_daxwPdM/edit?usp=sharing
🔸 Демо-проект на github: https://github.com/kzzzr/mybi-dbt-showcase#set-up-metrics-layer
🔸 Metrics layer PR (by commits): https://github.com/kzzzr/mybi-dbt-showcase/pull/6
#dbt #metrics #bi
YouTube
Аналитика ключевых метрик компании с использованием dbt Metrics // Курс «Data Warehouse Analyst»
Вы узнаете:
- Что такое семантический слой и в чем разница между метрикой и витриной данных
- О правилах декларативной конфигурации метрик в yaml
- Как использовать продвинутые возможности dbt Metrics (derived metrics, secondary calculations)
Кому подходит…
- Что такое семантический слой и в чем разница между метрикой и витриной данных
- О правилах декларативной конфигурации метрик в yaml
- Как использовать продвинутые возможности dbt Metrics (derived metrics, secondary calculations)
Кому подходит…
👍9
Семантический слой для Аналитики ключевых метрик – dbt Metrics vs. Cube
🔸 Что такое семантический слой, и в чем разница между Метрикой и Витриной данных.
🔸 Пути формирования метрик: SQL (ad-hoc), UI, dbt Metrics, Cube.
🔸 Примеры декларативной конфигурации в YAML и использования метрик.
🔸 На что обращать внимание при выборе решения: Стек технологий, Доступность vs. Выразительнось, Гибкость vs. Скорость.
В продолжение последней темы - для тех, кто любит читать.
Читать на Habr →
🌐 @data_apps | Навигация по каналу
🔸 Что такое семантический слой, и в чем разница между Метрикой и Витриной данных.
🔸 Пути формирования метрик: SQL (ad-hoc), UI, dbt Metrics, Cube.
🔸 Примеры декларативной конфигурации в YAML и использования метрик.
🔸 На что обращать внимание при выборе решения: Стек технологий, Доступность vs. Выразительнось, Гибкость vs. Скорость.
В продолжение последней темы - для тех, кто любит читать.
Читать на Habr →
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Семантический слой для Аналитики ключевых метрик – dbt Metrics vs. Cube
Привет! Сегодня речь пойдет о семантическом слое метрик. В публикации рассмотрим на практике грани интересной темы: Что такое семантический слой, и в чем разница между Метрикой и Витриной данных. Пути...
👍1
Having extensive experience with Looker and dbt I've got several thoughts on
⚡️ Replacing Looker with Cube + Superset ⚡️
🔸 Future of BI and Analytics revolves around declarative metrics store and polyglot serving
— You set your metrics simple way, in a single store and version control them
— You then consume these metrics from wherever needed (BI, SQL, Apps, REST API)
🔸 Cube is a powerful rival to Looker
— Both support: Declarative Metrics, Dynamic SQL generation, Caching, RBAC
— Cube is Open Source while Looker is a vendor lock-in (which is tying your options and opportunities)
— Cube offers freemium plan while Looker is top-tier in terms of pricing
🔸 Cube still has got many things to improve
— Looker has fancy browser IDE with code-completion, syntax checks and built-in docs
— Cube is of a higher entry level in terms of: deployment, git, development, updates, etc.
— Looker supports flexible templating with Liquid: variables, dynamic joins, filters etc. enabling otherwise impossible opportunities
— Looker has impressive list of supported data sources and dialects
Apart from this Cube is not a visualization tool, so you will definitely need one on top of Cube (e.g. Superset, Metabase).
Looker has everything to be named top grade BI tool: rich dashboards, scheduling, alerting, API.
🔸 I would go on with Looker
— In case you have invested much into your LookML project and using it for a long period of time
— I would strongly consider using Cube with OSS BI tool if you are searching for a new stack or want to switch
#bi #looker #cube #metrics
⬇️ Share your thought if you've ever used Looker or Cube.
🌐 @data_apps | Навигация по каналу
⚡️ Replacing Looker with Cube + Superset ⚡️
🔸 Future of BI and Analytics revolves around declarative metrics store and polyglot serving
— You set your metrics simple way, in a single store and version control them
— You then consume these metrics from wherever needed (BI, SQL, Apps, REST API)
🔸 Cube is a powerful rival to Looker
— Both support: Declarative Metrics, Dynamic SQL generation, Caching, RBAC
— Cube is Open Source while Looker is a vendor lock-in (which is tying your options and opportunities)
— Cube offers freemium plan while Looker is top-tier in terms of pricing
🔸 Cube still has got many things to improve
— Looker has fancy browser IDE with code-completion, syntax checks and built-in docs
— Cube is of a higher entry level in terms of: deployment, git, development, updates, etc.
— Looker supports flexible templating with Liquid: variables, dynamic joins, filters etc. enabling otherwise impossible opportunities
— Looker has impressive list of supported data sources and dialects
Apart from this Cube is not a visualization tool, so you will definitely need one on top of Cube (e.g. Superset, Metabase).
Looker has everything to be named top grade BI tool: rich dashboards, scheduling, alerting, API.
🔸 I would go on with Looker
— In case you have invested much into your LookML project and using it for a long period of time
— I would strongly consider using Cube with OSS BI tool if you are searching for a new stack or want to switch
#bi #looker #cube #metrics
⬇️ Share your thought if you've ever used Looker or Cube.
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Replacing Looker with Cube + Superset
Agenda:
[00:00:00 - 00:02:35] Introductions
[00:02:36 - 00:08:13] Looker and why some are looking for alternatives
[00:08:14 - 00:28:15] Cube + Superset
[00:28:16 - 00:43:02] Demos (Cube: data modeling, caching/Superset: connecting to Cube, chart creation)…
[00:00:00 - 00:02:35] Introductions
[00:02:36 - 00:08:13] Looker and why some are looking for alternatives
[00:08:14 - 00:28:15] Cube + Superset
[00:28:16 - 00:43:02] Demos (Cube: data modeling, caching/Superset: connecting to Cube, chart creation)…
👍2
⚙️ Clickhouse is advancing at data integration
Apart from having fully-functional DB links to PostgreSQL and MySQL,
Clickhouse is also able to fetch data from any URL:
— No need for 3rd party tools (ELT)
— Extensive configurations for data formats and compression
— Do it SQL declarative way
— Works best with dbt modeling
Now I give you a brief example of how to sync data from external API (e.g. gSheets) to Clickhouse:
1. You create a table with URL engine pointing to external API either manually or using dbt macro
2. You register this table as a dbt source
3. You then reference this source anywhere in your dbt project
See the code →
#elt #integration #clickhouse #dbt
🌐 @data_apps | Навигация по каналу
Apart from having fully-functional DB links to PostgreSQL and MySQL,
Clickhouse is also able to fetch data from any URL:
— No need for 3rd party tools (ELT)
— Extensive configurations for data formats and compression
— Do it SQL declarative way
— Works best with dbt modeling
Now I give you a brief example of how to sync data from external API (e.g. gSheets) to Clickhouse:
1. You create a table with URL engine pointing to external API either manually or using dbt macro
2. You register this table as a dbt source
3. You then reference this source anywhere in your dbt project
See the code →
#elt #integration #clickhouse #dbt
Please open Telegram to view this post
VIEW IN TELEGRAM
Clickhouse
PostgreSQL | ClickHouse Docs
Allows to connect to databases on a remote PostgreSQL server.