Запись эфира про B2B-аналитику 👇
Спасибо всем, кто смотрел нас в прямом эфире и задавал вопросы! Говорят, получилось лампово и интересно🫰
Если не успели подключиться в онлайне, делимся записью:
📱 Обсуждаем интересное про B2B-аналитику
Остались вопросы или хотите поделиться своими мыслями? Ждем вас в комментариях!
И расскажите, на какую тему интересно посмотреть следующий эфир?
Спасибо всем, кто смотрел нас в прямом эфире и задавал вопросы! Говорят, получилось лампово и интересно
Если не успели подключиться в онлайне, делимся записью:
Остались вопросы или хотите поделиться своими мыслями? Ждем вас в комментариях!
И расскажите, на какую тему интересно посмотреть следующий эфир?
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
B2B-аналитика: когда вижена не достаточно
В новом эфире говорим про B2B-аналитику – зачем она вообще нужна, в чем ее главная сложность и можно ли полностью довериться бизнесу.
Спикеры:
🟠 Дима Карпов — Product lead IT B2B Pizza;
🟠 Юра Гельман — Product analytics lead B2B;
🎙 Ведущий: Дима Павлов…
Спикеры:
🟠 Дима Карпов — Product lead IT B2B Pizza;
🟠 Юра Гельман — Product analytics lead B2B;
🎙 Ведущий: Дима Павлов…
🔥7❤6👍4💩1🤡1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥29❤7👏2💩1🤡1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥32❤6👏3💩1🤡1🤣1
Если вам лень слушать или вы все еще не понимаете, что происходит — рассказываем!
На связи Женя и Глеб из команды Data Platform 👋
Сейчас мы в Сан-Франциско, куда прилетели выступить на Data + AI Summit 2025 — крупнейшей конференции про данные, аналитику и искусственный интеллект. Там будет 20 тысяч гиков и визионеров со всего мира! И мы там среди спикеров 😎
На ближайшую неделю мы захватываем этот канал и будем вести репортаж с места событий:
✔️ покажем закулисье конференции;
✔️ поделимся мыслями с крутых докладов;
✔️ расскажем, что можно утащить в работу;
✔️ возможно, еще заценим местную пиццу (без конкуренции, конечно).
В следующем посте расскажем подробнее про наше выступление, а пока — напишите, что вам интереснее всего узнать? О чем еще рассказывать и что показывать ближайшую неделю? 👀
На связи Женя и Глеб из команды Data Platform 👋
Сейчас мы в Сан-Франциско, куда прилетели выступить на Data + AI Summit 2025 — крупнейшей конференции про данные, аналитику и искусственный интеллект. Там будет 20 тысяч гиков и визионеров со всего мира! И мы там среди спикеров 😎
На ближайшую неделю мы захватываем этот канал и будем вести репортаж с места событий:
В следующем посте расскажем подробнее про наше выступление, а пока — напишите, что вам интереснее всего узнать? О чем еще рассказывать и что показывать ближайшую неделю? 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
❤34🔥14👏4💩1🤡1🤣1
Привет, это Женя! В этом посте хочу кратко рассказать суть нашего доклада на Data Summit.
Тема нашей презентации – Building a Self-Service Data Platform With a Small Data Team. Она хорошо отражает суть выступления.
В Dodo Brands высокий спрос на аналитику со стороны бизнеса, причем от абсолютно разных доменов — от операционки до HR. А ещё у нас много партнеров-франчайзи, которым тоже нужен доступ к данным для принятия бизнес-решений.
У нас нет дата-департамента из 50 дата-инженеров — для нас это дорого. Так что мы уже несколько лет строим работу с данными по приниципу self-service: так, чтобы пользователи могли построить дата-пайплайн или дашборд либо с минимальным участием дата-инженеров, либо без него.
Для этого был создан проект job-generator. Он автоматически генерит PySpark-джобы и пайплайны на основе Jinja2-шаблонов. Всю boilerplate-логику вынесли в jinja-шаблоны. Пользователю остаётся выбрать верный шаблон и закоммитить пару конфигов в github. Из них джоба будет создана джоб-генератором и задеплена в Databricks. В реальности процесс чуть сложнее, но вкратце — так 🤓
Спустя 4 года могу сказать, что идея «взлетела»: в нашем Databricks сейчас крутятся больше 1700 джоб, и примерно 90% из них были созданы самими пользователями через config driven development и джоб-генератор. И только ~10% — это написанные «вручную» от начала до конца джобы. Вот так!
Тема нашей презентации – Building a Self-Service Data Platform With a Small Data Team. Она хорошо отражает суть выступления.
В Dodo Brands высокий спрос на аналитику со стороны бизнеса, причем от абсолютно разных доменов — от операционки до HR. А ещё у нас много партнеров-франчайзи, которым тоже нужен доступ к данным для принятия бизнес-решений.
У нас нет дата-департамента из 50 дата-инженеров — для нас это дорого. Так что мы уже несколько лет строим работу с данными по приниципу self-service: так, чтобы пользователи могли построить дата-пайплайн или дашборд либо с минимальным участием дата-инженеров, либо без него.
Для этого был создан проект job-generator. Он автоматически генерит PySpark-джобы и пайплайны на основе Jinja2-шаблонов. Всю boilerplate-логику вынесли в jinja-шаблоны. Пользователю остаётся выбрать верный шаблон и закоммитить пару конфигов в github. Из них джоба будет создана джоб-генератором и задеплена в Databricks. В реальности процесс чуть сложнее, но вкратце — так 🤓
Спустя 4 года могу сказать, что идея «взлетела»: в нашем Databricks сейчас крутятся больше 1700 джоб, и примерно 90% из них были созданы самими пользователями через config driven development и джоб-генератор. И только ~10% — это написанные «вручную» от начала до конца джобы. Вот так!
🔥18❤9👏8🤔1💩1🤡1
Вопрос от админов: в офис какой компании отправился Глеб?
Anonymous Poll
22%
Airbnb 🏡
18%
Uber 🚗
23%
Salesforce ☁️
37%
Meta 📱(запрещенная на территории РФ организация)
🤡10❤5💩2🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥15👍10❤🔥5💩1🤡1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
👍12🔥11❤🔥5❤1💩1🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
❤🔥12🔥10❤4💩1🤡1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
❤🔥11🔥10❤4💩1🤡1🤣1
Бейджик спикера успешно получен! Кстати, сказали, что его нельзя терять, потому что за это штраф 100 долларов :(
❤🔥17🔥11❤3💩1🤡1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥20❤🔥11❤4🤡2💩1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥16❤🔥7👏6🍓1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥16❤🔥6🍓4🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥14❤🔥6👏2🍓1
Как мы вообще попали на Data + AI Summit?
Привет, это Женя! Выше — самый частый вопрос, который нам задают. Но никакого секрета здесь нет — процедура обычная.
Посмотрев на программу прошлых лет, мне показалось, что рассказ о нашем продукте на этой площадке был бы «в тему». Да и коллеги уже выступали там в 2022 году — рассказывали, как интегрировали Apache Superset в Dodo IS.
Я говорю «показалось», потому что когда много лет работаешь над чем-то одним, глаз замыливается. Ты просто перестаешь понимать, делаешь ли ты что-то интересное(было такое?) .
Дальше мы связались с Databricks, организаторами конференции. Мы уже несколько лет являемся их клиентами, и они в общих чертах представляют, что мы делаем. Мы показали им проект в деталях, он им показался очень интересным — нашу заявку сразу отправили на рассмотрение.
Гарантий, что она пройдёт отбор, не было, но ещё до подачи нам сказали: «Ребят, на наш взгляд, выглядит интересно. Мы уверены, что и аудитории будет любопытно послушать».
Многие компании хотят внедрять у себя data-driven решения, но не все могут позволить дата-департамент в 500 человек. Значит ли это, что с маленькой командой инженеров невозможно выстроить эффективный процесс работы с данными? На наш взгляд, нет, и мы решили поделиться своим опытом создания подобного self-service решения.
По итогу, фидбек на нашу заявку оказался положительным, и буквально через неделю её утвердили :) Ну а дальше была подготовка презентации, прогоны, и вот мы тут!
Привет, это Женя! Выше — самый частый вопрос, который нам задают. Но никакого секрета здесь нет — процедура обычная.
Посмотрев на программу прошлых лет, мне показалось, что рассказ о нашем продукте на этой площадке был бы «в тему». Да и коллеги уже выступали там в 2022 году — рассказывали, как интегрировали Apache Superset в Dodo IS.
Я говорю «показалось», потому что когда много лет работаешь над чем-то одним, глаз замыливается. Ты просто перестаешь понимать, делаешь ли ты что-то интересное
Дальше мы связались с Databricks, организаторами конференции. Мы уже несколько лет являемся их клиентами, и они в общих чертах представляют, что мы делаем. Мы показали им проект в деталях, он им показался очень интересным — нашу заявку сразу отправили на рассмотрение.
Гарантий, что она пройдёт отбор, не было, но ещё до подачи нам сказали: «Ребят, на наш взгляд, выглядит интересно. Мы уверены, что и аудитории будет любопытно послушать».
Многие компании хотят внедрять у себя data-driven решения, но не все могут позволить дата-департамент в 500 человек. Значит ли это, что с маленькой командой инженеров невозможно выстроить эффективный процесс работы с данными? На наш взгляд, нет, и мы решили поделиться своим опытом создания подобного self-service решения.
По итогу, фидбек на нашу заявку оказался положительным, и буквально через неделю её утвердили :) Ну а дальше была подготовка презентации, прогоны, и вот мы тут!
🔥22👏17🍓6🌚3