⚡️ ⚡️ ⚡️ Прямо сейчас в эфире разбираем реальные бизнес-задачи с помощью SQL
Вступительная часть вебинара уже прошла — начинается самое интересное! Спикер: Александр Грудинин — Lead Data Analyst AdTech Holding и ментор курса «Аналитик данных».
Кому будет полезно?
🔹 Начинающим аналитикам, которые хотят выйти за рамки простых SELECT.
🔹 Опытным специалистам, которым нужно решать нестандартные задачи.
🔹 Всем, кто хочет писать эффективные запросы, а не просто знать синтаксис.
Вы еще успеваете подключиться и узнать самое важное!
➡️ Подключиться
Вступительная часть вебинара уже прошла — начинается самое интересное! Спикер: Александр Грудинин — Lead Data Analyst AdTech Holding и ментор курса «Аналитик данных».
Кому будет полезно?
🔹 Начинающим аналитикам, которые хотят выйти за рамки простых SELECT.
🔹 Опытным специалистам, которым нужно решать нестандартные задачи.
🔹 Всем, кто хочет писать эффективные запросы, а не просто знать синтаксис.
Вы еще успеваете подключиться и узнать самое важное!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Привет! Это Илья, аналитик данных в Додо Пицца и ментор курса «BI-аналитик» 👋
Работа аналитика напрямую связана с метриками продукта или бизнеса: их разработкой, мониторингом и исследованием. Но как выбирать «правильные» метрики и как с ними работать?
Ответ на этот вопрос строится на 3-х аспектах: понимание целей бизнеса, аналитическое мышление, продуктовое мышление и насмотренность.
Этот аспект стоит первым потому, что именно от того, насколько хорошо вы понимаете текущий запрос бизнеса, зависит качество результата вашей работы, как аналитика.
Совет тут один: четко формулируйте с заказчиками цель до начала решения задачи и удостоверьтесь в том, что вы видите ее одинаково. Ну и не бойтесь задавать глупые вопросы, если вдруг что-то непонятно. Лучше это сделать заранее, чем потратить множество сил на решение не той задачи.
В этот аспект я закладываю 2 характеристики: то, под каким углом вы смотрите на проблему и то, как вы ее декомпозируете.
Под углом взгляда на проблему я подразумеваю тот подход, который вы используете при анализе проблемы. На одну и ту же задачу можно посмотреть, как со стороны пути клиента (CJM), как с финансовой стороны (P&L), так и со стороны продукта в целом. Поэтому важно понимать базовые фреймворки и уметь их адаптировать под себя.
Примеры фреймворков: пиратские метрики, HEART, CJM, P&L.
Что касается декомпозиции, то базовый принцип — это MECE (Mutually Exclusive, Collectively Exhaustive). Его главная идея заключается в том, что каждая часть анализа должна быть чётко определена, не пересекаться с другими и охватывать всю проблемную область.
По моему мнению, это самый комплексный и сложный в освоении аспект из всех перечисленных выше. Это глубина погружения в бизнес-модель и домен продукта. Прокачать насмотренность можно тремя путями:
В любом случае, эти постулаты не высечены в камне — не стесняйтесь их комбинировать и адаптировать под себя, если это помогает достичь ваших целей
Если хотите глубже прокачать навыки работы с метриками и научиться принимать эффективные решения, приглашаю вас записаться на курс BI-аналитика с моим менторским сопровождением. Вместе мы разберём реальные кейсы и подготовимся к востребованной профессии. Жду вас в команде!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍3
Большинство историй о смене профессии — это путь «из офиса в IT». Но сегодня у нас в гостях человек с уникальной траекторией. Это история о том, как дух исследователя, умение начинать с нуля и не бояться меняться оказываются ценнее любого диплома.
Знакомьтесь, Елена — дизайнер, фотограф с публикацией в National Geographic и... будущий специалист в Data Science. Её путь доказывает, что жизненный опыт — это суперсила, а не помеха.
😶 Читайте интервью, мотивируйтесь и вдохновляйтесь!
❗️ Если вы тоже чувствуете в себе порыв сделать шаг в новое или прокачать скиллы — напоминаем, что завтра стартует новый поток курса «Аналитик данных».
Оставим тут нашу любимую цитату Елены из интервью:
#отзыв
➡️ Забронировать место на потоке
Знакомьтесь, Елена — дизайнер, фотограф с публикацией в National Geographic и... будущий специалист в Data Science. Её путь доказывает, что жизненный опыт — это суперсила, а не помеха.
Оставим тут нашу любимую цитату Елены из интервью:
Выбирайте не просто курсы, а среду. Мне было очень важно попасть в сообщество таких же целеустремленных и небезразличных людей, как в Simulative. Это дает невероятную силу и энергию.
#отзыв
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤9👍2👏1😢1
Привет, друзья! Команда Simulative на связи с классной новостью — сегодня стартует новый поток курса «Аналитик данных» и вы ещё успеваете вписаться со скидкой -20% (сгорает уже сегодня 🔥)!
Что вас ждёт на курсе:
🤔 Если сомневаетесь насчёт старта — читайте истории успеха наших студентов по хэштегу #отзыв и скорее бронируйте местечко на поток!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4
🧑🏻💻 Симулятор работы аналитика: решаем задачи бизнеса с помощью SQL
На следующей неделе мы продолжаем решать задачи бизнеса с помощью SQL.
На этот раз решим один из кейсов прямиком из программы курса-симулятора «Аналитик данных», где мы будем проводить исследование клиентской активности.
Что научимся делать на вебинаре:
🟠 Считать как менялось пиковое значение по ежедневному количеству регистраций на платформе.
🟠 Считать DAU за каждый день и попробовать его сгладить двумя способами: скользящим средним и медианным сглаживанием.
🟠 А также узнаем лучшие практики решения данных задач
Спикер: Павел Беляев, руководитель группы дата-аналитиков в компании Яндекс eLama и автор телеграм-канала «Тимлидское об аналитике».
❗️ Встречаемся 26 августа в 19:00 МСК
💬 Будет много практики, примеров и ответов на ваши вопросы.
➡️ Регистрация на вебинар
На следующей неделе мы продолжаем решать задачи бизнеса с помощью SQL.
На этот раз решим один из кейсов прямиком из программы курса-симулятора «Аналитик данных», где мы будем проводить исследование клиентской активности.
Что научимся делать на вебинаре:
Спикер: Павел Беляев, руководитель группы дата-аналитиков в компании Яндекс eLama и автор телеграм-канала «Тимлидское об аналитике».
💬 Будет много практики, примеров и ответов на ваши вопросы.
➡️ Регистрация на вебинар
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤4👍4
Всем привет! На связи Александр Грудинин, ментор курса «Аналитик данных» 👋
В начале недавнего вебинара, на котором мы решали разные бизнес-кейсы с помощью SQL, я спросил у участников, кто как оценивает свой уровень владения этим языком программирования по шкале от 0 до 5.
Спустя какое-то время и пару задач, поступил один занятный комментарий в чате. Не помню дословно, но коллега отметил, что посмотрев на задачи и способы их решения, он осознал, что переоценил свои навыки SQL🙂
Вспоминая это, я вернулся во времена, когда работал в крупном банке и столкнулся с одним монструозным процессом, под капотом которого было 4 SQL скрипта — каждый длинной в 1000-1500 строк.
Скрипты бегали по разным источникам, собирали данные по клиентам, агрегировали, считали, фильтровали и т.д. и т.п. И во всем этом зоопарке надо было разобраться: научиться вносить изменения так, чтобы на проде ничего не легло и отслеживать какие изменения за собой повлекут изменения двух-трех строк кода или одного порогового значения.
Я тогда тоже подумал, что, пожалуй, до этого SQL я и не знал.
Но, как говорится, «глаза боятся — руки делают». Со временем, работа с этим «монстром» превратилась в рутинную задачу 🙂
И выработался ряд советов / полезных практик для работы с большими скриптами:
1️⃣ Уменьшайте размер данных на этапе построения / отладки скрипт
2️⃣ Используйте временные / промежуточные таблицы
3️⃣ Сохраните результаты работы оригинального скрипта.
4️⃣ Спросите совета у коллег :)
В процессе работы с длинными скриптами, мой скилл в SQL определенно прокачался. Поэтому не стоит бояться трудных задач — они делают вас только лучше как профессионала.
Ну и еще не совет, а скорее, добрая рекомендация — приходите к нам на поток курса «Аналитик данных». Он уже стартовал, но вы ещё успеваете присоединиться. Будем прокачивать скиллы вместе.
В начале недавнего вебинара, на котором мы решали разные бизнес-кейсы с помощью SQL, я спросил у участников, кто как оценивает свой уровень владения этим языком программирования по шкале от 0 до 5.
Спустя какое-то время и пару задач, поступил один занятный комментарий в чате. Не помню дословно, но коллега отметил, что посмотрев на задачи и способы их решения, он осознал, что переоценил свои навыки SQL🙂
Вспоминая это, я вернулся во времена, когда работал в крупном банке и столкнулся с одним монструозным процессом, под капотом которого было 4 SQL скрипта — каждый длинной в 1000-1500 строк.
Скрипты бегали по разным источникам, собирали данные по клиентам, агрегировали, считали, фильтровали и т.д. и т.п. И во всем этом зоопарке надо было разобраться: научиться вносить изменения так, чтобы на проде ничего не легло и отслеживать какие изменения за собой повлекут изменения двух-трех строк кода или одного порогового значения.
Я тогда тоже подумал, что, пожалуй, до этого SQL я и не знал.
Но, как говорится, «глаза боятся — руки делают». Со временем, работа с этим «монстром» превратилась в рутинную задачу 🙂
И выработался ряд советов / полезных практик для работы с большими скриптами:
Не нужно писать скрипт используя сразу миллионы строк которые есть в БД. Начните с данных за один час, данных только одного клиента и т.п. В общем, сделайте так, чтобы скрипт выполнялся быстро и вы могли максимально оперативно вносить в него изменения на этапе разработки.
В каждой СУБД свой синтаксис для этого, так что придется погуглить, как это делается конкретно у вас :)
Если у вас большой и составной скрипт, а вам надо поработать над изменениями в определенной его части, например, в середине, то сохраните результаты первой части запроса во временную / промежуточную таблицу и уже обращайтесь при отладке к ней. Таким образом, вы сэкономите много времени.
Перед внесением правок, сохраните эталонный результат, чтобы было потом с чем сравнивать «а что же изменилось».
Как-то же они до вас дорабатывали и поддерживали этот скрипт / процесс. Наверняка найдется пара лайфхаков, которые помогут вам в работе. Не бойтесь показаться некомпетентным — все знать невозможно, тем более невозможно сразу разобраться в особенностях каждого конкретного решения. Коллеги отнесутся с пониманием, а если это здоровый коллектив, то такие вопросы будут даже приветствоваться.
В процессе работы с длинными скриптами, мой скилл в SQL определенно прокачался. Поэтому не стоит бояться трудных задач — они делают вас только лучше как профессионала.
Ну и еще не совет, а скорее, добрая рекомендация — приходите к нам на поток курса «Аналитик данных». Он уже стартовал, но вы ещё успеваете присоединиться. Будем прокачивать скиллы вместе.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23
Привет, на связи команда Simulative! 👋
У нас отличная новость — мы добавили в обучение функцию, которую многие давно ждали!
Теперь, решив задачу правильно, вы сможете увидеть, как с ней справились другие пользователи.
Учитесь на чужих подходах и находите самые элегантные решения. Кнопка «Решения пользователей» уже появилась в меню у автозадач.
❗️ Кстати, хотите увидеть, как решают задачки не только студенты, но и гуру аналитики?
Приходите завтра на бесплатный вебинар, где Павел Беляев — руководитель группы дата-аналитиков в компании Яндекс eLama покажет, как решать бизнес-задачи с помощью SQL.
Что будем делать на вебинаре:
🟠 Считать, как менялось пиковое значение по ежедневному количеству регистраций на платформе.
🟠 Считать DAU за каждый день и попробовать его сгладить двумя способами: скользящим средним и медианным сглаживанием.
🟠 А также узнаем лучшие практики решения данных задач
➡️ Зарегистрироваться
У нас отличная новость — мы добавили в обучение функцию, которую многие давно ждали!
Теперь, решив задачу правильно, вы сможете увидеть, как с ней справились другие пользователи.
Учитесь на чужих подходах и находите самые элегантные решения. Кнопка «Решения пользователей» уже появилась в меню у автозадач.
Приходите завтра на бесплатный вебинар, где Павел Беляев — руководитель группы дата-аналитиков в компании Яндекс eLama покажет, как решать бизнес-задачи с помощью SQL.
Что будем делать на вебинаре:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤7👍6😁1
Привет! На связи Павел, руководитель группы дата-аналитиков в компании Яндекс eLama 👋
Сегодня на вебинаре разберем две практические задачи, которые помогут вам лучше понять поведение пользователей на вашем продукте. Речь пойдет о ежедневной аудитории и регистрациях.
1️⃣ DAU (Daily Active Users) — ключевая метрика, но она часто бывает «зубастой». Выходные, праздники, запуск рекламы — всё это создает шумы и всплески, которые мешают увидеть настоящий тренд.
Решение: применим два популярных метода сглаживания.
Скользящее среднее (Moving Average)
Это среднее значение метрики за предыдущие N дней (например, за 7 дней). Оно отлично скрывает weekly-seasonality (всплески на выходных) и показывает общий тренд.
Медианное сглаживание (Median Smoothing)
Медиана более устойчива к выбросам (аномальным всплескам или провалам). Если в ваших данных внезапно был «пик» из-за одноразового события, скользящая медиана не даст ему сильно исказить общую картину.
2️⃣ Анализ пиковых регистраций. Как менялись рекорды?
Просто смотреть на общее число регистраций в день — мало. Интереснее ответить на вопрос: «Как наша платформа росла в моменте своего максимального успеха?».
Для этого мы можем посчитать самое высокое пиковое значение регистраций нарастающим итогом.
Суть: для каждого дня мы находим максимальное количество регистраций, которое было достигнуто за всю историю до этого дня.
Этот простой метод наглядно показывает, в какие именно моменты ваш продукт бил свои же рекорды по привлечению новых пользователей. Отличный способ визуализировать ключевые точки роста!
✨ Сегодня на вебинаре мы научимся:
— Считать DAU за каждый день и попробовать его сгладить двумя способами: скользящим средним и медианным сглаживанием.
— Считать, как менялось пиковое значение по ежедневному количеству регистраций на платформе.
➡️ Регистрация на вебинар
Сегодня на вебинаре разберем две практические задачи, которые помогут вам лучше понять поведение пользователей на вашем продукте. Речь пойдет о ежедневной аудитории и регистрациях.
1️⃣ DAU (Daily Active Users) — ключевая метрика, но она часто бывает «зубастой». Выходные, праздники, запуск рекламы — всё это создает шумы и всплески, которые мешают увидеть настоящий тренд.
Решение: применим два популярных метода сглаживания.
Скользящее среднее (Moving Average)
Это среднее значение метрики за предыдущие N дней (например, за 7 дней). Оно отлично скрывает weekly-seasonality (всплески на выходных) и показывает общий тренд.
Медианное сглаживание (Median Smoothing)
Медиана более устойчива к выбросам (аномальным всплескам или провалам). Если в ваших данных внезапно был «пик» из-за одноразового события, скользящая медиана не даст ему сильно исказить общую картину.
2️⃣ Анализ пиковых регистраций. Как менялись рекорды?
Просто смотреть на общее число регистраций в день — мало. Интереснее ответить на вопрос: «Как наша платформа росла в моменте своего максимального успеха?».
Для этого мы можем посчитать самое высокое пиковое значение регистраций нарастающим итогом.
Суть: для каждого дня мы находим максимальное количество регистраций, которое было достигнуто за всю историю до этого дня.
Этот простой метод наглядно показывает, в какие именно моменты ваш продукт бил свои же рекорды по привлечению новых пользователей. Отличный способ визуализировать ключевые точки роста!
✨ Сегодня на вебинаре мы научимся:
— Считать DAU за каждый день и попробовать его сгладить двумя способами: скользящим средним и медианным сглаживанием.
— Считать, как менялось пиковое значение по ежедневному количеству регистраций на платформе.
➡️ Регистрация на вебинар
🔥7❤4👍3
🔥 Прямо сейчас в эфире разбираем реальные бизнес-задачи с помощью SQL
Вступительная часть вебинара уже прошла —начинается самое интересное! Спикер: Павел Беляев — руководитель группы дата-аналитиков в компании Яндекс eLama покажет, как решать бизнес-задачи с помощью SQL.
➡️ Смотреть трансляцию
Вступительная часть вебинара уже прошла —начинается самое интересное! Спикер: Павел Беляев — руководитель группы дата-аналитиков в компании Яндекс eLama покажет, как решать бизнес-задачи с помощью SQL.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤2
Встречайте: Георгий Семенов, Chief Data Officer, ментор нового потока курса «Инженер данных».
➡️ Узнать подробности и оставить заявку
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤8👍3
Всем привет! На связи Георгий Семенов, Chief Data Officer и ментор нового потока курса «Инженер данных» 👋🏻
Мой путь в инжиниринг данных шёл через аналитику, но не совсем типично.
9 лет назад я работал менеджером продукта в небольшом ламповом финтех-стартапе, где мне приходилось выполнять совершенно разные функции, включая продуктовую аналитику, поскольку отдельного специалиста в команде не было. Я неплохо орудовал SQL и Excel. Но в какой-то момент понял, что на аналитику уходит половина моего времени.
Тогда у меня возникло две мысли:
🟠 Автоматизировать рутинные расчеты, чтобы тратить на них меньше времени.
🟠 Поднять BI-инструмент, чтобы коллеги могли сами быстро посчитать что-то простое.
Так я и сделал. Написал скрипты, которые делали регулярные расчеты, и поставил их на расписание. Для этого мне пришлось изучить Python, Docker, Airflow и другие новые для себя штуки.
Посмотрел бесплатные BI-инструменты — остановился на Superset, развернул его, настроил основные дашборды, и обучил коллег (особенно неайтишных) им пользоваться.
Тогда я нашел себя, и понял, что хочу не только создавать продукты, основываясь на данных, но создавать продукты, основанные на данных, где данные — один из ключевых элементов самого продукта.
А для этого нужно уметь бесперебойно собирать, хранить и обрабатывать данные, предоставлять удобный доступ к ним и обеспечивать высокое качество не только самих данных, но также всех связанных процессов и инструментов.
Я начал развиваться в эту сторону в компаниях, где эти задачи были актуальны. Я переходил на все более сложные дата-платформы, где данных становилось все больше, а источники все изощреннее, изучал новые архитектуры и инструменты.
🧡 Вот как инжиниринг данных превратился для меня из вспомогательного процесса в основную деятельность. И это то, что мне по-прежнему нравится. DE это c виду простая функция, но на самом деле технически интересная и живая область, где постоянно появляются новые инструменты, новые подходы и новые вызовы. И особенно важным это становится в эпоху бурного развития AI, который невозможен без качественного DE.
⚡️ Кстати, небольшой спойлер: уже на следующей неделе в прямом эфире мы поговорим о том, как аналитику перейти в инженерию данных.
А забронировать место на курсе «Инженер данных» можно уже сейчас.
Следите за новостями!
Мой путь в инжиниринг данных шёл через аналитику, но не совсем типично.
9 лет назад я работал менеджером продукта в небольшом ламповом финтех-стартапе, где мне приходилось выполнять совершенно разные функции, включая продуктовую аналитику, поскольку отдельного специалиста в команде не было. Я неплохо орудовал SQL и Excel. Но в какой-то момент понял, что на аналитику уходит половина моего времени.
Тогда у меня возникло две мысли:
Так я и сделал. Написал скрипты, которые делали регулярные расчеты, и поставил их на расписание. Для этого мне пришлось изучить Python, Docker, Airflow и другие новые для себя штуки.
Посмотрел бесплатные BI-инструменты — остановился на Superset, развернул его, настроил основные дашборды, и обучил коллег (особенно неайтишных) им пользоваться.
Тогда я нашел себя, и понял, что хочу не только создавать продукты, основываясь на данных, но создавать продукты, основанные на данных, где данные — один из ключевых элементов самого продукта.
А для этого нужно уметь бесперебойно собирать, хранить и обрабатывать данные, предоставлять удобный доступ к ним и обеспечивать высокое качество не только самих данных, но также всех связанных процессов и инструментов.
Я начал развиваться в эту сторону в компаниях, где эти задачи были актуальны. Я переходил на все более сложные дата-платформы, где данных становилось все больше, а источники все изощреннее, изучал новые архитектуры и инструменты.
А забронировать место на курсе «Инженер данных» можно уже сейчас.
Следите за новостями!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥5👍4👏2
Друзья, привет! На связи команда Simulative 👋
Просто напоминаем вам о том, что скидка до 25% на курс-симулятор «Инженер данных» сгорает уже завтра, 30 августа.
Что вас ждёт на курсе?
🟠 Практика только на реальных бизнес-кейсах и весь необходимый стек: PostgreSQL, Python, Metabase, Clickhouse, Hadoop, Spark / pySpark, Docker и др.;
🟠 Полноценное портфолио из пет-проектов: вы не просто учитесь, а создаёте проекты, которые добавят конкурентного преимущества при поиске работы и сделают вас на шаг ближе к офферу мечты;
🟠 Комфортный темп обучения и удобный формат, полноценная поддержка от группы преподавателей в процессе;
🟠 Карьерная поддержка: помощь с резюме, консультации, подготовка к собеседованиям.
А ментор потока – Георгий Семенов поможет избежать «слепых зон», поделится опытом и поддержит мотивацию до результата.
➡️ Узнать больше о курсе и забронировать скидку
Просто напоминаем вам о том, что скидка до 25% на курс-симулятор «Инженер данных» сгорает уже завтра, 30 августа.
Что вас ждёт на курсе?
А ментор потока – Георгий Семенов поможет избежать «слепых зон», поделится опытом и поддержит мотивацию до результата.
➡️ Узнать больше о курсе и забронировать скидку
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍5❤3
Рано или поздно каждый аналитик задумывается о том, что ему нужны навыки инженера данных: кто-то понимает это только изучив азы SQL, а кто-то уже с большим коммерческим опытом.
Чтобы помочь максимально быстро выстроить свою стратегию развития, уже в следующую среду мы проведем вебинар, где Георгий Семенов, Chief Data Officer и ментор нового потока курса «Инженер данных», поделится своим опытом и даст самый актуальный взгляд на то, как быстрее войти в профессию.
На вебинаре вы познакомитесь с ментором и разберете:
❗️ Встречаемся 3 сентября в 19:00 МСК
💬 Обязательно ждем вас в лайве – вы сможете напрямую задать свои вопросы Георгию и получить консультацию крутого практика.
➡️ Регистрация на вебинар
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍6❤5👏1
Всем привет! На связи команда Simulative 👋
Сегодня рассказываем про этапы отбора в Т-Банк.
Что в этих отборах хорошо — так это то, что процесс един для каждой команды и вы всегда можете быть готовы к следующему:
1️⃣ HR-скрининг. Созваниваетесь по телефону, отвечаете на базовые вопросы про опыт и пожелания к новому месту работы, договариваетесь о времени технического интервью.
2️⃣ Техническое интервью: проверяют все и сразу. Сложность вопросов начинается от самой базы и растёт по ходу интервью. Если уверенно и подробно рассказывать как и почему что-то работает, то часть вопросов могут пропустить. Но не удивляйтесь, когда на интервью для опытных сотрудников вам придется рассказывать, как суммировать строки в SQL.
3️⃣ Знакомство с командами, куда вы прошли по технической части. Возможно, на встречу придет только лидер команды, куда вы договаривались прийти изначально, но бывают случаи, когда приходят коллеги из других команд и даже могут предложить условия лучше.
4️⃣ Проверка службы безопасности, оффер, онбординг.
Сегодня мы подробно разобрали второй пункт — часть с SQL.
Собеседование проходит в три части: SQL, Python, мат.стат + теорвер. В карточках разобрали техническое интервью на SQL. Изучайте 🤓
Кстати, на продвинутых тарифах курса-симулятора «Аналитик данных» (и не только) мы проводим тестовые технические собеседования, чтобы наши студенты были готовы к успешным прохождениям 🧡
Сегодня рассказываем про этапы отбора в Т-Банк.
Что в этих отборах хорошо — так это то, что процесс един для каждой команды и вы всегда можете быть готовы к следующему:
Сегодня мы подробно разобрали второй пункт — часть с SQL.
Как это принято в компаниях с отлаженными процессами, вас будет собеседовать человек, который вообще про вас ничего не знает. Вернее, знает он лишь то, что он должен вас хорошо проверить, потому что именно ему сообщать HR и лидерам команд о вашей технической подготовке. Но не забывайте и про софт-скиллы :)
Собеседование проходит в три части: SQL, Python, мат.стат + теорвер. В карточках разобрали техническое интервью на SQL. Изучайте 🤓
Кстати, на продвинутых тарифах курса-симулятора «Аналитик данных» (и не только) мы проводим тестовые технические собеседования, чтобы наши студенты были готовы к успешным прохождениям 🧡
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10❤9👍6