Узнайте, почему ваши SQL-запросы тормозят 🤖
Медленные SQL-запросы могут стоить бизнесу миллионов: отчёты считаются часами, решения принимаются с задержкой, а ошибки в данных подрывают доверие к аналитике.
На вебинаре Владимир Лунев, бизнес- и системный аналитик с 5-летним опытом работы в ритейле и IT, разберёт 7 реальных кейсов оптимизации SQL-запросов, которые помогали бизнесу принимать быстрые и точные решения.
В ходе вебинара разберём:
🟠 Как понять, что запрос тормозит, и чем это грозит бизнесу;
🟠 Как читать план выполнения (EXPLAIN, EXPLAIN ANALYZE) и находить ошибки;
🟠 Типовые причины медленных запросов и как их исправлять;
🟠 7 реальных кейсов из практики: «было → стало» с разбором кода.
❗️ Встречаемся 24 сентября в 19:00 МСК.
➡️ Зарегистрироваться на вебинар
📊 Simulative
Медленные SQL-запросы могут стоить бизнесу миллионов: отчёты считаются часами, решения принимаются с задержкой, а ошибки в данных подрывают доверие к аналитике.
На вебинаре Владимир Лунев, бизнес- и системный аналитик с 5-летним опытом работы в ритейле и IT, разберёт 7 реальных кейсов оптимизации SQL-запросов, которые помогали бизнесу принимать быстрые и точные решения.
В ходе вебинара разберём:
🧡 Обязательно ждём вас в лайве — вы сможете напрямую задать свои вопросы Владимиру Луневу и получить ценный опыт оптимизации SQL-запросов!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤6 5
Привет, аналитики! Мы регулярно собираем обратную связь со студентов и выпускников наших курсов — пришло время подписчиков!
Пожалуйста, ответьте на четыре вопроса ниже, а мы в ответ сделаем наш контент лучше и интереснее👇
Пожалуйста, ответьте на четыре вопроса ниже, а мы в ответ сделаем наш контент лучше и интереснее
Please open Telegram to view this post
VIEW IN TELEGRAM
1. Кто вы?
Anonymous Poll
15%
Студент вуза
60%
Линейный сотрудник
10%
Руководитель/тимлид
1%
C-level, CTO
20%
Не работаю
2. В какой профессии в аналитике вы работаете/учитесь?
Anonymous Poll
40%
Аналитик данных
5%
Дата-сайентист
10%
BI-аналитик
9%
Продуктовый аналитик
8%
Системный аналитик
6%
Бизнес-аналитик
11%
Инженер данных
2%
ML-инженер
3%
Другой профиль в аналитике, напишу в комментариях
28%
Я не из сферы аналитики
3. Сколько лет вы в IT?
Anonymous Poll
16%
До года
21%
1-3 года
11%
3-5 лет
6%
5-10 лет
13%
Более 10 лет
16%
Пока не в IT, ещё учусь
5%
Пока не в IT, ищу работу
13%
Я не из сферы IT
4. Какой контент вам интересен?
Anonymous Poll
87%
Решение кейсов и задач из работы аналитика
13%
Истории студентов и выпускников курсов
59%
Полезности и лайфхаки от экспертов и менторов
10%
Посты о команде Simulative — кто стоит за разработкой курсов
35%
HR-контент — например, как составить резюме, подготовиться к собеседованию и т. д.
11%
Меня интересуют только мемы, чтобы делиться с коллегами 😄
1%
Свой вариант (в комментариях)
Must-have инструменты для аналитика в Python
Привет, любители аналитики! С вами Павел Беляев, ментор курса «Дата-аналитик» и ведущий канала «Тимлидское об аналитике».
SQL это база, но сегодня хочу рассказать кое-что о Python — поразительно мощном инструменте аналитика. А именно — о базовых библиотеках Python, которые должен знать каждый специалист по данным.
1️⃣ Pandas — король обработки данных
Позволяет работать с таблицами как с обычными переменными, а называются они датафреймами. Всё что можно делать с таблицами в SQL, доступно и в Python:
➖ Чтение и запись данных в разных форматах;
➖ Фильтрация, сортировка, группировка;
➖ Объединение датасетов;
➖ Базовые статистические операции.
2️⃣ NumPy — математика для больших данных
➖ Работа с массивами и матрицами;
➖ Математические операции;
➖ Генерация случайных чисел.
3️⃣ Matplotlib и Seaborn — визуализация данных, обычно датафреймов
Позволяют строить графики любого типа: точечные, круговые, гистограммы, ящики с усами и многое другое. Визуализации помогают не только анализировать конечный результат, но и выполнять предобработку и очистку данных.
4️⃣ Scipy — это уже следующий уровень, основы статистического анализа
5️⃣ Statsmodels — ещё более продвинутая статистика
➖ Регрессионный анализ;
➖ Временные ряды;
➖ Эконометрика.
Для разработки на Python можно использовать:
🟠 Jupyter Notebook и продвинутая среда JupiterLab, которые поставляются, в частности, с пакетом Anaconda;
🟠 Google Colab — простая, но мощная «модернизация» Jupiter для пользователей Google;
🟠 Visual Studio Code — универсальная среда для профессиональных разработчиков.
➡️ Зарегистрироваться на вебинар
📊 Simulative
Привет, любители аналитики! С вами Павел Беляев, ментор курса «Дата-аналитик» и ведущий канала «Тимлидское об аналитике».
SQL это база, но сегодня хочу рассказать кое-что о Python — поразительно мощном инструменте аналитика. А именно — о базовых библиотеках Python, которые должен знать каждый специалист по данным.
Позволяет работать с таблицами как с обычными переменными, а называются они датафреймами. Всё что можно делать с таблицами в SQL, доступно и в Python:
import pandas as pd
# Пример использования
df = pd.read_csv('data.csv') # записывает в датафрейм данные из файла csv
df.head() # выводит первые строки датафрейма
import numpy as np
# Пример
array = np.array([1, 2, 3, 4, 5]) # создаёт одномерный массив
mean = np.mean(array) # вычисляет среднее значение массива
Позволяют строить графики любого типа: точечные, круговые, гистограммы, ящики с усами и многое другое. Визуализации помогают не только анализировать конечный результат, но и выполнять предобработку и очистку данных.
import matplotlib.pyplot as plt
import seaborn as sns
# Простой график по точкам
plt.plot([1, 2, 3], [4, 5, 6])
plt.show()
from scipy import stats
# Проведение t-теста для независимых выборок
# Сравнивает средние значения двух групп данных
# Помогает определить, есть ли статистически значимые различия между выборками
result = stats.ttest_ind(data1, data2) # data1 и data2 — массивы сравниваемых данных
import statsmodels.api as sm
# Простая линейная регрессия
model = sm.OLS(y, x).fit()
Для разработки на Python можно использовать:
А во вторник жду вас на вебинаре «Первичный анализ и очистка данных с помощью Python», где я на примере покажу, как начать работу с данными с помощью Python.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤7 5
Экспресс-оптимизация SQL-запроса на реальном кейсе
Привет! На связи Владимир Лунев, ментор тренинга «Продвинутый SQL». Давайте разберём кейс, где простые приёмы оптимизации могут ускорить выполнение запроса в несколько раз.
Представим, что у нас есть база заказов крупного интернет-магазина с реальными объёмами данных. Индексов нет. Всё выполняется на сырых таблицах. СУБД PostgreSQL.
Задача: посчитать для каждой категории количество заказов, суммарную выручку и средний чек за август 2025 только для завершённых заказов (со статусом completed).
Состав БД:
Таблица orders (5 млн строк) с полями:
➖
➖
➖
➖
➖
Таблица products (2 тыс. строк):
➖
➖
➖
Таблица categories (100 строк):
➖
➖
Исходный запрос (медленный), ожидаемое время выполнения 4-5 минут:
Почему медленно:
➖ JOIN происходит на 5 млн строк без фильтрации.
➖ GROUP BY по c. name — сравнение строк (TEXT) вместо чисел, это дополнительная нагрузка.
➖ AVG считается вручную (SUM / COUNT) — выполняется две агрегации.
➖ Фильтр по дате задан как строка — типы приводятся динамически, что замедляет план выполнения.
Оптимизированный запрос (быстрее в ~10 раз!), ожидаемое время выполнения 25-30 секунд:
Что изменилось и почему быстрее:
➖ CTE filtered_orders — с EXPLAIN ANALYZE видно, что количество строк на JOIN сократилось примерно до ~500 тыс. строк вместо 5 млн, т. е. 90%!
➖ GROUP BY c.id — сравнение по числу вместо текста, PostgreSQL подтягивает c.name автоматически.
➖ AVG() вместо SUM/COUNT — встроенная оптимизация движка.
➖ Явное указание типа даты (DATE '2025-08-01') — СУБД не тратит время на приведение типов.
На больших таблицах корректная структура запроса может кардинально влиять на скорость выполнения. В результате правильно построенный запрос может обрабатываться в 10-100 раз быстрее, чем прямой вариант с лишними вычислениями и сортировками.
➡️ Зарегистрироваться на вебинар
📊 Simulative
Привет! На связи Владимир Лунев, ментор тренинга «Продвинутый SQL». Давайте разберём кейс, где простые приёмы оптимизации могут ускорить выполнение запроса в несколько раз.
Представим, что у нас есть база заказов крупного интернет-магазина с реальными объёмами данных. Индексов нет. Всё выполняется на сырых таблицах. СУБД PostgreSQL.
Задача: посчитать для каждой категории количество заказов, суммарную выручку и средний чек за август 2025 только для завершённых заказов (со статусом completed).
Состав БД:
Таблица orders (5 млн строк) с полями:
id — уникальный идентификатор заказа;product_id — ID продукта;order_date — дата заказа;amount — сумма заказа;status — статус заказа, например, completed.Таблица products (2 тыс. строк):
id — ID продукта;category_id — ID категории;price — цена.Таблица categories (100 строк):
id — ID категории;name — название категории.Исходный запрос (медленный), ожидаемое время выполнения 4-5 минут:
SELECT
c.id, # идентификатор категории
c.name AS category, # название категории
COUNT(o.id) AS orders_count, # количество заказов
SUM(o.amount) / COUNT(o.id) AS avg_check # средний чек (ручное деление)
FROM orders o
JOIN products p ON o.product_id = p.id # соединяем с таблицей продуктов
JOIN categories c ON p.category_id = c.id # соединяем с категориями
WHERE
o.status = 'completed' # фильтруем только завершённые заказы
AND o.order_date >= '2025-08-01' # начало периода (строковый литерал)
AND o.order_date < '2025-09-01' # конец периода
GROUP BY c.id, c.name # группировка по категории (строка и id)
ORDER BY SUM(o.amount) DESC; # сортировка по суммарной выручке
Почему медленно:
Оптимизированный запрос (быстрее в ~10 раз!), ожидаемое время выполнения 25-30 секунд:
WITH filtered_orders AS (
# Сначала фильтруем все нужные заказы в отдельном CTE
SELECT *
FROM orders
WHERE status = 'completed' # только завершённые
AND order_date >= DATE '2025-08-01' # явное указание типа DATE
AND order_date < DATE '2025-09-01'
)
SELECT
c.id, # id категории
c.name AS category, # название категории
COUNT(fo.id) AS orders_count, # количество заказов
SUM(fo.amount) AS total_sales, # суммарная выручка
AVG(fo.amount) AS avg_check # средний чек (встроенная функция)
FROM filtered_orders fo
JOIN products p ON fo.product_id = p.id # соединяем уже отфильтрованные заказы
JOIN categories c ON p.category_id = c.id # соединяем с категориями
GROUP BY c.id # PK, группировка по ID (name подтянется автоматически)
ORDER BY total_sales DESC; # сортировка по суммарной выручке
Что изменилось и почему быстрее:
На больших таблицах корректная структура запроса может кардинально влиять на скорость выполнения. В результате правильно построенный запрос может обрабатываться в 10-100 раз быстрее, чем прямой вариант с лишними вычислениями и сортировками.
❗️ Оптимизация SQL — это понимание того, как СУБД выполняет операции и как конкретный юзер может эффективно сэкономить свое время и бонусом ресурсы сервера. Ещё больше кейсов и рекомендаций будет на вебинаре 24 сентября — приходите, расскажу про свои способы оптимизации SQL-запросов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤6 5
Сегментация клиентов с помощью машинного обучения
Привет! С вами Кристина Желтова, ментор курса «ML-инженер».
В персонализации клиентского сервиса и маркетинге важно правильно сегментировать клиентов — разделять клиентскую базу на группы (сегменты) на основе их характеристик.
Эту задачу можно решать разными способами, в том числе с помощью машинного обучения. Если нужно обработать большой набор данных или получить модель, которая может быть гибкой и адаптивной в реальном времени, на помощь придёт кластеризация — набор методов без учителя для группировки данных по определённым критериям.
В качестве датасета возьмем небольшой набор данных Mall Customer Segmentation с Kaggle:
Один из самых простых и известных методов кластеризации — KMeans. Он разделяет данные на K кластеров, находя центроиды (центры) каждого кластера и группируя точки данных вокруг ближайших центроидов.
Перед применением алгоритма KMeans важно провести масштабирование признаков, иначе признаки с большими единицами измерения будут «перетягивать на себя» расстояния и смещать всё решение.
При использовании KMeans всегда есть некоторая неопределенность — этому алгоритму нужно заранее задать, на сколько кластеров/групп мы будем разделять данные. Иногда это предположение можно сделать экспертно, но можно попробовать и подобрать оптимальное количество групп, используя «метод локтя» — перебираем количество кластеров, визуализируя на графике сумму квадратов расстояний от каждой точки до центра её кластера. Точка перегиба, где график «сгибается» как локоть руки, и будет оптимальным количеством кластеров.
После такого подбора можно переобучить модель с подобранным k, определить каждого клиента в свой кластер и приступить к визуальному анализу. В задаче кластеризации есть довольно много общих метрик качества, но лучше всего всегда посмотреть глазами на то, что получилось.
➡️ Более подробный пример можно посмотреть в colab notebook.
📊 Simulative
Привет! С вами Кристина Желтова, ментор курса «ML-инженер».
В персонализации клиентского сервиса и маркетинге важно правильно сегментировать клиентов — разделять клиентскую базу на группы (сегменты) на основе их характеристик.
Эту задачу можно решать разными способами, в том числе с помощью машинного обучения. Если нужно обработать большой набор данных или получить модель, которая может быть гибкой и адаптивной в реальном времени, на помощь придёт кластеризация — набор методов без учителя для группировки данных по определённым критериям.
В качестве датасета возьмем небольшой набор данных Mall Customer Segmentation с Kaggle:
path = kagglehub.dataset_download("vjchoudhary7/customer-segmentation-tutorial-in-python")
df = pd.read_csv('/kaggle/input/customer-segmentation-tutorial-in-python/Mall_Customers.csv')Один из самых простых и известных методов кластеризации — KMeans. Он разделяет данные на K кластеров, находя центроиды (центры) каждого кластера и группируя точки данных вокруг ближайших центроидов.
❗️ Важно: KMeans не предназначен для работы с категориальными признаками. Их нужно либо анализировать отдельно, либо применять другие алгоритмы кластеризации, поддерживающие смешанные датасеты.
clustering_features = ['Age', 'Annual Income (k$)', 'Spending Score (1-100)']
X = df[clustering_features].copy()
Перед применением алгоритма KMeans важно провести масштабирование признаков, иначе признаки с большими единицами измерения будут «перетягивать на себя» расстояния и смещать всё решение.
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
X_scaled_df = pd.DataFrame(X_scaled, columns=clustering_features, index=X.index)
При использовании KMeans всегда есть некоторая неопределенность — этому алгоритму нужно заранее задать, на сколько кластеров/групп мы будем разделять данные. Иногда это предположение можно сделать экспертно, но можно попробовать и подобрать оптимальное количество групп, используя «метод локтя» — перебираем количество кластеров, визуализируя на графике сумму квадратов расстояний от каждой точки до центра её кластера. Точка перегиба, где график «сгибается» как локоть руки, и будет оптимальным количеством кластеров.
inertias = []
k_values = range(2, 11)
for k in k_values:
# Обучаем K-means с конкретным k
kmeans = KMeans(n_clusters=k, random_state=42, n_init=10)
cluster_labels = kmeans.fit_predict(X)
inertia = kmeans.inertia_
inertias.append(inertia)
После такого подбора можно переобучить модель с подобранным k, определить каждого клиента в свой кластер и приступить к визуальному анализу. В задаче кластеризации есть довольно много общих метрик качества, но лучше всего всегда посмотреть глазами на то, что получилось.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥6 3
Simulative
Подключайтесь, чтобы узнать, как быстро проверить и визуализировать данные в Python на примере сервиса по продаже подержанных авто.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4 2
This media is not supported in your browser
VIEW IN TELEGRAM
Знакомая ситуация?
Запускаете запрос, ждёте… а Excel уже подвис, BI-система крутит loading, и коллеги начинают писать, что там с отчётом.
99% таких ситуаций — не вина сервера, а ошибки в самом SQL-запросе. И да, это можно исправить.
Уже сегодня на вебинаре спикер тренинга «Продвинутый SQL» Владимир Лунев расскажет:
🟠 Как понять, что запрос тормозит, и чем это грозит бизнесу;
🟠 Как читать план выполнения (EXPLAIN, EXPLAIN ANALYZE) и находить ошибки;
🟠 Типовые причины медленных запросов и как их исправлять;
🟠 7 реальных кейсов из практики: «было → стало» с разбором кода.
😶 😶 Регистрация
📊 Simulative
Запускаете запрос, ждёте… а Excel уже подвис, BI-система крутит loading, и коллеги начинают писать, что там с отчётом.
99% таких ситуаций — не вина сервера, а ошибки в самом SQL-запросе. И да, это можно исправить.
Уже сегодня на вебинаре спикер тренинга «Продвинутый SQL» Владимир Лунев расскажет:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥7 4
Simulative
Знакомая ситуация? Запускаете запрос, ждёте… а Excel уже подвис, BI-система крутит loading, и коллеги начинают писать, что там с отчётом. 99% таких ситуаций — не вина сервера, а ошибки в самом SQL-запросе. И да, это можно исправить. Уже сегодня на вебинаре…
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4 4
Clickhouse: что это за СУБД и для чего нужна
NoSQL СУБД типа Clickhouse заточены под определённый тип задач. Clickhouse нужна прежде всего для решения OLAP-задач — например, рассчитать какую-либо метрику типа CTR поверх всех действий всех пользователей в приложении.
Разобрали в статье, чем отличается Clickhouse от Postgres, её архитектурные особенности и возможности, а также как начать работать с СУБД.
🟡 Читать статью в блоге
📊 Simulative
NoSQL СУБД типа Clickhouse заточены под определённый тип задач. Clickhouse нужна прежде всего для решения OLAP-задач — например, рассчитать какую-либо метрику типа CTR поверх всех действий всех пользователей в приложении.
Разобрали в статье, чем отличается Clickhouse от Postgres, её архитектурные особенности и возможности, а также как начать работать с СУБД.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥5 2
Друзья, спасибо всем, кто посетил наши вебинары!
Записи занятий уже лежат в боте ✅
Продолжаем держать низкие цены на продвинутый тренинг по SQL — напомним, что это такое:
😶 Углубляемся в SQL и повышаем грейд: разбираем оптимизацию SQL-запросов, анализ качества данных и трендов на основе исторических данных в SQL;
😶 6 домашних заданий и 1 кросс-проверка, где студенты проверяют код друг друга;
😶 Практический проект для отработки полученных навыков и разбор тестового задания на senior-позицию.
Автор курса — Владимир Лунев, Fullstack-аналитик в Магните с более чем 5-летним опытом в системном и бизнес-анализе, ведёт авторский Telegram-канал SQL: Реляционные базы данных.
Регистрируйтесь и прокачивайте свой скилл в SQL!
➡️ Записаться по ранней цене
📊 Simulative
Записи занятий уже лежат в боте ✅
Продолжаем держать низкие цены на продвинутый тренинг по SQL — напомним, что это такое:
Автор курса — Владимир Лунев, Fullstack-аналитик в Магните с более чем 5-летним опытом в системном и бизнес-анализе, ведёт авторский Telegram-канал SQL: Реляционные базы данных.
Регистрируйтесь и прокачивайте свой скилл в SQL!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤5 4🤩1
Soft skills в ML. Почему навык коммуникации критичнее знания SOTA?
Привет! Вновь на связи Кристина Желтова, ментор курса «ML-инженер».
Среди начинающих специалистов бытует мнение, что ключ к карьерному успеху — крепкие харды и знание нюансов свежих архитектур и технологий. Без hard skills действительно невозможно успешно решать рабочие задачи, однако практика показывает, что именно «софты» часто становятся решающим фактором карьерного роста ML-инженера.
Список инструментов в ML-стеке постоянно расширяется, новые архитектуры появляются каждый месяц, но кое-что остаётся неизменным — необходимость работать с людьми, объяснять решения и адаптироваться к изменениям.
Многие исследования показывают, что команды с высоким эмоциональным интеллектом демонстрируют лучшую производительность. В ML-проектах, где техническая сложность идет рука об руку с неопределённостью результата, этот показатель выкручен на максимум.
🤔 Представьте ситуацию: вы потратили месяцы на разработку качественной и технически мощной антифродовой модели, но когда пришло время презентации перед стейкхолдерами, ваша техническая экспертиза стала барьером в коммуникации — нюансы предобработки, архитектурные особенности модели, даже ML-метрики и результаты валидации часто звучат для заказчиков как «белый шум», за которым они пытаются разглядеть что-то важное и понятное для себя, если у них ещё остались на это силы и время.
Основные советы, которые помогут сразу быть на одной волне с заказчиком можно уместить в несколько тезисов:
🟠 Начинайте коммуникацию с проблемы. Не с архитектуры модели и тяжеловесных подробностей, а с задачи, которую решаете и возможных бизнес-эффектов решения.
🟠 Объясняйте не только возможности модели, но и её ограничения. Это строит доверие и предотвращает нереалистичные ожидания.
🟠 Подстраивайте презентацию и рассказ под аудиторию. Краткий и ёмкий отчет для руководства, более подробные слайды для менеджеров проектов и технические детали для коллег-разработчиков.
Но главное — не противопоставляйте soft skills и hard skills, развивайте их параллельно. Глубокие технические знания дают возможность успешно решать задачи, а развитые «мягкие» навыки помогают эффективно презентовать эти задачи и извлекать из них максимальную пользу для карьеры.
🔔 Записаться на поток
📊 Simulative
Привет! Вновь на связи Кристина Желтова, ментор курса «ML-инженер».
Среди начинающих специалистов бытует мнение, что ключ к карьерному успеху — крепкие харды и знание нюансов свежих архитектур и технологий. Без hard skills действительно невозможно успешно решать рабочие задачи, однако практика показывает, что именно «софты» часто становятся решающим фактором карьерного роста ML-инженера.
Список инструментов в ML-стеке постоянно расширяется, новые архитектуры появляются каждый месяц, но кое-что остаётся неизменным — необходимость работать с людьми, объяснять решения и адаптироваться к изменениям.
Многие исследования показывают, что команды с высоким эмоциональным интеллектом демонстрируют лучшую производительность. В ML-проектах, где техническая сложность идет рука об руку с неопределённостью результата, этот показатель выкручен на максимум.
🤔 Представьте ситуацию: вы потратили месяцы на разработку качественной и технически мощной антифродовой модели, но когда пришло время презентации перед стейкхолдерами, ваша техническая экспертиза стала барьером в коммуникации — нюансы предобработки, архитектурные особенности модели, даже ML-метрики и результаты валидации часто звучат для заказчиков как «белый шум», за которым они пытаются разглядеть что-то важное и понятное для себя, если у них ещё остались на это силы и время.
Когда-то давно у меня была подобная ситуация, когда во время демонстрации результатов и дорожной карты решения я радостно рекламировала крутые подходы с топологическим анализом данных и мощной аналитикой для улучшения моделей, хотя по сути их интересовало далеко не это.
Основные советы, которые помогут сразу быть на одной волне с заказчиком можно уместить в несколько тезисов:
Но главное — не противопоставляйте soft skills и hard skills, развивайте их параллельно. Глубокие технические знания дают возможность успешно решать задачи, а развитые «мягкие» навыки помогают эффективно презентовать эти задачи и извлекать из них максимальную пользу для карьеры.
🧡 Кстати, с хардами я могу помочь! Уже сегодня стартует новый поток курса «ML-инженер», где вы научитесь создавать модели машинного обучения, строить рекомендательные системы и обучать нейросети. Время пришло, решайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤5 3
Харды и софты аналитика данных
Привет, коллеги! На связи Павел Беляев, ментор курса «Дата-аналитик» и автор канала Тимлидское об аналитике.
Несколько слов о скиллах, необходимых дата-аналитику в моём понимании. Это те навыки, которые я выделил за несколько лет опыта и стараюсь развивать в себе и в участниках моей команды.
Hard skills:
👑 SQL — must have;
👑 Clickhouse, PostgreSQL и другие СУБД — must have;
👑 Python + pandas — must have;
😶 Электронные таблицы — крайне желательно;
*️⃣ Airflow или другие средства автоматизации — желательно;
*️⃣ Яндекс.Метрика или другие системы веб-аналитики, любой Tag Manager — желательно;
*️⃣ Git — желательно;
*️⃣ BI-системы — будет плюсом.
Soft skills
А вот тут хотел бы остановиться подробней. Каждый пунктик глубоко осмыслен и необходим!
🟡 Внимательность и дотошность. Для специалиста, имеющего дело с данными, крайне важно видеть в них изъяны и не пропустить ничего существенного. То есть постоянно проверять цифры, значения, нестыковки, выяснять причины нестыковок и расхождений, докапываться до истины и при этом не сходить с ума, а может, даже находить в этом удовольствие — чертовски важный навык.
🟡 Коммуникабельность, умение излагать мысли. Дата-аналитик — не кондовый технарь, и взаимодействие с людьми, причём с разными и со многими, составляет немалую часть его работы. Поэтому уметь понять, что хочет заказчик, а иногда и помочь ему это понять, а также объяснить задачу разработчикам или дата-инженерам — must have.
🟡 Изобретательность. В дата-аналитике бывают рутинные, шаблонные задачи, и их стараются поскорее автоматизировать. А вот новых задач, вызовов и требований — сколько угодно. Поэтому умение подобрать или сгенерировать решение технической или аналитической проблемы очень полезно.
🟡 Самостоятельность. Это лично от меня :) Впрочем, полагаю, любой руководитель хотел бы, чтобы его сотрудники были способны сами решать вопросы с заказчиками, добывать информацию, организовывать нужные процессы в рамках своих задач и т. д.
🟡 Нацеленность на результат. Всё вышеперечисленное почти бессмысленно без этого. Аналитики — активные и важные участники функционирования бизнеса, они повышают его управляемость. Выходит, на них висит немалая доля ответственности за «здоровье» бизнеса. Не знаю, можно ли научить сотрудника ответственности, поэтому стараюсь подбирать к себе людей, кто изначально хочет быть полезным, доводить любое дело до логического завершения, не терпит висюков и долгов.
🟡 Доброжелательность. Удивительно, но с этим качеством все взаимодействия становятся проще! Да и приятнее работать в дружном коллективе, чем в токсичном или отстраненном, не так ли?
🟡 Любознательность, интерес к технике и бизнесу, обучаемость. Дата-аналитику приходится работать с крайне изменчивыми сущностями — развивающийся бизнес, прогрессирующая сфера IT, а также сами люди, которые никогда не устают удивлять. Поэтому лучше сразу нацелиться на постоянный рост и бесконечное саморазвитие. В конце концов, не в этом ли одна из основ жизни вообще?
➡️ Успеть записаться
📊 Simulative
Привет, коллеги! На связи Павел Беляев, ментор курса «Дата-аналитик» и автор канала Тимлидское об аналитике.
Несколько слов о скиллах, необходимых дата-аналитику в моём понимании. Это те навыки, которые я выделил за несколько лет опыта и стараюсь развивать в себе и в участниках моей команды.
Hard skills:
Soft skills
А вот тут хотел бы остановиться подробней. Каждый пунктик глубоко осмыслен и необходим!
Софтам тоже можно научиться, главное держать их в фокусе внимания и время от времени проводить самоанализ.
Ну а по хардам — добро пожаловать на курс «Аналитик данных», там есть всё что нужно и даже больше. Кстати, он стартует уже сегодня! Так что, если вы ждали знака записаться, то это он. Действуйте!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥8👍4 4
5 SQL-принципов, которые использует senior-аналитик
Привет! На связи Владимир Лунев, fullstack-аналитик и автор тренинга «Продвинутый SQL».
Аналитик уровня senior — это не только тот, кто знает сложные JOIN’ы, но и умеет строить из них систему. Если вы хотите перейти от просто метрик к построению аналитической культуры в компании, вот несколько универсальных принципов:
1️⃣ Читаемость важнее краткости
Запрос должен не только хорошо работать, но и быть понятен коллеге даже через полгода. Используйте осмысленные имена CTE (например,
2️⃣ Оконные функции
3️⃣ Проверяйте данные
Senior-аналитик — это детектив данных. Перед тем как строить выводы, всегда задавайте вопросы:
🟠 Есть ли дубли по уникальному ключу?
🟠 Есть ли аномальные значения (отрицательные цены, даты/id не из нужного диапазона)?
🟠 Сколько пропусков в ключевых полях?
🟠 Соответствует ли распределение ожиданиям?
Простой пример проверки (все
Если
Если
4️⃣ Оптимизируйте не ради скорости, а ради устойчивости
Senior-аналитик не гонится за самым быстрым запросом и избегает тех, которые ломают систему вызывая высокую нагрузку и длительное ожидание выполнения.
Универсальные правила:
➖ Не используйте
➖ Избегайте вложенных подзапросов там, где хватит JOIN’а;
➖ Ограничивайте выборки на ранних этапах (
➖ Не делайте
5️⃣ Понимайте источник данных, не только таблицу
Опытный аналитик знает, как данные попадают в таблицу, как часто обновляются и есть ли задержки — например, данные за вчера доступны только к 10 утра. Ваш запрос всегда должен давать один и тот же результат при повторном запуске (при условии, что данные в БД не поменялись). Это помогает интерпретировать результаты правильно и не делать ложных выводов.
🧡 Начните применять эти принципы, и вы перестанете быть тем, кто пишет только запросы. Вы станете тем, к кому приходят за решениями!
📊 Simulative
Привет! На связи Владимир Лунев, fullstack-аналитик и автор тренинга «Продвинутый SQL».
Аналитик уровня senior — это не только тот, кто знает сложные JOIN’ы, но и умеет строить из них систему. Если вы хотите перейти от просто метрик к построению аналитической культуры в компании, вот несколько универсальных принципов:
Запрос должен не только хорошо работать, но и быть понятен коллеге даже через полгода. Используйте осмысленные имена CTE (например,
new_users, а не cte1), вертикальное форматирование, комментарии для неочевидной логики и единый стиль — например, ключевые слова заглавными буквами.ROW_NUMBER(), RANK(), LAG(), LEAD(), SUM() OVER() — это базовый инструмент для любого продвинутого анализа. С их помощью вы сравниваете периоды без self-join’ов, считаете кумулятивные метрики и выделяете топ-N в сегментах. Большинство задач, требующих нескольких подзапросов, решаются одной оконной функцией.Senior-аналитик — это детектив данных. Перед тем как строить выводы, всегда задавайте вопросы:
Простой пример проверки (все
user_id должны быть уникальны и заполнены):SELECT
COUNT(*) AS total,
COUNT(user_id) AS non_null_user_id,
COUNT(DISTINCT user_id) AS unique_users
FROM events;
Если
non_null_user_id < total — у вас есть пропуски в данных.Если
unique_users < non_null_user_id — дубли.Senior-аналитик не гонится за самым быстрым запросом и избегает тех, которые ломают систему вызывая высокую нагрузку и длительное ожидание выполнения.
Универсальные правила:
SELECT * — запрашивайте только нужные поля;WHERE до GROUP BY);DISTINCT «на всякий случай» — разбирайтесь, почему возникают дубли.Опытный аналитик знает, как данные попадают в таблицу, как часто обновляются и есть ли задержки — например, данные за вчера доступны только к 10 утра. Ваш запрос всегда должен давать один и тот же результат при повторном запуске (при условии, что данные в БД не поменялись). Это помогает интерпретировать результаты правильно и не делать ложных выводов.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18🔥14👍5 5
Делимся огненным проектом нашего студента 🔥
Мы получаем много итоговых работ на курсе «Аналитик данных», но одной хотим поделиться особенно. Студентка Татьяна Смоленкова виртуозно решила наш кейс и разрешила поделиться им с подписчиками😉
Дальше передаём слово Татьяне!
👩💻 Смотреть проект на GitHub с дашбордами и графиками
📊 Simulative
Мы получаем много итоговых работ на курсе «Аналитик данных», но одной хотим поделиться особенно. Студентка Татьяна Смоленкова виртуозно решила наш кейс и разрешила поделиться им с подписчиками
Дальше передаём слово Татьяне!
В качестве финальной работы ты не просто выполняешь очередное задание, а строишь целую инфраструктуру. Есть пространство для творчества и воплощения интересных идей.
У меня получился проект, где каждый день в 7 утра cron запускает сбор данных по API, обновляет базу PostgreSQL и дашборд в Metabase. В 8:00 отправляется утренний отчёт в Telegram. Все процессы логируются, синхронизируются с GitHub и автоматически коммитятся. Вся система, от базы до визуализации, развёрнута на моём сервере.
Также на основе данных за 2023 год я провела два полноценных исследования: по товарам и по клиентской базе. В первом анализировала стабильность продаж, чувствительность к скидкам и выручку, во втором — сегментировала клиентов и изучала удержание.
Что особенно помогло при выполнении проекта — понимание, что делаешь его не просто «для галочки», а его реально будут внимательно изучать, подмечать хорошие и плохие стороны и дадут полезные рекомендации — как, впрочем, и во всех остальных проектах курса. Если что-то не понятно или в чём-то не уверен, то всегда можно задать вопросы преподавателям, студентам, службе поддержки — ты часть команды и часть корабля, который бороздит океан данных.
Поэтому большое спасибо всей этой дружной команде. Путь пройден большой, но это точно не конец!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥38❤8👍7 2
Дарим методичку по рекламным метрикам
Собрали в одном файле основные рекламные метрики на примерах реального бизнеса, которые должен знать и уметь рассчитывать каждый аналитик. Скорее забирайте методичку себе!
Что внутри:
😶 Метрики, которые важны для оценки эффективности рекламных кампаний и советы, как их правильно измерять;
😶 Примеры расчётов и формул для быстрой и точной оценки результатов рекламных кампаний;
😶 Советы по оптимизации рекламных кампаний и улучшению их результативности на основе анализа метрик.
💿 Получить материал
📊 Simulative
Собрали в одном файле основные рекламные метрики на примерах реального бизнеса, которые должен знать и уметь рассчитывать каждый аналитик. Скорее забирайте методичку себе!
Что внутри:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥6 3
Отвечаем на вопросы про тренинг SQL
Всем привет, это Владимир Лунев, fullstack-аналитик и автор тренинга «Продвинутый SQL».
После анонса тренинга приходит много вопросов, и я постарался ответить на самые частые из них:
❓ Кому подойдёт тренинг?
Аналитик, разработчик, data scientist, product-менеджер или руководитель — если вы регулярно пишете SQL-запросы и хотите начать это делать более эффективно, тренинг для вас. Вы не просто научитесь писать более сложные запросы — вы освоите инструменты, которые позволят решать многие бизнес-задачи напрямую в SQL, без перекладывания всего на Python или Excel.
❓ Какими знаниями я должен обладать на старте?
На старте достаточно базовых знаний SQL — уметь писать простые SELECT-запросы, работать с таблицами, фильтровать и агрегировать данные, а также уметь понимать структуру данных, с которыми вы будете работать. Это позволит сразу включиться в практику и эффективно усваивать материал тренинга.
❓ Что я получу на выходе?
➖ Эффективные запросы. Научитесь писать SQL, который работает быстро даже на больших объёмах данных. Разберётесь в планах выполнения, оптимизации и управлении ресурсами БД.
➖ Контроль качества данных. Будете находить дубликаты, логические несогласованности и аномалии данных до того, как они попадут в отчёт или дашборд.
➖ Прогнозирование и анализ трендов. Оконные функции, когортный анализ, метрики удержания (churn), сезонные индексы — всё это будете считать прямо в SQL.
➖ Сценарный анализ what-if. Сможете смоделировать, как изменение цены, объёма продаж или маркетинговых расходов повлияет на итоговые метрики без внешних инструментов.
➖ Продвинутые метрики и структурный анализ. Growth, hitrate, конверсии, YoY, план-факт, AB-тесты, вложенные агрегаты — вы научитесь считать всё это корректно и быстро.
➖ Работа со сложными структурами. Рекурсивные запросы, деревья событий, цепочки действий пользователей, обход графов — освоите инструменты для глубокого поведенческого анализа.
👑 И самое главное — системное мышление. Вы перестанете воспринимать SQL как «язык для выгрузки данных». Вместо этого вы начнёте думать на языке данных: видеть связи, строить логику анализа, предлагать решения, которые экономят время всей команды.
➡️ Записаться на тренинг
📊 Simulative
Всем привет, это Владимир Лунев, fullstack-аналитик и автор тренинга «Продвинутый SQL».
После анонса тренинга приходит много вопросов, и я постарался ответить на самые частые из них:
Если коротко, то всем, кто работает с SQL и хочет выйти на новый уровень.
Аналитик, разработчик, data scientist, product-менеджер или руководитель — если вы регулярно пишете SQL-запросы и хотите начать это делать более эффективно, тренинг для вас. Вы не просто научитесь писать более сложные запросы — вы освоите инструменты, которые позволят решать многие бизнес-задачи напрямую в SQL, без перекладывания всего на Python или Excel.
На старте достаточно базовых знаний SQL — уметь писать простые SELECT-запросы, работать с таблицами, фильтровать и агрегировать данные, а также уметь понимать структуру данных, с которыми вы будете работать. Это позволит сразу включиться в практику и эффективно усваивать материал тренинга.
🔔 Готовы прокачать свой SQL до уровня, когда вы — не просто исполнитель, а стратег? Тогда тренинг точно для вас. Кстати, до завтра ещё есть возможность записаться по самой низкой цене, так что успевайте записаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤6 4
Вебинар: чем отличаются направления в аналитике
BI, маркетинговая, продуктовая аналитика — на первый взгляд всё кажется похожим, но на практике задачи и цели сильно различаются.
На вебинаре с Денисом Ивановым разберём реальные кейсы из бизнеса: от продуктовых исследований и маркетинговых кампаний до поддержки дашбордов и BI-отчётов. Вы увидите, какую пользу каждый тип аналитика приносит бизнесу и определитесь, какое направление подходит именно вам.
Что вы узнаете:
➖ Какие направления аналитики существуют: бизнес, продуктовая, маркетинговая, BI, ML — и чем они реально отличаются;
➖ Зачем компании нанимают аналитиков в разных областях и какие задачи они решают;
➖ Какие навыки прокачать новичку, чтобы быть востребованным и универсальным;
➖ Плюсы и минусы каждого направления и где проще стартовать с нуля.
🟠 Записывайте дату и время: 2 октября, 19:00 МСК
➡️ Зарегистрироваться на вебинар
📊 Simulative
BI, маркетинговая, продуктовая аналитика — на первый взгляд всё кажется похожим, но на практике задачи и цели сильно различаются.
На вебинаре с Денисом Ивановым разберём реальные кейсы из бизнеса: от продуктовых исследований и маркетинговых кампаний до поддержки дашбордов и BI-отчётов. Вы увидите, какую пользу каждый тип аналитика приносит бизнесу и определитесь, какое направление подходит именно вам.
Что вы узнаете:
💬 Подключайтесь к прямому эфиру, чтобы задать вопросы эксперту и понять, какое направление аналитики подойдёт именно вам!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥6❤4 1