MLinside - школа ML – Telegram
MLinside - школа ML
3.51K subscribers
202 photos
18 videos
165 links
Предзапись на 4 поток курса "База ML": https://vk.cc/cQ7AkI
Наши курсы: https://taplink.cc/mlinside
Чат коммьюнити: @ml_insidechat
По вопросам: @marinagartm
Download Telegram
🔥 Ответы на задачи с собеседований

1️⃣В чём различие операторов == и is в Python? + Ответ на код

Ответ: True False True True

Оператор == сравнивает значения объектов, а оператор is проверяет, ссылаются ли переменные на один и тот же объект в памяти. Так как в Python None - это синглтон-объект, то есть в Python существует лишь один единственный None, то сколько бы мы не создавали переменных с этим значением, они все будут ссылаться на один объект в памяти, потому код "sample_A is sample_B" вернёт True


2️⃣Что вернёт код A = 13 B = 13 print(A == B) print (A is B), почему?

Ответ: True True

Потому что Python всегда хранит целые числа от -5 до 256 в памяти. Создавая объект с такими значениями вы будете ссылаться на уже выделенное место в памяти для данного значения. Потому в нашем примере A is B вернёт True. Если А и B оба будут равны 257, то A is B вернёт False. Это было сделано в Python для оптимизации работы языка, чтобы не выделять память на очень часто используемые значения при работе кода.

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥153👍3
29–30 мая в Москве пройдет Aha!25 — одна из крупнейших технических конференций года для специалистов в области машинного обучения, аналитики и product-менеджмента!

Что вас ждет:
🟢Более 1200 участников — коллег, партнеров и потенциальных работодателей
🟢16 тематических потоков и 80+ докладов
🟢Выступления топ-экспертов из ведущих компаний: Яндекс, Авито, OZON, Альфа-Банк, Т-Банк и другие
🟢Выступления представителей научного сообщества из ИТМО, РЭШ, Центрального университета.
🟢Разбор реальных бизнес-кейсов и панельные дискуссии

Темы конференции:
🔵Интеграция LLM, ML и AI в цифровые сервисы
🔵Современные подходы к A/B-тестированию
🔵Оцифровка пользовательского опыта
🔵Машинное обучение в управлении продуктом
🔵Математическое мышление и поведенческая экономика

В мероприятии примет участие и команда MLinside: наш основатель Виктор Кантор выступит с докладом о задачах, за которые готовы и будут платить на рынке AI. 

Билеты можно приобрести на официальном сайте конференции. При использовании промокода MLINSIDEскидка 20% на все виды билетов!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥74🙏1
🔁 Проблема Feedback loop в рекомендательных системах - Почему алгоритм может зациклиться и начать показывать тебе одно и то же?

Ты смотришь видос на YouTube → YouTube понял, что тебе понравилось → показывает похожие → ты снова смотришь → алгоритм думает что тебе это и надо показывать → И так по кругу.

🤖 Тем самым модель не может предложить что-то кардинально новое и усиливает уже существующие паттерны.

🎯 Какие бизнес-метрики
страдают из-за feedback loop:

1️⃣ Diversity (падает разнообразие контента) → падает интерес → снижается вовлечённость. Конкретные метрики - content diversity score, entropy of recommended items

2️⃣ User Retention (падает удержание пользователей) → пользователи не делают повторных визитов. Конкретные метрики - day 7 / day 30 retention, churn rate, MAU/DAU

3️⃣ Cold Start Problem усиливается - новым пользователям и новым продуктам тяжело попасть в рекомендации, теряется прибыль. Конкретные метрики - % новых категорий/товаров показанных пользователям в первые X дней, время до первого показа нового товара

🧠 Что с этим делают в индустрии? Решения, применяемые в YouTube, TikTok и Netflix:

1️⃣ Exploration/Exploitation trade-off - периодически рекомендуют что-то случайное/редкое, чтобы собрать новую информацию.
2️⃣ Policy-based ML - обучение моделей на основе reinforcment learning, оптимизируем не просто на клик/не клик, а на получение “награды” пользователем, которая повлияет на долгосрочные метрики и спровоцирует желаемое поведение пользователей.
3️⃣ Re-ranking с diversity penalty - после получения топ-N кандидатов, применяется переранжировка, которая штрафует за однотипность (например, если все видео с одного канала).

Вопрос для читателей - 🔍 Как в оффлайне заметить feedback loop? Пишите ваш ответ в комментариях👇

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
18🔥2👍1
📱 Как YouTube решает, что тебе показать? —Рекомендательные системы в бизнесе

Задача рекомендаций занимает важное место как в YouTube, так в Яндекс.Музыке, на Wildberries, и даже в Яндекс.Такси. А решается она именно с помощью машинного обучения.

Рекомендательные системы являются одной из самых широких сфер применения ML. Как вы думаете - почему так? Ответы ждём в комментариях. 👇

Специфика бизнес-задачи - огромный объем данных о пользователях и контенте, множество критериев от лайков до геолокации, необходимость работать быстро в реальном времени.

Метрики качества - CTR (кликабельность), Watch Time, User Retention (возвращение пользователя), Engagement (вовлечённость - лайки, комменты и тд), Diversity (разнообразие рекомендаций).

Способы ML решений:
🔹Коллаборативная фильтрация — анализируют поведение похожих пользователей и рекомендуют, что понравилось им.Пример моделей: Matrix Factorization (ALS, SVD).
🔹Контентный анализ — изучают характеристики айтема (теги, заголовки, описание) и подбирают похожие. Пример моделей: TF-IDF, BERT, Мультимодальные модели.
🔹Более сложные - гибридные модели, модель обученные на последовательностях, модели с онлайн-обновлением.

Потенциальные сложности, которые нужно решить разработчику ML:
1️⃣ Холодный старт — как рекомендовать, если нет данных о новом пользователе или новом видео?
2️⃣ Обработка огромных данных в реальном времени — миллионы пользователей, миллионы видео и постоянные обновления.
3️⃣ Баланс между новизной и релевантностью — не показывать только популярное, но и давать шанс новым видео.
4️⃣ Избежание фильтров пузырей — чтобы не ограничивать пользователя только одним типом контента.
5️⃣ Этичные вопросы — не усиливать токсичный или вредный контент.
〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥2
Вопросы и задача с собеседований 🔥

В очередной раз подготовили для вас несколько вопросов и задачу, которые могут встретиться на интервью!

💬 Наши ответы опубликуем в пятницу, а сейчас ждём ваших ответов в комментариях!

📌 Вопросы и задача:

1️⃣ Как оценить переобучение без тестовой выборки?

2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?

3️⃣ Задача — чему будет равен ROC-AUC для следующих данных и предсказаний? Посчитать руками!

Истинная метка:
1 0 1 1 0
Предсказание модели - метка:
1 1 1 0 0
Предсказание модели - число:
0.9 0.8 0.7 0.4 0.3


#собеседования_MLinside
🔥8🤝6👎4
📌 Ответы на вопросы и задачу с собеседований

1️⃣ Как оценить переобучение без тестовой выборки?
1. С помощью кросс-валидации - если метрики сильно меняются между фолдами, то скорее всего мы переобучились.
2. По разнице между значениями метрик и лосс-функции на train и validation датасетах. Ошибка на validation сильно больше чем на train, значит есть переобучение. Если на train ошибка тоже большая, значит недообучение.
3. Посмотреть насколько “уверенно” предсказывает наша модель - большие значения могут свидетельствовать о переобучении.


2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?
Главное — понимать, какая цена у ложноположительных и ложноотрицательных ошибок в задаче, в зависимости от этого мы можем делать трейдофф между precision и recall-ом следующими способами:

1. Самоё лёгкое решение - понизить порог классификации, допустим раньше объект с предсказанием модели 0.5 и выше определялся как положительный класс, а теперь сделать порог 0.3, а не 0.5. Выбрать новый порог можно построив PR-кривую.
2. Решения посложнее - изменить функцию потерь, чтобы сильнее наказывать пропущенные положительные примеры, в современных моделях градиентного бустинга (CatBoost, XGBoost) можно придать больший вес классу гиперпараметром. Сделать больше сэмплов положительного класса, даже с помощью oversampling-а (используя SMOTE, sklearn, data augmentations)
3. Ещё более сложный, но работающий вариант - сделать ансамбль моделей, где одна будет ловить всё, что может быть положительным классом


3️⃣ Чему будет равен ROC-AUC для следующих данных и предсказаний?
Истинная метка:
1 0 1 1 0
Предсказание модели - метка:
1 1 1 0 0
Предсказание модели - число:
0.9 0.8 0.7 0.4 0.3

Ответ - 0.667. Как легко посчитать - мини-гайд от Дьяконова
〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
13
📣 Уже совсем скоро стартует Aha!25 — одна из крупнейших технических конференций по ML, AI, аналитике и продакт-менеджменту!

📍Когда: 29–30 мая
📍Где: Москва, кластер «Ломоносов» (МГУ)

Что вас ждет:
🔹 1200+ участников
🔹 80+ докладов
🔹 16 тематических потоков
🔹 Спикеры из Яндекса, Авито, OZON, Альфа-Банка, Т-Банка и других
🔹 Дополнительный онлайн-день 22 мая

🔥 Мы — партнеры конференции, помогли в организации секции по ML, в рамках которой вас ждет выступления на темы классических бизнес-задач, решённых с помощью ML, AI-предпринимательства и генеративного ИИ.

🎤 Кроме того, 29 мая основатель нашей школы и эксперт по Big Data & AI Виктор Кантор выступит с докладом и расскажет, какие задачи в AI действительно ценятся рынком — и за что готовы платить.

🎟 Билеты — на официальном сайте конференции
💥 Промокод MLINSIDE даст скидку 20% на скидка на онлайн- и офлайн-билеты!
7👍2🔥1
💬Прошли демо-курс «База ML» на Stepik? Поделитесь впечатлениями!

В декабре мы открыли доступ к демо-версии нашего курса «База ML» на платформе Stepik, чтобы каждый мог оценить подачу материала, подход преподавателей и структуру обучения.

Если вы уже прошли демо-курс, нам важно узнать:
🔵Что было особенно полезно?
🔵Какие темы зашли лучше всего?
🔵Насколько удобно было проходить материалы?

📌 Будем признательны за ваш отзыв прямо на Stepik. Это поможет другим студентам принять решение, а нам продолжать улучшать курс и развивать культуру качественного обучения.

Демо-курс — это возможность познакомиться с ML на практике и оценить формат обучения в MLinside.

Если вы еще не проходили наш демо-курс — самое время начать!

👉 Ссылка на курс

Спасибо, что развиваетесь вместе с MLinside! Ваш отзыв поможет нам расти и становится еще лучше 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
▶️ На нашем YouTube-канале вышло интервью с Константином Чукреевым — Growth Product Lead в Manychat, ранее работал в Яндекс Лавке, где за короткий срок прошел путь от ML-разработчика до продакт менеджера уровня Middle+.

Константин рассказывает:
▪️ Как он переходил из аналитики и ML в продакт-менеджмент.
▪️ Какие задачи решал в Яндексе и Manychat.
▪️ Какие навыки нужны продактам и ML-специалистам для развития.
▪️Советы молодым специалистам по Data Science и ML
▪️ Будущее чатботов с ИИ и перспективы AI через 5–10 лет.
▪️ Как делать карьерный переход и кому стоит идти в продакт-менеджмент

🎯 Интервью для тех, кто хочет развиваться на стыке ML, аналитики и продукта.

🔥Спойлер: если вы хотите курс от MLinside и Константина специально для продакт-менеджеров — обязательно посмотрите это интервью!

👉 Смотреть здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥126
Готовы проверить свои знания? ⚡️

Сегодня в нашем канале — новый квиз! Вопросы лёгкого уровня помогут освежить знания или узнать что-то новое.

Не пропустите, начнём совсем скоро! 👀 🧠

💥 СПОЙЛЕР: Если вы готовитесь к собеседованию на джуна в ML или просто хотите узнать, как это устроено изнутри — ждите отличную новость, которая совсем скоро появится в нашем канале!
5👍2🔥2
Какой метод используется для автоматического подбора гиперпараметров модели?
Anonymous Quiz
16%
Градиентный спуск
78%
Grid Search или Random Search
2%
Линейная регрессия
3%
Преобразование признаков
4
Знакомая ситуация? 😅

Ожидания от модели — небесные, качество данных — под землей.

👇 Поделитесь в комментариях под мемом, какие самые странные вещи вы видели в датасетах.

#мемнедели
😁17🔥6
⚠️Приглашаем на наш вебинар!

У нас отличная новость — совсем скоро мы проведем mock-собеседование на позицию junior ML специалиста! У вас будет возможность задавать вопросы в ходе вебинара, проверить свои знания и готовность пройти собеседование или просто узнать о том, как проходят такие интервью и какие вопросы задают.

🗓️ Когда: 28 мая (среда), 19:00 (МСК)

Собеседование будет вести Виктор Кантор — основатель MLinside, эксперт по Big Data и AI, бывший Chief Data Officer МТС и Chief Data Scientist Яндекс.Такси

В роли кандидата — Илья Кустов, выпускник первого потока курса «База ML» и инженер в государственном учреждении. Илья решил сменить направление, потому что верит, что искусственный интеллект — это будущее человечества. Его привлекает работа с аналитической обработкой данных и точными науками, а также желание развиваться и расти в новой для себя сфере.

📚 Вебинар покажет, каких результатов можно добиться после обучения на курсе «База ML» и насколько он помогает подготовиться к реальным собеседованиям.

🔗 Регистрируйтесь по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍2
🔥Вопросы с собеседований

Мы снова подготовили для вас вопросы, которые часто встречаются на собеседованиях по ML 📚

Ответы мы опубликуем в понедельник, а пока ждем ваши варианты в комментариях! 💬

📌 Вопросы:

1️⃣ В чём разница между методами ансамблирования моделей: бэггинг и бустинг?
2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды существуют?

#собеседования_MLinside
9👍3
📌 Ответы на вопросы с собеседований

1️⃣ В чём разница между следующими методами ансамблирования моделей: стэкинг и бустинг?
Бэггинг (bagging) обучает много моделей независимо друг от друга на разных подвыборках и усредняет результат — он снижает дисперсию (variance), не сильно влияя на смещение (bias).

Бустинг (boosting) обучает модели последовательно, каждая исправляет ошибки предыдущих — он снижаетсмещение (bias), но может увеличить дисперсию, особенно если переобучиться.


2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
Увеличение количества данных не поможет избежать переобучения, если модель слишком сложная для решаемой задачи — тогда она всё равно может подгонять шум в данных. Также, если новые данные не добавляют разнообразия (например, они из той же выборки и не покрывают новые случаи), переобучение сохранится. Кроме того, если данные остаются с теми же ошибками, увеличение объёма не решит проблему.


3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды есть?
Прунинг (обрезка) деревьев — это удаление лишних ветвей дерева, чтобы уменьшить переобучение и улучшить обобщающую способность модели.

Он нужен, потому что полностью выросшее дерево может подгоняться под шум и детали обучающей выборки.

Виды прунинга:

- Pre-pruning (ранняя остановка) — остановка роста дерева при достижении условий (например, макс. глубина, мин. число объектов в узле).
- Post-pruning (пост-обрезка) — сначала строится полное дерево, потом лишние ветви удаляются на основе кросс-валидации или прироста качества.

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
11
‼️Не упустите шанс — вебинар уже завтра!

Завтра, 28 мая в 19:00 (МСК), мы проведём mock-собеседование на Junior ML специалиста — уникальная возможность увидеть, как проходят настоящие собеседования, получить ценные инсайты и проверить свою готовность.

Собеседование будет вести Виктор Кантор — основатель MLinside, эксперт по Big Data и AI, бывший Chief Data Officer МТС и Chief Data Scientist Яндекс.Такси.

В качестве кандидата выступит Илья Кустов, выпускник первого потока курса «База ML» и инженер в госучреждении.

Регистрируйтесь сейчас и готовьтесь к настоящим собеседованиям с уверенностью!

🔗 Ссылка на регистрацию
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥32
🎉 Сегодня и завтра мы на Aha!25 — одной из крупнейших технических конференций по ML, AI, аналитике и продакт-менеджменту!

📍 Если вы тоже на Aha! — приходите знакомиться! У нас уютная зона (да, та самая с зеленым диваном), можно пообщаться про карьеру, обучение и узнать, как использовать ML, чтобы расти в профессии и приносить больше ценности бизнесу. А также поесть мандарины 🤫

📸 На фото — наш стенд. Заходите!
15👍5
This media is not supported in your browser
VIEW IN TELEGRAM
🔥236
🔥 Продолжаем рубрику “Вопросы с собеседований”!

Сегодня снова делимся вопросами, которые могут встретиться во время интервью на ML-позиции.

💬 Пишите свои ответы в комментариях, а наши ответы мы опубликуем в среду!

📌 Вопросы:

1️⃣ Как устроено/строится дерево решений?
2️⃣ Как оценить важность признаков?
3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?

📌Все прошлые вопросы в нашем канале ищите по хештегу #собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
7