🔁 Проблема Feedback loop в рекомендательных системах - Почему алгоритм может зациклиться и начать показывать тебе одно и то же?
Ты смотришь видос на YouTube → YouTube понял, что тебе понравилось → показывает похожие → ты снова смотришь → алгоритм думает что тебе это и надо показывать → И так по кругу.
🤖 Тем самым модель не может предложить что-то кардинально новое и усиливает уже существующие паттерны.
🎯 Какие бизнес-метрики страдают из-за feedback loop:
1️⃣ Diversity (падает разнообразие контента) → падает интерес → снижается вовлечённость. Конкретные метрики - content diversity score, entropy of recommended items
2️⃣ User Retention (падает удержание пользователей) → пользователи не делают повторных визитов. Конкретные метрики - day 7 / day 30 retention, churn rate, MAU/DAU
3️⃣ Cold Start Problem усиливается - новым пользователям и новым продуктам тяжело попасть в рекомендации, теряется прибыль. Конкретные метрики - % новых категорий/товаров показанных пользователям в первые X дней, время до первого показа нового товара
🧠 Что с этим делают в индустрии? Решения, применяемые в YouTube, TikTok и Netflix:
1️⃣ Exploration/Exploitation trade-off - периодически рекомендуют что-то случайное/редкое, чтобы собрать новую информацию.
2️⃣ Policy-based ML - обучение моделей на основе reinforcment learning, оптимизируем не просто на клик/не клик, а на получение “награды” пользователем, которая повлияет на долгосрочные метрики и спровоцирует желаемое поведение пользователей.
3️⃣ Re-ranking с diversity penalty - после получения топ-N кандидатов, применяется переранжировка, которая штрафует за однотипность (например, если все видео с одного канала).
Вопрос для читателей - 🔍 Как в оффлайне заметить feedback loop? Пишите ваш ответ в комментариях👇
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Ты смотришь видос на YouTube → YouTube понял, что тебе понравилось → показывает похожие → ты снова смотришь → алгоритм думает что тебе это и надо показывать → И так по кругу.
🤖 Тем самым модель не может предложить что-то кардинально новое и усиливает уже существующие паттерны.
🎯 Какие бизнес-метрики страдают из-за feedback loop:
1️⃣ Diversity (падает разнообразие контента) → падает интерес → снижается вовлечённость. Конкретные метрики - content diversity score, entropy of recommended items
2️⃣ User Retention (падает удержание пользователей) → пользователи не делают повторных визитов. Конкретные метрики - day 7 / day 30 retention, churn rate, MAU/DAU
3️⃣ Cold Start Problem усиливается - новым пользователям и новым продуктам тяжело попасть в рекомендации, теряется прибыль. Конкретные метрики - % новых категорий/товаров показанных пользователям в первые X дней, время до первого показа нового товара
🧠 Что с этим делают в индустрии? Решения, применяемые в YouTube, TikTok и Netflix:
1️⃣ Exploration/Exploitation trade-off - периодически рекомендуют что-то случайное/редкое, чтобы собрать новую информацию.
2️⃣ Policy-based ML - обучение моделей на основе reinforcment learning, оптимизируем не просто на клик/не клик, а на получение “награды” пользователем, которая повлияет на долгосрочные метрики и спровоцирует желаемое поведение пользователей.
3️⃣ Re-ranking с diversity penalty - после получения топ-N кандидатов, применяется переранжировка, которая штрафует за однотипность (например, если все видео с одного канала).
Вопрос для читателей - 🔍 Как в оффлайне заметить feedback loop? Пишите ваш ответ в комментариях👇
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18🔥2👍1
Задача рекомендаций занимает важное место как в YouTube, так в Яндекс.Музыке, на Wildberries, и даже в Яндекс.Такси. А решается она именно с помощью машинного обучения.
Рекомендательные системы являются одной из самых широких сфер применения ML. Как вы думаете - почему так? Ответы ждём в комментариях. 👇
Специфика бизнес-задачи - огромный объем данных о пользователях и контенте, множество критериев от лайков до геолокации, необходимость работать быстро в реальном времени.
Метрики качества - CTR (кликабельность), Watch Time, User Retention (возвращение пользователя), Engagement (вовлечённость - лайки, комменты и тд), Diversity (разнообразие рекомендаций).
Способы ML решений:
🔹Коллаборативная фильтрация — анализируют поведение похожих пользователей и рекомендуют, что понравилось им.Пример моделей: Matrix Factorization (ALS, SVD).
🔹Контентный анализ — изучают характеристики айтема (теги, заголовки, описание) и подбирают похожие. Пример моделей: TF-IDF, BERT, Мультимодальные модели.
🔹Более сложные - гибридные модели, модель обученные на последовательностях, модели с онлайн-обновлением.
Потенциальные сложности, которые нужно решить разработчику ML:
1️⃣ Холодный старт — как рекомендовать, если нет данных о новом пользователе или новом видео?
2️⃣ Обработка огромных данных в реальном времени — миллионы пользователей, миллионы видео и постоянные обновления.
3️⃣ Баланс между новизной и релевантностью — не показывать только популярное, но и давать шанс новым видео.
4️⃣ Избежание фильтров пузырей — чтобы не ограничивать пользователя только одним типом контента.
5️⃣ Этичные вопросы — не усиливать токсичный или вредный контент.
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥2
Вопросы и задача с собеседований 🔥
В очередной раз подготовили для вас несколько вопросов и задачу, которые могут встретиться на интервью!
💬 Наши ответы опубликуем в пятницу, а сейчас ждём ваших ответов в комментариях!
📌 Вопросы и задача:
1️⃣ Как оценить переобучение без тестовой выборки?
2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?
3️⃣ Задача — чему будет равен ROC-AUC для следующих данных и предсказаний? Посчитать руками!
#собеседования_MLinside
В очередной раз подготовили для вас несколько вопросов и задачу, которые могут встретиться на интервью!
💬 Наши ответы опубликуем в пятницу, а сейчас ждём ваших ответов в комментариях!
📌 Вопросы и задача:
1️⃣ Как оценить переобучение без тестовой выборки?
2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?
3️⃣ Задача — чему будет равен ROC-AUC для следующих данных и предсказаний? Посчитать руками!
Истинная метка:
1 0 1 1 0
Предсказание модели - метка:
1 1 1 0 0
Предсказание модели - число:
0.9 0.8 0.7 0.4 0.3
#собеседования_MLinside
🔥8🤝6👎4
📌 Ответы на вопросы и задачу с собеседований
1️⃣ Как оценить переобучение без тестовой выборки?
2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?
3️⃣ Чему будет равен ROC-AUC для следующих данных и предсказаний?
Ответ - 0.667. Как легко посчитать - мини-гайд от Дьяконова
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
1️⃣ Как оценить переобучение без тестовой выборки?
1. С помощью кросс-валидации - если метрики сильно меняются между фолдами, то скорее всего мы переобучились.
2. По разнице между значениями метрик и лосс-функции на train и validation датасетах. Ошибка на validation сильно больше чем на train, значит есть переобучение. Если на train ошибка тоже большая, значит недообучение.
3. Посмотреть насколько “уверенно” предсказывает наша модель - большие значения могут свидетельствовать о переобучении.
2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?
Главное — понимать, какая цена у ложноположительных и ложноотрицательных ошибок в задаче, в зависимости от этого мы можем делать трейдофф между precision и recall-ом следующими способами:
1. Самоё лёгкое решение - понизить порог классификации, допустим раньше объект с предсказанием модели 0.5 и выше определялся как положительный класс, а теперь сделать порог 0.3, а не 0.5. Выбрать новый порог можно построив PR-кривую.
2. Решения посложнее - изменить функцию потерь, чтобы сильнее наказывать пропущенные положительные примеры, в современных моделях градиентного бустинга (CatBoost, XGBoost) можно придать больший вес классу гиперпараметром. Сделать больше сэмплов положительного класса, даже с помощью oversampling-а (используя SMOTE, sklearn, data augmentations)
3. Ещё более сложный, но работающий вариант - сделать ансамбль моделей, где одна будет ловить всё, что может быть положительным классом
3️⃣ Чему будет равен ROC-AUC для следующих данных и предсказаний?
Истинная метка:
1 0 1 1 0
Предсказание модели - метка:
1 1 1 0 0
Предсказание модели - число:
0.9 0.8 0.7 0.4 0.3
Ответ - 0.667. Как легко посчитать - мини-гайд от Дьяконова
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13
📣 Уже совсем скоро стартует Aha!25 — одна из крупнейших технических конференций по ML, AI, аналитике и продакт-менеджменту!
📍Когда: 29–30 мая
📍Где: Москва, кластер «Ломоносов» (МГУ)
Что вас ждет:
🔹 1200+ участников
🔹 80+ докладов
🔹 16 тематических потоков
🔹 Спикеры из Яндекса, Авито, OZON, Альфа-Банка, Т-Банка и других
🔹 Дополнительный онлайн-день 22 мая
🔥 Мы — партнеры конференции, помогли в организации секции по ML, в рамках которой вас ждет выступления на темы классических бизнес-задач, решённых с помощью ML, AI-предпринимательства и генеративного ИИ.
🎤 Кроме того, 29 мая основатель нашей школы и эксперт по Big Data & AI Виктор Кантор выступит с докладом и расскажет, какие задачи в AI действительно ценятся рынком — и за что готовы платить.
🎟 Билеты — на официальном сайте конференции
💥 Промокод MLINSIDE даст скидку 20% на скидка на онлайн- и офлайн-билеты!
📍Когда: 29–30 мая
📍Где: Москва, кластер «Ломоносов» (МГУ)
Что вас ждет:
🔹 1200+ участников
🔹 80+ докладов
🔹 16 тематических потоков
🔹 Спикеры из Яндекса, Авито, OZON, Альфа-Банка, Т-Банка и других
🔹 Дополнительный онлайн-день 22 мая
🔥 Мы — партнеры конференции, помогли в организации секции по ML, в рамках которой вас ждет выступления на темы классических бизнес-задач, решённых с помощью ML, AI-предпринимательства и генеративного ИИ.
🎤 Кроме того, 29 мая основатель нашей школы и эксперт по Big Data & AI Виктор Кантор выступит с докладом и расскажет, какие задачи в AI действительно ценятся рынком — и за что готовы платить.
🎟 Билеты — на официальном сайте конференции
💥 Промокод MLINSIDE даст скидку 20% на скидка на онлайн- и офлайн-билеты!
❤7👍2🔥1
В декабре мы открыли доступ к демо-версии нашего курса «База ML» на платформе Stepik, чтобы каждый мог оценить подачу материала, подход преподавателей и структуру обучения.
Если вы уже прошли демо-курс, нам важно узнать:
📌 Будем признательны за ваш отзыв прямо на Stepik. Это поможет другим студентам принять решение, а нам продолжать улучшать курс и развивать культуру качественного обучения.
Демо-курс — это возможность познакомиться с ML на практике и оценить формат обучения в MLinside.
Если вы еще не проходили наш демо-курс — самое время начать!
👉 Ссылка на курс
Спасибо, что развиваетесь вместе с MLinside! Ваш отзыв поможет нам расти и становится еще лучше 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Константин рассказывает:
▪️ Как он переходил из аналитики и ML в продакт-менеджмент.
▪️ Какие задачи решал в Яндексе и Manychat.
▪️ Какие навыки нужны продактам и ML-специалистам для развития.
▪️Советы молодым специалистам по Data Science и ML
▪️ Будущее чатботов с ИИ и перспективы AI через 5–10 лет.
▪️ Как делать карьерный переход и кому стоит идти в продакт-менеджмент
🎯 Интервью для тех, кто хочет развиваться на стыке ML, аналитики и продукта.
🔥Спойлер:
👉 Смотреть здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤6
Готовы проверить свои знания? ⚡️
Сегодня в нашем канале — новый квиз! Вопросы лёгкого уровня помогут освежить знания или узнать что-то новое.
Не пропустите, начнём совсем скоро! 👀 🧠
💥 СПОЙЛЕР:Если вы готовитесь к собеседованию на джуна в ML или просто хотите узнать, как это устроено изнутри — ждите отличную новость, которая совсем скоро появится в нашем канале!
Сегодня в нашем канале — новый квиз! Вопросы лёгкого уровня помогут освежить знания или узнать что-то новое.
Не пропустите, начнём совсем скоро! 👀 🧠
💥 СПОЙЛЕР:
❤5👍2🔥2
Что из перечисленного используется для регуляризации моделей?
Anonymous Quiz
88%
Добавление L1 и L2 штрафов за большие веса модели
9%
Нормализация данных
1%
Увеличение размера обучающей выборки
1%
Уменьшение количества метрик качества
Какое из утверждений о кластеризации k-means неверно?
Anonymous Quiz
20%
Кластеризация k-means требует указания числа кластеров заранее
9%
Кластеризация k-means использует евклидово расстояние по умолчанию
56%
Кластеризация k-means может работать с любым типом данных без изменений
14%
Кластеризация k-means назначает объект к кластеру на основе минимального расстояния до центра
Какой метод используется для автоматического подбора гиперпараметров модели?
Anonymous Quiz
16%
Градиентный спуск
78%
Grid Search или Random Search
2%
Линейная регрессия
3%
Преобразование признаков
❤4
Знакомая ситуация? 😅
Ожидания от модели — небесные, качество данных — под землей.
👇 Поделитесь в комментариях под мемом, какие самые странные вещи вы видели в датасетах.
#мемнедели
Ожидания от модели — небесные, качество данных — под землей.
👇 Поделитесь в комментариях под мемом, какие самые странные вещи вы видели в датасетах.
#мемнедели
😁17🔥6
У нас отличная новость — совсем скоро мы проведем mock-собеседование на позицию junior ML специалиста! У вас будет возможность задавать вопросы в ходе вебинара, проверить свои знания и готовность пройти собеседование или просто узнать о том, как проходят такие интервью и какие вопросы задают.
🗓️ Когда: 28 мая (среда), 19:00 (МСК)
Собеседование будет вести Виктор Кантор — основатель MLinside, эксперт по Big Data и AI, бывший Chief Data Officer МТС и Chief Data Scientist Яндекс.Такси
В роли кандидата — Илья Кустов, выпускник первого потока курса «База ML» и инженер в государственном учреждении. Илья решил сменить направление, потому что верит, что искусственный интеллект — это будущее человечества. Его привлекает работа с аналитической обработкой данных и точными науками, а также желание развиваться и расти в новой для себя сфере.
📚 Вебинар покажет, каких результатов можно добиться после обучения на курсе «База ML» и насколько он помогает подготовиться к реальным собеседованиям.
🔗 Регистрируйтесь по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍2
🔥Вопросы с собеседований
Мы снова подготовили для вас вопросы, которые часто встречаются на собеседованиях по ML 📚
Ответы мы опубликуем в понедельник, а пока ждем ваши варианты в комментариях! 💬
📌 Вопросы:
1️⃣ В чём разница между методами ансамблирования моделей: бэггинг и бустинг?
2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды существуют?
#собеседования_MLinside
Мы снова подготовили для вас вопросы, которые часто встречаются на собеседованиях по ML 📚
Ответы мы опубликуем в понедельник, а пока ждем ваши варианты в комментариях! 💬
📌 Вопросы:
1️⃣ В чём разница между методами ансамблирования моделей: бэггинг и бустинг?
2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды существуют?
#собеседования_MLinside
❤9👍3
📌 Ответы на вопросы с собеседований
1️⃣ В чём разница между следующими методами ансамблирования моделей: стэкинг и бустинг?
2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды есть?
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
1️⃣ В чём разница между следующими методами ансамблирования моделей: стэкинг и бустинг?
Бэггинг (bagging) обучает много моделей независимо друг от друга на разных подвыборках и усредняет результат — он снижает дисперсию (variance), не сильно влияя на смещение (bias).
Бустинг (boosting) обучает модели последовательно, каждая исправляет ошибки предыдущих — он снижаетсмещение (bias), но может увеличить дисперсию, особенно если переобучиться.
2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
Увеличение количества данных не поможет избежать переобучения, если модель слишком сложная для решаемой задачи — тогда она всё равно может подгонять шум в данных. Также, если новые данные не добавляют разнообразия (например, они из той же выборки и не покрывают новые случаи), переобучение сохранится. Кроме того, если данные остаются с теми же ошибками, увеличение объёма не решит проблему.
3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды есть?
Прунинг (обрезка) деревьев — это удаление лишних ветвей дерева, чтобы уменьшить переобучение и улучшить обобщающую способность модели.
Он нужен, потому что полностью выросшее дерево может подгоняться под шум и детали обучающей выборки.
Виды прунинга:
- Pre-pruning (ранняя остановка) — остановка роста дерева при достижении условий (например, макс. глубина, мин. число объектов в узле).
- Post-pruning (пост-обрезка) — сначала строится полное дерево, потом лишние ветви удаляются на основе кросс-валидации или прироста качества.
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11
Завтра, 28 мая в 19:00 (МСК), мы проведём mock-собеседование на Junior ML специалиста — уникальная возможность увидеть, как проходят настоящие собеседования, получить ценные инсайты и проверить свою готовность.
Собеседование будет вести Виктор Кантор — основатель MLinside, эксперт по Big Data и AI, бывший Chief Data Officer МТС и Chief Data Scientist Яндекс.Такси.
В качестве кандидата выступит Илья Кустов, выпускник первого потока курса «База ML» и инженер в госучреждении.
⏳ Регистрируйтесь сейчас и готовьтесь к настоящим собеседованиям с уверенностью!
🔗 Ссылка на регистрацию
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3❤2
🎉 Сегодня и завтра мы на Aha!25 — одной из крупнейших технических конференций по ML, AI, аналитике и продакт-менеджменту!
📍 Если вы тоже на Aha! — приходите знакомиться! У нас уютная зона (да, та самая с зеленым диваном), можно пообщаться про карьеру, обучение и узнать, как использовать ML, чтобы расти в профессии и приносить больше ценности бизнесу.А также поесть мандарины 🤫
📸 На фото — наш стенд. Заходите!
📍 Если вы тоже на Aha! — приходите знакомиться! У нас уютная зона (да, та самая с зеленым диваном), можно пообщаться про карьеру, обучение и узнать, как использовать ML, чтобы расти в профессии и приносить больше ценности бизнесу.
📸 На фото — наш стенд. Заходите!
❤15👍5
🔥 Продолжаем рубрику “Вопросы с собеседований”!
Сегодня снова делимся вопросами, которые могут встретиться во время интервью на ML-позиции.
💬 Пишите свои ответы в комментариях, а наши ответы мы опубликуем в среду!
📌 Вопросы:
1️⃣ Как устроено/строится дерево решений?
2️⃣ Как оценить важность признаков?
3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?
📌 Все прошлые вопросы в нашем канале ищите по хештегу #собеседования_MLinside
Сегодня снова делимся вопросами, которые могут встретиться во время интервью на ML-позиции.
💬 Пишите свои ответы в комментариях, а наши ответы мы опубликуем в среду!
📌 Вопросы:
1️⃣ Как устроено/строится дерево решений?
2️⃣ Как оценить важность признаков?
3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7
📌 Ответы на вопросы с собеседований
1️⃣ Как устроено/строится дерево решений?
2️⃣ Как оценить важность признаков?
3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
1️⃣ Как устроено/строится дерево решений?
Дерево решений строится рекурсивно: на каждом шаге оно выбирает признак и порог, по которому лучше всего разделить данные, чтобы максимизировать "чистоту" разбиения (например, по информации, джини или снижению дисперсии).
Затем данные делятся на две части, и для каждой строятся поддеревья. Этот процесс продолжается до достижения заданной глубины, минимального количества объектов в узле или до тех пор, пока все объекты в узле не будут одного класса (для классификации).
2️⃣ Как оценить важность признаков?
Оценить важность признаков можно по-разному: в деревьях — по снижению импьюрити или permute importance, в линейных моделях — по коэффициентам. Но наиболее универсальный и надёжный метод — SHAP: он основан на теории игр, учитывает все взаимодействия, даёт как локальные, так и глобальные оценки и работает с любыми моделями. Лучше комбинировать несколько подходов для полноты картины.
3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?
F1 использует гармоническое среднее, потому что оно весьма строго наказывает дисбаланс между precision и recall: высокое значение возможно только если оба велики. Гармоническое среднее сильнее наказывает за перекос точности и полноты чем арифметическое или геометрическое средние, доказывается через неравенство Коши.
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
#собеседования_MLinside
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18
Media is too big
VIEW IN TELEGRAM
🔥 На YouTube-канале MLinside вышли интервью с Валерием Бабушкиным — одним из самых узнаваемых экспертов в сфере ML и Data Science, Senior Director по Data & AI в BP (British Petroleum), автором книги Machine Learning System Design и Kaggle Competitions Grandmaster’ом.
Обсудили:
✅ Чем отличается работа в российских и зарубежных компаниях — и что стало неожиданным при переходе.
✅ Как устроен бигтех изнутри и какие у него плюсы и минусы.
✅ Что выбрать: стартап или корпорацию? И в чём разница для DS-специалиста.
✅ Какие качества и подходы действительно важны для роста в ML/DS.
✅ Советы молодым специалистам: с чего начать и как продолжать расти.
👉 Смотреть первую часть
👉 Смотреть вторую часть
Обсудили:
✅ Чем отличается работа в российских и зарубежных компаниях — и что стало неожиданным при переходе.
✅ Как устроен бигтех изнутри и какие у него плюсы и минусы.
✅ Что выбрать: стартап или корпорацию? И в чём разница для DS-специалиста.
✅ Какие качества и подходы действительно важны для роста в ML/DS.
✅ Советы молодым специалистам: с чего начать и как продолжать расти.
👉 Смотреть первую часть
👉 Смотреть вторую часть
🔥22❤5⚡2👍1