Work-life-study баланс
5 августа у нас стартовал Базовый курс по ML, вы к нему еще можете присоединиться, пока основной поток ушёл не так далеко.
Но сегодня мы хотели поговорить о том, как не сойти с ума, когда и работа, и учёба, и жизнь надо успевать как-то жить.
Work-life баланс, это уже привычный термин. Но как выживать, когда в устоявшийся график добавляется обучение?
Собрали несколько принципов, которые помогут вам не выгорать, ну, или выгорать не так быстро:
▪️ Не пытайтесь «успеть всё» за 1 день. Пессимистичное планирование – основа успеха. Ставьте в план задач только самое приоритетное.
▪️ Используйте небольшие слоты. Не обязательно выкраивать 2 часа подряд на курс. Можно выделить 20 минут, в дороге, на перерыве, перед сном. Главное – регулярность.
▪️ Планируйте отдых. Когда задач много, всегда есть соблазн уменьшить количество отдыха. Это прямой путь к выгоранию. Так что рекомендуем прямо в календаре ставить слоты на отдых.
▪️Используйте ограничители отвлечений в рабочее и учебное время. Подойдёт любой плагин для браузера, например, «StayFocusd», отдельные сайты с «родительским контролем», например trafficwasher.ru или любые подобные.
Советы вроде как простые, да не простые. Берегите свой баланс и поделитесь в комментариях, как вам удается всё успевать.
5 августа у нас стартовал Базовый курс по ML, вы к нему еще можете присоединиться, пока основной поток ушёл не так далеко.
Но сегодня мы хотели поговорить о том, как не сойти с ума, когда и работа, и учёба, и жизнь надо успевать как-то жить.
Work-life баланс, это уже привычный термин. Но как выживать, когда в устоявшийся график добавляется обучение?
Собрали несколько принципов, которые помогут вам не выгорать, ну, или выгорать не так быстро:
▪️ Не пытайтесь «успеть всё» за 1 день. Пессимистичное планирование – основа успеха. Ставьте в план задач только самое приоритетное.
▪️ Используйте небольшие слоты. Не обязательно выкраивать 2 часа подряд на курс. Можно выделить 20 минут, в дороге, на перерыве, перед сном. Главное – регулярность.
▪️ Планируйте отдых. Когда задач много, всегда есть соблазн уменьшить количество отдыха. Это прямой путь к выгоранию. Так что рекомендуем прямо в календаре ставить слоты на отдых.
▪️Используйте ограничители отвлечений в рабочее и учебное время. Подойдёт любой плагин для браузера, например, «StayFocusd», отдельные сайты с «родительским контролем», например trafficwasher.ru или любые подобные.
Советы вроде как простые, да не простые. Берегите свой баланс и поделитесь в комментариях, как вам удается всё успевать.
❤11
Последний шанс попасть в третий поток курса «База ML»
5 августа группа уже стартовала – студенты прошли вводный вебинар с Виктором Кантором и получили доступ к первым модулям. Но мы оставили окно для тех, кто не успел или пока не решился.
Вы ещё успеваете присоединиться и пройти путь с остальными. После оплаты вы получите:
▪️доступ к уже прошедшему вебинару и материалам
▪️полную программу с практикой на Python и ML-моделях
▪️сможете присоединиться к онлайн-вебинарам с ответами на вопросы от преподавателей каждую неделю
▪️поучаствуете в соревнованиях на платформе Kaggle
Окно закроется 12 августа и следующий набор будет только через несколько месяцев. Если хотите войти в ML и уже к зиме быть готовыми к собеседованиям – это тот самый момент, чтобы это сделать.
Записывайтесь сейчас, чтобы не начать следующий год с сожаления, что упустили шанс.
5 августа группа уже стартовала – студенты прошли вводный вебинар с Виктором Кантором и получили доступ к первым модулям. Но мы оставили окно для тех, кто не успел или пока не решился.
Вы ещё успеваете присоединиться и пройти путь с остальными. После оплаты вы получите:
▪️доступ к уже прошедшему вебинару и материалам
▪️полную программу с практикой на Python и ML-моделях
▪️сможете присоединиться к онлайн-вебинарам с ответами на вопросы от преподавателей каждую неделю
▪️поучаствуете в соревнованиях на платформе Kaggle
Окно закроется 12 августа и следующий набор будет только через несколько месяцев. Если хотите войти в ML и уже к зиме быть готовыми к собеседованиям – это тот самый момент, чтобы это сделать.
Записывайтесь сейчас, чтобы не начать следующий год с сожаления, что упустили шанс.
❤2
Разбор задач с собеседований
Собеседования по ML-теории, Математической статистике и Python проводятся на всех уровнях вакансий на ML позиции. Данный этап является ключевым для Junior специалистов.
Мы подготовили несколько вопросов и задач, которые могут встретиться на интервью, наши ответы на них мы отправим в ближайшее время.
А сейчас ждём ваших ответов в комментариях!
Вопросы и задачи:
1️⃣ В чём минусы линейной регрессии?
2️⃣ Что такое алгоритмы без учителя в машинном обучении?
3️⃣ TF-IDF - плюсы и минусы использования?
#собеседования_MLinside
Собеседования по ML-теории, Математической статистике и Python проводятся на всех уровнях вакансий на ML позиции. Данный этап является ключевым для Junior специалистов.
Мы подготовили несколько вопросов и задач, которые могут встретиться на интервью, наши ответы на них мы отправим в ближайшее время.
А сейчас ждём ваших ответов в комментариях!
Вопросы и задачи:
1️⃣ В чём минусы линейной регрессии?
2️⃣ Что такое алгоритмы без учителя в машинном обучении?
3️⃣ TF-IDF - плюсы и минусы использования?
#собеседования_MLinside
👍5❤1
Разбор задач с собеседований
Ответы на вопросы:
1️⃣ В чём минусы линейной регрессии?
2️⃣ Что такое алгоритмы без учителя в машинном обучении?
3️⃣ TF-IDF - плюсы и минусы использования?
#собеседования_MLinside
Ответы на вопросы:
1️⃣ В чём минусы линейной регрессии?
Основная проблема линейной регрессии — ограниченная способность моделировать сложные нелинейные зависимости. Она чувствительна к выбросам, мультиколлинеарности и требует нормальных распределений ошибок. Без правильной регуляризации и выбора признаков легко переобучается или недообучается.
2️⃣ Что такое алгоритмы без учителя в машинном обучении?
Алгоритмы без учителя — методы машинного обучения, которые выявляют структуру или закономерности в данных без меток (целевых значений). Основные задачи — кластеризация, понижение размерности и обнаружение аномалий. Помогают понять данные и подготовить признаки для последующего обучения.
3️⃣ TF-IDF - плюсы и минусы использования?
TF-IDF:
- Плюсы: учитывает важность слова относительно корпуса — снижает вес частых общих слов. Лучше выделяет информативные термины. Часто повышает качество моделей по сравнению с BoW
- Минусы: более сложен в вычислении. Всё ещё игнорирует порядок слов и контекст. Может плохо работать при очень малом объёме данных
#собеседования_MLinside
❤18
«Я понял, что в ML важно не просто учиться, а учиться в правильной среде»
Виктор Пономарев, выпускник первого потока курса «База ML»:
Сегодня последний день, когда можно зайти на курс «База ML». Если готовы, вот ссылка для записи.
Виктор Пономарев, выпускник первого потока курса «База ML»:
«Когда я работал аналитиком данных, попал на воркшоп по PySpark, где, в том числе, был модуль по ML – я мало что понял. Но именно это зацепило. Я начал разбираться сам: вспоминал математику, смотрел лекции, читал статьи.
Самообучение шло, но я заметил две проблемы:
Ты учишься в вакууме – не с кем обсудить, сравнить понимание, задать вопросы.
Большое количество времени уходит на поиск материалов, и они, не редко, могут оказаться неподходящими.
Когда я увидел, что MLinside запускает курс, решил попробовать. Ключевым фактором стало доверие к команде: я знал, кто будет преподавать, и понимал их опыт.
Что дал курс:
Среда и поддержка – можно сравнить себя с другими, понять, что действительно нужно подтянуть.
Экономия времени – ты не тратишь недели на изучение ненужных тем.
Практика – особенно запомнилась домашка по A/B-тестам, где нужно было самому спроектировать всё с нуля.
Учебная нагрузка оказалась комфортной: от 2 до 10 часов в неделю. Удалось совмещать и с работой, и с личной жизнью.
ML – это большая, живая сфера, где всегда есть куда расти и я доволен своим выбором»
Сегодня последний день, когда можно зайти на курс «База ML». Если готовы, вот ссылка для записи.
❤3
«А если я никогда не учился в техническом вузе, реально ли разобраться в ML?»
Реально, но чтобы уверенно развиваться в машинном обучении, нужен фундамент. И это не диплом технического вуза и не набор формул, а конкретные навыки.
В базу ML входят:
▪️ Математика – школьный и базовый университетский уровень: алгебра, математическая статистика, теория вероятности. Эти разделы помогут понимать, как работают алгоритмы и почему они дают именно такой результат.
▪️ Python – умение писать и читать код, использовать популярные библиотеки (NumPy, Pandas, Matplotlib).
▪️ Работа с данными – навыки загрузки, очистки, анализа и подготовки данных к обучению моделей.
Где можно изучать эти основы самостоятельно:
Математика: курсы на Stepik, Khan Academy, YouTube-каналы.
Python: курсы на Stepik, официальная документация Python.
Работа с данными: туториалы по Pandas и NumPy на Kaggle, документация библиотек, практические задания на Datacamp.
Важно не просто изучать теорию, но и сразу применять её в небольших проектах: анализировать датасеты с Kaggle, повторять чужие ноутбуки, пробовать решать простые задачи классификации или регрессии.
Такой подход позволяет за несколько месяцев пройти путь от нулевых знаний до уровня, с которого можно пробовать силы в реальных проектах или стажировках.
Реально, но чтобы уверенно развиваться в машинном обучении, нужен фундамент. И это не диплом технического вуза и не набор формул, а конкретные навыки.
В базу ML входят:
▪️ Математика – школьный и базовый университетский уровень: алгебра, математическая статистика, теория вероятности. Эти разделы помогут понимать, как работают алгоритмы и почему они дают именно такой результат.
▪️ Python – умение писать и читать код, использовать популярные библиотеки (NumPy, Pandas, Matplotlib).
▪️ Работа с данными – навыки загрузки, очистки, анализа и подготовки данных к обучению моделей.
Где можно изучать эти основы самостоятельно:
Математика: курсы на Stepik, Khan Academy, YouTube-каналы.
Python: курсы на Stepik, официальная документация Python.
Работа с данными: туториалы по Pandas и NumPy на Kaggle, документация библиотек, практические задания на Datacamp.
Важно не просто изучать теорию, но и сразу применять её в небольших проектах: анализировать датасеты с Kaggle, повторять чужие ноутбуки, пробовать решать простые задачи классификации или регрессии.
Такой подход позволяет за несколько месяцев пройти путь от нулевых знаний до уровня, с которого можно пробовать силы в реальных проектах или стажировках.
❤12🔥6👍2
Разбор задач с собеседований
Собеседования по ML-теории, Математической статистике и Python проводятся на всех уровнях вакансий на ML позиции, данный этап является ключевым для Junior специалистов.
Мы подготовили несколько вопросов и задач, которые могут встретиться на интервью, наши ответы на них мы отправим в ближайшее время.
А сейчас ждём ваших ответов в комментариях!
Вопросы и задачи:
1️⃣ Что вы чаще всего использовали для проверки качества моделей из Scikit-Learn?
2️⃣ Какие бывают усреднения метрик?
3️⃣ Bag of words – плюсы и минусы использования?
#собеседования_MLinside
Собеседования по ML-теории, Математической статистике и Python проводятся на всех уровнях вакансий на ML позиции, данный этап является ключевым для Junior специалистов.
Мы подготовили несколько вопросов и задач, которые могут встретиться на интервью, наши ответы на них мы отправим в ближайшее время.
А сейчас ждём ваших ответов в комментариях!
Вопросы и задачи:
1️⃣ Что вы чаще всего использовали для проверки качества моделей из Scikit-Learn?
2️⃣ Какие бывают усреднения метрик?
3️⃣ Bag of words – плюсы и минусы использования?
#собеседования_MLinside
❤5
Разбор задач с собеседований
Ответы на вопросы:
1️⃣ Что вы чаще всего использовали для проверки качества моделей из Scikit-Learn?
2️⃣ Какие бывают усреднения метрик?
3️⃣ Bag of words – плюсы и минусы использования?
#собеседования_Mlinside
Ответы на вопросы:
1️⃣ Что вы чаще всего использовали для проверки качества моделей из Scikit-Learn?
Чаще всего в Scikit-Learn для оценки качества моделей используют:
- cross_val_score — кросс-валидация с метриками (accuracy, F1, R² и др.)
- train_test_split — разделение на тренировочную и тестовую выборки для простой оценки
- Метрики из модуля metrics (accuracy_score, precision, recall, roc_auc, mean_squared_error и др.) для измерения качества на тесте
2️⃣ Какие бывают усреднения метрик?
Основные виды усреднения метрик (особенно для многоклассовых задач):
- micro — считает метрику по всем объектам сразу (агрегирует TP, FP, FN), подходит при несбалансированных классах.
- macro — усредняет метрики по классам одинаково, без учёта их размера, подчеркивает производительность на редких классах.
- weighted — усредняет по классам с весами, пропорциональными количеству объектов в каждом классе, баланс между micro и macro.
3️⃣ Bag of words – плюсы и минусы использования?
Bag of Words (BoW):
- Плюсы: простая, быстрая, интерпретируемая. Хорошо работает на коротких текстах.
- Минусы: игнорирует важность слов и контекст. Зависит от частоты, может переоценивать часто встречающиеся, но малоинформативные слова. Высокая размерность и разреженность
#собеседования_Mlinside
❤12👍2👎2🔥2
Как сделать так, чтобы AI удвоил доход проекта, а вам прибавили зарплату
Вы можете работать в два раза быстрее, приносить компании ощутимый рост, а себе – бонусы и повышение. Вопрос только в том, используете ли вы и ваша компания AI на максимум.
Во многих отделах до сих пор день уходит на одно и то же: подготовить презентацию или отчет, перерыть документы в поисках данных, разослать письма клиентам, отобрать кандидатов из сотен откликов, протестировать код или сверить техзадания. AI уже есть, но работает точечно: в одной команде ChatGPT стал полноценным помощником, а в другой о нем только слышали.
У нас есть корпоративный курс по AI, который уже прошли сотрудники компаний в разных сферах – от HR до разработки. И главная фишка курса в том, что мы не даем «универсальные советы», а сначала разбираем ваши процессы и подбираем сценарии под корпоративные стандарты. В результате уже через неделю вы видите, как рутинные задачи уходят, а эффективность и прибыль растут.
Примеры внедрения ИИ в работу:
▪️Разработка – автотесты и документация генерируются из кода сразу, а не через 2–3 дня, типовые запросы решаются за минуты.
▪️HR – сортировка 1000 резюме за пару минут вместо нескольких дней, автоматическая подготовка вакансий в корпоративном стиле, готовые письма кандидатам.
▪️Продажи – коммерческое предложение на 3 страницы за 5 минут, прогноз сделок с точностью 80%+, автоматический анализ базы клиентов.
Результаты клиентов: у разработчиков в банке ручная работа сократилась на 10%, аналитики в ритейле ускорили обработку данных в 3 раза, а маркетинг в FMCG освободил десятки часов в месяц на стратегические задачи.
Получите программу обучения и покажите руководителю, как показатели вашего отдела могут вырасти уже в этом квартале
Вы можете работать в два раза быстрее, приносить компании ощутимый рост, а себе – бонусы и повышение. Вопрос только в том, используете ли вы и ваша компания AI на максимум.
Во многих отделах до сих пор день уходит на одно и то же: подготовить презентацию или отчет, перерыть документы в поисках данных, разослать письма клиентам, отобрать кандидатов из сотен откликов, протестировать код или сверить техзадания. AI уже есть, но работает точечно: в одной команде ChatGPT стал полноценным помощником, а в другой о нем только слышали.
У нас есть корпоративный курс по AI, который уже прошли сотрудники компаний в разных сферах – от HR до разработки. И главная фишка курса в том, что мы не даем «универсальные советы», а сначала разбираем ваши процессы и подбираем сценарии под корпоративные стандарты. В результате уже через неделю вы видите, как рутинные задачи уходят, а эффективность и прибыль растут.
Примеры внедрения ИИ в работу:
▪️Разработка – автотесты и документация генерируются из кода сразу, а не через 2–3 дня, типовые запросы решаются за минуты.
▪️HR – сортировка 1000 резюме за пару минут вместо нескольких дней, автоматическая подготовка вакансий в корпоративном стиле, готовые письма кандидатам.
▪️Продажи – коммерческое предложение на 3 страницы за 5 минут, прогноз сделок с точностью 80%+, автоматический анализ базы клиентов.
Результаты клиентов: у разработчиков в банке ручная работа сократилась на 10%, аналитики в ритейле ускорили обработку данных в 3 раза, а маркетинг в FMCG освободил десятки часов в месяц на стратегические задачи.
Получите программу обучения и покажите руководителю, как показатели вашего отдела могут вырасти уже в этом квартале
👍6👀3
Можете ли вы стать Data Scientist-ом?
У вас есть ощущение, что вы что-то упускаете? Кажется, что аналитики поголовно переходят в ML, менеджеры учат алгоритмы, а разработчики обсуждают нейросети на каждом митинге. И наверняка вы задавали себе вопрос из заголовка этого поста.
Давайте разбираться. Этот пост – не про «заманить на обучение» и не про напугать количеством требуемых навыков. Мы хотим рассказать, чем занимается Data Scientist, какой порог входа, какие есть направления и кому подойдёт эта профессия. Всё для того, чтобы у вас было достаточно информации, чтобы ответить себе на вопрос «Можете ли вы стать Data Scientist-ом?»
Что делает Data Scientist?
Эта профессия на стыке сразу нескольких миров: аналитики, разработки, бизнеса и исследований. В ней есть рутина, например, чистка датасетов, обучение моделей снова и снова. Но есть и аналитика, код, разбор бизнес-задач и ресерч. В конечном счёте, вы помогаете компаниям точнее принимать решения и становиться эффективнее.
Какие требования?
В вакансиях можно найти громадное количество требований – нужно и в коде разбираться, и математику помнить, и бизнес понимать. Но никто не ждет, что вы будете экспертом во всем. Важно лишь начать с базы и постепенно расширять круг навыков. Здесь ценится не всезнание, а готовность учиться и расти. Плюс, у каждого Data Scientist-а есть свой перекос: кто-то сильнее в статистике, кто-то в коде, кто-то в аналитике. И это нормально, ведь команды собираются так, чтобы эти навыки дополняли друг друга.
Кому подойдет эта профессия?
Тем, кому интересно разбираться «почему так», кто любит находить инсайты в данных, шаг за шагом улучшать процессы и хочет понимать, как работают современные алгоритмы – от LLM до рекомендательных систем.
Какие направления есть внутри Data Science?
▪️ Data Analyst, этот человек ближе к бизнесу и метрикам;
▪️ Data Engineer, тут вы будете ближе к инфраструктуре и данным;
▪️ ML Engineer, это если вам нравится заниматься обучением моделей и продакшном.
Люди переходят сюда из бэкэнда, аналитики, даже из менеджмента. Возраст и стартовый путь не важны. Главное, это любопытство и системная работа. Data Science, это профессия для тех, кто хочет учиться и открывать новое. А остальное приходит с практикой.
У вас есть ощущение, что вы что-то упускаете? Кажется, что аналитики поголовно переходят в ML, менеджеры учат алгоритмы, а разработчики обсуждают нейросети на каждом митинге. И наверняка вы задавали себе вопрос из заголовка этого поста.
Давайте разбираться. Этот пост – не про «заманить на обучение» и не про напугать количеством требуемых навыков. Мы хотим рассказать, чем занимается Data Scientist, какой порог входа, какие есть направления и кому подойдёт эта профессия. Всё для того, чтобы у вас было достаточно информации, чтобы ответить себе на вопрос «Можете ли вы стать Data Scientist-ом?»
Что делает Data Scientist?
Эта профессия на стыке сразу нескольких миров: аналитики, разработки, бизнеса и исследований. В ней есть рутина, например, чистка датасетов, обучение моделей снова и снова. Но есть и аналитика, код, разбор бизнес-задач и ресерч. В конечном счёте, вы помогаете компаниям точнее принимать решения и становиться эффективнее.
Какие требования?
В вакансиях можно найти громадное количество требований – нужно и в коде разбираться, и математику помнить, и бизнес понимать. Но никто не ждет, что вы будете экспертом во всем. Важно лишь начать с базы и постепенно расширять круг навыков. Здесь ценится не всезнание, а готовность учиться и расти. Плюс, у каждого Data Scientist-а есть свой перекос: кто-то сильнее в статистике, кто-то в коде, кто-то в аналитике. И это нормально, ведь команды собираются так, чтобы эти навыки дополняли друг друга.
Кому подойдет эта профессия?
Тем, кому интересно разбираться «почему так», кто любит находить инсайты в данных, шаг за шагом улучшать процессы и хочет понимать, как работают современные алгоритмы – от LLM до рекомендательных систем.
Какие направления есть внутри Data Science?
▪️ Data Analyst, этот человек ближе к бизнесу и метрикам;
▪️ Data Engineer, тут вы будете ближе к инфраструктуре и данным;
▪️ ML Engineer, это если вам нравится заниматься обучением моделей и продакшном.
Люди переходят сюда из бэкэнда, аналитики, даже из менеджмента. Возраст и стартовый путь не важны. Главное, это любопытство и системная работа. Data Science, это профессия для тех, кто хочет учиться и открывать новое. А остальное приходит с практикой.
👏6❤5
Как выбрать направление в ML
Когда начинаешь интересоваться ML, кажется, что это бесконечный лабиринт: модели, алгоритмы, направления. Каждое направление звучит по-своему перспективно, но с чего начать? Классика, компьютерное зрение, NLP, рекомендательные системы или LLM?
Давайте разберёмся, чем они отличаются и куда лучше двигаться на старте.
Вот основные треки в ML:
▪️Классический ML
Это про задачи прогнозирования и классификации. Применяется в банках, ритейле, маркетинге. Используются библиотеки вроде Pandas, NumPy, Scikit-learn. Плюсы: вакансий много, задачи понятные. Минусы: высокая конкуренция.
▪️NLP и LLM
Это работа с текстами и языком. Сюда относятся чат-боты, анализ текстов, генеративные модели вроде ChatGPT. Востребованное и высокооплачиваемое направление, но специалистов мало, поэтому вакансий открывается всё больше.
▪️Компьютерное зрение
Это про задачи с изображениями и видео: от распознавания лиц до беспилотников. Минусы: нужны большие данные и ресурсы. Плюсы: яркие, наглядные проекты и интересные задачи.
▪️Рекомендательные системы
Это про подбор фильмов, товаров или контента. Если хотите работать в Яндекс.Маркете, Ozon или Netflix, вам сюда. Здесь ML внедряется особенно активно: вакансий много, задач тоже. Основной минус, это большая конкуренция и высокий порог входа для новичков.
Каждое направление по-своему интересно. Классический ML и рекомендации ближе к бизнесу: здесь важна польза и внедрение, а не исследование. NLP и CV больше про ресерч и работу с алгоритмами, где важна новизна решений. LLM больше похоже на стартап: много экспериментов, меньше устоявшихся процессов, но зато максимальный хайп и высокая оплата.
Но в любом случае помните, что выбор направления не навсегда. Навыки в ML легко переносятся из одной области в другую. Начав с классики, можно уйти в NLP, а опыт в рекомендациях пригодится в CV. Если вы только присматриваетесь к ML, попробуйте разобраться, какой тип задач вам ближе: бизнесовые метрики, работа с текстами, изображениями или новые генеративные модели. От этого и стоит отталкиваться.
Когда начинаешь интересоваться ML, кажется, что это бесконечный лабиринт: модели, алгоритмы, направления. Каждое направление звучит по-своему перспективно, но с чего начать? Классика, компьютерное зрение, NLP, рекомендательные системы или LLM?
Давайте разберёмся, чем они отличаются и куда лучше двигаться на старте.
Вот основные треки в ML:
▪️Классический ML
Это про задачи прогнозирования и классификации. Применяется в банках, ритейле, маркетинге. Используются библиотеки вроде Pandas, NumPy, Scikit-learn. Плюсы: вакансий много, задачи понятные. Минусы: высокая конкуренция.
▪️NLP и LLM
Это работа с текстами и языком. Сюда относятся чат-боты, анализ текстов, генеративные модели вроде ChatGPT. Востребованное и высокооплачиваемое направление, но специалистов мало, поэтому вакансий открывается всё больше.
▪️Компьютерное зрение
Это про задачи с изображениями и видео: от распознавания лиц до беспилотников. Минусы: нужны большие данные и ресурсы. Плюсы: яркие, наглядные проекты и интересные задачи.
▪️Рекомендательные системы
Это про подбор фильмов, товаров или контента. Если хотите работать в Яндекс.Маркете, Ozon или Netflix, вам сюда. Здесь ML внедряется особенно активно: вакансий много, задач тоже. Основной минус, это большая конкуренция и высокий порог входа для новичков.
Каждое направление по-своему интересно. Классический ML и рекомендации ближе к бизнесу: здесь важна польза и внедрение, а не исследование. NLP и CV больше про ресерч и работу с алгоритмами, где важна новизна решений. LLM больше похоже на стартап: много экспериментов, меньше устоявшихся процессов, но зато максимальный хайп и высокая оплата.
Но в любом случае помните, что выбор направления не навсегда. Навыки в ML легко переносятся из одной области в другую. Начав с классики, можно уйти в NLP, а опыт в рекомендациях пригодится в CV. Если вы только присматриваетесь к ML, попробуйте разобраться, какой тип задач вам ближе: бизнесовые метрики, работа с текстами, изображениями или новые генеративные модели. От этого и стоит отталкиваться.
🔥15❤8⚡4👍1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤16👍7👀3
Главная ошибка тех, кто начинает путь в ML
Машинное обучение выглядит как универсальный билет в карьеру будущего. Зарплаты выше среднего, технологий вокруг всё больше, компании охотно набирают специалистов. Но правда в том, что ML подходит далеко не каждому.
Как правило, люди приходят в машинное обучение и пытаются «схватить всё и сразу». Кто-то начинает с модных статей про нейросети, кто-то копирует чужие ноутбуки с Kaggle, кто-то смотрит курсы про LLM, так и не разобравшись, что такое переобучение или градиентный спуск. В итоге проходят месяцы, но глубины знаний нет и приходит разочарование.
ML не про хаотичное обучение. Это сфера, где важна последовательность:
▪️ сначала Python и умение писать код
▪️ затем математика: производные, линейная алгебра, теория вероятностей
▪️ после: классические модели, их принципы и ограничения
▪️ и только потом переход к сложным вещам вроде CV, NLP или LLM
Этот путь кажется длиннее, чем просто повторить чужой код. Но именно он позволяет понимать, что происходит внутри алгоритмов, и превращает набор «магических формул» в реальные рабочие инструменты.
И здесь важно сказать прямо: ML не держится на популярных в последние несколько лет технологиях и обещаниях больших зарплат. Те, кто пришёл ради быстрых денег, быстро уходят. А остаются те, кому нравится сам процесс. Учиться, экспериментировать, проверять гипотезы. И именно они со временем получают и деньги, и карьеру, потому что выдержали то, что другим показалось скучным или слишком сложным.
ML подойдёт тем, кто готов к системной работе и у кого есть искренний интерес к данным и алгоритмам. Для остальных это будет очередная мода, которая быстро пройдёт.
Машинное обучение выглядит как универсальный билет в карьеру будущего. Зарплаты выше среднего, технологий вокруг всё больше, компании охотно набирают специалистов. Но правда в том, что ML подходит далеко не каждому.
Как правило, люди приходят в машинное обучение и пытаются «схватить всё и сразу». Кто-то начинает с модных статей про нейросети, кто-то копирует чужие ноутбуки с Kaggle, кто-то смотрит курсы про LLM, так и не разобравшись, что такое переобучение или градиентный спуск. В итоге проходят месяцы, но глубины знаний нет и приходит разочарование.
ML не про хаотичное обучение. Это сфера, где важна последовательность:
▪️ сначала Python и умение писать код
▪️ затем математика: производные, линейная алгебра, теория вероятностей
▪️ после: классические модели, их принципы и ограничения
▪️ и только потом переход к сложным вещам вроде CV, NLP или LLM
Этот путь кажется длиннее, чем просто повторить чужой код. Но именно он позволяет понимать, что происходит внутри алгоритмов, и превращает набор «магических формул» в реальные рабочие инструменты.
И здесь важно сказать прямо: ML не держится на популярных в последние несколько лет технологиях и обещаниях больших зарплат. Те, кто пришёл ради быстрых денег, быстро уходят. А остаются те, кому нравится сам процесс. Учиться, экспериментировать, проверять гипотезы. И именно они со временем получают и деньги, и карьеру, потому что выдержали то, что другим показалось скучным или слишком сложным.
ML подойдёт тем, кто готов к системной работе и у кого есть искренний интерес к данным и алгоритмам. Для остальных это будет очередная мода, которая быстро пройдёт.
❤23👍4🔥3
А мы вам принесли новые задачи с собеседований по ML-теории, математической статистике и Python
Если вы готовитесь проходить собеседования или собираете базу знаний для подготовки к собесам в будущем – вам будет полезно. Мы подготовили несколько вопросов и задач, которые с большей долей вероятность встретятся на интервью.
Схема привычная – сначала в комментариях отвечаете вы, а через несколько дней мы публикуем правильные ответы и вы сможете себя проверить.
Вопросы и задачи:
1️⃣ Как можно найти выбросы в ваших данных?
2️⃣ Почему регуляризация не всегда спасает от переобучения? В каких случаях она может не работать?
3️⃣ Как измениться ROC-AUC, если все предсказания возвести в квадрат? Возведя в квадрат мы сильнее уменьшим уверенность модели на неуверенных скорах.
#собеседования_Mlinside
Если вы готовитесь проходить собеседования или собираете базу знаний для подготовки к собесам в будущем – вам будет полезно. Мы подготовили несколько вопросов и задач, которые с большей долей вероятность встретятся на интервью.
Схема привычная – сначала в комментариях отвечаете вы, а через несколько дней мы публикуем правильные ответы и вы сможете себя проверить.
Вопросы и задачи:
1️⃣ Как можно найти выбросы в ваших данных?
2️⃣ Почему регуляризация не всегда спасает от переобучения? В каких случаях она может не работать?
3️⃣ Как измениться ROC-AUC, если все предсказания возвести в квадрат? Возведя в квадрат мы сильнее уменьшим уверенность модели на неуверенных скорах.
#собеседования_Mlinside
❤4👍3🔥1
Ответы на задачки с собеседований
1️⃣ Как можно найти выбросы в ваших данных?
2️⃣ Почему регуляризация не всегда спасает от переобучения? В каких случаях она может не работать?
3️⃣ Как измениться ROC-AUC, если все предсказания возвести в квадрат? Возведя в квадрат мы сильнее уменьшим уверенность модели на неуверенных скорах.
#собеседования_MLinside
1️⃣ Как можно найти выбросы в ваших данных?
Выбросы в данных можно находить с помощью статистических методов (например, Z-score или IQR для числовых фич), мультивариантных подходов (Mahalanobis distance, Isolation Forest, One-Class SVM), или через модели — например, анализ больших остатков после обучения простой модели или использование автоэнкодеров с высоким reconstruction error. Также помогают визуализации (PCA, t-SNE, boxplot) и, для временных рядов, STL-декомпозиция. Важно учитывать контекст: выброс — это не всегда ошибка, а порой ключевой сигнал (например, во фроде), поэтому детекция должна быть адаптивной и осмысленной, а не только механической.
2️⃣ Почему регуляризация не всегда спасает от переобучения? В каких случаях она может не работать?
Она может не работать, например, в следующих случаях:
1. Мало данных или плохое качество данных — при высокой шумности или малом количестве данных, модель переобучится даже с регуляризацией, так как будет запоминать шум.
2. Фичи в неправильном масштабе — если признаки не отнормированы, регуляризация работает неадекватно: признаки с большим масштабом будут штрафоваться больше.
3. Слабая регуляризация — если коэффициенты регуляризации слишком малы, эффект почти отсутствует.
4. Сильная мультиколлинеарность - L2 сгладит веса, но модель всё ещё может не научиться обобщать данные из-за линейных зависимостей. Стоит попробовать применить PCA.
3️⃣ Как измениться ROC-AUC, если все предсказания возвести в квадрат? Возведя в квадрат мы сильнее уменьшим уверенность модели на неуверенных скорах.
Возведение всех предсказаний в квадрат — это монотонно возрастающее преобразование, поэтому ROC-AUC не изменится, так как метрика зависит только от порядка (ранжирования) предсказаний. Даже если шкала уверенности изменится (например, низкие скоры станут ещё ниже), относительный порядок между позитивными и негативными примерами останется тем же. Следовательно, ROC-AUC остаётся инвариантной к таким преобразованиям.
#собеседования_MLinside
🔥11❤2👍1
Как найти первую работу в ML
«IT рынок сломан», «джуны не нужны» и подобные утверждения сейчас звучат регулярно. Но работа никуда не делась и джуны, да и даже стажеры нужны. Только нанимают их не из «общего потока», а через воронку школ/стажировок и личные рекомендации.
Хотите найти первую работу в ML? Вот вам самый кратчайший путь до первого оффера:
▪️ Используйте платформы, но делайте упор на стажировки и рекомендации
HH, LinkedIn, Getmatch, форумы/чаты – ODS сообщество и страницы вакансий на сайтах компаний – это всё база. Но тут включаются ATS-системы, субъективность HR и огромное количество кандидатов на рынке. Поэтому, без метки «проверен», резюме тонет в полутора тысячах других откликов. Сильнее всего работают школы и стажировки при компаниях и персональные рекомендации от действующих специалистов. Сейчас для компании это способ снизить риск найма: за вас кто-то ручается.
▪️ Создайте или наращивайте сеть контактов, которые могут вас порекомендовать
Покажите себя там, где нанимают. Ходите на митапы/конференции не ради контента, а ради разговоров с докладчиками и лидерами команд. А прямой вопрос «что мне сделать, чтобы вы меня порекомендовали?» работает на удивление хорошо. Второй путь, это целевые собеседования ради обратной связи: даже если провалитесь, попросите чёткий план улучшений и вернитесь к тому же интервьюеру через 4–6 недель с выполненными пунктами. Например, мы перед запуском третьего потока курса проводили Mock-собеседования, можете посмотреть записи. Обычно это производит сильное впечатление и помогает сделать так, чтобы о вас вспомнили, когда откроется подходящая вакансия.
▪️ Ну и помните, что мотивация «работать и развиваться» может быть важнее хардов
Мотивированного джуна берут охотнее, чем «полусильного», но без воли к росту. Добавляйте больше конкретики в резюме: где, что и с каким эффектом вы сделали. Но аккуратней, если будете «накручивать» опыт, получите завышенные ожидания и уменьшите шанс на получения оффера в итоге.
Если подводить итог и вынести 1 ключевую мысль, то вот она: конверсию в оффер поднимает не количество вакансий, на которые вы откликнулись, а ваша видимость в профессиональной среде, нетворкинг и траектория «сказал — сделал — показал».
Как только у вас появляется человек, готовый вас рекомендовать, вероятность разговора с HR растёт кратно. Ищите такие возможности, просите конкретику и обязательно возвращайтесь с выполненными шагами. Именно так джуны становятся кандидатами, которых не хочется упускать.
«IT рынок сломан», «джуны не нужны» и подобные утверждения сейчас звучат регулярно. Но работа никуда не делась и джуны, да и даже стажеры нужны. Только нанимают их не из «общего потока», а через воронку школ/стажировок и личные рекомендации.
Хотите найти первую работу в ML? Вот вам самый кратчайший путь до первого оффера:
▪️ Используйте платформы, но делайте упор на стажировки и рекомендации
HH, LinkedIn, Getmatch, форумы/чаты – ODS сообщество и страницы вакансий на сайтах компаний – это всё база. Но тут включаются ATS-системы, субъективность HR и огромное количество кандидатов на рынке. Поэтому, без метки «проверен», резюме тонет в полутора тысячах других откликов. Сильнее всего работают школы и стажировки при компаниях и персональные рекомендации от действующих специалистов. Сейчас для компании это способ снизить риск найма: за вас кто-то ручается.
▪️ Создайте или наращивайте сеть контактов, которые могут вас порекомендовать
Покажите себя там, где нанимают. Ходите на митапы/конференции не ради контента, а ради разговоров с докладчиками и лидерами команд. А прямой вопрос «что мне сделать, чтобы вы меня порекомендовали?» работает на удивление хорошо. Второй путь, это целевые собеседования ради обратной связи: даже если провалитесь, попросите чёткий план улучшений и вернитесь к тому же интервьюеру через 4–6 недель с выполненными пунктами. Например, мы перед запуском третьего потока курса проводили Mock-собеседования, можете посмотреть записи. Обычно это производит сильное впечатление и помогает сделать так, чтобы о вас вспомнили, когда откроется подходящая вакансия.
▪️ Ну и помните, что мотивация «работать и развиваться» может быть важнее хардов
Мотивированного джуна берут охотнее, чем «полусильного», но без воли к росту. Добавляйте больше конкретики в резюме: где, что и с каким эффектом вы сделали. Но аккуратней, если будете «накручивать» опыт, получите завышенные ожидания и уменьшите шанс на получения оффера в итоге.
Если подводить итог и вынести 1 ключевую мысль, то вот она: конверсию в оффер поднимает не количество вакансий, на которые вы откликнулись, а ваша видимость в профессиональной среде, нетворкинг и траектория «сказал — сделал — показал».
Как только у вас появляется человек, готовый вас рекомендовать, вероятность разговора с HR растёт кратно. Ищите такие возможности, просите конкретику и обязательно возвращайтесь с выполненными шагами. Именно так джуны становятся кандидатами, которых не хочется упускать.
❤10👍1🔥1