Ebout Data Science | Дима Савелко – Telegram
Ebout Data Science | Дима Савелко
3K subscribers
242 photos
28 videos
115 links
Ebout Data Science by @ngmdite | По поводу менторства пиши на @savelkoteam
Download Telegram
Андрюша Карпатый снова навалил базы: nanochat miniseries v1 😮

Андрей Карпатый не перестаёт радовать нас годным контентом. Он выкатил жирный апдейт в своём репозитории nanochat - проекте, который учит создавать свой ChatLGBT с полного нуля.

Если раньше мы просто учились запускать пайплайн, чтобы оно работало, то теперь Андрюха погружает нас именно в сам процесс обучения. Главный вопрос апдейта: как тратить вычислительные ресурсы (бабосиксаны) максимально эффективно? 🤔

Разбираем, что там внутри:

1️⃣ Scaling Laws
Для многих новичков подбор параметров модели звучит как что-то непонятное, но Карпатый показывает, что это - строгая и понятная математика. Суть проста: хватит гадать на кофейной гуще, какую архитектуру выбрать и сколько данных скормить. Бро использует законы масштабирования.

Эксперимент: Карпатый запустил серию обучений (miniseries) с фиксированным бюджетом (~$100 на H100) и потратил его по-разному:
🟣 Одни модели были «маленькими», но учились долго (много токенов)
🟡 Другие были «жирными», но учились быстро (мало токенов)

Результат: Все модели стоили одинаково, но одна конкретная конфигурация дала лучшее качество

2️⃣ Предсказуемость - наше всё
Вы не играете в казик, когда запускаете обучение. Вы можете провести дешёвые эксперименты за сотку баксов, найти идеальную формулу, а затем просто увеличить масштаб (вложить $100k или $1M) и гарантированно получить ожидаемый прирост качества. Инженеры OpenAI/Anthropic не тыкают пальцем в небо, они так считает деньги и масштабы 🍗

3️⃣ Сдвиг фокуса на Pretraining
В первой версии nanochat фишкой был «полный цикл» до веб-интерфейса. В miniseries v1 акцент сместился на Pretraining. Запомните: именно здесь закладывается фундамент интеллекта. Если вы обосрались на претрейне, то никакой файн-тюн (SFT/RLHF) это уже не исправит 🍌

Что с этим делать? Если хотите реально понимать, как работают LLM , а не просто импортировать либы:
Залетайте в обсуждение: github.com/karpathy/nanochat/discussions/420
Смотрите на графики Loss vs Compute
Ковыряйте код скрипта miniseries.sh - это эталон того, как нужно организовывать эксперименты

Итог 🏋️
Масштабирование - это сплошная инженерка. Андрюха дал вам песочницу, чтобы освоить её за копейки, прежде чем лезть в серьёзные бюджеты. Поэтому тыкаем это обсуждение с ЛЛМ-кой, чтобы понять его
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥128❤‍🔥3🍌2
Data Science умирает? Вся правда о рынке 2026 года

Говорят, что ЧатЛГБТ заменит программистов, а джунам больше нет места в IT. Многие думают: «Не поздно ли я собрался?». Спойлер: Халява действительно закончилась. Эпоха «легкого входа» через курсы прошла, и рынок перестал принимать типов после яндекс практикума. Но для профессионалов сейчас открывается самое денежное время 😁

В этом видео я продам вам идею, почему 2026 год - исторически лучший момент для старта в Data Science, если вы готовы играть по-взрослому 💃

В выпуске:
- Причина №1: Почему бизнес - от заводов до пиццерий - готов платить любые деньги за Прикладной ИИ?
- Причина №2: Как высокий порог входа отсеял конкурентов и почему это вам на руку.
- Причина №3: Зарплатный лифт: как быстро проскочить путь от стажёра/джунишки до сеньора.
- Причина №4: Эпоха LLM: как учиться в 10 раз быстрее и не попасть в ловушку «вечного студента».
- Причина №5: Как ваш прошлый опыт (юриста, врача, менеджера) делает вас «Единорогом» с зарплатой х3 к рынку при правильном подходе

СсылОЧКА на видосик:
https://youtu.be/dDJaX9MnO4w
Please open Telegram to view this post
VIEW IN TELEGRAM
8🔥6🤣5😍2🍌1
Из Фронтендера в NLP-Гигачада за месяц: Как мы залутали два оффера по 300к 🐵

Многие дрочат курсы годами, смотрят видосы на ютубе и думают, что оффер свалится с неба. Но на деле получают болт и отказы из-за нерелевантного опыта. Лично мне - это знакомая история 😓

Сегодня расскажу про кейс моего слона Тимура (два оффера на 300к). Он больше года пытался вкатиться в ML из Фронтенда. Ботал теорию всю подряд, смотрел записи чужих собесов, но рынок его тупо игнорил. Резюме было мёртвым: 1-2 приглашения в месяц и постоянные отказы на скринингах из-за фильтров по опыту. Парень просто упёрся в стену и топтался на месте

И тут самое лучшее ментосртво начало уничтожать 💪

Мы созвонились на бесплатной консультации, разобрали его ситуацию, выбрали вектор развития (он выбрал разъебать в NLP), по итогу он залетел на пакет до оффера.

Что мы сделали:
1️⃣ Пересобрали резюме: упаковали опыт так, что HR-ы перестали его фильтровать и начали сами за ним бегать.
2️⃣ Построили чёткий RoadMap до Middle: только база и то, что реально спрашивают на собесах прямо сейчас.
3️⃣ Провели жёсткие мок-интервью: подсветили пробелы в хардах, я дал ему конкретные ресурсы, где быстро докрутить теорию.
4️⃣ Ликвидировали страх собесов: cделали из него уверенного в себе специалиста, который стал сам выбирать из множества офферов

Итог:
🟣 Первая неделя: Конверсия улетела в космос - 10 приглашений на собесы (вместо 1-2 в месяц)
🟡 Третья неделя: Тимур уже спокойно щёлкал технические собесы как орешки.
🟢 Четвёртая неделя: ТИМУР ЗАСЕЯЛ, ДВА ОФФЕРА В NLP/ML ПО 300к 💸

Вот так работает системный подход: пока одни плаки-плаки, что рынок перегрет и джуны никому не нужны, мои слоны забирают самые жирные офферы. Тимур - огромный красавчик, горжусь!

Больше отзывов тут. А вам предлагаю тебе залететь на бесплатную консультацию с моей командой, на которой поможем тебе построить твой маршрут до оффера. Пиши на @savelkoteam
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥138🔥5🥰1😁1🤔1🍌1