Ebout Data Science | Дима Савелко – Telegram
Ebout Data Science | Дима Савелко
3K subscribers
242 photos
28 videos
115 links
Ebout Data Science by @ngmdite | По поводу менторства пиши на @savelkoteam
Download Telegram
Какую нейронку выбрать, чтобы не быть скуфом, а стать гигачадом вайбкодинга

В 2026 году становится всё больше и больше ЛЛМ-ок и время одной модели для всего официально уходит в небытие. Теперь у нас тут не монополия, а жёсткая специализация. Чтобы вы не потерялись в этом зоопарке, держите структурный разбор по ролям для вашего вайбкодинга 🍗

1️⃣ Gemini 3 Pro - Главный Архитектор
Эта машина обладает суперсилой в виде контекста на 2 миллиона токенов и лютым ризонингом. Его основная мощь в том, что гемини видит всю картину целиком, умеет глубоко копать.

Для чего юзаем:
🔵Планирование: Когда нужно придумать архитектуру проекта с нуля
🟣Разбор кода: Загрузить огромный репозиторий и спросить: «Чо тут вообще происходит и как это переписать?».
🟢Визуал: Идеально работает со скриншотами интерфейсов.

Минусы: Может словить аналитический паралич - думать слишком долго и переусложнять там, где не надо.
Цена: В курсоре есть лимиты, но в антигравити пока в бете - бесплатно. Имба для старта 🤪

2️⃣ Claude 3.5 Sonnet / Opus 4.5 - строгий сеньор
Opus 4.5 - это сейчас золотой стандарт качества. Если вам нужно, чтобы код был надежным, безопасным и не падал при первом чихе - вам нужно обращаться к нему: надёжность и безопасность, так как антропики жёстко заёбываются именно над api для девелоперов 👊

Для чего юзаем:
🔵Сложный рефакторинг: Работа с легаси, где страшно дышать.
🟣Режим агента: Выполняет многошаговые инструкции без присмотра, как взрослый.
🟢Безопасность: Лучше понимает контекст уязвимостей.

Минусы: Opus 4.5 стоит как крыло от самолёта. Используем только для хардкорных задач.

3️⃣ GPT-5.2 - прагматичный исполнитель
Это ваша рабочая лошадка. Адаптивная, надёжная и может выплюнуть 128k токенов кода за раз, не обрезая на самом интересном месте. Он силён в стабильносте инструментов и в большом объёме выводов.

Для чего юзаем:
🔵Новые проекты: Пишет функционал с нуля очень бодро.
🟣Agent Mode: Шикарно работает автономно, сам создаёт файлы и запускает команды.
🟡Фишка: Скидка 90% на кэшированный вход - для долгих сессий это просто спасение бюджета.

4️⃣ DeepSeek V3 / Gemini Flash - бюджетный стабильный джун
Суперсила этих ребят - скорость и цена. DeepSeek V3 в 53 раза дешевле Опуса. Можно давать небольшие минорные изменения с понятным промптом и тогда всё будет кул 💃

Для чего юзаем:
🔵Рутина: Написать тесты, документацию, комменты.
🟣Мелкие правки: Поправить баги, опечатки.
🟢Массовые задачи: Когда нужно перелопатить гору файлов и не разориться.

Итог: Не стреляйте из пушки по воробьям. Если нужна архитектура, то Gemini. Нужно качество в легаси - Claude Opus. Пишете с нуля - GPT-5.2. Нужна рутина за копейки? DeepSeek V3 / Gemini Flash 🍴

Инфу брал из этого репозитория, там много разных фишек рассказывается

Комбинируйте с умом, и будет вам счастье! А на чьей игле сидите вы сейчас? Пишите в комменты 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥9🔥64🥰1🍌1
Андрюша Карпатый снова навалил базы: nanochat miniseries v1 😮

Андрей Карпатый не перестаёт радовать нас годным контентом. Он выкатил жирный апдейт в своём репозитории nanochat - проекте, который учит создавать свой ChatLGBT с полного нуля.

Если раньше мы просто учились запускать пайплайн, чтобы оно работало, то теперь Андрюха погружает нас именно в сам процесс обучения. Главный вопрос апдейта: как тратить вычислительные ресурсы (бабосиксаны) максимально эффективно? 🤔

Разбираем, что там внутри:

1️⃣ Scaling Laws
Для многих новичков подбор параметров модели звучит как что-то непонятное, но Карпатый показывает, что это - строгая и понятная математика. Суть проста: хватит гадать на кофейной гуще, какую архитектуру выбрать и сколько данных скормить. Бро использует законы масштабирования.

Эксперимент: Карпатый запустил серию обучений (miniseries) с фиксированным бюджетом (~$100 на H100) и потратил его по-разному:
🟣 Одни модели были «маленькими», но учились долго (много токенов)
🟡 Другие были «жирными», но учились быстро (мало токенов)

Результат: Все модели стоили одинаково, но одна конкретная конфигурация дала лучшее качество

2️⃣ Предсказуемость - наше всё
Вы не играете в казик, когда запускаете обучение. Вы можете провести дешёвые эксперименты за сотку баксов, найти идеальную формулу, а затем просто увеличить масштаб (вложить $100k или $1M) и гарантированно получить ожидаемый прирост качества. Инженеры OpenAI/Anthropic не тыкают пальцем в небо, они так считает деньги и масштабы 🍗

3️⃣ Сдвиг фокуса на Pretraining
В первой версии nanochat фишкой был «полный цикл» до веб-интерфейса. В miniseries v1 акцент сместился на Pretraining. Запомните: именно здесь закладывается фундамент интеллекта. Если вы обосрались на претрейне, то никакой файн-тюн (SFT/RLHF) это уже не исправит 🍌

Что с этим делать? Если хотите реально понимать, как работают LLM , а не просто импортировать либы:
Залетайте в обсуждение: github.com/karpathy/nanochat/discussions/420
Смотрите на графики Loss vs Compute
Ковыряйте код скрипта miniseries.sh - это эталон того, как нужно организовывать эксперименты

Итог 🏋️
Масштабирование - это сплошная инженерка. Андрюха дал вам песочницу, чтобы освоить её за копейки, прежде чем лезть в серьёзные бюджеты. Поэтому тыкаем это обсуждение с ЛЛМ-кой, чтобы понять его
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥128❤‍🔥3🍌2
Data Science умирает? Вся правда о рынке 2026 года

Говорят, что ЧатЛГБТ заменит программистов, а джунам больше нет места в IT. Многие думают: «Не поздно ли я собрался?». Спойлер: Халява действительно закончилась. Эпоха «легкого входа» через курсы прошла, и рынок перестал принимать типов после яндекс практикума. Но для профессионалов сейчас открывается самое денежное время 😁

В этом видео я продам вам идею, почему 2026 год - исторически лучший момент для старта в Data Science, если вы готовы играть по-взрослому 💃

В выпуске:
- Причина №1: Почему бизнес - от заводов до пиццерий - готов платить любые деньги за Прикладной ИИ?
- Причина №2: Как высокий порог входа отсеял конкурентов и почему это вам на руку.
- Причина №3: Зарплатный лифт: как быстро проскочить путь от стажёра/джунишки до сеньора.
- Причина №4: Эпоха LLM: как учиться в 10 раз быстрее и не попасть в ловушку «вечного студента».
- Причина №5: Как ваш прошлый опыт (юриста, врача, менеджера) делает вас «Единорогом» с зарплатой х3 к рынку при правильном подходе

СсылОЧКА на видосик:
https://youtu.be/dDJaX9MnO4w
Please open Telegram to view this post
VIEW IN TELEGRAM
8🔥6🤣5😍2🍌1
Из Фронтендера в NLP-Гигачада за месяц: Как мы залутали два оффера по 300к 🐵

Многие дрочат курсы годами, смотрят видосы на ютубе и думают, что оффер свалится с неба. Но на деле получают болт и отказы из-за нерелевантного опыта. Лично мне - это знакомая история 😓

Сегодня расскажу про кейс моего слона Тимура (два оффера на 300к). Он больше года пытался вкатиться в ML из Фронтенда. Ботал теорию всю подряд, смотрел записи чужих собесов, но рынок его тупо игнорил. Резюме было мёртвым: 1-2 приглашения в месяц и постоянные отказы на скринингах из-за фильтров по опыту. Парень просто упёрся в стену и топтался на месте

И тут самое лучшее ментосртво начало уничтожать 💪

Мы созвонились на бесплатной консультации, разобрали его ситуацию, выбрали вектор развития (он выбрал разъебать в NLP), по итогу он залетел на пакет до оффера.

Что мы сделали:
1️⃣ Пересобрали резюме: упаковали опыт так, что HR-ы перестали его фильтровать и начали сами за ним бегать.
2️⃣ Построили чёткий RoadMap до Middle: только база и то, что реально спрашивают на собесах прямо сейчас.
3️⃣ Провели жёсткие мок-интервью: подсветили пробелы в хардах, я дал ему конкретные ресурсы, где быстро докрутить теорию.
4️⃣ Ликвидировали страх собесов: cделали из него уверенного в себе специалиста, который стал сам выбирать из множества офферов

Итог:
🟣 Первая неделя: Конверсия улетела в космос - 10 приглашений на собесы (вместо 1-2 в месяц)
🟡 Третья неделя: Тимур уже спокойно щёлкал технические собесы как орешки.
🟢 Четвёртая неделя: ТИМУР ЗАСЕЯЛ, ДВА ОФФЕРА В NLP/ML ПО 300к 💸

Вот так работает системный подход: пока одни плаки-плаки, что рынок перегрет и джуны никому не нужны, мои слоны забирают самые жирные офферы. Тимур - огромный красавчик, горжусь!

Больше отзывов тут. А вам предлагаю тебе залететь на бесплатную консультацию с моей командой, на которой поможем тебе построить твой маршрут до оффера. Пиши на @savelkoteam
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥138🔥5🥰1😁1🤔1🍌1