Твоё инфополе формирует твой офферЯ постоянно говорю: чтобы стать гигачадом, нужно окружать себя гигачадами. Если в твоей ленте только мемасы и котики, то и зарплата будет на вискас. Хочешь жирный оффер? Тогда читай тех, кто уже там. Потребляй контент, который конвертируется в харды, а не в прокрастинацию
Пока остальные доедают прошлогоднее оливье, мы собрали для вас папку «IT в деле».
Что внутри:
Каналы про Python, C++, C#, Java. Только хард-скиллы и база, которая нужна для реальных задач, а не для галочки.
Для тех, кто хочет не просто играть, а создавать миры. Подсказки для проектов и реальный опыт создания игр - от инди до чего-то серьёзного
Всё по работе с данными от А до Я. Авторские лайфхаки, заметки с боевых проектов и никакой воды. Данные - это фундамент любого решения
Опытные тестировщики делятся знаниями. Идеально для тех, кто ищет проверенный и понятный путь входа в IT
Уверен, что для каждого здесь найдётся, что-то своё, поэтому выбирайте для себя сочные каналы и сокращайте путь до оффера
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣10❤6❤🔥3😁3🔥1🥰1🤯1🍌1
Какую нейронку выбрать, чтобы не быть скуфом, а стать гигачадом вайбкодингаВ 2026 году становится всё больше и больше ЛЛМ-ок и время одной модели для всего официально уходит в небытие. Теперь у нас тут не монополия, а жёсткая специализация. Чтобы вы не потерялись в этом зоопарке, держите структурный разбор по ролям для вашего вайбкодинга
Эта машина обладает суперсилой в виде контекста на 2 миллиона токенов и лютым ризонингом. Его основная мощь в том, что гемини видит всю картину целиком, умеет глубоко копать.
Для чего юзаем:
Минусы: Может словить аналитический паралич - думать слишком долго и переусложнять там, где не надо.
Цена: В курсоре есть лимиты, но в антигравити пока в бете - бесплатно. Имба для старта
Opus 4.5 - это сейчас золотой стандарт качества. Если вам нужно, чтобы код был надежным, безопасным и не падал при первом чихе - вам нужно обращаться к нему: надёжность и безопасность, так как антропики жёстко заёбываются именно над api для девелоперов
Для чего юзаем:
Минусы: Opus 4.5 стоит как крыло от самолёта. Используем только для хардкорных задач.
Это ваша рабочая лошадка. Адаптивная, надёжная и может выплюнуть 128k токенов кода за раз, не обрезая на самом интересном месте. Он силён в стабильносте инструментов и в большом объёме выводов.
Для чего юзаем:
Суперсила этих ребят - скорость и цена. DeepSeek V3 в 53 раза дешевле Опуса. Можно давать небольшие минорные изменения с понятным промптом и тогда всё будет кул
Для чего юзаем:
Итог: Не стреляйте из пушки по воробьям. Если нужна архитектура, то Gemini. Нужно качество в легаси - Claude Opus. Пишете с нуля - GPT-5.2. Нужна рутина за копейки? DeepSeek V3 / Gemini Flash
Инфу брал из этого репозитория, там много разных фишек рассказывается
Комбинируйте с умом, и будет вам счастье! А на чьей игле сидите вы сейчас? Пишите в комменты 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥9🔥6❤4🥰1🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Обложки выходят на новый уровень, и, честно говоря, я в ахуе 😮
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18❤🔥10❤5🥰2🍌1
Андрюша Карпатый снова навалил базы: nanochat miniseries v1 Андрей Карпатый не перестаёт радовать нас годным контентом. Он выкатил жирный апдейт в своём репозитории nanochat - проекте, который учит создавать свой ChatLGBT с полного нуля.
Если раньше мы просто учились запускать пайплайн, чтобы оно работало, то теперь Андрюха погружает нас именно в сам процесс обучения. Главный вопрос апдейта: как тратить вычислительные ресурсы (бабосиксаны) максимально эффективно?
Разбираем, что там внутри:
Для многих новичков подбор параметров модели звучит как что-то непонятное, но Карпатый показывает, что это - строгая и понятная математика. Суть проста: хватит гадать на кофейной гуще, какую архитектуру выбрать и сколько данных скормить. Бро использует законы масштабирования.
Эксперимент: Карпатый запустил серию обучений (miniseries) с фиксированным бюджетом (~$100 на H100) и потратил его по-разному:
Результат: Все модели стоили одинаково, но одна конкретная конфигурация дала лучшее качество
Вы не играете в казик, когда запускаете обучение. Вы можете провести дешёвые эксперименты за сотку баксов, найти идеальную формулу, а затем просто увеличить масштаб (вложить $100k или $1M) и гарантированно получить ожидаемый прирост качества. Инженеры OpenAI/Anthropic не тыкают пальцем в небо, они так считает деньги и масштабы
В первой версии nanochat фишкой был «полный цикл» до веб-интерфейса. В miniseries v1 акцент сместился на Pretraining. Запомните: именно здесь закладывается фундамент интеллекта. Если вы обосрались на претрейне, то никакой файн-тюн (SFT/RLHF) это уже не исправит
Что с этим делать? Если хотите реально понимать, как работают LLM , а не просто импортировать либы:
• Залетайте в обсуждение: github.com/karpathy/nanochat/discussions/420
• Смотрите на графики Loss vs Compute
• Ковыряйте код скрипта miniseries.sh - это эталон того, как нужно организовывать эксперименты
Итог
Масштабирование - это сплошная инженерка. Андрюха дал вам песочницу, чтобы освоить её за копейки, прежде чем лезть в серьёзные бюджеты. Поэтому тыкаем это обсуждение с ЛЛМ-кой, чтобы понять его
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤8❤🔥3🍌2