Глеб Кудрявцев про AI кодинг – Telegram
Глеб Кудрявцев про AI кодинг
6.7K subscribers
100 photos
14 videos
2 files
80 links
Пишу тулы для кодинга и упарываюсь по агентам.

Лучший курс по AI кодингу ai.careerfactory.ru

Основной канал t.me/glebkudr
Личка t.me/glebkudr1
Download Telegram
Есть такая маза неприятная в AI кодинге.
Вот оно шуршит и ты думаешь.

— то ли это будет стоить 100к токенов?
— то ли миллион?
— то ли оно нахер выжрет вообще все что может и не сделает никогда, а тебе пора бы перезапустить задачу как-бы в предупреждение этому факту?

В натуре казино.

Наверное поэтому и затягивает 😁
😁40💯10🔥32
Прошка перевалила за лям токенов.

Посмотрел — первый коммит сделал 30 июля. Получается примерно 1500 строк в день включая выходные…
🔥23👍7
Извините, ржу 😁
😁3513🤪3😱2
Очень прикольно, что в процессе кодинга с ИИ, учишься еще и ты сам. Причем навыки приходят те, о которых раньше даже никто и не думал.

— Сетки дают оператору прокачку интуиции того, что есть сложно, а что просто. Более сложные задачи сразу пускаешь по более навороченным циклам, жестче декомпозируешь и т.д. И это не зависит от строчек кода, ну или слабо зависит. Сначала этой интуиции нет, потом постепенно появляется.
— Перестаешь мыслить отдельными функциями/фичами, начинаешь мыслить системами в целом и токенами. У меня при анализе сейчас первый вопрос — какой объем занимает контекст по задаче. Аналогично и про кодовую базу. Появляется ощущение большой/маленькой кодовой базы именно относительно ее объема в токенах, а не строках кода или файлах. Или "биллинг делать 2 дня/минимум 100к токенов" — нарабатывается подобная интуиция.
— Начинаешь оперировать не словами, а единицами контекста, где каждая единица может быть — десятки тысяч токенов. Например список релевантных файлов, архитектура, или дифф файла. Накидываешь такие промпты из шаблонов и обогащаешь их нужной информацией буквально за минуту.

Короче говоря, мозги совершенно точно искривляются иначе, чем при обычном написании кода.

Продолжаю вести наблюдения 🙂
👍508🗿4🤣2🔥1😱1
Хочешь сделать подарок женщине — дай ей безлимитную кредитку

Хочешь сделать подарок разработчику — дай ему безлимитный ключ для ллм 😁
😁47🤣12💯7👎1🤔1🤝1
Код, написанный человеком vs код, написанный ллм 😅
😁289🌚2
Используем скан репозитория в json чтобы объяснить пользу от скана репозитория в json 😁
😁17
Попробовал CodexCLI + модель OpenAI Codex (господи, да, больше кодексов, есть ведь еще и веб-версия)

Очень сильная штука, смогла с одного промпта перенести мне верстку из реакта в vue со всеми css. Курсор + GPT-5 с этой задачей провалился феерически, а тут сработало.

Кормил ее как и всегда, подробной архитектурой сделанной в шотгане — в этом плане любые инструменты без индекса недееспособны по сравнению с тем, где индекс есть, и могут работать только на имеющейся подробной спеке.
20👍11🔥3🤣2
https://ai-code-condenser.lovable.app/

Говно? Огонь?

Критикуем дизайн внутрянки

Кто будет душнить типа "а скажи сценарии" — сразу скажу, у нас тут вайб а не духота, проходите мимо 😁

PS Это чисто набросок без серьезной проработки. Представьте что у вас тут сотни задач которые кодит агент. Вот было бы это удобно, а если нет — то чем.
👍16🔥93👌3
Lovable конечно дичайше хорош. Я его не юзал раньше, думал фигня, т.к. пробовал v0, bolt — и это была фигня.

А lovable прямо мощно качает. Могу рекомендовать проектировать фронт именно там. Потом выгружаете через гит к себе в проект и уже издеваетесь по-полной.

Pixel-perfect там не достичь, но у меня процесс "Из головы — без фигмы". Для него прям подходит.

PS В каментах спрашивают а можно ли там бэк. Можно простенький, для домашней странички пойдет. Но сложное не рекомендую. Вообще, инструменты на рынке четко делятся на то, в чем можно прототипировать и то, в чем эти прототипы потом дорабатывать. Тут четко первое.
1🔥21👍11💯42
Понедельничное напоминание, что агентам важна не только длина контекста, но и сложность задачи/требуемое внимание для его решения.

Если вы просите выполнить задачу, ставя слишком много условий, то это проявляется в "лени" — агент выполнит вашу задачу частично.

Сети просто не хватает вычислительной мощности учесть все ваши хотелки, что проявляется в вроде бы правильных, но откровенно неполных ответах.
👍18
Скинули в каментах какую-то очередную репу с MCP сервером для RAG поиска.

https://github.com/er77/code-graph-rag-mcp

Из описания я ничего особо не понял, поэтому быстренько натравил на нее шотган и получил выжимку, о которой уже можно початиться с агентом

https://chatgpt.com/share/68d12995-212c-8004-b9c5-d1a8b1b1aba9

Уже не первый раз так анализирую чужие репы — удобно. А если лицензия позволяет, то можно быстро вытаскивать полезные штуки и применять себе 😎
🔥104
Forwarded from Вастрик
Жиза, поцаны!
🥴27😁16🔥6👏4😨2
This media is not supported in your browser
VIEW IN TELEGRAM
Часть моей команды сейчас вкапывается в рекламные ai gen видео.

Например, очень занимательная проблема — плавные переходы кадров в сочетании с липсинком и сгенерированными персонажами.

Т.е. нужно по ключевым кадрам сделать динамику, добавить липсинк, а затем сделать незаметный переход к продолжению сцены.

Можно было бы просто брать ключевым кадром следующего кусочка, конечный кадр первого, но персонаж быстро деградирует. А полная регенерация влечет разрывы по стыкам.

Сейчас решаем разными углами камеры — тогда стык смотрится более естественно.

Если знаете как это решить еще лучше — пишите в комментариях.
11🌭1
Что занимает больше места, json или xml?

Поставлю точку в этом вопросе.
Компактизированный json 😎

691 vs 1145 токенов

https://gist.github.com/glebkudr/b82e9b5f66990401689d87d61f138b11

XML без переноса строк — 901 токен
👏10😁42👎1
OpenAI зарелизили gpt-5-codex в апи, можно потестить

Но они предупреждают, что модель очень своеобразная в промптинге, так как тренировалась opinionated именно на их подходе к кодингу. Я посмотрел гайд, и мое ощущение — под нее в принципе нужно писать пайплайн с нуля, или около того, чтобы максимально попадать в тренировочный набор.

Те кто юзали Codex CLI, думаю, в курсе, о чем это — модель реально своеобразно подходит к правкам кода и размышлениям, предпочитает писать кучу терминальных команд вместо вызова инструментов и т.д.

В общем. имейте ввиду, тупо заменить gpt-5 на codex скорее всего нахаляву не выйдет, чтобы получить скачок качества придется переписывать и промпты и обвязку.

Но в конечном итоге это крайне сильная моделька в кодинге, и игра может стоить свеч.
7👍5🗿2
Будни вайб-кодера (если у вас не так — приходите, научим 😁)
😁35👎6🙈3🤝2🥱1
На всех парах готовлюсь к релизу 😁
👍15🔥93👀1
Опасный тип 😈
😍1
Последние дни очень мало сплю, ложусь в 3-4 утра, встаю в 8 и херачу без остановки. Прям даже чувствую, что это уже чуток становится проблемой.
Думаю, скоро вайбкодеры будут приравнены к наркоманам подлежащим лечению 😁 Давно жизнь нам не подгоняла такой дофаминовой иглы. Натуральное казино со всеми признаками.

Че как колитесь, у вас так же или держитесь? Как заставляете себя не залипать поставить очередную тасочку, просто проходя мимо компа в туалет? Давайте, короче, устроим кружок анонимных вайбоманов и поделимся сокровенным.
💊54💯267👎4🤪2🌭1🍌1
Заметил такую штуку.

ЛЛМ-ки очень любят проглатывать ошибки. Отсутствующие переменные или проблемы они заменяют на скрытые фоллбэки, которые потом по вам крайне больно бьют в дебаге.

Например. Обращаемся к "имени пользователя" . Не нашли? Тогда пусть это будет "Вася" и спокойно идем дальше. И пофиг что никаких Вась у нас нет.

Это помогает писать внешне работающий код, но подкладывает в него мину невозможности гарантировать работоспособность во всех случаях.

Для меня такое поведение — чуть ли не основной источник технического долга. Так что рекомендую такие выкрутасы максимально запрещать настройкам, ну и фиксить, если видите сами.
2💯1713