Глеб Кудрявцев про AI кодинг – Telegram
Глеб Кудрявцев про AI кодинг
6.7K subscribers
95 photos
14 videos
2 files
79 links
Пишу тулы для кодинга и упарываюсь по агентам.

Основной канал t.me/glebkudr
Личка t.me/glebkudr1
Download Telegram
В каментах спрашивают, а какого объема в принципе у меня проекты?

Очень прикольный вопрос, редко кто задумывается кмк.

Так вот.

Стандартный бойлерплейт клиент-серверного приложения с минимальной документацией это 20-40к токенов

Более менее законченная аппка которая решает одну задачу 100к токенов (у шотгана, например 90к)

Далее без ограничений. Серьезные проекты знаю и по миллиону и по 10, но в среднем, думаю, тяготеет скорее к миллиону.

В этом, кстати, магия контекста в 1 млн у Gemini. Это как раз объем, куда полностью влезает куча инди проектов. Или отдельные модули чего-то покруче.

100к мало, а вот этого уже начинает хватать на живых индустриальных примерах, а не просто Hello World страничках.
🔥9👍3
Нейронки сильно лучше умеют в деревья чем в списки.

Короче какая тема.

Например прикладная задачка. Вам нужно сделать список задач по проекту.
И вы думаете. как их расположить.

Два варианта - нумерованный список как в джире. Типа таска 1 таска 2, таска... N

Второй вариант сделать дерево, где разложить таски по модулям, свойствам и статусу реализованности

root
— Billing
— Profile
——Email
———Done
———— ChangeEmail.md
———Backlog
———— Register.md

Так вот, нейронки не умеют в списки. Создают дубли, плохо считают, и вообще тупят. Даже умные.

Им гораздо нативнее вторая штука, там они намного меньше ошибаются.

Будете что-то делать с тасками и нейросетками — учитывайте такую особенность.
👍175🔥1
Когда вы видите топ-качественные видео из-под моделей типа Veo3, нужно очень хорошо понимать такой нюанс.

1) В половине случаев генерация тупо зависает или происходит с жесткими артефактами — например без звука.
2) Там где она проходит, 3/4 роликов генерируется полной фигней, непригодной к использованию, нужно делать заново.
3) Цена секунды видео у провайдера — это за какой-то результат, а вовсе не за тот, который тебя устроит.

Итого, в среднем, если ты хочешь получать качественный результат, то это x10 работы и токенов. А значит секунда видео стоит не 50 центов, а 5 долларов. А минута уже 300. Не считая времени монтажера.

Поэтому дешевые модельки или даже слайдшоу вместо анимаций все еще будут широко востребованы в ближайшее время. А на генерацию видео все равно нужны шарящие люди, ничего само собой там не получается.
👍13😭2
Сегодня я смог подвесить Google AI Studio

Оказывается, выгрузка текстов постов с моего основного канала весит 730 тысяч токенов (хуясе я понаписал)

Так вот, если вставить эту простынку текста в гугл студию, то она вешает хром.

Кажется, я нашел предел лимитам студии 😁

Теперь в бэклогах мозга появился проект написать мини-парсер, чтобы убрать из выгрузки для начала все HTML теги, а затем скомпоновать историю в удобный для работы с ЛЛМ вид. Например, сделав индекс по содержанию (без всяких рагов, тупо написав выжимку—текст)
1👍6🔥2🥰1
В каментах выше предложили годный парсер.

Благодаря нему ужал токены в два раза, их оказалось 360к.

Отлично помещаются в AI studio.

RAG не нужен

Идеальная иллюстрация того, что если ваша задача не решается влоб нейросетями, просто подождите годик.
🔥14
Вы будете смеяться, но свой вариант софтинки я написал за 2 запроса в курсор/клод4
Рабочий.

Вообще, claude sonnet 4 радует, в кои-то веки хорошая моделька, а то последняя приличная на рынке в марте вышла, а это уже времена динозавров так-то

https://github.com/glebkudr/telegram_json_to_md/
🔥8😎63😁1
Если у вас есть друзья из айтишки, то они респектнут вам за такое сообщение в личку, или в вашем личном канальчике (а я вдвойне респектну — все порадуемся)

Хочу порекомендовать хороший канал про AI. Чел билдит продукты и делится опытом того, что делает сам, а не пересказывает новости @gleb_pro_ai
🤣159😁6
Вообще, самый нужный девайс для вайб-кодинга — второй монитор. Кинчик смотреть, пока оно там крутится 😅
😁26👍4🔥2
Вчера зашотганил где-то 50к токенов в проект.

Действовал так.

Сначала промпт-архитектор расписал мне архитектуру.
Потом промпт-менеджер побил на большие задачи. Их получилось больше 20 штук.
Потом я последовательно делал задачи в связке шотган <> AI Studio, тупо повторяя один и тот же промпт

Мы последовательно реализуем задачи из папки /tasks.

Проанализируй задачи. Сгруппируй их по смыслу. Постарайся взять побольше задач за один раз. Выбери группу, которую логично реализовать следующей.
Реализуй.

После реализации проапдейть и сами тексты задач.

Диффы применял с помощью claude 4 в курсоре.

И что вы думаете?

Все зеленое, все сделано, но блин, я теперь не понимаю, что из себя представляет проект и что дальше 😂

Надо теперь отдельным промптом запустить исследование, что ж мы такого понаделали 😁

PS Гипотеза того, что шотган позволяет люто поднять качество питоновских проектов по сравнению с курсором подтвердилась. На 50к свежих токенов (~5 тысяч строк) тесты нашли всего 2 явных ошибки типизации.
🔥20👍4😁1
Как я бросил курсорить и начал шотганить

Прошел почти месяц с официального релиза Шотгана.

За это время проект приобрел 1200 звездочек на гитхабе, 150 форков, индусы сняли про него несколько видео суммарным числом просмотров сильно более 100к, а инструмент занимает центральное место в моей работе с кодом.

Что это и почему я его применяю?

Метод шотган — это способ писать код в ЛЛМ, загружая в нее подробную задачу и максимально возможный контекст.

Это прежде всего идеология:
Если у нас есть миллион контекста, то давайте его использовать, и вытаскивать все нужные нам изменения за один запрос, а не десяток или сотню мелких.


И чем дальше, тем больше я убеждаюсь, что это верный подход.

— Большие контексты позволяют сохранять согласованность имен переменных в динамических ЯП типа Питона или JS.
— Большие контексты "склеивают" вместе архитектуру, позволяя модели делать меньше лапши и больше согласованного кода
— Мы банально экономим запросы в курсоре, и не выходим за 20 баксов в месяц 🙂

Сейчас мой пайплайн кодинга такой:

Сетап
1) Я описываю идею проекта подробно, запускаю в шотгане промпт архитектора и несу результат в gemini (Google AI Studio, модель 2.5 pro).
2) Отвечаю на вопросы сети и провожу циклов 2-3 улучшения промпта, скармливая ей собственный результат и все более его уточняя.
3) Когда промпт готов, несу его в курсор, выбираю Claude 4 и готовлю бойлерплейт проекта

Рабочий процесс
Когда бойлерплейт готов, я приступаю к более регулярной работе. А именно.

4) Описываю набор фичей, которые мне нужны. Несу это архитектору (далее соответствующий промпт в Шотгане + ответ от гемини я буду называть именно как обращение к персонажу).
5) Ответ архитектора тащу проджект-менеджеру и прошу сформулировать задачи + систематизировать архитектуру проекта в файлах.
6) Задачи несу разработчику и прошу их последовательно их имплементировать.
7) Возникшие баги ищу с тестировщиком и несу результаты разработчику или архитектору, в зависимости от того, насколько сложна причина их породившая.

Цикл повторяется до следующей крупной фичи.

Для понимания объема работ. Одна такая "крупная фича" это может быть целиком биллинг, авторизация, работа с пайплайном, короче достаточно большой кусок логики на десятки файлов и много тысяч строк кода.

Через курсор делать такое было бы мучением. А шотган позволяет алгоритмизировать процесс и сделать его даже в чем-то скучным. Твоей работой остается описывать верхнеуровневые документы, ревьюить архитектурные решения, и копировать промпты из чатика в чатик 🙂

По ощущениям это максимально далеко от "вайба", а скорее что-то типа "AI assisted program engineering", потому что временами мозги кипят, и в голове нужно держать контекст проекта в том же объеме, что и нейронке, грамотно формулируя, что же ты хочешь от нее получить. Ведь при плохой формулировке она и сделает какую-то фигню, а не то, что нужно.

Зато и результат достигается очень крутой, можно не просто начинать, а доводить до результата проекты там, где ванильный курсор начинает прогрессирующе тупить.

Что дальше?

На самом деле, самое тупое во всем этом процессе - ждать по три минуты на каждом шаге, а далее копипастить результаты между инструментами.

Это вполне алгоритмизируется. И я очень даже понимаю, как выстроить таким образом не просто маленькую софтинку, а полноценный комбайн автоматической работы с кодом, с прицелом на поддержку больших и гигантских кодовых баз.

В Штатах под такие штуки раздают венчурные деньги, сам же я пока не решил, играть ли мне в это или нет.

Но то, что мой способ работы с AI кодингом эффективнее того, что массово принято на рынке, у меня нет сомнений, а значит в моменте грех этим не пользоваться и не продолжать кодить дальше 😎
5🔥4313👍7
А почему бы нам не удалить нахер все твои данные?

А и правда. Удалю их, так же и нужно всегда делать если у тебя не заводится какой-то один левый контейнер, да? 😂

Это я случайно курсор обновил. Осторожнее с этим психопатом 🙈
😁291
Это самая загадочная проблема с которой я сталкивался!


Это самые страшные слова, которые вы можете услышать от ЛЛМ при написании кода 😁

Два часа разгребал баг с тем, что у меня не сохранялись данные при загрузке документа.

И что вы думаете? Они сохранялись. При загрузке. А после этого я жал на кнопку save и вот в этот момент они откатывались.

Два, сука, часа.
😁221🤗1
У нас есть камерный чатик топовых челов которые пишут про AI

Особенность — там только внедренцы и профи, которые работают с нейронками каждый день, а не просто пишут про то, что узнали из твиттера.

Каналы камерные и уютные. Максимум пользы, минимум хайпожорства.

Каждый из нас подготовил один пост на тему AI кодинга. Чтобы посмотреть другие посты автора — переходите к нему в канал.

-> Vibe Cursor Coding

-> AI / Vibe coding - советы и best practices

-> Как получилось, что юристы используют среду для разработчиков?

-> Stitch: от вайб-кодинга к вайб-дизайну и обратно

-> Как я бросил курсорить и начал шотганить (я тут тоже есть!)

-> Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии

-> Context7 — один из лучших инструментов для AI-разработки

-> Топовый AI Coding Workflow: Cursor & AI Studio

-> Как Cursor AI превращает текст в готовые макеты Figma

-> Простое веб-приложение за 30 минут с помощью Lovable

Мне очень нравится состав тусовочки и формат публикаций. Изучайте и подписывайтесь 🙂
🔥299👍8👏3🤡1
Выпал тут на неделю на конфу, возвращаюсь.

Если еще не попробовали o3 в курсоре — обязательно попробуйте. Модель очень умная, как ей и полагается. Как и всегда в курсоре, ей дается мало контекста, но она сильно лучше решает задачки в девопсе и всякие стремные баги, за которыми раньше приходилось бегать к ней в веб-интерфейс, а сейчас все работает прямо из чатика.
8👍1
А вот шотганить все равно нужно. Умная она-то умная, и точечные баги разгребает влет, но я тут собрал очередной проектик на 50к токенов и приплыли, контекст напрочь теряет, если ей никто не помогает со стороны (гемини, шотган, привет).
👍9
Пишут часто, что в гитхабе есть утекшие промпты почти всех сервисов. Например вот. И что важно на них взглянуть — качать насмотренность.

А я вот пытался и нифига, насмотренность не прокачивается. Через три минуты уже скучно. Поэтому единственное, что я могу оттуда почерпнуть — что они очень большие, и делали их внимательно.

Поэтому анализ должен быть другим.

Берете любой утекший промпт публичного сервиса.

Засовываете его в ЛЛМ и спрашиваете — типа, эй объясни, что тут и почему происходит.

А потом берете этот анализ и просите ее повторить 😁 И вот у вас уже свой уникальный промпт.

Или просите не просто повторить, а сделать некий свой промпт, используя приемы из такого-то сервиса. Тоже сработает. Вместо того, чтобы самому ковыряться в промптах.

У вас есть руки — копипастить. А у нее мозг — думать.

Всегда так делаю 😎
🔥39👍11💯7😁1🤬1
Смешно сейчас было. Работал в проекте с шотганом. Дал ему задачу, он пошел ее делать.

Архитектуру расписал, на таски побил, все четко.

Потом смотрю — а это блин не тот проект вообще.

А он гад даже бровью не повел — "да, хозяин, буду делать, наверное тебе в проекте нужна совершенно левая хрень никак к нему не относящаяся, будет исполнено".

Короче, следите за тем, что происходит, иногда нужно вникать 😁
😁24👀1