Проблемные места в вайбкодинге. Просто выгрузка проблем из головы, которые постоянно требуют внимания.
Дизайн
— Не может в сложную верстку
— Проблемы с консистентными стилями
Код
— изобретение новых методов и переменных вместо переиспользования старых.
— Ошибки в именах для слаботипизированных языков
— Использование неверных версий библиотек
— Ошибки при работе с АПИ (опять же за счет устаревших версий)
— Ошибки типизации в ORM (например монго + pydantic + python)
Инфра:
— докеры
— hot reload
— корректный проброс ENV
— prod и dev окружение
— кроссплатформенные бинарники
— Фронтенд-сборщики (бездны ада вообще)
— коммит секретов в репозиторий
— скрипты для работы сервера
+/- то, с чем сталкивался в последний месяц. Выходит самая жопа с инфрой пока, если запускаете свой вайбкод стартап то посмотрите в эту сторону 🙂
Дизайн
— Не может в сложную верстку
— Проблемы с консистентными стилями
Код
— изобретение новых методов и переменных вместо переиспользования старых.
— Ошибки в именах для слаботипизированных языков
— Использование неверных версий библиотек
— Ошибки при работе с АПИ (опять же за счет устаревших версий)
— Ошибки типизации в ORM (например монго + pydantic + python)
Инфра:
— докеры
— hot reload
— корректный проброс ENV
— prod и dev окружение
— кроссплатформенные бинарники
— Фронтенд-сборщики (бездны ада вообще)
— коммит секретов в репозиторий
— скрипты для работы сервера
+/- то, с чем сталкивался в последний месяц. Выходит самая жопа с инфрой пока, если запускаете свой вайбкод стартап то посмотрите в эту сторону 🙂
👍6💯5❤4
Еще важно.
Вайбкод тулы создают ощущение, что вы можете все писать сами — дескать не нужно тащить библиотек.
Однако библиотеки сильно экономят вам контекст.
Простой пример. Я делаю функционал пайплайнов. И он занимает в проекте 50к контекста. А могу использовать библиотеку, которая то же содержимое ужмет до десятка.
В итоге сейчас я считаю, что нужно тащить максимум библиотек. Главное чтобы они были давностью более года и не меняли свое апи. Так вы максимально утилизируете тренировку модели и оставляете контекст проекта для своих уникальных дел.
Пожалуй, самый противоречивый совет, уже предвижу срач в каментах =)
Вайбкод тулы создают ощущение, что вы можете все писать сами — дескать не нужно тащить библиотек.
Однако библиотеки сильно экономят вам контекст.
Простой пример. Я делаю функционал пайплайнов. И он занимает в проекте 50к контекста. А могу использовать библиотеку, которая то же содержимое ужмет до десятка.
В итоге сейчас я считаю, что нужно тащить максимум библиотек. Главное чтобы они были давностью более года и не меняли свое апи. Так вы максимально утилизируете тренировку модели и оставляете контекст проекта для своих уникальных дел.
Пожалуй, самый противоречивый совет, уже предвижу срач в каментах =)
👍13❤2
!Пять часов! вчера устанавливал node бойлерплейт.
Это при том что я немножко соображаю, что делаю.
Вообще, везде где возникают сборщики JS кода — пиши пропало, это просто хтонь, избегайте всеми способами.
Почему в это полез?
Ну потому что если эту табуретку завел, то это все равно лучше питона. Но добраться до такого состояния тяжело.
UPD Не вынесла душа. Снес всю ноду нахер, сделал на питоне 😅
Почему не Go, хотя хвалил тут его?
Обнаружил, что footprint Go примерно в 2-3 раза больше по токенам за тот же объем функционала. А т.к. я ваншотаю промпты, то мне это критично. Решил простые сервисы все же на питоне писать, а го оставить для чего-то критичного.
Это при том что я немножко соображаю, что делаю.
Вообще, везде где возникают сборщики JS кода — пиши пропало, это просто хтонь, избегайте всеми способами.
Почему в это полез?
UPD Не вынесла душа. Снес всю ноду нахер, сделал на питоне 😅
Почему не Go, хотя хвалил тут его?
Обнаружил, что footprint Go примерно в 2-3 раза больше по токенам за тот же объем функционала. А т.к. я ваншотаю промпты, то мне это критично. Решил простые сервисы все же на питоне писать, а го оставить для чего-то критичного.
🔥10💩1
В каментах спрашивают, а какого объема в принципе у меня проекты?
Очень прикольный вопрос, редко кто задумывается кмк.
Так вот.
Стандартный бойлерплейт клиент-серверного приложения с минимальной документацией это 20-40к токенов
Более менее законченная аппка которая решает одну задачу 100к токенов (у шотгана, например 90к)
Далее без ограничений. Серьезные проекты знаю и по миллиону и по 10, но в среднем, думаю, тяготеет скорее к миллиону.
В этом, кстати, магия контекста в 1 млн у Gemini. Это как раз объем, куда полностью влезает куча инди проектов. Или отдельные модули чего-то покруче.
100к мало, а вот этого уже начинает хватать на живых индустриальных примерах, а не просто Hello World страничках.
Очень прикольный вопрос, редко кто задумывается кмк.
Так вот.
Стандартный бойлерплейт клиент-серверного приложения с минимальной документацией это 20-40к токенов
Более менее законченная аппка которая решает одну задачу 100к токенов (у шотгана, например 90к)
Далее без ограничений. Серьезные проекты знаю и по миллиону и по 10, но в среднем, думаю, тяготеет скорее к миллиону.
В этом, кстати, магия контекста в 1 млн у Gemini. Это как раз объем, куда полностью влезает куча инди проектов. Или отдельные модули чего-то покруче.
100к мало, а вот этого уже начинает хватать на живых индустриальных примерах, а не просто Hello World страничках.
🔥9👍3
Нейронки сильно лучше умеют в деревья чем в списки.
Короче какая тема.
Например прикладная задачка. Вам нужно сделать список задач по проекту.
И вы думаете. как их расположить.
Два варианта - нумерованный список как в джире. Типа таска 1 таска 2, таска... N
Второй вариант сделать дерево, где разложить таски по модулям, свойствам и статусу реализованности
root
— Billing
— Profile
——Email
———Done
———— ChangeEmail.md
———Backlog
———— Register.md
Так вот, нейронки не умеют в списки. Создают дубли, плохо считают, и вообще тупят. Даже умные.
Им гораздо нативнее вторая штука, там они намного меньше ошибаются.
Будете что-то делать с тасками и нейросетками — учитывайте такую особенность.
Короче какая тема.
Например прикладная задачка. Вам нужно сделать список задач по проекту.
И вы думаете. как их расположить.
Два варианта - нумерованный список как в джире. Типа таска 1 таска 2, таска... N
Второй вариант сделать дерево, где разложить таски по модулям, свойствам и статусу реализованности
root
— Billing
— Profile
———Done
———— ChangeEmail.md
———Backlog
———— Register.md
Так вот, нейронки не умеют в списки. Создают дубли, плохо считают, и вообще тупят. Даже умные.
Им гораздо нативнее вторая штука, там они намного меньше ошибаются.
Будете что-то делать с тасками и нейросетками — учитывайте такую особенность.
👍17❤5🔥1
Forwarded from Никита Шарипов
Когда вы видите топ-качественные видео из-под моделей типа Veo3, нужно очень хорошо понимать такой нюанс.
1) В половине случаев генерация тупо зависает или происходит с жесткими артефактами — например без звука.
2) Там где она проходит, 3/4 роликов генерируется полной фигней, непригодной к использованию, нужно делать заново.
3) Цена секунды видео у провайдера — это за какой-то результат, а вовсе не за тот, который тебя устроит.
Итого, в среднем, если ты хочешь получать качественный результат, то это x10 работы и токенов. А значит секунда видео стоит не 50 центов, а 5 долларов. А минута уже 300. Не считая времени монтажера.
Поэтому дешевые модельки или даже слайдшоу вместо анимаций все еще будут широко востребованы в ближайшее время. А на генерацию видео все равно нужны шарящие люди, ничего само собой там не получается.
1) В половине случаев генерация тупо зависает или происходит с жесткими артефактами — например без звука.
2) Там где она проходит, 3/4 роликов генерируется полной фигней, непригодной к использованию, нужно делать заново.
3) Цена секунды видео у провайдера — это за какой-то результат, а вовсе не за тот, который тебя устроит.
Итого, в среднем, если ты хочешь получать качественный результат, то это x10 работы и токенов. А значит секунда видео стоит не 50 центов, а 5 долларов. А минута уже 300. Не считая времени монтажера.
Поэтому дешевые модельки или даже слайдшоу вместо анимаций все еще будут широко востребованы в ближайшее время. А на генерацию видео все равно нужны шарящие люди, ничего само собой там не получается.
👍13😭2
Сегодня я смог подвесить Google AI Studio
Оказывается, выгрузка текстов постов с моего основного канала весит 730 тысяч токенов (хуясе я понаписал)
Так вот, если вставить эту простынку текста в гугл студию, то она вешает хром.
Кажется, я нашел предел лимитам студии 😁
Теперь в бэклогах мозга появился проект написать мини-парсер, чтобы убрать из выгрузки для начала все HTML теги, а затем скомпоновать историю в удобный для работы с ЛЛМ вид. Например, сделав индекс по содержанию (без всяких рагов, тупо написав выжимку—текст)
Оказывается, выгрузка текстов постов с моего основного канала весит 730 тысяч токенов (хуясе я понаписал)
Так вот, если вставить эту простынку текста в гугл студию, то она вешает хром.
Кажется, я нашел предел лимитам студии 😁
Теперь в бэклогах мозга появился проект написать мини-парсер, чтобы убрать из выгрузки для начала все HTML теги, а затем скомпоновать историю в удобный для работы с ЛЛМ вид. Например, сделав индекс по содержанию (без всяких рагов, тупо написав выжимку—текст)
Telegram
Глеб Кудрявцев — продукты и бизнес
Меня зовут Глеб Кудрявцев.
Founder проектов Карьерный Цех careerfactory.ru и microboard.ru
, ex CPO Skyeng
Заметки о предпринимательстве и продуктах
Мой блог по AI: https://news.1rj.ru/str/gleb_pro_ai
По рекламе: https://news.1rj.ru/str/stasiyshechka
Founder проектов Карьерный Цех careerfactory.ru и microboard.ru
, ex CPO Skyeng
Заметки о предпринимательстве и продуктах
Мой блог по AI: https://news.1rj.ru/str/gleb_pro_ai
По рекламе: https://news.1rj.ru/str/stasiyshechka
1👍6🔥2🥰1
В каментах выше предложили годный парсер.
Благодаря нему ужал токены в два раза, их оказалось 360к.
Отлично помещаются в AI studio.
RAG не нужен
Идеальная иллюстрация того, что если ваша задача не решается влоб нейросетями, просто подождите годик.
Благодаря нему ужал токены в два раза, их оказалось 360к.
Отлично помещаются в AI studio.
RAG не нужен
Идеальная иллюстрация того, что если ваша задача не решается влоб нейросетями, просто подождите годик.
🔥14
Вы будете смеяться, но свой вариант софтинки я написал за 2 запроса в курсор/клод4
Рабочий.
Вообще, claude sonnet 4 радует, в кои-то веки хорошая моделька, а то последняя приличная на рынке в марте вышла, а это уже времена динозавров так-то
https://github.com/glebkudr/telegram_json_to_md/
Рабочий.
Вообще, claude sonnet 4 радует, в кои-то веки хорошая моделька, а то последняя приличная на рынке в марте вышла, а это уже времена динозавров так-то
https://github.com/glebkudr/telegram_json_to_md/
🔥8😎6❤3😁1
Если у вас есть друзья из айтишки, то они респектнут вам за такое сообщение в личку, или в вашем личном канальчике (а я вдвойне респектну — все порадуемся)
Хочу порекомендовать хороший канал про AI. Чел билдит продукты и делится опытом того, что делает сам, а не пересказывает новости @gleb_pro_ai
🤣15❤9😁6
Вообще, самый нужный девайс для вайб-кодинга — второй монитор. Кинчик смотреть, пока оно там крутится 😅
😁26👍4🔥2
Вчера зашотганил где-то 50к токенов в проект.
Действовал так.
Сначала промпт-архитектор расписал мне архитектуру.
Потом промпт-менеджер побил на большие задачи. Их получилось больше 20 штук.
Потом я последовательно делал задачи в связке шотган <> AI Studio, тупо повторяя один и тот же промпт
Диффы применял с помощью claude 4 в курсоре.
И что вы думаете?
Все зеленое, все сделано, но блин, я теперь не понимаю, что из себя представляет проект и что дальше 😂
Надо теперь отдельным промптом запустить исследование, что ж мы такого понаделали 😁
PS Гипотеза того, что шотган позволяет люто поднять качество питоновских проектов по сравнению с курсором подтвердилась. На 50к свежих токенов (~5 тысяч строк) тесты нашли всего 2 явных ошибки типизации.
Действовал так.
Сначала промпт-архитектор расписал мне архитектуру.
Потом промпт-менеджер побил на большие задачи. Их получилось больше 20 штук.
Потом я последовательно делал задачи в связке шотган <> AI Studio, тупо повторяя один и тот же промпт
Мы последовательно реализуем задачи из папки /tasks.
Проанализируй задачи. Сгруппируй их по смыслу. Постарайся взять побольше задач за один раз. Выбери группу, которую логично реализовать следующей.
Реализуй.
После реализации проапдейть и сами тексты задач.
Диффы применял с помощью claude 4 в курсоре.
И что вы думаете?
Все зеленое, все сделано, но блин, я теперь не понимаю, что из себя представляет проект и что дальше 😂
Надо теперь отдельным промптом запустить исследование, что ж мы такого понаделали 😁
PS Гипотеза того, что шотган позволяет люто поднять качество питоновских проектов по сравнению с курсором подтвердилась. На 50к свежих токенов (~5 тысяч строк) тесты нашли всего 2 явных ошибки типизации.
🔥20👍4😁1
Как я бросил курсорить и начал шотганить
Прошел почти месяц с официального релиза Шотгана.
За это время проект приобрел 1200 звездочек на гитхабе, 150 форков, индусы сняли про него несколько видео суммарным числом просмотров сильно более 100к, а инструмент занимает центральное место в моей работе с кодом.
Что это и почему я его применяю?
Метод шотган — это способ писать код в ЛЛМ, загружая в нее подробную задачу и максимально возможный контекст.
Это прежде всего идеология:
И чем дальше, тем больше я убеждаюсь, что это верный подход.
— Большие контексты позволяют сохранять согласованность имен переменных в динамических ЯП типа Питона или JS.
— Большие контексты "склеивают" вместе архитектуру, позволяя модели делать меньше лапши и больше согласованного кода
— Мы банально экономим запросы в курсоре, и не выходим за 20 баксов в месяц 🙂
Сейчас мой пайплайн кодинга такой:
Сетап
1) Я описываю идею проекта подробно, запускаю в шотгане промпт архитектора и несу результат в gemini (Google AI Studio, модель 2.5 pro).
2) Отвечаю на вопросы сети и провожу циклов 2-3 улучшения промпта, скармливая ей собственный результат и все более его уточняя.
3) Когда промпт готов, несу его в курсор, выбираю Claude 4 и готовлю бойлерплейт проекта
Рабочий процесс
Когда бойлерплейт готов, я приступаю к более регулярной работе. А именно.
4) Описываю набор фичей, которые мне нужны. Несу это архитектору (далее соответствующий промпт в Шотгане + ответ от гемини я буду называть именно как обращение к персонажу).
5) Ответ архитектора тащу проджект-менеджеру и прошу сформулировать задачи + систематизировать архитектуру проекта в файлах.
6) Задачи несу разработчику и прошу их последовательно их имплементировать.
7) Возникшие баги ищу с тестировщиком и несу результаты разработчику или архитектору, в зависимости от того, насколько сложна причина их породившая.
Цикл повторяется до следующей крупной фичи.
Для понимания объема работ. Одна такая "крупная фича" это может быть целиком биллинг, авторизация, работа с пайплайном, короче достаточно большой кусок логики на десятки файлов и много тысяч строк кода.
Через курсор делать такое было бы мучением. А шотган позволяет алгоритмизировать процесс и сделать его даже в чем-то скучным. Твоей работой остается описывать верхнеуровневые документы, ревьюить архитектурные решения, и копировать промпты из чатика в чатик 🙂
По ощущениям это максимально далеко от "вайба", а скорее что-то типа "AI assisted program engineering", потому что временами мозги кипят, и в голове нужно держать контекст проекта в том же объеме, что и нейронке, грамотно формулируя, что же ты хочешь от нее получить. Ведь при плохой формулировке она и сделает какую-то фигню, а не то, что нужно.
Зато и результат достигается очень крутой, можно не просто начинать, а доводить до результата проекты там, где ванильный курсор начинает прогрессирующе тупить.
Что дальше?
На самом деле, самое тупое во всем этом процессе - ждать по три минуты на каждом шаге, а далее копипастить результаты между инструментами.
Это вполне алгоритмизируется. И я очень даже понимаю, как выстроить таким образом не просто маленькую софтинку, а полноценный комбайн автоматической работы с кодом, с прицелом на поддержку больших и гигантских кодовых баз.
В Штатах под такие штуки раздают венчурные деньги, сам же я пока не решил, играть ли мне в это или нет.
Но то, что мой способ работы с AI кодингом эффективнее того, что массово принято на рынке, у меня нет сомнений, а значит в моменте грех этим не пользоваться и не продолжать кодить дальше 😎
Прошел почти месяц с официального релиза Шотгана.
За это время проект приобрел 1200 звездочек на гитхабе, 150 форков, индусы сняли про него несколько видео суммарным числом просмотров сильно более 100к, а инструмент занимает центральное место в моей работе с кодом.
Что это и почему я его применяю?
Метод шотган — это способ писать код в ЛЛМ, загружая в нее подробную задачу и максимально возможный контекст.
Это прежде всего идеология:
Если у нас есть миллион контекста, то давайте его использовать, и вытаскивать все нужные нам изменения за один запрос, а не десяток или сотню мелких.
И чем дальше, тем больше я убеждаюсь, что это верный подход.
— Большие контексты позволяют сохранять согласованность имен переменных в динамических ЯП типа Питона или JS.
— Большие контексты "склеивают" вместе архитектуру, позволяя модели делать меньше лапши и больше согласованного кода
— Мы банально экономим запросы в курсоре, и не выходим за 20 баксов в месяц 🙂
Сейчас мой пайплайн кодинга такой:
Сетап
1) Я описываю идею проекта подробно, запускаю в шотгане промпт архитектора и несу результат в gemini (Google AI Studio, модель 2.5 pro).
2) Отвечаю на вопросы сети и провожу циклов 2-3 улучшения промпта, скармливая ей собственный результат и все более его уточняя.
3) Когда промпт готов, несу его в курсор, выбираю Claude 4 и готовлю бойлерплейт проекта
Рабочий процесс
Когда бойлерплейт готов, я приступаю к более регулярной работе. А именно.
4) Описываю набор фичей, которые мне нужны. Несу это архитектору
5) Ответ архитектора тащу проджект-менеджеру и прошу сформулировать задачи + систематизировать архитектуру проекта в файлах.
6) Задачи несу разработчику и прошу их последовательно их имплементировать.
7) Возникшие баги ищу с тестировщиком и несу результаты разработчику или архитектору, в зависимости от того, насколько сложна причина их породившая.
Цикл повторяется до следующей крупной фичи.
Для понимания объема работ. Одна такая "крупная фича" это может быть целиком биллинг, авторизация, работа с пайплайном, короче достаточно большой кусок логики на десятки файлов и много тысяч строк кода.
Через курсор делать такое было бы мучением. А шотган позволяет алгоритмизировать процесс и сделать его даже в чем-то скучным. Твоей работой остается описывать верхнеуровневые документы, ревьюить архитектурные решения, и копировать промпты из чатика в чатик 🙂
По ощущениям это максимально далеко от "вайба", а скорее что-то типа "AI assisted program engineering", потому что временами мозги кипят, и в голове нужно держать контекст проекта в том же объеме, что и нейронке, грамотно формулируя, что же ты хочешь от нее получить. Ведь при плохой формулировке она и сделает какую-то фигню, а не то, что нужно.
Зато и результат достигается очень крутой, можно не просто начинать, а доводить до результата проекты там, где ванильный курсор начинает прогрессирующе тупить.
Что дальше?
На самом деле, самое тупое во всем этом процессе - ждать по три минуты на каждом шаге, а далее копипастить результаты между инструментами.
Это вполне алгоритмизируется. И я очень даже понимаю, как выстроить таким образом не просто маленькую софтинку, а полноценный комбайн автоматической работы с кодом, с прицелом на поддержку больших и гигантских кодовых баз.
В Штатах под такие штуки раздают венчурные деньги, сам же я пока не решил, играть ли мне в это или нет.
Но то, что мой способ работы с AI кодингом эффективнее того, что массово принято на рынке, у меня нет сомнений, а значит в моменте грех этим не пользоваться и не продолжать кодить дальше 😎
5🔥43❤13👍7
Это самая загадочная проблема с которой я сталкивался!
Это самые страшные слова, которые вы можете услышать от ЛЛМ при написании кода 😁
И что вы думаете? Они сохранялись. При загрузке. А после этого я жал на кнопку save и вот в этот момент они откатывались.
Два, сука, часа.
😁22❤1🤗1
У нас есть камерный чатик топовых челов которые пишут про AI
Особенность — там только внедренцы и профи, которые работают с нейронками каждый день, а не просто пишут про то, что узнали из твиттера.
Каналы камерные и уютные. Максимум пользы, минимум хайпожорства.
Каждый из нас подготовил один пост на тему AI кодинга. Чтобы посмотреть другие посты автора — переходите к нему в канал.
-> Vibe Cursor Coding
-> AI / Vibe coding - советы и best practices
-> Как получилось, что юристы используют среду для разработчиков?
-> Stitch: от вайб-кодинга к вайб-дизайну и обратно
-> Как я бросил курсорить и начал шотганить (я тут тоже есть!)
-> Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии
-> Context7 — один из лучших инструментов для AI-разработки
-> Топовый AI Coding Workflow: Cursor & AI Studio
-> Как Cursor AI превращает текст в готовые макеты Figma
-> Простое веб-приложение за 30 минут с помощью Lovable
Мне очень нравится состав тусовочки и формат публикаций. Изучайте и подписывайтесь 🙂
Особенность — там только внедренцы и профи, которые работают с нейронками каждый день, а не просто пишут про то, что узнали из твиттера.
Каналы камерные и уютные. Максимум пользы, минимум хайпожорства.
Каждый из нас подготовил один пост на тему AI кодинга. Чтобы посмотреть другие посты автора — переходите к нему в канал.
-> Vibe Cursor Coding
-> AI / Vibe coding - советы и best practices
-> Как получилось, что юристы используют среду для разработчиков?
-> Stitch: от вайб-кодинга к вайб-дизайну и обратно
-> Как я бросил курсорить и начал шотганить (я тут тоже есть!)
-> Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии
-> Context7 — один из лучших инструментов для AI-разработки
-> Топовый AI Coding Workflow: Cursor & AI Studio
-> Как Cursor AI превращает текст в готовые макеты Figma
-> Простое веб-приложение за 30 минут с помощью Lovable
Мне очень нравится состав тусовочки и формат публикаций. Изучайте и подписывайтесь 🙂
🔥29❤9👍8👏3🤡1
Выпал тут на неделю на конфу, возвращаюсь.
Если еще не попробовали o3 в курсоре — обязательно попробуйте. Модель очень умная, как ей и полагается. Как и всегда в курсоре, ей дается мало контекста, но она сильно лучше решает задачки в девопсе и всякие стремные баги, за которыми раньше приходилось бегать к ней в веб-интерфейс, а сейчас все работает прямо из чатика.
Если еще не попробовали o3 в курсоре — обязательно попробуйте. Модель очень умная, как ей и полагается. Как и всегда в курсоре, ей дается мало контекста, но она сильно лучше решает задачки в девопсе и всякие стремные баги, за которыми раньше приходилось бегать к ней в веб-интерфейс, а сейчас все работает прямо из чатика.
❤8👍1