Глеб Кудрявцев про AI кодинг – Telegram
Глеб Кудрявцев про AI кодинг
6.7K subscribers
95 photos
14 videos
2 files
79 links
Пишу тулы для кодинга и упарываюсь по агентам.

Основной канал t.me/glebkudr
Личка t.me/glebkudr1
Download Telegram
Джонни Айв что-то там пошел делать в OpenAI, никто не знает что. Кто-то говорит, колонку в форме огурца с басами, но не будем уподобляться злым языкам.

Я прикинул что к чему и подумал, что если они не решат сделать что-то банальное, типа смартфона, то обязаны построить R2D2

Почему?

— эта падла не умеет делать ничего полезного руками. Совсем как ChatGPT
— зато она коннектится к любой электронике, например, может исполнять что угодно за счет удаленного доступа к компу
— она ездит за тобой везде и не нужно искать ее из другой комнаты, когда нужно.
— американская технобро тусовка помешана на старой плохой фантастике, коей безусловно является вселенная ЗВ 😁

Все сходится идеально.

Короче, моя ставка — R2D2, посмотрим 😎
😁20👍4👎1👌1
Forwarded from Jack
😁17👍1🔥1
Играюсь с переодеваторами.

Отвратительно 😁
😁82
Дуров не поддается
😁16
Проблемные места в вайбкодинге. Просто выгрузка проблем из головы, которые постоянно требуют внимания.

Дизайн
— Не может в сложную верстку
— Проблемы с консистентными стилями

Код
— изобретение новых методов и переменных вместо переиспользования старых.
— Ошибки в именах для слаботипизированных языков
— Использование неверных версий библиотек
— Ошибки при работе с АПИ (опять же за счет устаревших версий)
— Ошибки типизации в ORM (например монго + pydantic + python)

Инфра:
— докеры
— hot reload
— корректный проброс ENV
— prod и dev окружение
— кроссплатформенные бинарники
— Фронтенд-сборщики (бездны ада вообще)
— коммит секретов в репозиторий
— скрипты для работы сервера

+/- то, с чем сталкивался в последний месяц. Выходит самая жопа с инфрой пока, если запускаете свой вайбкод стартап то посмотрите в эту сторону 🙂
👍6💯54
Еще важно.

Вайбкод тулы создают ощущение, что вы можете все писать сами — дескать не нужно тащить библиотек.

Однако библиотеки сильно экономят вам контекст.

Простой пример. Я делаю функционал пайплайнов. И он занимает в проекте 50к контекста. А могу использовать библиотеку, которая то же содержимое ужмет до десятка.

В итоге сейчас я считаю, что нужно тащить максимум библиотек. Главное чтобы они были давностью более года и не меняли свое апи. Так вы максимально утилизируете тренировку модели и оставляете контекст проекта для своих уникальных дел.

Пожалуй, самый противоречивый совет, уже предвижу срач в каментах =)
👍132
!Пять часов! вчера устанавливал node бойлерплейт.

Это при том что я немножко соображаю, что делаю.

Вообще, везде где возникают сборщики JS кода — пиши пропало, это просто хтонь, избегайте всеми способами.

Почему в это полез?

Ну потому что если эту табуретку завел, то это все равно лучше питона. Но добраться до такого состояния тяжело.

UPD Не вынесла душа. Снес всю ноду нахер, сделал на питоне 😅

Почему не Go, хотя хвалил тут его?

Обнаружил, что footprint Go примерно в 2-3 раза больше по токенам за тот же объем функционала. А т.к. я ваншотаю промпты, то мне это критично. Решил простые сервисы все же на питоне писать, а го оставить для чего-то критичного.
🔥10💩1
В каментах спрашивают, а какого объема в принципе у меня проекты?

Очень прикольный вопрос, редко кто задумывается кмк.

Так вот.

Стандартный бойлерплейт клиент-серверного приложения с минимальной документацией это 20-40к токенов

Более менее законченная аппка которая решает одну задачу 100к токенов (у шотгана, например 90к)

Далее без ограничений. Серьезные проекты знаю и по миллиону и по 10, но в среднем, думаю, тяготеет скорее к миллиону.

В этом, кстати, магия контекста в 1 млн у Gemini. Это как раз объем, куда полностью влезает куча инди проектов. Или отдельные модули чего-то покруче.

100к мало, а вот этого уже начинает хватать на живых индустриальных примерах, а не просто Hello World страничках.
🔥9👍3
Нейронки сильно лучше умеют в деревья чем в списки.

Короче какая тема.

Например прикладная задачка. Вам нужно сделать список задач по проекту.
И вы думаете. как их расположить.

Два варианта - нумерованный список как в джире. Типа таска 1 таска 2, таска... N

Второй вариант сделать дерево, где разложить таски по модулям, свойствам и статусу реализованности

root
— Billing
— Profile
——Email
———Done
———— ChangeEmail.md
———Backlog
———— Register.md

Так вот, нейронки не умеют в списки. Создают дубли, плохо считают, и вообще тупят. Даже умные.

Им гораздо нативнее вторая штука, там они намного меньше ошибаются.

Будете что-то делать с тасками и нейросетками — учитывайте такую особенность.
👍175🔥1
Когда вы видите топ-качественные видео из-под моделей типа Veo3, нужно очень хорошо понимать такой нюанс.

1) В половине случаев генерация тупо зависает или происходит с жесткими артефактами — например без звука.
2) Там где она проходит, 3/4 роликов генерируется полной фигней, непригодной к использованию, нужно делать заново.
3) Цена секунды видео у провайдера — это за какой-то результат, а вовсе не за тот, который тебя устроит.

Итого, в среднем, если ты хочешь получать качественный результат, то это x10 работы и токенов. А значит секунда видео стоит не 50 центов, а 5 долларов. А минута уже 300. Не считая времени монтажера.

Поэтому дешевые модельки или даже слайдшоу вместо анимаций все еще будут широко востребованы в ближайшее время. А на генерацию видео все равно нужны шарящие люди, ничего само собой там не получается.
👍13😭2
Сегодня я смог подвесить Google AI Studio

Оказывается, выгрузка текстов постов с моего основного канала весит 730 тысяч токенов (хуясе я понаписал)

Так вот, если вставить эту простынку текста в гугл студию, то она вешает хром.

Кажется, я нашел предел лимитам студии 😁

Теперь в бэклогах мозга появился проект написать мини-парсер, чтобы убрать из выгрузки для начала все HTML теги, а затем скомпоновать историю в удобный для работы с ЛЛМ вид. Например, сделав индекс по содержанию (без всяких рагов, тупо написав выжимку—текст)
1👍6🔥2🥰1
В каментах выше предложили годный парсер.

Благодаря нему ужал токены в два раза, их оказалось 360к.

Отлично помещаются в AI studio.

RAG не нужен

Идеальная иллюстрация того, что если ваша задача не решается влоб нейросетями, просто подождите годик.
🔥14