Думал тут над глобальной проблемой курсора и виндсерфа. Сейчас поделюсь.
Как они работают.
Они берут ваш проект и шинкуют его на коротенькие запросы. Стараются кэшировать но в целом их стратегия — как можно меньше отдавать к контекст ЛЛМ, чтобы экономить токены.
В результате код получается декогерентный. То есть он правильный в рамках методов, но разваливается в общей структуре. Ибо они попросту не держать контекст всего проекта, кто бы чего не говорил.
Проверить это элементарно. Выгружаете полный листинг своих проектных файлов и загоняете в тот же гемини, но не через курсор, а напрямую. И смотрите, что он вам выдаст.
И он вам выдаст сильно лучше. Хотя казалось бы — и тут и там одна модель.
Но курсор зажимает контекст, а вы — нет.
Вторая проблема. Тулколинг.
Редакторы кода на любой чих вызывают тулы. Вызов каждого инструмента — отдельный запрос. В итоге у вас получается миллион запросов. Тогда как на самом деле можно было бы отослать в ЛЛМ прям огромный кусок кодовой базы целиком. Получить ответ тоже целиком, а далее отредактировать 10-20 файлов в один заход.
Это ровно то что делает человек, который по-старинке спрашивает у ЛЛМ и копипастит из выдачи. И получается сильно лучше, чем просто в курсоре!
В итоге, что думаю.
Нужны инструменты, которые работают именно широкими мазками. Загружают в ЛЛМ огромный контекст, получают максимально подробный ответ, а далее берут тул для массового редактирования.
Каждый такой запрос будет сильно дороже. Скажем, доллар. Зато они будет способен решать вам задачу массивного рефакторинга или впиливания нового функционала, намного лучше, чем это происходит сейчас.
Если тут есть фанаты — дарю идею сделать такой инструмент, готов тестить его на себе 🙂
Как они работают.
Они берут ваш проект и шинкуют его на коротенькие запросы. Стараются кэшировать но в целом их стратегия — как можно меньше отдавать к контекст ЛЛМ, чтобы экономить токены.
В результате код получается декогерентный. То есть он правильный в рамках методов, но разваливается в общей структуре. Ибо они попросту не держать контекст всего проекта, кто бы чего не говорил.
Проверить это элементарно. Выгружаете полный листинг своих проектных файлов и загоняете в тот же гемини, но не через курсор, а напрямую. И смотрите, что он вам выдаст.
И он вам выдаст сильно лучше. Хотя казалось бы — и тут и там одна модель.
Но курсор зажимает контекст, а вы — нет.
Вторая проблема. Тулколинг.
Редакторы кода на любой чих вызывают тулы. Вызов каждого инструмента — отдельный запрос. В итоге у вас получается миллион запросов. Тогда как на самом деле можно было бы отослать в ЛЛМ прям огромный кусок кодовой базы целиком. Получить ответ тоже целиком, а далее отредактировать 10-20 файлов в один заход.
Это ровно то что делает человек, который по-старинке спрашивает у ЛЛМ и копипастит из выдачи. И получается сильно лучше, чем просто в курсоре!
В итоге, что думаю.
Нужны инструменты, которые работают именно широкими мазками. Загружают в ЛЛМ огромный контекст, получают максимально подробный ответ, а далее берут тул для массового редактирования.
Каждый такой запрос будет сильно дороже. Скажем, доллар. Зато они будет способен решать вам задачу массивного рефакторинга или впиливания нового функционала, намного лучше, чем это происходит сейчас.
Если тут есть фанаты — дарю идею сделать такой инструмент, готов тестить его на себе 🙂
🔥13❤4👍4🦄1
OpenAI купила виндсерф
Но это уже не новость.
А новость в том, что я заглянул — и ныне там очень сладкие тарифы.
Аж 2000 обращений к 4.1o и o4-mini в месяц всего за 15 баксов.
Этого по идее хватит на месяц, так как курсорные 500 запросов улетают за 10 дней, а стоят двадцатку.
Кто хочет попробовать — прибью реф ссылку. Вам несложно, а мне приятно 🙂
https://windsurf.com/refer?referral_code=cfbm94xq5mp95281
Работал с ним 2 месяца назад и у меня не было претензий кроме того, что тогда это было явно дороже курсора. Сейчас хочу сделать еще один заход.
Но это уже не новость.
А новость в том, что я заглянул — и ныне там очень сладкие тарифы.
Аж 2000 обращений к 4.1o и o4-mini в месяц всего за 15 баксов.
Этого по идее хватит на месяц, так как курсорные 500 запросов улетают за 10 дней, а стоят двадцатку.
Кто хочет попробовать — прибью реф ссылку. Вам несложно, а мне приятно 🙂
https://windsurf.com/refer?referral_code=cfbm94xq5mp95281
Работал с ним 2 месяца назад и у меня не было претензий кроме того, что тогда это было явно дороже курсора. Сейчас хочу сделать еще один заход.
Windsurf
Referrals | Windsurf
Refer a friend and earn bonus add-on prompt credits.
👍6❤1👀1
Навайбкодил сегодня небольшую тулзу, которая позволяет выгрузить в один клик листинг вашей рабочей директории и файлов, для того, чтобы вставить его в промпт ЛЛМ.
Очень полезная софтинка в разработке, когда ЛЛМ теряют контекст, и вам нужно его восстанавливать вручную.
Клонируйте, пользуйтесь. Для запуска нужно установить go на машине.
https://github.com/glebkudr/shotgun_code
Очень полезная софтинка в разработке, когда ЛЛМ теряют контекст, и вам нужно его восстанавливать вручную.
Клонируйте, пользуйтесь. Для запуска нужно установить go на машине.
https://github.com/glebkudr/shotgun_code
👍12❤2🔥1😱1
Как сделать промпт для ЛЛМ, не посещая курсов по промптингу
1) Описываете задачу сетке. Говорите "хочу промпт".
2) Несете второй сетке. Говорите "тут мне другая сетка промпт написала, улучши". Она ревнует и улучшает.
3) Несете еще раз (можно той же, у нее нету памяти, ага). И говорите — вот мне тут сетка написала... И т.д.
Работает прекрасно, с четвертого-пятого раза промпт уже будет сильно лучше, чем с первого. Попробуйте 😎
1) Описываете задачу сетке. Говорите "хочу промпт".
2) Несете второй сетке. Говорите "тут мне другая сетка промпт написала, улучши". Она ревнует и улучшает.
3) Несете еще раз (можно той же, у нее нету памяти, ага). И говорите — вот мне тут сетка написала... И т.д.
Работает прекрасно, с четвертого-пятого раза промпт уже будет сильно лучше, чем с первого. Попробуйте 😎
😁24🔥14👍3🦄2
Гугл подогнал умное кэширование — моделька сама пытается понять что ты уже спрашивал нечто подобное и если находит, то прайс будет меньше.
Дисконт на кэшированные токены в 4 раза — есть за что побороться.
Для срабатывания нужно чтобы начало запроса было таким же, как и в предыдущем запросе. Имейте ввиду при конструировании промптов.
Это снижает ценность по сравнению с эксплицитным кэшированием, но все же определенный прорыв.
https://developers.googleblog.com/en/gemini-2-5-models-now-support-implicit-caching/
PS С мест подсказывают — у OpenAI работает аналогичный механизм.
Дисконт на кэшированные токены в 4 раза — есть за что побороться.
Для срабатывания нужно чтобы начало запроса было таким же, как и в предыдущем запросе. Имейте ввиду при конструировании промптов.
Это снижает ценность по сравнению с эксплицитным кэшированием, но все же определенный прорыв.
https://developers.googleblog.com/en/gemini-2-5-models-now-support-implicit-caching/
PS С мест подсказывают — у OpenAI работает аналогичный механизм.
Googleblog
Google for Developers Blog - News about Web, Mobile, AI and Cloud
Explore implicit caching – now supported in Gemini 2.5 – bringing automatic cost savings to developers using the Gemini API.
👍7
Приложенька для камшот one-shot вайбкодинга развивается и обросла плюхами 😎
Использую ее саму для разработки ее самой (рекурсия)
Офигиваю, как я раньше работал без такого полезного инструмента.
Что делает:
— читает файлы и директории, умеет в исключения
— создает шаблон промпта который можно загнать в гемини. В котором есть ВЕСЬ контекст.
— вам остается достать то что он выдаст в ответ и применить к своей кодовой базе (пока что я просто делаю это курсором, но хочу встроить патчилку прямо в проект)
Works like a charm 👌
https://github.com/glebkudr/shotgun_code
Для тех кто не может в установку и компиляцию — сделал бинарники.
PS Ставьте звездочки на гитхабе, там это главная пузомерка 😁
Использую ее саму для разработки ее самой (рекурсия)
Офигиваю, как я раньше работал без такого полезного инструмента.
Что делает:
— читает файлы и директории, умеет в исключения
— создает шаблон промпта который можно загнать в гемини. В котором есть ВЕСЬ контекст.
— вам остается достать то что он выдаст в ответ и применить к своей кодовой базе (пока что я просто делаю это курсором, но хочу встроить патчилку прямо в проект)
Works like a charm 👌
https://github.com/glebkudr/shotgun_code
Для тех кто не может в установку и компиляцию — сделал бинарники.
PS Ставьте звездочки на гитхабе, там это главная пузомерка 😁
🔥22❤5👍4
Ого, жира навалили.
Какая-то хренова туча пайплайнов для n8n.
Не факт, что там есть что-то полезное, но в любом случае на этом материале можно учиться и подсматривать подходы.
https://github.com/enescingoz/awesome-n8n-templates
Кстати, темплейты n8n с легкостью переписываются агентами под любые взрослые AI библиотеки, например DSPy в питоне/го. Так что если вы сделали удачный воркфлоу и хотите отвязаться от n8n, то это легко сделать. Просто экспортируете его в json и переписываете в любой ЛЛМ.
Какая-то хренова туча пайплайнов для n8n.
Не факт, что там есть что-то полезное, но в любом случае на этом материале можно учиться и подсматривать подходы.
https://github.com/enescingoz/awesome-n8n-templates
Кстати, темплейты n8n с легкостью переписываются агентами под любые взрослые AI библиотеки, например DSPy в питоне/го. Так что если вы сделали удачный воркфлоу и хотите отвязаться от n8n, то это легко сделать. Просто экспортируете его в json и переписываете в любой ЛЛМ.
GitHub
GitHub - enescingoz/awesome-n8n-templates: Supercharge your workflow automation with this curated collection of n8n templates!…
Supercharge your workflow automation with this curated collection of n8n templates! Instantly connect your favorite apps-like Gmail, Telegram, Google Drive, Slack, and more-with ready-to-use, AI-po...
🔥11👍2❤1
Написал статью про мои приключения при разработке Шотган аппки. Поддержите лайками 🥹
https://habr.com/ru/articles/908750/
https://habr.com/ru/articles/908750/
❤22👍9🔥6🌭1
Если вам не стыдно за свой AI продукт — вы делаете не AI продукт 😁
Зато вотчман(обновляет структуру папок и файлов если там появились изменения) я впилил за два запроса к ллм и пол-часа времени. И он работает.
Но на приличную библиотеку конечно стоит потом переписать, захламление проекта однажды приводит к критической невозможности его поддержки.
Зато вотчман
Но на приличную библиотеку конечно стоит потом переписать, захламление проекта однажды приводит к критической невозможности его поддержки.
😁14
Вчера просидел за версткой такой штуки.
График слева должен быть идентичен графику справа из твиттер поста.
Ни одна моделька так и не сверстала идеально, везде отклонения в ту или иную сторону.
По правкам мелочевки тоже очень плохо работает, рвет колонки, тупит, и т.д.
Короче, версталы пока живут 😁
График слева должен быть идентичен графику справа из твиттер поста.
Ни одна моделька так и не сверстала идеально, везде отклонения в ту или иную сторону.
По правкам мелочевки тоже очень плохо работает, рвет колонки, тупит, и т.д.
Короче, версталы пока живут 😁
👍13❤2😁2
notion_prompt.md
12.5 KB
Кстати, решал задачку "сделать верстку сайта похожей на ноушн". Все подобные задачки необходимо решать начиная с оптимизации промпта.
Хороший промпт позволяет движку ЛЛМ потом вам зафигачить задачу в один проход. Плохой промпт — ну будете страдать в курсоре до морковкиного заговения.
Итерационным путем подобрал вот это. Работает неплохо, пользуйтесь кому нужно. По аналогии можно попросить скомпоновать и под любую другую дизайн систему.
Хороший промпт позволяет движку ЛЛМ потом вам зафигачить задачу в один проход. Плохой промпт — ну будете страдать в курсоре до морковкиного заговения.
Итерационным путем подобрал вот это. Работает неплохо, пользуйтесь кому нужно. По аналогии можно попросить скомпоновать и под любую другую дизайн систему.
👍15❤2
Вообще, ошибка думать, что внутренняя "цепь рассуждений" модели компенсирует слабый промпт на входе.
По крайней мере в текущей архитектуре — точно не так. Хотя казалось бы, она могла бы подумать внутри себя, улучшить промпт и далее уже по улучшенному отработать.
Но нет, не получается. Пробовал много раз с разными провайдерами.
А вот улучшить промпт, подать его на вход и снова улучшить можно легко. И как раз таким способом они и получаются.
Поэтому сначала готовим хорошие промпты, а потом уже их применяем. Так достигаем хорошего результата 😎
По крайней мере в текущей архитектуре — точно не так. Хотя казалось бы, она могла бы подумать внутри себя, улучшить промпт и далее уже по улучшенному отработать.
Но нет, не получается. Пробовал много раз с разными провайдерами.
А вот улучшить промпт, подать его на вход и снова улучшить можно легко. И как раз таким способом они и получаются.
Поэтому сначала готовим хорошие промпты, а потом уже их применяем. Так достигаем хорошего результата 😎
🔥17💯5❤1👍1
Ловите кайфулечный промпт для поиска багов 👆
Заточен под поиск цепочек вызовов и неработающего кода в программе. Выводит результаты в mermaid диаграмме + гипотезы того, что идет не так. Использую вместе с шотганом. Работает как часы.
Заточен под поиск цепочек вызовов и неработающего кода в программе. Выводит результаты в mermaid диаграмме + гипотезы того, что идет не так. Использую вместе с шотганом. Работает как часы.
🔥12👍3
Forwarded from RobinGud
Глеб, привет)
уже несколько инструментов сделал, может быть стрим сделаешь по ним?
уже несколько инструментов сделал, может быть стрим сделаешь по ним?
Ну давайте сегодня в 22 часа. Коротенький стрим, покажу как я применяю шотган в работе и почему это лучше Курсора. Поправим в нем пару багов с помощью его самого 😎
🔥17👍14😁1
Провел трансляцию, почти запилили функционал применения диффов в аппку. Смотрите с 11 минуты, потому что в начале я думал что у меня включен микрофон, а вот и нет 😂
https://www.youtube.com/live/j4sn6QNiuso?si=o0oT-dmoJejkViqW&t=660
https://www.youtube.com/live/j4sn6QNiuso?si=o0oT-dmoJejkViqW&t=660
YouTube
Как вайб-кодить с 10x эффективностью. One-shot промптинг
t.me/gleb_pro_ai
https://github.com/glebkudr/shotgun_code/
https://github.com/glebkudr/shotgun_code/
👍12❤1
В шотгане был функционал вотчера. Это такая штука которая следит за файловой системой и обновляет дерево, если обнаруживает, что что-то там изменилось.
Вотчера я запилил по-быстрому, тупо чтобы было.
Но тут люди начали жаловаться, что оно жрет процессор. И я заметил - и правда жрет.
Т.к. оно проходилось по всем файлам каждые 200 миллисекунд, чего бы тут не жрать.
Ну, что делать — отрефакторил на библиотеку fsnotify. Она позволяет обращаться к файлам не каждый раз, а только тогда, когда детектится какое-либо изменение.
Потребление проца упало у меня с 7% до 0% 😁
Мораль? Целых две.
1) Первое решение сделать тяп-ляп было верным, оно ускорило выкладку релиза и получение хоть какой-то ценности.
2) Когда тебе пишет ИИ-шка, нужно все равно врубаться в то, что происходит. Скажем, отличать механизм постоянных запросов вотчера от событийной модели.
Ну и я закончил этот рефакторинг ровно в два запроса, отправив один запрос собираясь в гости, а второй — приехав из гостей. Один на аналитику, второй на рефакторинг.
Ну а если бы я это писал руками, это бы заняло несколько дней с матюгами 🙂
Вотчера я запилил по-быстрому, тупо чтобы было.
Но тут люди начали жаловаться, что оно жрет процессор. И я заметил - и правда жрет.
Т.к. оно проходилось по всем файлам каждые 200 миллисекунд, чего бы тут не жрать.
Ну, что делать — отрефакторил на библиотеку fsnotify. Она позволяет обращаться к файлам не каждый раз, а только тогда, когда детектится какое-либо изменение.
Потребление проца упало у меня с 7% до 0% 😁
Мораль? Целых две.
1) Первое решение сделать тяп-ляп было верным, оно ускорило выкладку релиза и получение хоть какой-то ценности.
2) Когда тебе пишет ИИ-шка, нужно все равно врубаться в то, что происходит. Скажем, отличать механизм постоянных запросов вотчера от событийной модели.
Ну и я закончил этот рефакторинг ровно в два запроса, отправив один запрос собираясь в гости, а второй — приехав из гостей. Один на аналитику, второй на рефакторинг.
Ну а если бы я это писал руками, это бы заняло несколько дней с матюгами 🙂
👍16❤2🔥2