Вообще я хочу мутить какую-то движуху для про-юзеров и билдеров в области AI, так скажем. Те, кто запускают продукты и хотят ныть про это вместе 😁 Но мечусь между челенджем или более свободными активностями.
Помогите Даше Глебу выбрать, что делать.
Помогите Даше Глебу выбрать, что делать.
Anonymous Poll
42%
Еженедельные созвоны в группе, отсмотр проектов участников, выдача обратной связи
9%
Еженедельные созвоны, но добавляем ежедневный контроль (пишешь о прогрессе или платишь штраф)
6%
Нафиг созвоны, только контроль, только хардкор.
43%
Мне просто посмотреть
Что ж, на бота потратили уже четыре часа. Почти добили. Он воспринимает голос, парсит его, отправляет в гемини и получает структурированный ответ.
Застряли на засовывании этого в календарь.
Остается мелочь и я даже знаю какая. Видимо потребуется заключительная часть 😂
https://www.youtube.com/watch?v=AlsXTchSYY4
Застряли на засовывании этого в календарь.
Остается мелочь и я даже знаю какая. Видимо потребуется заключительная часть 😂
https://www.youtube.com/watch?v=AlsXTchSYY4
YouTube
Программируем в Cursor день 1
t.me/gleb_pro_ai
Продолжаем писать бота для телеграма который парсит голос и делает встречу в календаре.
Проблема найдена сразу после встречи (как мы и любим). Я совершенно точно создавал не тот тип аккаунта. Видимо нужно будет сделать окончание стрима…
Продолжаем писать бота для телеграма который парсит голос и делает встречу в календаре.
Проблема найдена сразу после встречи (как мы и любим). Я совершенно точно создавал не тот тип аккаунта. Видимо нужно будет сделать окончание стрима…
❤10👍4🎉3🔥1
Тред от Theo — известного твиттерского тролля по теме ИИшки. Он только и делает, что вбрасывает провокативные посты, и кажется, никто не знает, чем занимается. Но так можно половину ИИ комьюнити описать, так что смотрим, что он там пишет. Сделал для вас перевод.
—
https://x.com/theo/status/1918810601968513249?s=46&t=X0WelBfVXZJ6DwiINUU8mA
https://x.com/theo/status/1918810601968513249?s=46&t=X0WelBfVXZJ6DwiINUU8mA
—
Я работал почти со всеми основными AI-моделями и провайдерами. У каждой есть свои сильные стороны. Вот список того, что я могу про них сказать
Google / Gemini
Плюсы: по скорости первый класс, огромное контекстное окно и в целом нормальные цены.
— Но настройки адовые: основной API не по стандарту, “OpenAI-совместимость” хромает; Vertex не даёт простых API-ключей – заточен под весь тяжёлый GCP-экосистем; AI Studio приятнее, но урезанное.
— Нет прозрачного биллинга: никакой дашборд не показывает, сколько ты потратишь, узнаёшь сумму только в конце месяца.
— Баги: grounding в 2.5 Pro порой возвращает “reasoning tokens” вместо ответа – чинят, ломается вновь; вообще, “80 % всех багов” у коллег-мульти-моделистов приходится фиксить из-за Gemini.
— Скрытый reasoning: UI даёт токены рассуждений, API – нет, хотя у whitelist-аккаунтов уже есть доступ.
— Кэширование – ад: нужно делать отдельные API-запросы для сохранения токенов, поэтому никто не кэширует, и мы платим за 1 млн токенов заново.
— Странности в генерации: модели приличные, но любят “слетать” на таблицах Markdown и коде – промпт для фикса ломает вывод кода, возможен бесконечный цикл “---------”.
Anthropic / Claude
Дорогой: в 3–4 раза дороже “умных” моделей вроде o4-mini, особенно 3.7 из-за болтливости.
Ненадёжный: около 85 % uptime по API – большинство ошибок генерации происходит из-за падений Claude.
xAI / Grok
— Grok 3 – зачем он вообще есть?: Mini-версия умнее, быстрее и дешевле, “обычная” 3-я тупит и дорого стоит.
— “Fast”-версии – прикол: две версии API (обычная и “быстрая”), вторая дороже, но зачастую медленнее.
— Много обещают, но ноль прозрачности: API вышло с задержкой, веса Grok 2 до сих пор не выложили (обещали 3 месяца назад).
OpenAI
— Ценообразование странное: o4-mini лучший по стоимости, а o1-pro в 100 раз дороже и хуже по качеству.
— Reasoning по-прежнему прикрыт: UI показывает только сводки, API – нет (за исключением небольшого улучшения с o4-mini).
— Фигня в API: чтобы получить валидный Markdown, приходится лепить танцы с “если ChatGPT-O, то добавить X к system prompt”.
Mistral
— “Открытость” под большим вопросом: собственное приложение на Cerebras работает шустро, но dev-доступ к той же инфраструктуре не дают – на “Le Plateforme” модели в 80 раз медленнее.
— Косплей под Open Source: много болтовни про свободу весов, но разработчиков держат “за блох”; без равного уровня доступа в приложении работать не будем.
https://x.com/theo/status/1918810601968513249?s=46&t=X0WelBfVXZJ6DwiINUU8mA
https://x.com/theo/status/1918810601968513249?s=46&t=X0WelBfVXZJ6DwiINUU8mA
👍13
Сегодня гугл начал блочить мой сервак в Hetzner со словами "400 User location is not supported for the API use.", и в итоге сломал на сутке мои прекрасные новости 😡
С локалки при этом все работало прекрасно.
Короче, они похоже посчитали, что сервак размещен не в Нюренберге, а в Багдаде или какой-то другой Аль-каиде, куда очумелые* программисты гугла не хотят поставлять свои модельки.
Поиск показал, что очумелые они настолько, что под раздачу сервисы попадают абсолютно рандомно и в любое время, но диапазоны IP используемые хетзнером — часто.
На попытки полечить проблему и в итоге покупку нового IP потратил впустую 2 часа.Зато приобрел бесценный опыт — нет.
В общем, будете там что-то хостить и обращаться к гуглосервисам в т.ч. AI — сразу постелите себе инфраструктурной соломки.
*очумелый — очень умелый 😬
С локалки при этом все работало прекрасно.
Короче, они похоже посчитали, что сервак размещен не в Нюренберге, а в Багдаде или какой-то другой Аль-каиде, куда очумелые* программисты гугла не хотят поставлять свои модельки.
Поиск показал, что очумелые они настолько, что под раздачу сервисы попадают абсолютно рандомно и в любое время, но диапазоны IP используемые хетзнером — часто.
На попытки полечить проблему и в итоге покупку нового IP потратил впустую 2 часа.
В общем, будете там что-то хостить и обращаться к гуглосервисам в т.ч. AI — сразу постелите себе инфраструктурной соломки.
*
❤7👍2👀1
Думал тут над глобальной проблемой курсора и виндсерфа. Сейчас поделюсь.
Как они работают.
Они берут ваш проект и шинкуют его на коротенькие запросы. Стараются кэшировать но в целом их стратегия — как можно меньше отдавать к контекст ЛЛМ, чтобы экономить токены.
В результате код получается декогерентный. То есть он правильный в рамках методов, но разваливается в общей структуре. Ибо они попросту не держать контекст всего проекта, кто бы чего не говорил.
Проверить это элементарно. Выгружаете полный листинг своих проектных файлов и загоняете в тот же гемини, но не через курсор, а напрямую. И смотрите, что он вам выдаст.
И он вам выдаст сильно лучше. Хотя казалось бы — и тут и там одна модель.
Но курсор зажимает контекст, а вы — нет.
Вторая проблема. Тулколинг.
Редакторы кода на любой чих вызывают тулы. Вызов каждого инструмента — отдельный запрос. В итоге у вас получается миллион запросов. Тогда как на самом деле можно было бы отослать в ЛЛМ прям огромный кусок кодовой базы целиком. Получить ответ тоже целиком, а далее отредактировать 10-20 файлов в один заход.
Это ровно то что делает человек, который по-старинке спрашивает у ЛЛМ и копипастит из выдачи. И получается сильно лучше, чем просто в курсоре!
В итоге, что думаю.
Нужны инструменты, которые работают именно широкими мазками. Загружают в ЛЛМ огромный контекст, получают максимально подробный ответ, а далее берут тул для массового редактирования.
Каждый такой запрос будет сильно дороже. Скажем, доллар. Зато они будет способен решать вам задачу массивного рефакторинга или впиливания нового функционала, намного лучше, чем это происходит сейчас.
Если тут есть фанаты — дарю идею сделать такой инструмент, готов тестить его на себе 🙂
Как они работают.
Они берут ваш проект и шинкуют его на коротенькие запросы. Стараются кэшировать но в целом их стратегия — как можно меньше отдавать к контекст ЛЛМ, чтобы экономить токены.
В результате код получается декогерентный. То есть он правильный в рамках методов, но разваливается в общей структуре. Ибо они попросту не держать контекст всего проекта, кто бы чего не говорил.
Проверить это элементарно. Выгружаете полный листинг своих проектных файлов и загоняете в тот же гемини, но не через курсор, а напрямую. И смотрите, что он вам выдаст.
И он вам выдаст сильно лучше. Хотя казалось бы — и тут и там одна модель.
Но курсор зажимает контекст, а вы — нет.
Вторая проблема. Тулколинг.
Редакторы кода на любой чих вызывают тулы. Вызов каждого инструмента — отдельный запрос. В итоге у вас получается миллион запросов. Тогда как на самом деле можно было бы отослать в ЛЛМ прям огромный кусок кодовой базы целиком. Получить ответ тоже целиком, а далее отредактировать 10-20 файлов в один заход.
Это ровно то что делает человек, который по-старинке спрашивает у ЛЛМ и копипастит из выдачи. И получается сильно лучше, чем просто в курсоре!
В итоге, что думаю.
Нужны инструменты, которые работают именно широкими мазками. Загружают в ЛЛМ огромный контекст, получают максимально подробный ответ, а далее берут тул для массового редактирования.
Каждый такой запрос будет сильно дороже. Скажем, доллар. Зато они будет способен решать вам задачу массивного рефакторинга или впиливания нового функционала, намного лучше, чем это происходит сейчас.
Если тут есть фанаты — дарю идею сделать такой инструмент, готов тестить его на себе 🙂
🔥13❤4👍4🦄1
OpenAI купила виндсерф
Но это уже не новость.
А новость в том, что я заглянул — и ныне там очень сладкие тарифы.
Аж 2000 обращений к 4.1o и o4-mini в месяц всего за 15 баксов.
Этого по идее хватит на месяц, так как курсорные 500 запросов улетают за 10 дней, а стоят двадцатку.
Кто хочет попробовать — прибью реф ссылку. Вам несложно, а мне приятно 🙂
https://windsurf.com/refer?referral_code=cfbm94xq5mp95281
Работал с ним 2 месяца назад и у меня не было претензий кроме того, что тогда это было явно дороже курсора. Сейчас хочу сделать еще один заход.
Но это уже не новость.
А новость в том, что я заглянул — и ныне там очень сладкие тарифы.
Аж 2000 обращений к 4.1o и o4-mini в месяц всего за 15 баксов.
Этого по идее хватит на месяц, так как курсорные 500 запросов улетают за 10 дней, а стоят двадцатку.
Кто хочет попробовать — прибью реф ссылку. Вам несложно, а мне приятно 🙂
https://windsurf.com/refer?referral_code=cfbm94xq5mp95281
Работал с ним 2 месяца назад и у меня не было претензий кроме того, что тогда это было явно дороже курсора. Сейчас хочу сделать еще один заход.
Windsurf
Referrals | Windsurf
Refer a friend and earn bonus add-on prompt credits.
👍6❤1👀1
Навайбкодил сегодня небольшую тулзу, которая позволяет выгрузить в один клик листинг вашей рабочей директории и файлов, для того, чтобы вставить его в промпт ЛЛМ.
Очень полезная софтинка в разработке, когда ЛЛМ теряют контекст, и вам нужно его восстанавливать вручную.
Клонируйте, пользуйтесь. Для запуска нужно установить go на машине.
https://github.com/glebkudr/shotgun_code
Очень полезная софтинка в разработке, когда ЛЛМ теряют контекст, и вам нужно его восстанавливать вручную.
Клонируйте, пользуйтесь. Для запуска нужно установить go на машине.
https://github.com/glebkudr/shotgun_code
👍12❤2🔥1😱1
Как сделать промпт для ЛЛМ, не посещая курсов по промптингу
1) Описываете задачу сетке. Говорите "хочу промпт".
2) Несете второй сетке. Говорите "тут мне другая сетка промпт написала, улучши". Она ревнует и улучшает.
3) Несете еще раз (можно той же, у нее нету памяти, ага). И говорите — вот мне тут сетка написала... И т.д.
Работает прекрасно, с четвертого-пятого раза промпт уже будет сильно лучше, чем с первого. Попробуйте 😎
1) Описываете задачу сетке. Говорите "хочу промпт".
2) Несете второй сетке. Говорите "тут мне другая сетка промпт написала, улучши". Она ревнует и улучшает.
3) Несете еще раз (можно той же, у нее нету памяти, ага). И говорите — вот мне тут сетка написала... И т.д.
Работает прекрасно, с четвертого-пятого раза промпт уже будет сильно лучше, чем с первого. Попробуйте 😎
😁24🔥14👍3🦄2
Гугл подогнал умное кэширование — моделька сама пытается понять что ты уже спрашивал нечто подобное и если находит, то прайс будет меньше.
Дисконт на кэшированные токены в 4 раза — есть за что побороться.
Для срабатывания нужно чтобы начало запроса было таким же, как и в предыдущем запросе. Имейте ввиду при конструировании промптов.
Это снижает ценность по сравнению с эксплицитным кэшированием, но все же определенный прорыв.
https://developers.googleblog.com/en/gemini-2-5-models-now-support-implicit-caching/
PS С мест подсказывают — у OpenAI работает аналогичный механизм.
Дисконт на кэшированные токены в 4 раза — есть за что побороться.
Для срабатывания нужно чтобы начало запроса было таким же, как и в предыдущем запросе. Имейте ввиду при конструировании промптов.
Это снижает ценность по сравнению с эксплицитным кэшированием, но все же определенный прорыв.
https://developers.googleblog.com/en/gemini-2-5-models-now-support-implicit-caching/
PS С мест подсказывают — у OpenAI работает аналогичный механизм.
Googleblog
Google for Developers Blog - News about Web, Mobile, AI and Cloud
Explore implicit caching – now supported in Gemini 2.5 – bringing automatic cost savings to developers using the Gemini API.
👍7
Приложенька для камшот one-shot вайбкодинга развивается и обросла плюхами 😎
Использую ее саму для разработки ее самой (рекурсия)
Офигиваю, как я раньше работал без такого полезного инструмента.
Что делает:
— читает файлы и директории, умеет в исключения
— создает шаблон промпта который можно загнать в гемини. В котором есть ВЕСЬ контекст.
— вам остается достать то что он выдаст в ответ и применить к своей кодовой базе (пока что я просто делаю это курсором, но хочу встроить патчилку прямо в проект)
Works like a charm 👌
https://github.com/glebkudr/shotgun_code
Для тех кто не может в установку и компиляцию — сделал бинарники.
PS Ставьте звездочки на гитхабе, там это главная пузомерка 😁
Использую ее саму для разработки ее самой (рекурсия)
Офигиваю, как я раньше работал без такого полезного инструмента.
Что делает:
— читает файлы и директории, умеет в исключения
— создает шаблон промпта который можно загнать в гемини. В котором есть ВЕСЬ контекст.
— вам остается достать то что он выдаст в ответ и применить к своей кодовой базе (пока что я просто делаю это курсором, но хочу встроить патчилку прямо в проект)
Works like a charm 👌
https://github.com/glebkudr/shotgun_code
Для тех кто не может в установку и компиляцию — сделал бинарники.
PS Ставьте звездочки на гитхабе, там это главная пузомерка 😁
🔥22❤5👍4
Ого, жира навалили.
Какая-то хренова туча пайплайнов для n8n.
Не факт, что там есть что-то полезное, но в любом случае на этом материале можно учиться и подсматривать подходы.
https://github.com/enescingoz/awesome-n8n-templates
Кстати, темплейты n8n с легкостью переписываются агентами под любые взрослые AI библиотеки, например DSPy в питоне/го. Так что если вы сделали удачный воркфлоу и хотите отвязаться от n8n, то это легко сделать. Просто экспортируете его в json и переписываете в любой ЛЛМ.
Какая-то хренова туча пайплайнов для n8n.
Не факт, что там есть что-то полезное, но в любом случае на этом материале можно учиться и подсматривать подходы.
https://github.com/enescingoz/awesome-n8n-templates
Кстати, темплейты n8n с легкостью переписываются агентами под любые взрослые AI библиотеки, например DSPy в питоне/го. Так что если вы сделали удачный воркфлоу и хотите отвязаться от n8n, то это легко сделать. Просто экспортируете его в json и переписываете в любой ЛЛМ.
GitHub
GitHub - enescingoz/awesome-n8n-templates: Supercharge your workflow automation with this curated collection of n8n templates!…
Supercharge your workflow automation with this curated collection of n8n templates! Instantly connect your favorite apps-like Gmail, Telegram, Google Drive, Slack, and more-with ready-to-use, AI-po...
🔥11👍2❤1
Написал статью про мои приключения при разработке Шотган аппки. Поддержите лайками 🥹
https://habr.com/ru/articles/908750/
https://habr.com/ru/articles/908750/
❤22👍9🔥6🌭1
Если вам не стыдно за свой AI продукт — вы делаете не AI продукт 😁
Зато вотчман(обновляет структуру папок и файлов если там появились изменения) я впилил за два запроса к ллм и пол-часа времени. И он работает.
Но на приличную библиотеку конечно стоит потом переписать, захламление проекта однажды приводит к критической невозможности его поддержки.
Зато вотчман
Но на приличную библиотеку конечно стоит потом переписать, захламление проекта однажды приводит к критической невозможности его поддержки.
😁14
Вчера просидел за версткой такой штуки.
График слева должен быть идентичен графику справа из твиттер поста.
Ни одна моделька так и не сверстала идеально, везде отклонения в ту или иную сторону.
По правкам мелочевки тоже очень плохо работает, рвет колонки, тупит, и т.д.
Короче, версталы пока живут 😁
График слева должен быть идентичен графику справа из твиттер поста.
Ни одна моделька так и не сверстала идеально, везде отклонения в ту или иную сторону.
По правкам мелочевки тоже очень плохо работает, рвет колонки, тупит, и т.д.
Короче, версталы пока живут 😁
👍13❤2😁2
notion_prompt.md
12.5 KB
Кстати, решал задачку "сделать верстку сайта похожей на ноушн". Все подобные задачки необходимо решать начиная с оптимизации промпта.
Хороший промпт позволяет движку ЛЛМ потом вам зафигачить задачу в один проход. Плохой промпт — ну будете страдать в курсоре до морковкиного заговения.
Итерационным путем подобрал вот это. Работает неплохо, пользуйтесь кому нужно. По аналогии можно попросить скомпоновать и под любую другую дизайн систему.
Хороший промпт позволяет движку ЛЛМ потом вам зафигачить задачу в один проход. Плохой промпт — ну будете страдать в курсоре до морковкиного заговения.
Итерационным путем подобрал вот это. Работает неплохо, пользуйтесь кому нужно. По аналогии можно попросить скомпоновать и под любую другую дизайн систему.
👍15❤2
Вообще, ошибка думать, что внутренняя "цепь рассуждений" модели компенсирует слабый промпт на входе.
По крайней мере в текущей архитектуре — точно не так. Хотя казалось бы, она могла бы подумать внутри себя, улучшить промпт и далее уже по улучшенному отработать.
Но нет, не получается. Пробовал много раз с разными провайдерами.
А вот улучшить промпт, подать его на вход и снова улучшить можно легко. И как раз таким способом они и получаются.
Поэтому сначала готовим хорошие промпты, а потом уже их применяем. Так достигаем хорошего результата 😎
По крайней мере в текущей архитектуре — точно не так. Хотя казалось бы, она могла бы подумать внутри себя, улучшить промпт и далее уже по улучшенному отработать.
Но нет, не получается. Пробовал много раз с разными провайдерами.
А вот улучшить промпт, подать его на вход и снова улучшить можно легко. И как раз таким способом они и получаются.
Поэтому сначала готовим хорошие промпты, а потом уже их применяем. Так достигаем хорошего результата 😎
🔥17💯5❤1👍1
Ловите кайфулечный промпт для поиска багов 👆
Заточен под поиск цепочек вызовов и неработающего кода в программе. Выводит результаты в mermaid диаграмме + гипотезы того, что идет не так. Использую вместе с шотганом. Работает как часы.
Заточен под поиск цепочек вызовов и неработающего кода в программе. Выводит результаты в mermaid диаграмме + гипотезы того, что идет не так. Использую вместе с шотганом. Работает как часы.
🔥12👍3