AI-Driven Development. Родион Мостовой – Telegram
AI-Driven Development. Родион Мостовой
4.15K subscribers
87 photos
3 videos
1 file
82 links
Увлекательно рассказываю про AI в разработке, про построение продуктов с LLM под капотом и иногда про .NET.
Связь: @rodion_m_tg
Чат: @ai_driven_chat
Download Telegram
Forwarded from er10.kz
Сэкономит 30% вашего бюджета: стартап CodeAlive упрощает работу с кодом

Может ли заядлый айтишник стать предпринимателем?
Опыт Родиона Мостового, фаундера стартапа CodeAlive, подтверждает, что да. В работе тимлидом он понял, что разработчики тратят много времени на то, чтобы разобраться в коде.

Со временем эта боль переросла в стартап CodeAlive, который превращает весь код и документацию компании в интерактивную базу знаний.

В эксклюзивном интервью для ER10 Media Родион Мостовой рассказал о взлетах, падениях и изнанке своего стартапа.

ER10.KZ | IT-медиа
👍11🔥5
Заставляем Claude Code думать на максимуме

Готовлю доклад про Context Engineering и раскапываю на досуге разных кодовых агентов - в т. ч. Claude Code.
Существует ряд сложных задач, над которыми LLM сначала надо хорошенько "подумать" прежде, чем кодить решение (а точнее, сжечь reasoning токены) - так вот, Claude Sonnet 4 и Claude Opus 4/4.1 тоже этим навыком владеют. И многие знают, что заставить СС подумать можно просто добавив в постановку задачи текст "think deep". Но немногие знают, что на самом деле у клода таких думающих режимов несколько, а именно:
        HIGHEST: 31999,
MIDDLE: 10000,
BASIC: 4000

Справа от названия режима объем мыслетоплева thinking budget tokens для LLM.
И теперь самое интересное - список ключевых слов, активирующих каждый из режимов (да, они прям захардкожены):
            HIGHEST: [{
pattern: "think harder",
}, {
pattern: "think intensely",
}, {
pattern: "think longer",
}, {
pattern: "think really hard",
}, {
pattern: "think super hard",
}, {
pattern: "think very hard",
}, {
pattern: "ultrathink",
}],
MIDDLE: [{
pattern: "think about it",
}, {
pattern: "think a lot",
}, {
pattern: "think deeply",
}, {
pattern: "think hard",
}, {
pattern: "think more",
}, {
pattern: "megathink",
}],
BASIC: [{
pattern: "think",
}]

В общем, достаточно запомнить ultrathink и будем вам "самый умный режим". Осторожно, возможно непредвиденное обжорство токенами.

Кстати, вот еще лайфхак как новый Codex на базе GPT-5 перевести в максимально "думающий" режим: codex --config model_reasoning_effort="high".



А что еще вам было бы интересно про подкапотную составляющую кодовых агентов? (в т. ч. Claude Code). Есть идея добавить в наш CodeAlive режим сравнения кишочков кодовых агентов, чтобы по вопросу пользователя показывать как та или иная фича или флоу работает в разных кодагентах (например, "как работает применение патча к файлам?") - интересно ли было бы такое?
👍21🔥7
AI-Driven Development. Родион Мостовой
Заставляем Claude Code думать на максимуме Готовлю доклад про Context Engineering и раскапываю на досуге разных кодовых агентов - в т. ч. Claude Code. Существует ряд сложных задач, над которыми LLM сначала надо хорошенько "подумать" прежде, чем кодить решение…
Claude Code vs Codex vs Codex CLI vs Aider

В последнее время я активно использую Claude Code, Aider, Gemini CLI, Codex и Codex CLI. И если с первым для большинства все понятно - CC сейчас стал эдаким индустриальным стандартом для AI-кодинга, который плавно заменяет Cursor, то кейсы для остальных тулов уже не так очевидны. Поэтому поделюсь своим форкфлоу:

Aider
aider (на базе Gemini 2.5 Pro) я люблю использовать в случаях когда четко знаю какие именно файлы нужны для решения задачи - тогда я просто загоняю их в контекст эйдера и точно знаю, что LLMка будет учитывать контекст всех этих файлов (другие кодагенты часто грешат частичным считыванием файлов). Ну и еще один кейс с эйдер - это применение плана изменений из CodeAlive - aider очень хорошо умеет применять патчи к указанным файлам по указанному плану изменений.

Codex CLI
Похоже, что как кодовый агент Codex CLI до сих пор довольно сырой (во всяком случае уступает Claude Code), зато поскольку он теперь работает на базе GPT-5, есть смысл применять его точечно в самых сложных местах: например, когда нужно пофиксить какой-то лютый баг, который Claude Sonnet/Opus даже в режиме ultrathink не осиливают. Ну или для реализации какого-нибудь запутанного алгоритма с кучей corner cases.
Пример из практики: у нас в CodeAlive возникла простенькая задачка по улучшению UX - когда пользователь при добавлении репозитория в систему вставляет ссылку на него, автоматически вытаскивать имя репозитория прямо из вставленной ссылки и подставлять его в поле Name (чтобы поберечь пальцы пользователей от лишних действий). Скажите ведь, что задача на 30 сек? Так вот, мы в CodeAlive для фронта используем Nuxt и, вероятно, по этой причине ни Claude Code, ни Gemini CLI, ни Junie не смогла осилить эту, на первый взгляд, совсем элементарную задачу (в реальности я хз почему, т. к. сам совсем не фронтэндщик, но это и неважно в данном случае). Больше того, даже Claude Opus 4.1 в режиме ultrathink так и не смогла найти причину бага и исправить его, выжрав при этом аж 10$!
В итоге, странную проблему смог пофиксить только Codex CLI в режиме high reasoning effort: codex --config model_reasoning_effort="high". Промпт был простой:
`Name` auto-fill logic is not working - it's extremely complicated problem, since even a Senior dev couldn't solve it. So, think hard to find the root cause and fix it. You can even come up with an alternative approach.

Теперь вы знаете что делать если CC и остальные агенты встали в ступор. Кстати, хорошая новость в том, что с недавних пор Codex CLI работает и по подписке ChatGPT Plus, а не только через API ключ.

Codex (web)
Что касается Codex, который облачный в веб интерфейсе, то я теперь использую его для решения каких-то сложных проблем в тех случаях, когда даже непонятно где вообще искать - например, поиск возможной причины OOM. Плюс Кодекса в вебе в том, что он умеет генерировать до 4-х вариантов (траекторий) решения и далее позволяет выбрать наиболее адекватное.

CodeAlive
CodeAlive я использую для кейсов когда необходимо быстро разобраться как что-то работает в кодовой базе на 50к и более строк кода или когда нужно что-то красиво визуализировать (мы очень много работали, чтобы диаграммы всегда были корректными). CodeAlive отдает точный и глубокий ответ на вопрос за несколько секунд, в отличие от кодагентов, которые по несколько минут могут собирать контекст даже на простые вопросы.

А в каких задачах вы используете что-то кроме Claude Code?
👍18🔥7
Аудит кодовой базы на ошибки и уязвимости через LLM

Те, кто внимательно следит за моим каналом знают, что у нас в CodeAlive уже давно есть фича Code Review через AI, который учитывает контекст проекта, а не только смотрит diff. Дело в том, что этот AI-ревьюер встраивается в пайплайн разработки, и проверяет тот код, который разработчики отправляют в PR/MR. Это работает отлично, но мы все чаще получаем запрос от наших пользователей на то, чтобы CodeAlive сделал для них ревью (фактически аудит) всей кодовой базы целиком. И мы сейчас работаем именно над этой фичей. Так что если для вас актуальна задача проверки всего кода вашего пет или даже рабочего проекта - напишите мне и мы бесплатно проведем такой аудит, а с вас фидбек по результатам :)
И если среди нас есть специалисты, которые профессионально занимались аудитом кодовых баз - тоже напишите мне, нам было бы интересно с вами пообщаться.
🔥16👍4
Онлайн митап: AI Coding Talk в этот четверг

Приходите в четверг на онлайн встречу, на которой мы с AI-buddies из соседних каналов про AI-кодинг будем обсуждать то, как сегодня выглядит эффективная AI-driven разработка. Ребята, как и я, глубоко погружены в тему AI-assisted разработки, а кто-то даже свои тулы для этого делает. Я поделюсь своим текущим воркфлоу, а также расскажу про наш опыт Context Engineering в CodeAlive.

Вместе со мной участвуют следующие достопочтенные граждане:

- "The AI Architect | AI Coding", Тимур Хахалев
- AI и грабли, Николай Шейко
- Константин Доронин
- Глеб про AI, Глеб Кудрявцев

Начнём в четверг, 28 августа, в 16:30 по МСК, 18:30 по Алматы и в 15:30 CEST.

🗓 Ссылка на календарь

Ставьте напоминашку и делитесь с друзьями.
👍11🔥5
SGR + AI Test-Driven Development + Metaprompting

Уровень 1: AI-TDD
Когда разрабатываешь тот или иной функционал с ллмками, очень круто работает подход, когда сначала пишешь хорошие тесты (часто можно нагенерить прямо через какую-нибудь мощную ллмку типа GPT-5 high), потом просто просишь кодагента итеративно запускать тесты и улучшать код в соответствии с фидбеком до тех пор, пока тесты не пройдут. Давайте назовем этот подход AI-TDD. Это довольно рисковый подход, я бы сказал на гране, т. к. некоторые ллмки и агенты могут начать просто подгонять код под тесты, тупо вставляя заглушки - Sonnet модельки таким грешат, а вот GPT-5 ведет себя честнее. Еще, может показаться, что такой подход слегка противоречит популярными нынче Spec-Driven Development (о котором мы поговорим позже). Но на самом деле нет, т. к. AI-TDD - это скорее про подход к решению более сложных и запутанных задач, в которых как ты спеку ни пиши, ллмки все равно ошибутся в итоговом коде, ну либо спеку можно вывести только из итогового кода (в случае с CodeAlive мы такой финт ушами делали, например, в задаче на парсинг кода).

Уровень 2: AI-TDD + Metaprompting
Так вот, если вдруг у вас есть продукты с LLM под капотом или вы что-то такое планируете, то возьмите на заметку еще один паттерн - AI-TDD + метапромтинг. Что это за зверь? В целом метапроптинг - довольно простая техника, когда промпт для LLM генерирует другая LLM (обычно более мощная), мы регулярно такое практикуем. Ну а соединив метапромтинг с AI-TDD, мы получим кейс, в котором кодагент итеративно улучшает промпт. Здесь важно отметить, что промтингом обязательно должна заниматься рассуждающая модель - я использую GPT-5 high через Codex CLI (codex --config model_reasoning_effort="high"). Давайте для простоты назовем такого агента-метапромптера супервайзером.
Кстати, про сам этот термин "метапромптинг" я узнал еще в прошлом году из давнего курса OpenAI про использование модели o1, там они использовали o1 для улучшения политик (это часть промпта) для 4o-mini. Тогда меня очень впечатлил этот подход и, кажется, что тогда он как-то остался незамеченным.

Уровень 3: AI-TDD + Metaprompting + SGR (SO + CoT)
Хорошо, погружаемся еще глубже. То, что описано выше уже может неплохо работать, но отлаживать такое (а значит, и улучшать) может быть проблематично, т. к. все, что происходит внутри LLM - черный ящик. Было бы неплохо прикрутить к ответу LLM какую-нибудь "отладочную" информацию - тогда супервайзеру будет легче понять причину проблемы и внести более точные правки в промпт. И здесь можно взять старый добрый CoT (Chain Of Thoughts) - это когда мы просим модельку подумать "шаг за шагом" перед тем, как ответить. Но CoT не всегда подходит, т. к. чаще всего в продуктах с LLM под капотом мы получаем от нейронки ответы в структурированном виде (Structured Output) и вот здесь к нам на помощь приходит подход SO + CoT или, как его нынче называют, SGR - Scheme Guided Reasoning (за термин спасибо Ринату из канала LLM под капотом). Базово, идея в том, чтобы каждый шаг, каждое свое решение LLMка сопровождала рассуждениями и свидетельствами. Если совсем упрощенно, то если раньше мы получали ответ в формате { "result": 42 }, то теперь мы получаем ответ в формате { "reasoning_steps": "...тут шаги с 'мыслями' LLM о том, как именно она пришла к ответу...", "result": 42 }. В итоге, мы, во-первых, получаем ту самую "отладочную информацию", а во вторых, еще сразу повышаем точность ответов, т. к. добавление рассуждений в output non-reasoning модели обычно уже само по себе делает модельку умнее. Ну вот и все, теперь запускаем наш пайплайн метапромтинга по TDD на новом уровне. А кому интересно еще глубже нырнуть в SGR, добро пожаловать в канал Рината: https://news.1rj.ru/str/llm_under_hood/625
И вот отличный пример Deep Research + SGR от Валеры Ковальского: https://github.com/vamplabAI/sgr-deep-research

У нас в CodeAlive много всего интересного используется - и GraphRAG и агенты, интересно ли больше контента на эту тему? Или лучше что-то более прикладное про LLM/агентов в кейсах разработки?
25🔥15
Мой доклад на Kolesa Conf’25 + конкурс

Друзья, 11 октября в Алматы я буду выступать с докладом про Context Engineering на Kolesa Conf. Расскажу про Spec-Driven Development и о том, как сейчас устроена работа с контекстом в современных кодагентах и в CodeAlive - будет жарко!
Ссылка на сайт конференции (билеты пока доступны): https://kolesa-conf.kz/?utm_source=tg&utm_medium=aidriven#up

И хорошая новость только для подписчиков моего канала - совместно с организаторами мы проводим конкурс: в комментариях к этому посту расскажите о самой необычной задаче, которую вам помог решить кодовый агент и победителю с наиболее интересным кейсом достанется билет на Kolesa Conf'25 и месяц подписки на CodeAlive. Победителя выберу я через неделю в четверг 18-го сентября.

P. S. Почти год прошел с момента моего предыдущего доклада про LLM для разработки на DotNext и вот организаторы выложили выступление в общий доступ - надо признать, что за год столько всего изменилось, что доклад интересен разве что с целью погрузиться в картину и инструменты годовалой давности и еще раз осознать насколько все быстро развивается в нашей сфере, либо если вы только вкатываетесь в тему AI для разработки. То ли дело доклады моего приятеля Жени Пешкова, вот они-то остаются актуальны годами! Вот, кстати, его доклад про async/await c того же Дотнекста.
А для тех, кто дочитал до конца бонус - мой недавний и очень актуальный доклад про подход к решению сложных задач с LLM, а также про AI Code Review. (совершенно не выспался и дико устал в тот день, поэтому надеюсь вы мне простите мои бесконечные междометия))
🔥15👍3
Онлайн: Разбираемся с Gemini CLI, Claude Code и Codex CLI на продвинутом уровне вместе с экспертами

Сегодня, в среду, в 17:00 по МСК, 16:00 по CEST и в 19:00 по Алматы встречаемся с Александром Колотовым, чтобы разобраться в том, как эффективно использовать Gemini CLI в повседневных задачах программиста. Помимо разных фишек Gemini CLI так же увидим как CodeAlive MCP может усилить Gemini CLI. Александр - разработчик с 20-ти летним стажем, сейчас кодит преимущественно на Elixir в компании Blockscout.

Добавляйте в календарь встречу "Раскрываем потенциал Gemini CLI + MCPs", чтобы не пропустить: (встреча прошла)



А в этот четверг, 16:00 МСК, 15:00 CEST и 18:00 по Алматы пройдет встреча с Максимом, автором замечательного Telegram-канала Этихлид. Из всех моих знакомых Максим наиболее глубоко и широко погружен в тему кодовых агентов - регулярно пробует и обозревает разные решения и (что важно) не зацикливается на каком-то одном агенте. Цель встречи - на реальной задаче посмотреть как эффективно использовать Claude Code со всякими продвинутыми фишками типа субагентов, а также разберемся в каких случаях может пригодится Codex CLI. Помимо глубокой погруженности в тему, у Максима так же опыт разработки почти 20 лет.

Добавляйте встречу "Claude Code vs Codex. А не пора ли нам обновить воркфлоу?" в календарь, чтобы не пропустить: (встреча прошла)

Обе встречи будут записаны, но у тех, кто подключится Live будет возможность задать свои вопросы экспертам.
🔥20👍2
Митап по Claude Code, Codex и их контекст v2

Суббота 27 сентября 17:00 МСК, 16:00 CEST и 19:00 Алматы.
Вы просили, мы сделали! Уж очень хорошая получилась встреча с @etechlead - Максиму удается подавать материал очень просто и структурированно, поэтому % удержания аудитории на встрече был близок к 100 от начала до конца. Мы вам обещали запись, но мы не осилили Zoom по техническим причинам нормально записать встречу не получилось, поэтому мы решили ещё лучше подготовиться во всех смыслах и повторить митап с хорошей записью для YouTube.

Вообще, я бы очень рекомендовал эту встречу не только программистам, но и руководителям для лучшего понимания того, что сейчас происходит в области AI- assisted разработки и как это все работает.

В программе:
● Анатомия кодингового агента
● Контекст и внимание
● Цикл работы агента
● Возможности Claude Code (команды, субагенты, модели, режимы работы, контекст)
● Codex и его сравнение с Claude Code

Ссылка на встречу: https://calendar.app.google/gtcTeQAeUxiVmtF5A

#workshop #agents #второй_блин
2👍20🎉6
Запись митапа по Claude Code

Ура, митап состоялся, и в этот раз у нас есть-таки запись: https://youtu.be/gte_yH6Eue4

Спасибо Максиму @etechlead за шикарное выступление!

Затронутые темы:
[00:01:08 — Что такое кодовый агент?](https://youtu.be/gte_yH6Eue4?t=68)
[00:05:02 — Почему популярны консольные (CLI) агенты?](https://youtu.be/gte_yH6Eue4?t=302)
[00:12:01 — Анатомия кодового агента](https://youtu.be/gte_yH6Eue4?t=721)
[00:18:46 — Context Engines](https://youtu.be/gte_yH6Eue4?t=1126)
[00:20:59 — CodeAlive: context-as-a-service](https://youtu.be/gte_yH6Eue4?t=1259)
[00:35:44 — Цикл работы агента (Agent Loop)](https://youtu.be/gte_yH6Eue4?t=2144)
[00:38:53 — Погружение в работу контекста](https://youtu.be/gte_yH6Eue4?t=2333)
[00:48:16 — Техники управления контекстом](https://youtu.be/gte_yH6Eue4?t=2896)
[01:06:54 — Субагенты: ключевая особенность Claude Code](https://youtu.be/gte_yH6Eue4?t=4014)
[01:29:17 — Кастомные субагенты](https://youtu.be/gte_yH6Eue4?t=5357)
[01:37:45 — Сравнение Claude Code и Codex](https://youtu.be/gte_yH6Eue4?t=5865)
[01:56:07 — Codex Cloud и фоновые агенты](https://youtu.be/gte_yH6Eue4?t=6967)
[02:01:31 — Будущее AI-разработки и решение проблемы сложности](https://youtu.be/gte_yH6Eue4?t=7291)

Ссылки, которые были упомянуты на звонке:
● Канал Максима, Этихлид
● Канал Родиона, AI-Driven Development
CodeAlive - тот самый context-(engine)-as-a-service, о котором говорили в рамках темы предоставления контекста агентам
Context Arena - бенчмарки качества удержания контекста моделями, там и OpenAI MRCR с иголками, и ссылка на Fiction.LiveBench

Небольшой тизер: предварительно в октябре планируется онлайн-конференция, где я буду читать доклад о проблемах AI-кодинга в Enterprise разработке и их решении. Полезного контента на конфе будет море, так что следите за новостями.

Ну и напомню, что 11 октября я выступаю с докладом про Context Engineering в эпоху AI на Kolesa Conf'25.

#claudecode #cc #live #stream #meeup #agents #codealive
2👍31
Меморандум CodeAlive <> холдинг Байтерек

Кто следит за моим каналом - знают, что я являюсь кофаундером CodeAlive - это Context-Engine-as-a-Service, который обогащает кодагентов релевантным контекстом, тем самым существенно повышая качество конечного результата и ускоряя их. Продукт актуален для больших и средних команд разработки, у которых накопилось достаточное количество кода, в котором Cursor, Claude Code, Codex и т. д. начинают "плавать" из-за масштаба и сложности.
Так вот, в эту пятницу случился большой день для CodeAlive - мы подписали меморандум о сотрудничестве с холдингом Байтерек (в холдинг входят: Отбасы Банк, "ДАМУ", Аграрная кредитная корпорация (ACC) и еще ряд организаций). Новость на zakon.kz.
Благодарю руководство Байтерек за оказанное доверие, а также свою команду за терпение и невероятную усидчивость в решении самых сложных задач. Несмотря на то, что мы работаем над продуктом уже полтора года, для нас все самое интересное только начинается!

А если вы тоже хотите усилить своих кодагентов, то самое время попробовать CodeAlive с обновленным MCP модулем. А по вопросу Enterprise лицензии с on-prem опцией можно написать мне лично: @rodion_m_tg

NB. Отдельное спасибо подписчикам моего канала за поддержку и детальный фидбек по CodeAlive, без вас продвинуться вперед было бы невозможно.
1👍38🎉16
Конференция по использованию AI в разработке

Знакомые ребята позвали поучаствовать в конференции про AI-разработку. Без воды и булшита. Только личный опыт от техлидов, фаудеров AI Dev Tools и CTO. Уверен, многих из спикеров вы как и я читаете в Телеграм.

В программе 6 докладов про эффективное использование AI инструментов в разработке для разного уровня подготовки от начинающих инженеров до авторов собственных тулов, от индивидуальных контрибьюторов до руководителей команд и департаментов.

Я буду рассказывать про Context Engineering и использование AI кодинга в энтерпрайзе.

Дата: 14 октября, 14:00 (МСК), 16:00 (Алматы), 13:00 (CET)

Пересылайте этот пост коллегам и друзьям, которым это было бы интересно и увидимся 14 октября!

Посмотреть детали и зарегистрироваться
👍21🎉4
Ускоряем AI-агентов

Вы никогда не начинали скучать, пока Claude Code или, тем более, Codex тихонько лопатит какую-либо задачу? У меня такое возникает регулярно, и у многих разработчиков, с которыми я общаюсь, тоже.
Хорошая новость в том, что есть пара решений этой проблемы.

Haiku 4.5
Anthropic на днях выпустили новую модельку Haiku 4.5 - я уже успел ее потестить, и, по моим ощущениям, всякие простые правки и легкие багфиксы она действительно делает в разы быстрее, чем Sonnet 4.5. Больше того, я даже успел потестить эту модельку в UI тестах через playwright MCP - и, опять же, несложные тесты она довольно бодро прокликивает и выполняет. Что касается более сложных тестов - например, проверка всевозможных тест кейсов на активацию подписки Хайку не далась.

Кстати, запустить Claude полностью в режиме Haiku можно вот так:
claude --model haiku

А для тех, кто работает с CC через AWS вот так:
ANTHROPIC_MODEL='global.anthropic.claude-haiku-4-5-20251001-v1:0' \
claude


CodeAlive MCP - универсальное ускорение
И, как я уже рассказывал на недавней конференции, есть и более универсальный способ ускорить ваших AI-агентов, а именно, подключить обогащение контекста из CodeAlive через MCP, в этом случае AI-агент (Cursor, Codex, Cursor, OpenCode) и т. д. получат возможность задавать CodeAlive вопросы на естественном языке (пример: "как работает регистрация?") и очень быстро получать от CodeAlive список релевантных функций и классов, экономя тем самым агенту десятки шагов. Кстати, на проектах с большой кодовой базой, CodeAlive помимо ускорения, еще и точность и качество работы агента повысит. Чтобы не быть голословным, мы прогнали бенчмарк SWE bench Verified на обычном Claude Code и Claude Code с CodeAlive. Результат: среднее ускорение в задачах на 30%, а на больших задачах получили ускорение до 83%. Если вам интересно узнать больше о CodeAlive - напишите мне и я лично проведу вам онбординг.

А как вам новая Haiku? И насколько важный фактор для вас скорость работы агента?

NB. Я готовлю большой пост про использование AI в реализации больших фич в сложных проектах с описанием всех этапов - от проектирования до UI-тестирования. Если у вас есть интересные кейсы с UI тестированием через AI агентов - поделитесь в комментах к этому посту или мне в ЛС.
А ещё мы готовим два новых практических воркшопа:
— с Максимом
@etechlead про Claude Code и субагентов;
— и с Костей Дорониным
@kdoronin_blog про практику GraphRAG.
Совсем скоро будет анонс, так что следите за обновлениями в канале.

Кстати, очень рад приветствовать новых подписчиков на своем канале! Чуть позже я расскажу о себе подробнее, а вы о себе. Спасибо, что читаете.


@ai_driven
1👍5412
SDD на максималках и Lovable для бекендов: новинки YC из мира AI dev tools

С некоторых пор я полюбил отсматривать стартапы, прошедшие отбор в Y Combinator (на минуточку, топовейший акселератор). Во многом потому, что YC - один из немногих акселей, который смело вкладывается в Dev Tools продукты (из примеров: GitLab, Amplitude, Algolia, OneSignal и т.д.).

В сумме AI dev tools в этом батче там штук 10, но вот эти мне показались наиболее интересными:

Specific - позволяет генерить бекенд (эндпоинты) на естественном языке - вроде, полезная штука для каких-нибудь Lovable приложений (хоть, лавабл уже и сам поддерживает создание бекендов). Этот я успел немного потыкать - с задачей написать эндпоинт для перевода текста через ллмки OpenAI оно так справится и не смогло.

Deeptrace - штуковина, которая коннектится к вашим логам, кодбазе и алертам и на каждый алерт провод расследование, (пытаясь) выявить корень проблемы. Пока что доступна только демка, но сама идея интересна - мб кто-то из нас что-то подобное тоже пилит, тогда присмотритесь к их лендосу. Лендосы YC стартапов - это всегда отдельная интересная история - я уверен, что их там активно натаскивают на хорошие, понятные (продающие) лендинги.

Compyle - лозунг "Lovable for Software Engineers". А по сути, это тот же Codex Cloud, только умеющий задавать вопросы перед тем, как приступить к кодогенерации. Это как раз пример SDD (Spec-Driven Development) - фактически, они помогают из вайб-промпта создать спеку. Получился эдакий Plan Mode на максималках. Вообще, забавно, что они так и пишут прямо у себя на сайте, что эта штука под капотом юзает Claude Code. Из интересного - как и наш CodeAlive, поддерживает работу с мультирепозиториями. Пока что работает бесплатно.
Ну, и интереса ради с помощью этой тулы я за ван шот законтрибьютил нужную нам фичу в опенсорный проект Fluid на .NET (это шаблонизатор, который классно подходит для промптов). Вот PR, с виду выглядит все четко и тесты проходят, ждем что скажут ревьюеры). Мне, в целом, понравился опыт.

Fastshot - Lovable для мобильных приложений.

Полный список по ссылке.

Что нам с этого, спросите вы?
Ну, во-первых, не исключено, что кто-то мог искать подобные продукты. Во-вторых, факт прохождение стартапа в YC сам по себе весьма ценен и означает, что идея очень даже имеет право на жизнь, а значит, кто-то из вас может вдохновиться, как и мы когда-то, попробовать сделать свой стартап, ну или просто успешный пет-проект (главное только, чтоб не B2B).

А какой продукт или идея из осеннего батча YC вам приглянулась больше всего?

Кстати, неочевидное открытие, которые я сделал пока готовил этот пост - это то, что в компания SST тоже резидент YC, причем аж в 2021 они проходили программу и получали от них деньги. Для тех, кто не в курсе SST - авторы одного из наиболее успешного open source кодагента OpenCode.

@ai_driven
👍2013
Claude Code всё?

Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых братьев сестер. Недавно вышли аж 3 значимых модели от китайцев - это Minimax M2, GLM 4.6 и Kimi K2 Thinking, очень мощные модели, догоняющие Sonnet 4.5 и GPT-5.

Я думаю, для многих не секрет, что китайцы сейчас, во-первых, начали предоставлять подписки на свои LLM (GLM, MiniMax), во-вторых, дают возможность юзать их из Claude Code.
Но, по мне, так ключевая проблема китайских подписок в Privacy - субъективно, вероятность того, что данные будут использованы для обучения (как минимум) существенно выше. И вот тут на сцене появляется сервис Synthetic

1. Synthetic подписка - Claude Code x3
Суть сервиса в том, что они предоставляют дешевый доступ к множеству современных LLM - но главное, умеют это делать по подписке. Так вот, даже в подписке за 20$ они пишут, что лимиты на лучшие модели x3 от тех, что Claude дают за те же деньги. Minimax M2, GLM 4.6 и Kimi K2 Thinking там есть. Важно, что они заверяют, что дата центры с их GPUшками находятся в US и EU, что компания у них американская и что данные юзеров для дообучения они никогда не используют.
С Claude Code (CC) они тоже умеют интегрироваться нативно и даже дают готовый конфиг, который позволяет легко и просто запускать их Claude Code с их подпиской одной командой:
# Add to  ~/.zshrc
synclaude() {
ANTHROPIC_BASE_URL=https://api.synthetic.new/anthropic \
ANTHROPIC_AUTH_TOKEN=${SYNTHETIC_API_KEY} \
ANTHROPIC_DEFAULT_OPUS_MODEL=hf:moonshotai/Kimi-K2-Thinking \
ANTHROPIC_DEFAULT_SONNET_MODEL=hf:MiniMaxAI/MiniMax-M2 \
ANTHROPIC_DEFAULT_HAIKU_MODEL=hf:MiniMaxAI/MiniMax-M2 \
CLAUDE_CODE_SUBAGENT_MODEL=hf:zai-org/GLM-4.6 \
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 \
claude "$@"
}

После этого просто пишем в терминале synclaude и радуемся специальному клоду (не забудьте задать ключи SYNTHETIC_API_KEY у себя в env). Я успел проверить - работает довольно бодро и стабильно.

Еще, люди в чатах жаловались, что подписки от китайцев на китайские модели работают довольно медленно. Мои быстрые эксперименты с Synthetic показали, что их модели прям шустренько отвечают.

Отмечу, что в таком варианте подписке есть еще один неочевидный плюс, в отличие от китайских - новые LLM выходят стремительно и неизвестно какая опенсорс LLM будет лучшей для кодинга завтра. Здесь же выглядит так, что ребята добавляют поддержку хороших моделей очень быстро (на реддите писали, что K2 Thinking они первые в US развернули).

2. API по подписке
Интересно, что любую из доступных always-on моделей можно так же использовать и через API по подписке.

3. Деплой своих моделей
Неочевидный приятный бонус - этот сервис так же умеет разворачивать почти любую LLM с HugginFace (on demand) и это прямо находка для тех, кто деплоит локальные ллмки в организациях - есть возможность очень быстро и дешево протестировать LLMку или ее кванты. Мною проверено - работает.

Приятная рефералка
Пользуясь случаем, поделюсь своей реф ссылкой на этой сервис https://synthetic.new/?referral=eWEfhLA6nZXwE1D - в случае подписки, +10$ на баланс прилетит и мне и вам.

@ai_driven
1👍306
Мой воркфлоу: Opus 4.5, Gemini 3 Pro, GPT-5.1-Codex-Max

Коль скоро новыйая Opus теперь доступна в подписке Claude за 20$, самое время для нового поста.
В "свободное от работы время" я пишу Next.js фулл стэк приложение полностью нейронками. Интересно, что еще год назад, когда мы делали CodeAlive и нужно было запрогать фронтэнд, мы нанимали разработчика для этого - сейчас уже, покодив пару недель фронт, в принципе, я делаю вывод, что любой бекендщик с какой-то элементарной базой по фронтэнду (стэк, линтинг), может вполне успешно генерить красивый и функциональный фронт разной сложности. Конечно, UX в таком случае всегда будет слабым местом, но это уже совсем другая история, о которой я обязательно отдельно расскажу чуть позже.
А теперь, к сравнению. Все, что ниже почти полностью базируется на моем опыте.

Opus 4.5 - бизнес аналитик и архитектор.
Горячо рекомендую Opus 4.5 для создания/дошлифовки спеки или плана (SDD) - мне понравилось как он работает в Plan Mode внутри CC - особенно актуально когда вы даете на вход не до конца проработанную фичу (а фичи вообще редко когда сразу хорошо продуманы), Claude в этом случае прежде, чем перейти к реализации, задаст вам ряд хороших уточняющих вопросов - для взрослой разработки самое то. Кстати, на создание одного такого плана у меня ушло 5$ extra usage (это было ещё до того, как Опус открыли для Pro подписки).
Отмечу ещё, что Опус за one shot решила заковыристую задачу по фронтэнду, с которой Gemini 3 Pro не справилась даже за несколько запросов.
Из неочевидного - бенчмарки на качество код ревью показывают очень низкие результаты для Opus 4.5. В CC перключиться на Opus можно командой /model.

Едем дальше - по остальным моделям сейчас картина следующая:
Gemini 3 Pro + Nano Banana Pro - дизайнер и очень скиловый frontend разработчик, который почти наверняка напишет вам куда более крутой дизайн, чем большинство студий. Проще всего использовать внутри Antigravity, там же удобно запрягать эту модельки сходить потестировать ваше приложение в браузере - уж больно хорошо субагент в Antigravity управляет браузером. В "ежедневной" агентной разработке пока не нашел места для новой Gemini.

Sonnet 4.5 - быстрый, но иногда невнимательный джун-исполнитель, который может пропускать пункты спеки или делать их "на отвали", поэтому ей лучше не давать большие задачи и выполнение спеки. А еще, 1Сники очень хвалят эту модель как выдающуюся для BSL.

GPT-5.1-Codex-Max (medium) - медленный, но довольно внимательный к деталям джун-исполнитель. Пока лучший вариант для выполнения больших задач по спеке (не считая комбайнов типа CodeMachine).

GPT-5.1-Codex-Max (xhigh) - а это программист-олимпиадник, способный придумать и реализовать наиболее запутанные алгоритмы и найти причину даже самых коварных багов. Еще, вероятно, это лучшая CLI-комбинация для глубокого код ревью. Напомню, что запускается эта модель командой codex --config model_reasoning_effort="xhigh".

Бонус: GPT 5.1 Pro - это, пожалуй, лучший выбор если вы хотите за one-shot нагенерить план реализации и архитектуру для целого сервиса или эпика по тех. заданию - буквально, скидываете ей описание сервиса или фичи, функциональные и нефункциональные требования и получаете почти готовый план реализации. Она подумает 10-20 минут и выдаст наиболее продуманный результат, который потом можно дорабатывать через ту же Opus и отдавать дальше на реализацию исполнителям. Лайфхак: просите эту модель продумать только архитектуру, схему БД, DTOшки, использовать UML/C4 и НЕ писать код. А конкретный код и финальную реализацию пусть пишут кодагенты, подстраиваясь под ваш проект. В сложном код ревью прошка тоже с большей вероятностью отработает лучше всех. Это весьма продвинутый подход к SDD (Spec-Driven Development) - напишите, если интересно подробнее почитать про этот флоу, там есть что описывать.

Кстати, друг нашего канала Максим Этихлид тоже выпустил отличный обзор на новенькие LLMки, если еще не читали, как всегда - рекомендую.

А какие результаты новые модельки показывают на ваших задачах? На сколько преобразился ваш воркфлоу за последний месяц?

@ai_driven
433👍33