AI-Driven Development. Родион Мостовой – Telegram
AI-Driven Development. Родион Мостовой
4.15K subscribers
87 photos
3 videos
1 file
82 links
Увлекательно рассказываю про AI в разработке, про построение продуктов с LLM под капотом и иногда про .NET.
Связь: @rodion_m_tg
Чат: @ai_driven_chat
Download Telegram
Онлайн: Разбираемся с Gemini CLI, Claude Code и Codex CLI на продвинутом уровне вместе с экспертами

Сегодня, в среду, в 17:00 по МСК, 16:00 по CEST и в 19:00 по Алматы встречаемся с Александром Колотовым, чтобы разобраться в том, как эффективно использовать Gemini CLI в повседневных задачах программиста. Помимо разных фишек Gemini CLI так же увидим как CodeAlive MCP может усилить Gemini CLI. Александр - разработчик с 20-ти летним стажем, сейчас кодит преимущественно на Elixir в компании Blockscout.

Добавляйте в календарь встречу "Раскрываем потенциал Gemini CLI + MCPs", чтобы не пропустить: (встреча прошла)



А в этот четверг, 16:00 МСК, 15:00 CEST и 18:00 по Алматы пройдет встреча с Максимом, автором замечательного Telegram-канала Этихлид. Из всех моих знакомых Максим наиболее глубоко и широко погружен в тему кодовых агентов - регулярно пробует и обозревает разные решения и (что важно) не зацикливается на каком-то одном агенте. Цель встречи - на реальной задаче посмотреть как эффективно использовать Claude Code со всякими продвинутыми фишками типа субагентов, а также разберемся в каких случаях может пригодится Codex CLI. Помимо глубокой погруженности в тему, у Максима так же опыт разработки почти 20 лет.

Добавляйте встречу "Claude Code vs Codex. А не пора ли нам обновить воркфлоу?" в календарь, чтобы не пропустить: (встреча прошла)

Обе встречи будут записаны, но у тех, кто подключится Live будет возможность задать свои вопросы экспертам.
🔥20👍2
Митап по Claude Code, Codex и их контекст v2

Суббота 27 сентября 17:00 МСК, 16:00 CEST и 19:00 Алматы.
Вы просили, мы сделали! Уж очень хорошая получилась встреча с @etechlead - Максиму удается подавать материал очень просто и структурированно, поэтому % удержания аудитории на встрече был близок к 100 от начала до конца. Мы вам обещали запись, но мы не осилили Zoom по техническим причинам нормально записать встречу не получилось, поэтому мы решили ещё лучше подготовиться во всех смыслах и повторить митап с хорошей записью для YouTube.

Вообще, я бы очень рекомендовал эту встречу не только программистам, но и руководителям для лучшего понимания того, что сейчас происходит в области AI- assisted разработки и как это все работает.

В программе:
● Анатомия кодингового агента
● Контекст и внимание
● Цикл работы агента
● Возможности Claude Code (команды, субагенты, модели, режимы работы, контекст)
● Codex и его сравнение с Claude Code

Ссылка на встречу: https://calendar.app.google/gtcTeQAeUxiVmtF5A

#workshop #agents #второй_блин
2👍20🎉6
Запись митапа по Claude Code

Ура, митап состоялся, и в этот раз у нас есть-таки запись: https://youtu.be/gte_yH6Eue4

Спасибо Максиму @etechlead за шикарное выступление!

Затронутые темы:
[00:01:08 — Что такое кодовый агент?](https://youtu.be/gte_yH6Eue4?t=68)
[00:05:02 — Почему популярны консольные (CLI) агенты?](https://youtu.be/gte_yH6Eue4?t=302)
[00:12:01 — Анатомия кодового агента](https://youtu.be/gte_yH6Eue4?t=721)
[00:18:46 — Context Engines](https://youtu.be/gte_yH6Eue4?t=1126)
[00:20:59 — CodeAlive: context-as-a-service](https://youtu.be/gte_yH6Eue4?t=1259)
[00:35:44 — Цикл работы агента (Agent Loop)](https://youtu.be/gte_yH6Eue4?t=2144)
[00:38:53 — Погружение в работу контекста](https://youtu.be/gte_yH6Eue4?t=2333)
[00:48:16 — Техники управления контекстом](https://youtu.be/gte_yH6Eue4?t=2896)
[01:06:54 — Субагенты: ключевая особенность Claude Code](https://youtu.be/gte_yH6Eue4?t=4014)
[01:29:17 — Кастомные субагенты](https://youtu.be/gte_yH6Eue4?t=5357)
[01:37:45 — Сравнение Claude Code и Codex](https://youtu.be/gte_yH6Eue4?t=5865)
[01:56:07 — Codex Cloud и фоновые агенты](https://youtu.be/gte_yH6Eue4?t=6967)
[02:01:31 — Будущее AI-разработки и решение проблемы сложности](https://youtu.be/gte_yH6Eue4?t=7291)

Ссылки, которые были упомянуты на звонке:
● Канал Максима, Этихлид
● Канал Родиона, AI-Driven Development
CodeAlive - тот самый context-(engine)-as-a-service, о котором говорили в рамках темы предоставления контекста агентам
Context Arena - бенчмарки качества удержания контекста моделями, там и OpenAI MRCR с иголками, и ссылка на Fiction.LiveBench

Небольшой тизер: предварительно в октябре планируется онлайн-конференция, где я буду читать доклад о проблемах AI-кодинга в Enterprise разработке и их решении. Полезного контента на конфе будет море, так что следите за новостями.

Ну и напомню, что 11 октября я выступаю с докладом про Context Engineering в эпоху AI на Kolesa Conf'25.

#claudecode #cc #live #stream #meeup #agents #codealive
2👍31
Меморандум CodeAlive <> холдинг Байтерек

Кто следит за моим каналом - знают, что я являюсь кофаундером CodeAlive - это Context-Engine-as-a-Service, который обогащает кодагентов релевантным контекстом, тем самым существенно повышая качество конечного результата и ускоряя их. Продукт актуален для больших и средних команд разработки, у которых накопилось достаточное количество кода, в котором Cursor, Claude Code, Codex и т. д. начинают "плавать" из-за масштаба и сложности.
Так вот, в эту пятницу случился большой день для CodeAlive - мы подписали меморандум о сотрудничестве с холдингом Байтерек (в холдинг входят: Отбасы Банк, "ДАМУ", Аграрная кредитная корпорация (ACC) и еще ряд организаций). Новость на zakon.kz.
Благодарю руководство Байтерек за оказанное доверие, а также свою команду за терпение и невероятную усидчивость в решении самых сложных задач. Несмотря на то, что мы работаем над продуктом уже полтора года, для нас все самое интересное только начинается!

А если вы тоже хотите усилить своих кодагентов, то самое время попробовать CodeAlive с обновленным MCP модулем. А по вопросу Enterprise лицензии с on-prem опцией можно написать мне лично: @rodion_m_tg

NB. Отдельное спасибо подписчикам моего канала за поддержку и детальный фидбек по CodeAlive, без вас продвинуться вперед было бы невозможно.
1👍38🎉16
Конференция по использованию AI в разработке

Знакомые ребята позвали поучаствовать в конференции про AI-разработку. Без воды и булшита. Только личный опыт от техлидов, фаудеров AI Dev Tools и CTO. Уверен, многих из спикеров вы как и я читаете в Телеграм.

В программе 6 докладов про эффективное использование AI инструментов в разработке для разного уровня подготовки от начинающих инженеров до авторов собственных тулов, от индивидуальных контрибьюторов до руководителей команд и департаментов.

Я буду рассказывать про Context Engineering и использование AI кодинга в энтерпрайзе.

Дата: 14 октября, 14:00 (МСК), 16:00 (Алматы), 13:00 (CET)

Пересылайте этот пост коллегам и друзьям, которым это было бы интересно и увидимся 14 октября!

Посмотреть детали и зарегистрироваться
👍21🎉4
Ускоряем AI-агентов

Вы никогда не начинали скучать, пока Claude Code или, тем более, Codex тихонько лопатит какую-либо задачу? У меня такое возникает регулярно, и у многих разработчиков, с которыми я общаюсь, тоже.
Хорошая новость в том, что есть пара решений этой проблемы.

Haiku 4.5
Anthropic на днях выпустили новую модельку Haiku 4.5 - я уже успел ее потестить, и, по моим ощущениям, всякие простые правки и легкие багфиксы она действительно делает в разы быстрее, чем Sonnet 4.5. Больше того, я даже успел потестить эту модельку в UI тестах через playwright MCP - и, опять же, несложные тесты она довольно бодро прокликивает и выполняет. Что касается более сложных тестов - например, проверка всевозможных тест кейсов на активацию подписки Хайку не далась.

Кстати, запустить Claude полностью в режиме Haiku можно вот так:
claude --model haiku

А для тех, кто работает с CC через AWS вот так:
ANTHROPIC_MODEL='global.anthropic.claude-haiku-4-5-20251001-v1:0' \
claude


CodeAlive MCP - универсальное ускорение
И, как я уже рассказывал на недавней конференции, есть и более универсальный способ ускорить ваших AI-агентов, а именно, подключить обогащение контекста из CodeAlive через MCP, в этом случае AI-агент (Cursor, Codex, Cursor, OpenCode) и т. д. получат возможность задавать CodeAlive вопросы на естественном языке (пример: "как работает регистрация?") и очень быстро получать от CodeAlive список релевантных функций и классов, экономя тем самым агенту десятки шагов. Кстати, на проектах с большой кодовой базой, CodeAlive помимо ускорения, еще и точность и качество работы агента повысит. Чтобы не быть голословным, мы прогнали бенчмарк SWE bench Verified на обычном Claude Code и Claude Code с CodeAlive. Результат: среднее ускорение в задачах на 30%, а на больших задачах получили ускорение до 83%. Если вам интересно узнать больше о CodeAlive - напишите мне и я лично проведу вам онбординг.

А как вам новая Haiku? И насколько важный фактор для вас скорость работы агента?

NB. Я готовлю большой пост про использование AI в реализации больших фич в сложных проектах с описанием всех этапов - от проектирования до UI-тестирования. Если у вас есть интересные кейсы с UI тестированием через AI агентов - поделитесь в комментах к этому посту или мне в ЛС.
А ещё мы готовим два новых практических воркшопа:
— с Максимом
@etechlead про Claude Code и субагентов;
— и с Костей Дорониным
@kdoronin_blog про практику GraphRAG.
Совсем скоро будет анонс, так что следите за обновлениями в канале.

Кстати, очень рад приветствовать новых подписчиков на своем канале! Чуть позже я расскажу о себе подробнее, а вы о себе. Спасибо, что читаете.


@ai_driven
1👍5412
SDD на максималках и Lovable для бекендов: новинки YC из мира AI dev tools

С некоторых пор я полюбил отсматривать стартапы, прошедшие отбор в Y Combinator (на минуточку, топовейший акселератор). Во многом потому, что YC - один из немногих акселей, который смело вкладывается в Dev Tools продукты (из примеров: GitLab, Amplitude, Algolia, OneSignal и т.д.).

В сумме AI dev tools в этом батче там штук 10, но вот эти мне показались наиболее интересными:

Specific - позволяет генерить бекенд (эндпоинты) на естественном языке - вроде, полезная штука для каких-нибудь Lovable приложений (хоть, лавабл уже и сам поддерживает создание бекендов). Этот я успел немного потыкать - с задачей написать эндпоинт для перевода текста через ллмки OpenAI оно так справится и не смогло.

Deeptrace - штуковина, которая коннектится к вашим логам, кодбазе и алертам и на каждый алерт провод расследование, (пытаясь) выявить корень проблемы. Пока что доступна только демка, но сама идея интересна - мб кто-то из нас что-то подобное тоже пилит, тогда присмотритесь к их лендосу. Лендосы YC стартапов - это всегда отдельная интересная история - я уверен, что их там активно натаскивают на хорошие, понятные (продающие) лендинги.

Compyle - лозунг "Lovable for Software Engineers". А по сути, это тот же Codex Cloud, только умеющий задавать вопросы перед тем, как приступить к кодогенерации. Это как раз пример SDD (Spec-Driven Development) - фактически, они помогают из вайб-промпта создать спеку. Получился эдакий Plan Mode на максималках. Вообще, забавно, что они так и пишут прямо у себя на сайте, что эта штука под капотом юзает Claude Code. Из интересного - как и наш CodeAlive, поддерживает работу с мультирепозиториями. Пока что работает бесплатно.
Ну, и интереса ради с помощью этой тулы я за ван шот законтрибьютил нужную нам фичу в опенсорный проект Fluid на .NET (это шаблонизатор, который классно подходит для промптов). Вот PR, с виду выглядит все четко и тесты проходят, ждем что скажут ревьюеры). Мне, в целом, понравился опыт.

Fastshot - Lovable для мобильных приложений.

Полный список по ссылке.

Что нам с этого, спросите вы?
Ну, во-первых, не исключено, что кто-то мог искать подобные продукты. Во-вторых, факт прохождение стартапа в YC сам по себе весьма ценен и означает, что идея очень даже имеет право на жизнь, а значит, кто-то из вас может вдохновиться, как и мы когда-то, попробовать сделать свой стартап, ну или просто успешный пет-проект (главное только, чтоб не B2B).

А какой продукт или идея из осеннего батча YC вам приглянулась больше всего?

Кстати, неочевидное открытие, которые я сделал пока готовил этот пост - это то, что в компания SST тоже резидент YC, причем аж в 2021 они проходили программу и получали от них деньги. Для тех, кто не в курсе SST - авторы одного из наиболее успешного open source кодагента OpenCode.

@ai_driven
👍2013
Claude Code всё?

Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых братьев сестер. Недавно вышли аж 3 значимых модели от китайцев - это Minimax M2, GLM 4.6 и Kimi K2 Thinking, очень мощные модели, догоняющие Sonnet 4.5 и GPT-5.

Я думаю, для многих не секрет, что китайцы сейчас, во-первых, начали предоставлять подписки на свои LLM (GLM, MiniMax), во-вторых, дают возможность юзать их из Claude Code.
Но, по мне, так ключевая проблема китайских подписок в Privacy - субъективно, вероятность того, что данные будут использованы для обучения (как минимум) существенно выше. И вот тут на сцене появляется сервис Synthetic

1. Synthetic подписка - Claude Code x3
Суть сервиса в том, что они предоставляют дешевый доступ к множеству современных LLM - но главное, умеют это делать по подписке. Так вот, даже в подписке за 20$ они пишут, что лимиты на лучшие модели x3 от тех, что Claude дают за те же деньги. Minimax M2, GLM 4.6 и Kimi K2 Thinking там есть. Важно, что они заверяют, что дата центры с их GPUшками находятся в US и EU, что компания у них американская и что данные юзеров для дообучения они никогда не используют.
С Claude Code (CC) они тоже умеют интегрироваться нативно и даже дают готовый конфиг, который позволяет легко и просто запускать их Claude Code с их подпиской одной командой:
# Add to  ~/.zshrc
synclaude() {
ANTHROPIC_BASE_URL=https://api.synthetic.new/anthropic \
ANTHROPIC_AUTH_TOKEN=${SYNTHETIC_API_KEY} \
ANTHROPIC_DEFAULT_OPUS_MODEL=hf:moonshotai/Kimi-K2-Thinking \
ANTHROPIC_DEFAULT_SONNET_MODEL=hf:MiniMaxAI/MiniMax-M2 \
ANTHROPIC_DEFAULT_HAIKU_MODEL=hf:MiniMaxAI/MiniMax-M2 \
CLAUDE_CODE_SUBAGENT_MODEL=hf:zai-org/GLM-4.6 \
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 \
claude "$@"
}

После этого просто пишем в терминале synclaude и радуемся специальному клоду (не забудьте задать ключи SYNTHETIC_API_KEY у себя в env). Я успел проверить - работает довольно бодро и стабильно.

Еще, люди в чатах жаловались, что подписки от китайцев на китайские модели работают довольно медленно. Мои быстрые эксперименты с Synthetic показали, что их модели прям шустренько отвечают.

Отмечу, что в таком варианте подписке есть еще один неочевидный плюс, в отличие от китайских - новые LLM выходят стремительно и неизвестно какая опенсорс LLM будет лучшей для кодинга завтра. Здесь же выглядит так, что ребята добавляют поддержку хороших моделей очень быстро (на реддите писали, что K2 Thinking они первые в US развернули).

2. API по подписке
Интересно, что любую из доступных always-on моделей можно так же использовать и через API по подписке.

3. Деплой своих моделей
Неочевидный приятный бонус - этот сервис так же умеет разворачивать почти любую LLM с HugginFace (on demand) и это прямо находка для тех, кто деплоит локальные ллмки в организациях - есть возможность очень быстро и дешево протестировать LLMку или ее кванты. Мною проверено - работает.

Приятная рефералка
Пользуясь случаем, поделюсь своей реф ссылкой на этой сервис https://synthetic.new/?referral=eWEfhLA6nZXwE1D - в случае подписки, +10$ на баланс прилетит и мне и вам.

@ai_driven
1👍306
Мой воркфлоу: Opus 4.5, Gemini 3 Pro, GPT-5.1-Codex-Max

Коль скоро новыйая Opus теперь доступна в подписке Claude за 20$, самое время для нового поста.
В "свободное от работы время" я пишу Next.js фулл стэк приложение полностью нейронками. Интересно, что еще год назад, когда мы делали CodeAlive и нужно было запрогать фронтэнд, мы нанимали разработчика для этого - сейчас уже, покодив пару недель фронт, в принципе, я делаю вывод, что любой бекендщик с какой-то элементарной базой по фронтэнду (стэк, линтинг), может вполне успешно генерить красивый и функциональный фронт разной сложности. Конечно, UX в таком случае всегда будет слабым местом, но это уже совсем другая история, о которой я обязательно отдельно расскажу чуть позже.
А теперь, к сравнению. Все, что ниже почти полностью базируется на моем опыте.

Opus 4.5 - бизнес аналитик и архитектор.
Горячо рекомендую Opus 4.5 для создания/дошлифовки спеки или плана (SDD) - мне понравилось как он работает в Plan Mode внутри CC - особенно актуально когда вы даете на вход не до конца проработанную фичу (а фичи вообще редко когда сразу хорошо продуманы), Claude в этом случае прежде, чем перейти к реализации, задаст вам ряд хороших уточняющих вопросов - для взрослой разработки самое то. Кстати, на создание одного такого плана у меня ушло 5$ extra usage (это было ещё до того, как Опус открыли для Pro подписки).
Отмечу ещё, что Опус за one shot решила заковыристую задачу по фронтэнду, с которой Gemini 3 Pro не справилась даже за несколько запросов.
Из неочевидного - бенчмарки на качество код ревью показывают очень низкие результаты для Opus 4.5. В CC перключиться на Opus можно командой /model.

Едем дальше - по остальным моделям сейчас картина следующая:
Gemini 3 Pro + Nano Banana Pro - дизайнер и очень скиловый frontend разработчик, который почти наверняка напишет вам куда более крутой дизайн, чем большинство студий. Проще всего использовать внутри Antigravity, там же удобно запрягать эту модельки сходить потестировать ваше приложение в браузере - уж больно хорошо субагент в Antigravity управляет браузером. В "ежедневной" агентной разработке пока не нашел места для новой Gemini.

Sonnet 4.5 - быстрый, но иногда невнимательный джун-исполнитель, который может пропускать пункты спеки или делать их "на отвали", поэтому ей лучше не давать большие задачи и выполнение спеки. А еще, 1Сники очень хвалят эту модель как выдающуюся для BSL.

GPT-5.1-Codex-Max (medium) - медленный, но довольно внимательный к деталям джун-исполнитель. Пока лучший вариант для выполнения больших задач по спеке (не считая комбайнов типа CodeMachine).

GPT-5.1-Codex-Max (xhigh) - а это программист-олимпиадник, способный придумать и реализовать наиболее запутанные алгоритмы и найти причину даже самых коварных багов. Еще, вероятно, это лучшая CLI-комбинация для глубокого код ревью. Напомню, что запускается эта модель командой codex --config model_reasoning_effort="xhigh".

Бонус: GPT 5.1 Pro - это, пожалуй, лучший выбор если вы хотите за one-shot нагенерить план реализации и архитектуру для целого сервиса или эпика по тех. заданию - буквально, скидываете ей описание сервиса или фичи, функциональные и нефункциональные требования и получаете почти готовый план реализации. Она подумает 10-20 минут и выдаст наиболее продуманный результат, который потом можно дорабатывать через ту же Opus и отдавать дальше на реализацию исполнителям. Лайфхак: просите эту модель продумать только архитектуру, схему БД, DTOшки, использовать UML/C4 и НЕ писать код. А конкретный код и финальную реализацию пусть пишут кодагенты, подстраиваясь под ваш проект. В сложном код ревью прошка тоже с большей вероятностью отработает лучше всех. Это весьма продвинутый подход к SDD (Spec-Driven Development) - напишите, если интересно подробнее почитать про этот флоу, там есть что описывать.

Кстати, друг нашего канала Максим Этихлид тоже выпустил отличный обзор на новенькие LLMки, если еще не читали, как всегда - рекомендую.

А какие результаты новые модельки показывают на ваших задачах? На сколько преобразился ваш воркфлоу за последний месяц?

@ai_driven
433👍33