По сути, они воспроизвели то, что в обычной разработке давно стало стандартом де-факто: структура проекта, git, список фич и строгие тесты)) Но для кодинг-агентов это что-то новенькое. Сейчас их действительно довольно сложно держать в ежовых рукавицах.
Их решение — разделить роли:
Initializer готовит проект и полный перечень фич (получается, тимлид), а Coding Agent (работяга) в каждой сессии берёт одну задачу, делает минимальные изменения и оставляет репозиторий в рабочем состоянии. Плюс строгое JSON-описание требований и браузерные E2E-тесты через Puppeteer.В итоге получается почти бесконечная разработка без деградации между сессиями: каждый агент приходит «на смену» и сразу понимает, что сделано и что сломано.
Интересно смотреть, как ИИ-системы постепенно приходят к тем же процессам, которые программисты давно считают базовым минимумом)
Источник. @ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍7❤4😱2
Помните мы писали про уязвимость новой агентной IDE от Google к prompt-инжекциям? Ещё сегодня наткнулись на пост о том, что Antigravity потёрла юзеру все данные с жёсткого диска. А теперь ещё начали разлетаться слухи, что сам Google запретил своим разработчикам пользоваться Antigravity. Звучит громко — но это лишь отчасти правда.
На самом деле внутренняя инфраструктура Google держится на огромном монорепо и кастомном туллинге, который публичная версия Antigravity физически не поддерживает. Поэтому гуглеры работают в Jetski — внутреннем форке Antigravity с поддержкой монорепо, поиском по докам и интеграцией с их DevOps-инструментами. То же самое и с Cider, ещё одной внутренней IDE, тоже форк VS Code.
С одной стороны — всё логично: у Google настолько много кастомщины, что публичная IDE (хоть и их собственной разработки) просто не умеет классно работать с их экосистемой. Но с другой — сам факт запрета выглядит чуть забавно. Неужели они заботяться об эффективности разработчиков?) Прям вот все-все в IDE работают?) Поклонников Vim'а увольняют?) Верится с трудом... Может проблема всё же в чём-то другом 🤷♂️
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7😁7🤔2❤1🥰1
Павел Дуров сообщил о запуске Cocoon — децентрализованной сети для безопасных ИИ-вычислений, ориентированной на полную конфиденциальность пользовательских запросов.
По словам Дурова, часть автоматических переводов сообщений в Telegram уже обрабатывается с использованием Cocoon, что фактически делает сеть частью продакшен-инфраструктуры мессенджера.
Вместо централизованных дата-центров Cocoon распределяет нагрузки между независимыми участниками, предоставляющими свои GPU. Узлы получают оплату в TON в режиме реального времени, а разработчики — доступ к вычислениям по ценам ниже, чем у классических облаков вроде AWS или Azure.
Архитектура устроена так, что содержимое запросов остаётся скрытым от всех участников цепочки. Дуров подчёркивает: Cocoon создавался именно как решение проблемы приватности при взаимодействии с ИИ — ключевой боли для корпоративных и правовых сценариев.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25🔥11😁5❤4👏1🤯1
Нашли и перевели огромный гайд по использованию Gemini CLI — 29 практичных советов, которые пригодятся не только для Gemini CLI, но и для других AI-утилит в терминале.
Если всё это уже используете — можно смело скипать.
1. Используйте GEMINI.md для постоянного контекста
2. Создавайте собственные slash-команды
3. Расширяйте возможности Gemini с помощью собственных MCP-серверов
4. Используйте добавление и вызов данных из памяти
5. Используйте чекпоинты и /restore как кнопку “Отменить”
6. Читайте Google Docs, Sheets и многое другое. Если у вас настроен Workspace MCP-сервер, вы можете просто вставить ссылку на документ, и MCP получит его — при наличии нужных прав
7. Используйте @, чтобы передавать файлы и изображения как явный контекст
8. Создание инструментов на лету (поручите Gemini писать вспомогательные утилиты)
9. Используйте Gemini CLI для устранения неполадок и настройки системы
10. Режим YOLO — автоматическое выполнение действий инструментов (используйте с осторожностью)
11. Headless режим и сценарии (запуск Gemini CLI в фоне)
12. Cохраняйте и возобновляйте чат-сессии
13. Рабочее пространство с несколькими директориями — один Gemini, много папок
14. Организуйте и очищайте файлы с помощью ИИ
15. Cжимайте длинные переписки, чтобы не выйти за пределы контекста
16. Передавайте команды оболочки через ! (разговаривайте с терминалом)
17. Относитесь к любому CLI-инструменту как к потенциальному инструменту Gemini
18. Используйте мультимодальный ИИ — дайте Gemini «видеть» изображения и не только
19. Настройте $PATH (и доступные инструменты) для стабильной работы
20. Следите за расходом токенов и снижайте его с помощью кеширования и статистики
21. Используйте /copy для быстрого копирования в буфер обмена
22. Используйте Ctrl+C как мастер — для shell-режима и выхода
23. Настройте Gemini CLI с помощью settings.json
24. Используйте интеграцию с IDE (VS Code) для контекста и сравнения изменений (diffs)
25. Автоматизируйте задачи в репозитории с помощью GitHub Action для Gemini CLI
26. Включайте телеметрию для аналитики и наблюдаемости
27. Следите за дорожной картой (фоновые агенты и многое другое)
28. Расширяйте возможности Gemini CLI с помощью Extensions
29. Пасхалка «Режим корги» 🐕
Если что-то покажется новым или полезным — вот ссылка.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6🤩2👏1🤬1
После громкой новости о привлечении €1.7 млрд инвестиций от Mistral стало тихо — и вот компания наконец вернулась с мощным релизом.
Они представили линейку Mistral 3, в которую вошли три лёгкие модели (3B, 8B, 14B) и флагманская Mistral Large 3 — разреженная MoE-архитектура с 675 млрд параметров, полностью открытая под Apache 2.0.
Large 3 обучили с нуля на 3000 GPU: она понимает изображения, уверенно работает на множестве языков и сразу заняла 2-е место на LMArena среди open-source моделей без reasoning-фокуса.
Младшая линейка Ministral 3B/8B/14B ориентирована на локальные и edge-сценарии. Все модели мультимодальные и экономно расходуют токены.
Модели уже доступны на OpenRouter.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍10🔥5❤3🤩3😁1
Anthropic опубликовала крупное внутреннее исследование: 132 инженера, 53 интервью и анализ 200 000 сессий Claude Code.
Картина получилась очень современная: output растёт почти по всем категориям, время потраченное на задачу падает незначительно, deep-skills уходят на второй план, а IT-специалисты постепенно превращаются в «менеджеров ИИ-агентов».
@ai_for_devs
Картина получилась очень современная: output растёт почти по всем категориям, время потраченное на задачу падает незначительно, deep-skills уходят на второй план, а IT-специалисты постепенно превращаются в «менеджеров ИИ-агентов».
Коротко по ключевым выводам исследования:🟣 Продуктивность растёт — но за счёт объёма, а не скорости.
Инженеры делают больше задач, пишут больше кода, больше тестов и документации.
Однако реальная экономия времени невелика: графики показывают лишь лёгкий сдвиг влево. Claude ускоряет не отдельную задачу, а масштаб всей работы.🟣 Появляется работа, которой раньше бы просто не существовало.
Около 27% задач — это «nice-to-have»: паперкаты, рефакторинг, визуализации, внутренние инструменты, мини-автоматизации. Claude снижает порог входа, и эти задачи наконец-то начинают выполняться.🟣 Растёт автономия ИИ — инженеры всё меньше вмешиваются.
Средняя сложность задач поднялась с 3.2 до 3.8, модель делает вдвое больше автономных шагов (10 → 21), а человеческих реплик в диалогах становится меньше.
Инженеры постепенно «отпускают руль», и Claude вполне уверенно продолжает ехать.🟣 Но deep-skills "ржавеют" — и разработчиков это тревожит.
Люди меньше читают код, реже строят ментальные модели систем, меньше копаются в инфраструктуре.
Возникает парадокс: чтобы проверить ИИ, нужны навыки, которые из-за ИИ же начинают проседать.🟣 Социальная динамика меняется — менторство проседает.
80–90% вопросов, которые раньше шли к коллегам, теперь идут Claude.
Это полезно для скорости, но срезает ролевую модель сеньоров и уменьшает количество технических обсуждений внутри команд.🟣 И меняется сама профессия: разработчик → менеджер ИИ-агентов.
Всё больше инженеров говорят, что 50–70% их работы — это ревью, корректировка и мониторинг тактических действий Claude.
Писать код руками становятся редкой фазой — а вот проверять и направлять ИИ — ежедневной нормой.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍24🔥6🤯4❤2
Forwarded from Go for Devs
😱 MinIO: развитие остановлено
Команда MinIO объявила, что проект уходит в чистый maintenance-mode. Никаких новых фичи, PR’ов и даже review существующих изменений.
Останутся только точечные фиксы критических уязвимостей (и то по ситуации).
Активное развитие теперь живёт в их enterprise-решении MinIO AIStor.
Такой вот Open Source :)
@go_for_devs
Команда MinIO объявила, что проект уходит в чистый maintenance-mode. Никаких новых фичи, PR’ов и даже review существующих изменений.
Останутся только точечные фиксы критических уязвимостей (и то по ситуации).
Активное развитие теперь живёт в их enterprise-решении MinIO AIStor.
Такой вот Open Source :)
@go_for_devs
😱11🤬3🤯2😢2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ JetBrains представила Air: новую агентную IDE
Компания выпустила Air — ADE (Agentic Development Environment), ориентированную на гибридную работу «разработчик + ИИ-агенты».
Это не просто чат с моделью внутри IDE, а отдельная среда разработки, где можно ставить задачи агентам, запускать их параллельно, контролировать изменения и коммитить результаты.
Air пока доступен в превью и работает только с одним агентом — Claude Agent, причём для использования требуется активная подписка Anthropic.
Версии для Windows и Linux обещают в 2026 году — сейчас приложение доступно только на macOS.
Сайт | Документация | Анонс в X | Анонс на Habr
@ai_for_devs
Компания выпустила Air — ADE (Agentic Development Environment), ориентированную на гибридную работу «разработчик + ИИ-агенты».
Это не просто чат с моделью внутри IDE, а отдельная среда разработки, где можно ставить задачи агентам, запускать их параллельно, контролировать изменения и коммитить результаты.
Air пока доступен в превью и работает только с одним агентом — Claude Agent, причём для использования требуется активная подписка Anthropic.
Версии для Windows и Linux обещают в 2026 году — сейчас приложение доступно только на macOS.
Сайт | Документация | Анонс в X | Анонс на Habr
@ai_for_devs
5👍23😱8❤5🤯5🤬1
За последние месяцы стало видно, что почти все пытаются решить одну и ту же проблему: контекст LLM-агента разрастается быстрее, чем приносит пользу. Мы недавно обсуждали, как Anthropic облегчили эту историю на уровне инструментов — меньше лишних описаний, меньше промежуточных логов, меньше ненужных данных в памяти.
И тут под конец года подключились JetBrains. Не задолго до релиза своей IDE они опубликовали исследование, где сравнили два самых популярных способа работы с памятью агента.
🟣 Маскирование — это когда старые логи и длинные выводы инструментов заменяются короткими заглушками, но рассуждения и действия остаются.
🟣 Суммирование работает иначе: отдельная LLM пытается «пересказать» историю шагов в компактной форме и подменяет ей исходный контекст.
И, что забавно, простой метод оказался лучше навороченного. Маскирование давало и меньшую стоимость, и стабильное качество, а суммирование часто тормозило процесс: сводки скрывают важные сигналы, агент делает больше лишних шагов, плюс сама генерация сводок стоит недёшево.
В итоге JetBrains собрали гибрид, где маскирование используется всегда, а суммирование включается только когда память действительно выходит из-под контроля. Такой вариант оказался и точнее, и дешевле обоих подходов по отдельности.
@ai_for_devs
И тут под конец года подключились JetBrains. Не задолго до релиза своей IDE они опубликовали исследование, где сравнили два самых популярных способа работы с памятью агента.
И, что забавно, простой метод оказался лучше навороченного. Маскирование давало и меньшую стоимость, и стабильное качество, а суммирование часто тормозило процесс: сводки скрывают важные сигналы, агент делает больше лишних шагов, плюс сама генерация сводок стоит недёшево.
В итоге JetBrains собрали гибрид, где маскирование используется всегда, а суммирование включается только когда память действительно выходит из-под контроля. Такой вариант оказался и точнее, и дешевле обоих подходов по отдельности.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥8❤7
😎 RouterAI выкатили гайды по настройке вайб-кодинга в популярных IDE
Внутри пошаговые инструкции по подключению RouterAI (российский аналог OpenRouter) к самым популярным инструментам:
- VS Code: Roo Code, Kilo Code, Cline, Continue
- IntelliJ IDEA: Kilo Code, Cline
- NeoVIM: Avante
- Zed
Единый баланс в рублях для доступа ко всем моделям без VPN.
Настраиваем окружение для работы с Claude 4.5 Sonnet, GPT-5.1, DeepSeek 3.2, Gemini 3 Pro, Grok тут: https://routerai.ru/vibe-coding
@ai_for_devs
Внутри пошаговые инструкции по подключению RouterAI (российский аналог OpenRouter) к самым популярным инструментам:
- VS Code: Roo Code, Kilo Code, Cline, Continue
- IntelliJ IDEA: Kilo Code, Cline
- NeoVIM: Avante
- Zed
Единый баланс в рублях для доступа ко всем моделям без VPN.
Настраиваем окружение для работы с Claude 4.5 Sonnet, GPT-5.1, DeepSeek 3.2, Gemini 3 Pro, Grok тут: https://routerai.ru/vibe-coding
@ai_for_devs
1👍20🔥7❤3🤔2🤬1😢1
⚡️ Linux Foundation запускает Agentic AI Foundation
Под крыло фонда сразу передали MCP (Anthropic), goose (Block) и AGENTS.md (OpenAI), то есть весь тот стек, который за год стал основой современного агентного подхода.
Смысл AAIF в наведении порядка: агентные системы уже инфраструктура, а инфраструктура требует открытых протоколов, понятной модели управления и отсутствия единоличного влияния.
Например, до сих пор всё держалось на «OpenAI API» как де-факто интерфейса для работы с моделями. Многим может напомнить историю Oracle с JavaScript, когда критическая технология оказывается под контролем одного игрока. AAIF – это попытка избежать ровно этого.
Что уже попало под крыло AAIF:
• MCP: более 10 000 серверов, поддержка в Claude, Copilot, Gemini, Cursor, ChatGPT и десятках инструментов.
• goose: локально-ориентированный фреймворк для воспроизводимых агентных пайплайнов с нативной MCP-интеграцией.
• AGENTS.md: минимальный markdown-стандарт, уже внедренный в 60 000+ OSS-репозиториев и почти все агентные фреймворки.
Отдельно интересный момент: все восемь мест Platinum-уровня уже заняты — AWS, Google, Microsoft, Anthropic, OpenAI, Block, Bloomberg и Cloudflare. Платиновый статус дает полный контроль над стратегией и бюджетом фонда, включая право голоса по ключевым вопросам.
@ai_for_devs
Под крыло фонда сразу передали MCP (Anthropic), goose (Block) и AGENTS.md (OpenAI), то есть весь тот стек, который за год стал основой современного агентного подхода.
Смысл AAIF в наведении порядка: агентные системы уже инфраструктура, а инфраструктура требует открытых протоколов, понятной модели управления и отсутствия единоличного влияния.
Например, до сих пор всё держалось на «OpenAI API» как де-факто интерфейса для работы с моделями. Многим может напомнить историю Oracle с JavaScript, когда критическая технология оказывается под контролем одного игрока. AAIF – это попытка избежать ровно этого.
Что уже попало под крыло AAIF:
• MCP: более 10 000 серверов, поддержка в Claude, Copilot, Gemini, Cursor, ChatGPT и десятках инструментов.
• goose: локально-ориентированный фреймворк для воспроизводимых агентных пайплайнов с нативной MCP-интеграцией.
• AGENTS.md: минимальный markdown-стандарт, уже внедренный в 60 000+ OSS-репозиториев и почти все агентные фреймворки.
Отдельно интересный момент: все восемь мест Platinum-уровня уже заняты — AWS, Google, Microsoft, Anthropic, OpenAI, Block, Bloomberg и Cloudflare. Платиновый статус дает полный контроль над стратегией и бюджетом фонда, включая право голоса по ключевым вопросам.
@ai_for_devs
1👍15⚡6🤯6❤2
Неделю назад мы писали про Mistral 3 с MoE-моделью на 675B параметров. Сегодня компания представила Devstral 2 — новое поколение открытых моделей для кодинга.
Главное:
Devstral 2 и Small 2 получились удивительно компактными: они в 5–28 раз меньше DeepSeek V3.2 и в 8–41 раз меньше Kimi K2, но при этом держат уровень, который раньше был доступен только закрытым моделям.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍12❤5⚡2🔥1