🤖 TeleClaude — Claude Code в твоём Telegram
TeleClaude — это Telegram-бот, который подключается к Claude Code и даёт его агентные возможности прямо в мессенджере.
Пишете боту в Telegram — под капотом работает Claude, умеющий писать код, править файлы, запускать команды и вести сессии как в нормальном IDE.
⸻
✨ Что умеет TeleClaude
⚡ Стриминг ответов
Ответы приходят «живым текстом» с обновлением сообщения, а не кусками по 4k символов — чувствуется как чат с живым ассистентом.
🧠 Сессии как в IDE
• /new [project] — создаёте новую сессию
• /sessions — список активных сессий
• /switch — переключение между задачами
• Состояние хранится в ~/.teleclaude/sessions/*.yaml, сессии легко возобновлять и анализировать историю работы.
💸 Учёт стоимости по сессиям
Bot считает, сколько токенов и денег ушло на конкретную задачу. Удобно, когда нужно понимать цену экспериментов и длительных разработок.
🛡 Approval для опасных действий
Команды, которые могут что-то поломать (rm, деплой, тяжёлые bash-шаги), идут через понятный approval-механизм, а не исполняются вслепую.
🗂 Работа с проектами и файлами
• В config.yaml настраиваются projects: myproject: /path/to/your/project
• Доступны привычные команды: /cd, /ls, /pwd, /git
• Всё это идёт через Claude Code CLI, но управлять можно прямо из Telegram.
🔌 MCP прямо из Telegram
TeleClaude умеет работать с Model Context Protocol (MCP) — можно цеплять внешние MCP-серверы (filesystem, git, HTTP и т.п.) и использовать их как инструменты агента.
Конфиг ищется в ~/.teleclaude/.mcp.json и/или общем ~/.mcp.json.
📝 Понятные аннотации действий
Форматтер красиво подписывает действия агента:
• [ path ] — чтение файла
• [ path +add/-del ] — изменения
• [⚡ command ] — исполнение bash
Легко глазами просканировать, что именно делал агент в рамках сессии.
И всё это написано на Python, поверх Claude Agents Python SDK — живой пример того, как собрать своего «оркестратора» вокруг Claude Code.
⸻
🚀 Как запустить
Дальше открываете бота в Telegram, жмёте /start, затем /new — и у вас в телефоне полноценный Claude Code: сессии, учёт стоимости, MCP, git и файловые операции.
Проект в стадии разработки и автор ждет ваши pull-requests)
🔗 Репозиторий: https://github.com/dpolishuk/teleclaude/
TeleClaude — это Telegram-бот, который подключается к Claude Code и даёт его агентные возможности прямо в мессенджере.
Пишете боту в Telegram — под капотом работает Claude, умеющий писать код, править файлы, запускать команды и вести сессии как в нормальном IDE.
⸻
✨ Что умеет TeleClaude
⚡ Стриминг ответов
Ответы приходят «живым текстом» с обновлением сообщения, а не кусками по 4k символов — чувствуется как чат с живым ассистентом.
🧠 Сессии как в IDE
• /new [project] — создаёте новую сессию
• /sessions — список активных сессий
• /switch — переключение между задачами
• Состояние хранится в ~/.teleclaude/sessions/*.yaml, сессии легко возобновлять и анализировать историю работы.
💸 Учёт стоимости по сессиям
Bot считает, сколько токенов и денег ушло на конкретную задачу. Удобно, когда нужно понимать цену экспериментов и длительных разработок.
🛡 Approval для опасных действий
Команды, которые могут что-то поломать (rm, деплой, тяжёлые bash-шаги), идут через понятный approval-механизм, а не исполняются вслепую.
🗂 Работа с проектами и файлами
• В config.yaml настраиваются projects: myproject: /path/to/your/project
• Доступны привычные команды: /cd, /ls, /pwd, /git
• Всё это идёт через Claude Code CLI, но управлять можно прямо из Telegram.
🔌 MCP прямо из Telegram
TeleClaude умеет работать с Model Context Protocol (MCP) — можно цеплять внешние MCP-серверы (filesystem, git, HTTP и т.п.) и использовать их как инструменты агента.
Конфиг ищется в ~/.teleclaude/.mcp.json и/или общем ~/.mcp.json.
📝 Понятные аннотации действий
Форматтер красиво подписывает действия агента:
• [ path ] — чтение файла
• [ path +add/-del ] — изменения
• [⚡ command ] — исполнение bash
Легко глазами просканировать, что именно делал агент в рамках сессии.
И всё это написано на Python, поверх Claude Agents Python SDK — живой пример того, как собрать своего «оркестратора» вокруг Claude Code.
⸻
🚀 Как запустить
git clone https://github.com/dpolishuk/teleclaude.git
cd teleclaude
pip install -r requirements.txt
mkdir -p ~/.teleclaude
cp config.example.yaml ~/.teleclaude/config.yaml
# правим allowed_users и projects
export TELEGRAM_BOT_TOKEN="твой_токен_бота"
python -m src.mainДальше открываете бота в Telegram, жмёте /start, затем /new — и у вас в телефоне полноценный Claude Code: сессии, учёт стоимости, MCP, git и файловые операции.
Проект в стадии разработки и автор ждет ваши pull-requests)
🔗 Репозиторий: https://github.com/dpolishuk/teleclaude/
GitHub
GitHub - dpolishuk/teleclaude
Contribute to dpolishuk/teleclaude development by creating an account on GitHub.
❤9🔥4
🔥 TeleClaude: агент в Telegram, который должен освободить вас от монитора
Для меня TeleClaude — это не просто «Claude в Telegram».
Идея в том, чтобы личный агент жил прямо в мессенджере, у вас в кармане, а не только в IDE или отдельном приложении.
⸻
🧠 Не бот, а прототип агента
Я смотрю на TeleClaude как на прототип правильного агента:
• он живёт там, где вы и так проводите время — в Telegram
• умеет работать с кодом и проектами, а не только болтать
• должен снижать время созерцания кода, а не увеличивать его
Сейчас TeleClaude работает через текст.
Но изначально он задумывается так, чтобы в будущем:
• можно было общаться с ним голосом
• диктовать задачи и правки
• получать от него отчёты и статусы
🎙 Голосовые — в планах, архитектура и идея проекта уже смотрят в эту сторону.
⸻
📱 Почему это не просто ещё один Cursor Mobile / vibe-code
Формально конкуренты понятны:
Cursor Mobile, разные мобильные IDE, vibe-code и т.п.
Но у TeleClaude другая философия:
• вы поднимаете свой сервер
• со своим проектом, своим репозиторием и своим контекстом
• агент работает с реальными большими проектами, а не демками
• Telegram — это всего лишь удобный интерфейс к этой инфраструктуре
То есть это не ещё один закрытый клиент, а шаг к тому, чтобы у вас была своя связка “сервер + агент + мессенджер”, полностью под вашим контролем.
⸻
🧵 Зачем вообще агент?
Ключевая мысль:
Агент нужен не для того, чтобы вы 16 часов в день смотрели на код.
Агент нужен, чтобы он делал работу, а вы с ним общались.
В идеальном сценарии, куда всё это целится:
• вы кидаете в TeleClaude задачу (сейчас текстом, позже — голосом)
• агент на сервере:
• правит код
• пишет тесты
• запускает команды
• ведёт сессию работы над проектом
• вы не приклеены к IDE, а управляете разработкой как диалогом
⸻
💬 Агенты могут жить в мессенджерах
TeleClaude — это по сути proof of concept подхода:
• терминальные / кодовые агенты могут жить не только в CLI или IDE
• они могут жить в мессенджерах, рядом с живыми людьми и рабочими чатами
• мессенджер становится основным интерфейсом к вашей dev-инфраструктуре
Хочется довести до состояния, где:
• IDE — это просто инструмент
• а центр управления — ваш агент в Telegram,
который знает ваш проект, ваш стек и ваш контекст
⸻
⚠️ Важно про безопасность
Сейчас TeleClaude — это именно POC:
• проект в активной разработке
• архитектура и подходы ещё обкатываются
• полноценный security-аудит не проводился
Поэтому:
🛡 Используйте TeleClaude на свой страх и риск
Не доверяйте ему критичные доступы и прод-окружения,
пока вы сами не посмотрели код и не оценили риски под свои задачи.
⸻
Если коротко:
TeleClaude — это шаг к тому, чтобы вашим главным рабочим инструментом был не редактор кода, а умный собеседник в Telegram, который пишет и правит код за вас. Всё остальное — вопрос итераций. 🚀
Для меня TeleClaude — это не просто «Claude в Telegram».
Идея в том, чтобы личный агент жил прямо в мессенджере, у вас в кармане, а не только в IDE или отдельном приложении.
⸻
🧠 Не бот, а прототип агента
Я смотрю на TeleClaude как на прототип правильного агента:
• он живёт там, где вы и так проводите время — в Telegram
• умеет работать с кодом и проектами, а не только болтать
• должен снижать время созерцания кода, а не увеличивать его
Сейчас TeleClaude работает через текст.
Но изначально он задумывается так, чтобы в будущем:
• можно было общаться с ним голосом
• диктовать задачи и правки
• получать от него отчёты и статусы
🎙 Голосовые — в планах, архитектура и идея проекта уже смотрят в эту сторону.
⸻
📱 Почему это не просто ещё один Cursor Mobile / vibe-code
Формально конкуренты понятны:
Cursor Mobile, разные мобильные IDE, vibe-code и т.п.
Но у TeleClaude другая философия:
• вы поднимаете свой сервер
• со своим проектом, своим репозиторием и своим контекстом
• агент работает с реальными большими проектами, а не демками
• Telegram — это всего лишь удобный интерфейс к этой инфраструктуре
То есть это не ещё один закрытый клиент, а шаг к тому, чтобы у вас была своя связка “сервер + агент + мессенджер”, полностью под вашим контролем.
⸻
🧵 Зачем вообще агент?
Ключевая мысль:
Агент нужен не для того, чтобы вы 16 часов в день смотрели на код.
Агент нужен, чтобы он делал работу, а вы с ним общались.
В идеальном сценарии, куда всё это целится:
• вы кидаете в TeleClaude задачу (сейчас текстом, позже — голосом)
• агент на сервере:
• правит код
• пишет тесты
• запускает команды
• ведёт сессию работы над проектом
• вы не приклеены к IDE, а управляете разработкой как диалогом
⸻
💬 Агенты могут жить в мессенджерах
TeleClaude — это по сути proof of concept подхода:
• терминальные / кодовые агенты могут жить не только в CLI или IDE
• они могут жить в мессенджерах, рядом с живыми людьми и рабочими чатами
• мессенджер становится основным интерфейсом к вашей dev-инфраструктуре
Хочется довести до состояния, где:
• IDE — это просто инструмент
• а центр управления — ваш агент в Telegram,
который знает ваш проект, ваш стек и ваш контекст
⸻
⚠️ Важно про безопасность
Сейчас TeleClaude — это именно POC:
• проект в активной разработке
• архитектура и подходы ещё обкатываются
• полноценный security-аудит не проводился
Поэтому:
🛡 Используйте TeleClaude на свой страх и риск
Не доверяйте ему критичные доступы и прод-окружения,
пока вы сами не посмотрели код и не оценили риски под свои задачи.
⸻
Если коротко:
TeleClaude — это шаг к тому, чтобы вашим главным рабочим инструментом был не редактор кода, а умный собеседник в Telegram, который пишет и правит код за вас. Всё остальное — вопрос итераций. 🚀
🔥1
🤖 DeepCode — open-source агентный кодер из HKU
Ребята из Data Intelligence Lab @ HKU выкатили DeepCode — многоагентную платформу, которая обещает превращать текст и научные статьи в продакшн-код: от алгоритмов до full-stack приложений.
🔗 GitHub: https://github.com/HKUDS/DeepCode
Что умеет
• 📄 Paper2Code — берет research-пейперы (PDF, DOC, ссылки) и пытается собрать из них рабочую реализацию алгоритма с сохранением структуры и асимптотики.
• 🌐 Text2Web — генерирует фронтенд по текстовому описанию: верстка, компоненты, интерфейс.
• ⚙️ Text2Backend — поднимает бэкенд из промпта: роуты, схемы БД, API, бизнес-логика.
• 🧪 Автоматически добавляет тесты, документацию и прогоняет статический анализ.
Почему это интересно
По их бенчмаркам на OpenAI PaperBench DeepCode:
• 🔹 обходит топовых ML-PhD по воспроизведению кода из статей,
• 🔹 сильно обгоняет коммерческие код-агенты вроде Cursor / Claude Code / Codex по качеству воспроизведения решений.
Главная фишка — не «еще один LLM», а агентная архитектура:
• центральный оркестратор,
• отдельные агенты под разбор требований, генерацию кода, отладку,
• свой CodeRAG по большому корпусу кода, чтобы подтягивать паттерны и библиотеки.
Как посмотреть
• Есть CLI для терминальных маньяков и CI/CD.
• Есть web-интерфейс с дашбордом и прогресс-баром задач.
• Лицензия MIT, так что можно встраивать в свои пайплайны и экспериментировать как с полноценным open-source конкурентом привычных AI-IDE.
Если вы уже играете с Claude Code / Cursor и любите многоагентные пайплайны, DeepCode — хороший кандидат, чтобы посмотреть, как «бумага → код → прототип» может выглядеть в полностью open-source варианте.
Ребята из Data Intelligence Lab @ HKU выкатили DeepCode — многоагентную платформу, которая обещает превращать текст и научные статьи в продакшн-код: от алгоритмов до full-stack приложений.
🔗 GitHub: https://github.com/HKUDS/DeepCode
Что умеет
• 📄 Paper2Code — берет research-пейперы (PDF, DOC, ссылки) и пытается собрать из них рабочую реализацию алгоритма с сохранением структуры и асимптотики.
• 🌐 Text2Web — генерирует фронтенд по текстовому описанию: верстка, компоненты, интерфейс.
• ⚙️ Text2Backend — поднимает бэкенд из промпта: роуты, схемы БД, API, бизнес-логика.
• 🧪 Автоматически добавляет тесты, документацию и прогоняет статический анализ.
Почему это интересно
По их бенчмаркам на OpenAI PaperBench DeepCode:
• 🔹 обходит топовых ML-PhD по воспроизведению кода из статей,
• 🔹 сильно обгоняет коммерческие код-агенты вроде Cursor / Claude Code / Codex по качеству воспроизведения решений.
Главная фишка — не «еще один LLM», а агентная архитектура:
• центральный оркестратор,
• отдельные агенты под разбор требований, генерацию кода, отладку,
• свой CodeRAG по большому корпусу кода, чтобы подтягивать паттерны и библиотеки.
Как посмотреть
• Есть CLI для терминальных маньяков и CI/CD.
• Есть web-интерфейс с дашбордом и прогресс-баром задач.
• Лицензия MIT, так что можно встраивать в свои пайплайны и экспериментировать как с полноценным open-source конкурентом привычных AI-IDE.
Если вы уже играете с Claude Code / Cursor и любите многоагентные пайплайны, DeepCode — хороший кандидат, чтобы посмотреть, как «бумага → код → прототип» может выглядеть в полностью open-source варианте.
GitHub
GitHub - HKUDS/DeepCode: "DeepCode: Open Agentic Coding (Paper2Code & Text2Web & Text2Backend)"
"DeepCode: Open Agentic Coding (Paper2Code & Text2Web & Text2Backend)" - HKUDS/DeepCode
🔥6
Все носятся с MCP, плагинами и “AI-SDK для всего”, а про самое простое часто забывают:
агенты уже офигенно умеют работать с обычными CLI-утилитами — если у них есть нормальный --help и внятные описания команд. 🧰
По сути, любой CLI с хорошим help-текстом = готовый “инструмент” для агента:
• gh (GitHub CLI)
• aws (AWS CLI)
• yc (Yandex Cloud CLI)
• gcloud, kubectl, docker, terraform и т.д.
Модели умеют:
• читать ... --help
• выбирать нужную команду
• подставлять аргументы
• запускать её
• смотреть вывод и на основе этого вызывать следующую команду
То есть ровно то, что вы вручную делаете в терминале, только без вашего участия.
⸻
Что нужно от вас на самом деле
Никакой магии, всё упирается в три вещи:
1. Дать агенту доступ к shell
В агент-рантайме/IDE нужно включить “command line” / “terminal” / “shell” tool.
Это может быть:
• встроенный tool типа “execute_command”
• или ваш прокси-скрипт, который запускает CLI в нужном окружении.
2. Правильно “накормить” его токенами 🔑
Всё как у людей:
• AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_REGION
• GITHUB_TOKEN
• YC_TOKEN, YC_CLOUD_ID, YC_FOLDER_ID
• любые другие env-переменные/конфиги для вашего CLI
Агенту не нужно “знать” токен — ему нужен уже настроенный CLI, который просто работает:
Если это в вашем терминале уже работает — значит, агенту достаточно дать тот же самый контекст.
3. Минимальные рамки безопасности 🧱
• Ограничить рабочую директорию (чтоб не полез во всё подряд).
• Выдать минимально необходимый набор прав для токенов.
• По возможности сначала гонять всё это в sandbox / staging.
⸻
Что агент может делать за вас (грязная работа) 🧽
После этого агент может сам:
• создавать и настраивать инфраструктуру через CLI
(сети, бакеты, функции, контейнеры, кластера)
• деплоить обновления, прогонять миграции, проверять статус сервисов
• читать логи, искать ошибки, фильтровать по времени/запросам
• разруливать рутину с GitHub:
• создавать репозитории
• открывать PR’ы
• вешать лейблы
• мёрджить по правилам
• гонять скрипты обслуживания: бэкапы, ротация, массовые операции
Проще говоря, всё, что вы уже умеете делать через CLI, может делать агент — последовательно, без усталости и с оглядкой на --help.
⸻
Главная мысль
Прежде чем придумывать сложные кастомные интеграции, MCP-серверы и специальные API, просто спросите себя:
“А у этой штуки есть нормальный CLI с хорошим --help?”
Если да — то у вас уже есть полноценный интерфейс для агента.
Добавили токены → включили shell-tool → описали в системном промпте рамки →
и он спокойно делает за вас всю грязную терминальную работу. 💻🤖
агенты уже офигенно умеют работать с обычными CLI-утилитами — если у них есть нормальный --help и внятные описания команд. 🧰
По сути, любой CLI с хорошим help-текстом = готовый “инструмент” для агента:
• gh (GitHub CLI)
• aws (AWS CLI)
• yc (Yandex Cloud CLI)
• gcloud, kubectl, docker, terraform и т.д.
Модели умеют:
• читать ... --help
• выбирать нужную команду
• подставлять аргументы
• запускать её
• смотреть вывод и на основе этого вызывать следующую команду
То есть ровно то, что вы вручную делаете в терминале, только без вашего участия.
⸻
Что нужно от вас на самом деле
Никакой магии, всё упирается в три вещи:
1. Дать агенту доступ к shell
В агент-рантайме/IDE нужно включить “command line” / “terminal” / “shell” tool.
Это может быть:
• встроенный tool типа “execute_command”
• или ваш прокси-скрипт, который запускает CLI в нужном окружении.
2. Правильно “накормить” его токенами 🔑
Всё как у людей:
• AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_REGION
• GITHUB_TOKEN
• YC_TOKEN, YC_CLOUD_ID, YC_FOLDER_ID
• любые другие env-переменные/конфиги для вашего CLI
Агенту не нужно “знать” токен — ему нужен уже настроенный CLI, который просто работает:
aws s3 ls
gh repo list
yc vm listЕсли это в вашем терминале уже работает — значит, агенту достаточно дать тот же самый контекст.
3. Минимальные рамки безопасности 🧱
• Ограничить рабочую директорию (чтоб не полез во всё подряд).
• Выдать минимально необходимый набор прав для токенов.
• По возможности сначала гонять всё это в sandbox / staging.
⸻
Что агент может делать за вас (грязная работа) 🧽
После этого агент может сам:
• создавать и настраивать инфраструктуру через CLI
(сети, бакеты, функции, контейнеры, кластера)
• деплоить обновления, прогонять миграции, проверять статус сервисов
• читать логи, искать ошибки, фильтровать по времени/запросам
• разруливать рутину с GitHub:
• создавать репозитории
• открывать PR’ы
• вешать лейблы
• мёрджить по правилам
• гонять скрипты обслуживания: бэкапы, ротация, массовые операции
Проще говоря, всё, что вы уже умеете делать через CLI, может делать агент — последовательно, без усталости и с оглядкой на --help.
⸻
Главная мысль
Прежде чем придумывать сложные кастомные интеграции, MCP-серверы и специальные API, просто спросите себя:
“А у этой штуки есть нормальный CLI с хорошим --help?”
Если да — то у вас уже есть полноценный интерфейс для агента.
Добавили токены → включили shell-tool → описали в системном промпте рамки →
и он спокойно делает за вас всю грязную терминальную работу. 💻🤖
👍4🤔1
🛠 Coding Tool Helper: быстрый буст для GLM Coding Plan + Claude Code
Z.AI тихо завезли очень полезную штуку для vibecoding-стека — Coding Tool Helper. Это CLI-ассистент, который одним мастером настраивает вам GLM Coding Plan в Claude Code и при этом помогает управлять MCP-серверами и конфигурацией, вместо того чтобы руками прописывать env’ы и ковырять конфиги.
Что это такое
• CLI-помощник для код-инструментов (в первую очередь Claude Code).
• Умеет подтянуть GLM Coding Plan, прописать ключ, подхватить/поставить нужные тулзы и настроить MCP.
• Работает через npm-пакет @z_ai/coding-helper, нужен Node.js ≥ 18.
🧩 Что он делает за вас
• Показывает интерактивный wizard в терминале: выбираете язык интерфейса, план, вводите API-ключ, отмечаете какие coding tools хотите менеджить.
• Может автоматически установить и сконфигурировать Claude Code, если он ещё не стоит.
• Настраивает MCP-сервисы (Vision/Web/Search и т.п.) и сохраняет конфиг локально.
• Поддерживает несколько языков интерфейса (i18n) — удобно, если команда разноязычная.
🚀 Как попробовать
Самый простой старт — без глобальной установки:
npx @z_ai/coding-helper
Дальше просто кликаете стрелочками по мастеру, и на выходе получаете: GLM-4.6/4.5 уже прописан в Claude Code, ключ подхвачен, MCP-серверы подключены — можно сразу идти писать код.
🔗 Документация:
https://docs.z.ai/devpack/tool/coding-tool-helper
Z.AI тихо завезли очень полезную штуку для vibecoding-стека — Coding Tool Helper. Это CLI-ассистент, который одним мастером настраивает вам GLM Coding Plan в Claude Code и при этом помогает управлять MCP-серверами и конфигурацией, вместо того чтобы руками прописывать env’ы и ковырять конфиги.
Что это такое
• CLI-помощник для код-инструментов (в первую очередь Claude Code).
• Умеет подтянуть GLM Coding Plan, прописать ключ, подхватить/поставить нужные тулзы и настроить MCP.
• Работает через npm-пакет @z_ai/coding-helper, нужен Node.js ≥ 18.
🧩 Что он делает за вас
• Показывает интерактивный wizard в терминале: выбираете язык интерфейса, план, вводите API-ключ, отмечаете какие coding tools хотите менеджить.
• Может автоматически установить и сконфигурировать Claude Code, если он ещё не стоит.
• Настраивает MCP-сервисы (Vision/Web/Search и т.п.) и сохраняет конфиг локально.
• Поддерживает несколько языков интерфейса (i18n) — удобно, если команда разноязычная.
🚀 Как попробовать
Самый простой старт — без глобальной установки:
npx @z_ai/coding-helper
Дальше просто кликаете стрелочками по мастеру, и на выходе получаете: GLM-4.6/4.5 уже прописан в Claude Code, ключ подхвачен, MCP-серверы подключены — можно сразу идти писать код.
🔗 Документация:
https://docs.z.ai/devpack/tool/coding-tool-helper
👍2🔥2
🤝 Open Agent Protocol (OAP) и AGNTCY — кирпичики “Интернета агентов”
С мультиагентными системами сейчас та же история, что когда-то с вебом: каждый варится в своём фреймворке, а экосистема тонет в зоопарке протоколов. OAP и AGNTCY — попытка навести порядок и собрать общий “Интернет агентов”.
⸻
🧩 OAP — “HTTP” для агентов
Open Agent Protocol (OAP) — открытый комьюнити-драйв стандарт для общения агентов между собой и с инструментами, независимо от фреймворка. Идея простая: дать универсальный API, чтобы агент мог:
• передать задачу другому агенту,
• получить статус выполнения и логи,
• забрать результаты в стандартном формате,
• объявить вовне свои возможности и схему (что умеет, какие входы/выходы).
Если упрощать — OAP хочет быть тем же, чем стал HTTP для сайтов: общим языком для любых “агентных сервисов”, поверх которого вы уже строите свои графы, рантаймы и оркестраторы.
Подробнее: сайт OAP Foundation
⸻
🏗 AGNTCY — инфраструктура “Интернета агентов”
AGNTCY — это уже не один протокол, а open-source стек инфраструктуры для “Internet of Agents”: discovery, identity, messaging и observability между агентами разных вендоров и фреймворков (LangGraph, LangChain, CrewAI, LlamaIndex и т.д.).
Его двигают Cisco, LangChain, Galileo и ко под зонтиком Linux Foundation как открытый стандарт для мультиагентных систем.
Технический фундамент AGNTCY:
• OASF (Open Agent Schema Framework) — как OpenAPI, но для агентов:
описывает capabilities, входы/выходы, эндпоинты, метрики. Поддерживает A2A-агентов, MCP-серверы и может расширяться под другие форматы.
• ACP (Agent Connect Protocol) — безопасный протокол подключения и общения:
как подключиться к агенту, запустить ран, подписаться на события, мониторить выполнение.
AGNTCY, по сути, строит “городскую инфраструктуру” для агентов: есть правила регистрации (OASF), линии связи и протоколы (ACP), единые механизмы мониторинга и управления.
Подробнее:
• сайт: agntcy.org
• дока/спеки: docs.agntcy.org
⸻
🧠 Зачем это практику
Если вы строите своих агентов / ассистентов / MCP-инструменты, OAP + AGNTCY дают:
• интероперабельность — агенты и инструменты в разных фреймворках могут общаться по единому API, без жёсткого vendor lock-in;
• единый слой discovery и описаний (OASF) — агент становится “ресурсом сети”, который можно найти, оценить и подключить;
• готовую инфраструктуру для продакшена: трассировка, метрики, безопасность и управление multi-agent workflow’ами на уровне экосистемы, а не только вашего кода.
Короче, это шаг к тому, чтобы агенты стали не локальными игрушками внутри одного рантайма, а полноценными участниками распределённого “Интернета агентов”.
С мультиагентными системами сейчас та же история, что когда-то с вебом: каждый варится в своём фреймворке, а экосистема тонет в зоопарке протоколов. OAP и AGNTCY — попытка навести порядок и собрать общий “Интернет агентов”.
⸻
🧩 OAP — “HTTP” для агентов
Open Agent Protocol (OAP) — открытый комьюнити-драйв стандарт для общения агентов между собой и с инструментами, независимо от фреймворка. Идея простая: дать универсальный API, чтобы агент мог:
• передать задачу другому агенту,
• получить статус выполнения и логи,
• забрать результаты в стандартном формате,
• объявить вовне свои возможности и схему (что умеет, какие входы/выходы).
Если упрощать — OAP хочет быть тем же, чем стал HTTP для сайтов: общим языком для любых “агентных сервисов”, поверх которого вы уже строите свои графы, рантаймы и оркестраторы.
Подробнее: сайт OAP Foundation
⸻
🏗 AGNTCY — инфраструктура “Интернета агентов”
AGNTCY — это уже не один протокол, а open-source стек инфраструктуры для “Internet of Agents”: discovery, identity, messaging и observability между агентами разных вендоров и фреймворков (LangGraph, LangChain, CrewAI, LlamaIndex и т.д.).
Его двигают Cisco, LangChain, Galileo и ко под зонтиком Linux Foundation как открытый стандарт для мультиагентных систем.
Технический фундамент AGNTCY:
• OASF (Open Agent Schema Framework) — как OpenAPI, но для агентов:
описывает capabilities, входы/выходы, эндпоинты, метрики. Поддерживает A2A-агентов, MCP-серверы и может расширяться под другие форматы.
• ACP (Agent Connect Protocol) — безопасный протокол подключения и общения:
как подключиться к агенту, запустить ран, подписаться на события, мониторить выполнение.
AGNTCY, по сути, строит “городскую инфраструктуру” для агентов: есть правила регистрации (OASF), линии связи и протоколы (ACP), единые механизмы мониторинга и управления.
Подробнее:
• сайт: agntcy.org
• дока/спеки: docs.agntcy.org
⸻
🧠 Зачем это практику
Если вы строите своих агентов / ассистентов / MCP-инструменты, OAP + AGNTCY дают:
• интероперабельность — агенты и инструменты в разных фреймворках могут общаться по единому API, без жёсткого vendor lock-in;
• единый слой discovery и описаний (OASF) — агент становится “ресурсом сети”, который можно найти, оценить и подключить;
• готовую инфраструктуру для продакшена: трассировка, метрики, безопасность и управление multi-agent workflow’ами на уровне экосистемы, а не только вашего кода.
Короче, это шаг к тому, чтобы агенты стали не локальными игрушками внутри одного рантайма, а полноценными участниками распределённого “Интернета агентов”.
👍2🤪1
PSI как базовая «шина приватных данных» для AI-агентов
Когда начинаешь связывать несколько AI-агентов между собой, быстро упираешься в вопрос:
как обмениваться инсайтами, не раскрывая сырые данные?
Здесь в игру вступает PSI (Private Set Intersection) и MPC-фреймворки.
⸻
PSI по сути
PSI позволяет нескольким сторонам узнать пересечение их множеств (например, общих пользователей)
без раскрытия остальной части списков.
В мультиагентных системах это выглядит так:
• каждый агент хранит свою базу (пользователи, сделки, события);
• через PSI они узнают только, кто у них общий;
• сырые данные за пределами пересечения никто не видит.
Фактически PSI становится приватной шиной сопоставления идентификаторов между агентами.
⸻
Дальше — Secure MPC: вычисления поверх зашифрованных данных
PSI решает «кто пересекается?».
Но обычно нужно ещё и что-то посчитать поверх пересечения: скоринг, агрегаты, фичи для моделей и т.д.
Это делает Secure Multi-Party Computation (MPC) — совместные вычисления функции f(x₁, x₂,…)
так, чтобы участники не раскрывали друг другу свои входные данные.
Ключевые фреймворки:
• MP-SPDZ
• Поддерживает 34+ вариантов MPC-протоколов под разные модели безопасности.
• Даёт единый high-level интерфейс, позволяя выбирать протокол под задачу (скорость / угрозы / инфраструктура).
• ABY Framework
• Комбинирует три представления:
• Arithmetic sharing — удобно для матриц и ML,
• Boolean sharing — удобно для логики и сравнений,
• Yao’s garbled circuits — универсальный вариант.
• Важное свойство — дешёвые конверсии между представлениями, что позволяет оптимизировать вычисления.
⸻
Circuit-PSI: когда пересечение — это только начало
Circuit-PSI идёт дальше:
• стороны выполняют PSI,
• но пересечение сразу остаётся в виде secret-shared представления,
• и поверх него тут же запускается MPC-вычисление нужной функции.
То есть агенты никогда не видят сами элементы пересечения, только итоговый результат вычислений
(скоринг, агрегаты, метрики и т.д.).
⸻
Как это встраивается в архитектуру AI-агентов
Базовый паттерн для приватных мультиагентных / федеративных сценариев:
1. PSI / Circuit-PSI
• агенты приватно синхронизируют пересечение по user_id / device_id / merchant_id и т.п.
2. MPC (MP-SPDZ / ABY)
• поверх этого пересечения считаются скоринги, статистика, обучаются/обновляются модели.
• выбирается протокол под требования регуляции и производительности.
3. Агентный оркестратор
• один агент отвечает за выбор протоколов и запуск криптопайплайна,
• предметные агенты (риск, маркетинг, рекомендации) получают только безопасный агрегированный результат,
• сырые данные сторон по-прежнему изолированы.
⸻
Итог:
PSI + MPC (MP-SPDZ, ABY, Circuit-PSI) — это слой, который позволяет AI-агентам сотрудничать на данных
в духе «федеративной аналитики», не превращая систему в ещё один централизованный «пылесос данных».
Когда начинаешь связывать несколько AI-агентов между собой, быстро упираешься в вопрос:
как обмениваться инсайтами, не раскрывая сырые данные?
Здесь в игру вступает PSI (Private Set Intersection) и MPC-фреймворки.
⸻
PSI по сути
PSI позволяет нескольким сторонам узнать пересечение их множеств (например, общих пользователей)
без раскрытия остальной части списков.
В мультиагентных системах это выглядит так:
• каждый агент хранит свою базу (пользователи, сделки, события);
• через PSI они узнают только, кто у них общий;
• сырые данные за пределами пересечения никто не видит.
Фактически PSI становится приватной шиной сопоставления идентификаторов между агентами.
⸻
Дальше — Secure MPC: вычисления поверх зашифрованных данных
PSI решает «кто пересекается?».
Но обычно нужно ещё и что-то посчитать поверх пересечения: скоринг, агрегаты, фичи для моделей и т.д.
Это делает Secure Multi-Party Computation (MPC) — совместные вычисления функции f(x₁, x₂,…)
так, чтобы участники не раскрывали друг другу свои входные данные.
Ключевые фреймворки:
• MP-SPDZ
• Поддерживает 34+ вариантов MPC-протоколов под разные модели безопасности.
• Даёт единый high-level интерфейс, позволяя выбирать протокол под задачу (скорость / угрозы / инфраструктура).
• ABY Framework
• Комбинирует три представления:
• Arithmetic sharing — удобно для матриц и ML,
• Boolean sharing — удобно для логики и сравнений,
• Yao’s garbled circuits — универсальный вариант.
• Важное свойство — дешёвые конверсии между представлениями, что позволяет оптимизировать вычисления.
⸻
Circuit-PSI: когда пересечение — это только начало
Circuit-PSI идёт дальше:
• стороны выполняют PSI,
• но пересечение сразу остаётся в виде secret-shared представления,
• и поверх него тут же запускается MPC-вычисление нужной функции.
То есть агенты никогда не видят сами элементы пересечения, только итоговый результат вычислений
(скоринг, агрегаты, метрики и т.д.).
⸻
Как это встраивается в архитектуру AI-агентов
Базовый паттерн для приватных мультиагентных / федеративных сценариев:
1. PSI / Circuit-PSI
• агенты приватно синхронизируют пересечение по user_id / device_id / merchant_id и т.п.
2. MPC (MP-SPDZ / ABY)
• поверх этого пересечения считаются скоринги, статистика, обучаются/обновляются модели.
• выбирается протокол под требования регуляции и производительности.
3. Агентный оркестратор
• один агент отвечает за выбор протоколов и запуск криптопайплайна,
• предметные агенты (риск, маркетинг, рекомендации) получают только безопасный агрегированный результат,
• сырые данные сторон по-прежнему изолированы.
⸻
Итог:
PSI + MPC (MP-SPDZ, ABY, Circuit-PSI) — это слой, который позволяет AI-агентам сотрудничать на данных
в духе «федеративной аналитики», не превращая систему в ещё один централизованный «пылесос данных».
👍2🔥1
🧩 Axiom — боевые Claude Code-агенты для iOS/xOS
Если вы пишете под iOS / iPadOS / watchOS / tvOS и уже пользуетесь Claude Code, обязательно посмотрите Axiom от Charles Wiltgen. Это не просто «примерчики», а целая сборка агентов и skills, обкатанных на реальных прод-кейсах: дедлайны App Store, утечки памяти у живых пользователей, миграции баз с сотнями тысяч юзеров.
Что внутри 👇
• 🧠 Apple Intelligence / Foundation Models
Готовые паттерны под on-device AI: structured output через @Generable, стриминг, tool calling, обвязка вокруг всех ключевых примеров WWDC 2025.
• 🎨 Современный UI и SwiftUI
Liquid Glass, новые фичи SwiftUI 26, профилирование производительности, разбор «почему этот вью тормозит», устойчивые UI-тесты (меньше флейков).
• ♿ Доступность
Скиллы, которые помогают ловить проблемы с VoiceOver, Dynamic Type, WCAG и тем, что может завалить ревью в App Store.
• 🐞 Отладка и перф
BUILD FAILED, зависший симулятор, зомби-процессы, гонки данных в Swift 6 concurrency, профилирование через Instruments — под всё это есть отдельные skills.
• 💾 Хранилища и миграции
Core Data, SwiftData, SQLiteData, GRDB, миграции без потери данных, переезд с Realm и SwiftData на другие стеки, CloudKit-синхронизация.
• 🌐 Сеть и аудио
Networking (включая UDP/TCP, Network.framework), AVFoundation/пространственное аудио, бит-перфектный вывод.
Методология тоже интересная: автор жёстко завязан на TDD + “red/green/refactor”, каждый skill — это дисциплинирующий workflow, а не «магическая подсказка». Много готовых checklists и куски кода в формате «что работает / что ломает прод».
⚠️ Сейчас это preview-релиз под MIT-лицензией, автор просит фидбек — хороший момент зайти пораньше и построить свой iOS-стек вокруг Axiom + Claude Code.
🔗 Сайт: https://charleswiltgen.github.io/Axiom/
Если вы пишете под iOS / iPadOS / watchOS / tvOS и уже пользуетесь Claude Code, обязательно посмотрите Axiom от Charles Wiltgen. Это не просто «примерчики», а целая сборка агентов и skills, обкатанных на реальных прод-кейсах: дедлайны App Store, утечки памяти у живых пользователей, миграции баз с сотнями тысяч юзеров.
Что внутри 👇
• 🧠 Apple Intelligence / Foundation Models
Готовые паттерны под on-device AI: structured output через @Generable, стриминг, tool calling, обвязка вокруг всех ключевых примеров WWDC 2025.
• 🎨 Современный UI и SwiftUI
Liquid Glass, новые фичи SwiftUI 26, профилирование производительности, разбор «почему этот вью тормозит», устойчивые UI-тесты (меньше флейков).
• ♿ Доступность
Скиллы, которые помогают ловить проблемы с VoiceOver, Dynamic Type, WCAG и тем, что может завалить ревью в App Store.
• 🐞 Отладка и перф
BUILD FAILED, зависший симулятор, зомби-процессы, гонки данных в Swift 6 concurrency, профилирование через Instruments — под всё это есть отдельные skills.
• 💾 Хранилища и миграции
Core Data, SwiftData, SQLiteData, GRDB, миграции без потери данных, переезд с Realm и SwiftData на другие стеки, CloudKit-синхронизация.
• 🌐 Сеть и аудио
Networking (включая UDP/TCP, Network.framework), AVFoundation/пространственное аудио, бит-перфектный вывод.
Методология тоже интересная: автор жёстко завязан на TDD + “red/green/refactor”, каждый skill — это дисциплинирующий workflow, а не «магическая подсказка». Много готовых checklists и куски кода в формате «что работает / что ломает прод».
⚠️ Сейчас это preview-релиз под MIT-лицензией, автор просит фидбек — хороший момент зайти пораньше и построить свой iOS-стек вокруг Axiom + Claude Code.
🔗 Сайт: https://charleswiltgen.github.io/Axiom/
charleswiltgen.github.io
Axiom
Battle-tested Claude Code skills, commands, and references for Apple platform development
🔥3
🚀 GLM-4.6V вышел: “глаза” для агентов и кодеров + как завести его в Claude Code
Z.ai выкатили GLM-4.6V — новую линейку open-source VLM-моделей (Vision-Language), заточенную под агентов и frontend-автоматизацию, а не просто “ответить по картинке”.
Ключевые фишки:
• 🧠 Две версии:
• GLM-4.6V (≈106B) — тяжёлый флагман под кластер.
• GLM-4.6V-Flash (9B) — облегчённый вариант под локальные / дешёвые деплои.
• 📚 128K контекст для мультимодальных задач: длинные документы как картинки/PDF, сложные UI-макеты, цепочки тулов без обрезки мыслей.
• 🛠 Нативный function calling по картинкам и видео — скриншот/фрейм сразу идёт в tool, без лишнего “картинка → текст → prompt”.
• 🎨 Фокус на frontend replication & visual interaction: “скрин → код”, понимание диаграмм, UI-diff, анализ графиков и дашбордов.
Отдельно: Z.ai официально позиционирует GLM-4.6V как базовый визуальный движок для агентных workflows (vision + tools).
Z.ai выкатили GLM-4.6V — новую линейку open-source VLM-моделей (Vision-Language), заточенную под агентов и frontend-автоматизацию, а не просто “ответить по картинке”.
Ключевые фишки:
• 🧠 Две версии:
• GLM-4.6V (≈106B) — тяжёлый флагман под кластер.
• GLM-4.6V-Flash (9B) — облегчённый вариант под локальные / дешёвые деплои.
• 📚 128K контекст для мультимодальных задач: длинные документы как картинки/PDF, сложные UI-макеты, цепочки тулов без обрезки мыслей.
• 🛠 Нативный function calling по картинкам и видео — скриншот/фрейм сразу идёт в tool, без лишнего “картинка → текст → prompt”.
• 🎨 Фокус на frontend replication & visual interaction: “скрин → код”, понимание диаграмм, UI-diff, анализ графиков и дашбордов.
Отдельно: Z.ai официально позиционирует GLM-4.6V как базовый визуальный движок для агентных workflows (vision + tools).
👍2🔥1
Как запускать GLM-4.6V в связке с Claude Code
Важно: в кодинге рулит GLM-4.6 (текст), а GLM-4.6V едет “под капотом” Vision MCP-сервера. То есть в Claude Code ты используешь GLM-4.6 как основного “кодера”, а все визуальные задачи отдаёшь Vision MCP, который уже ходит в GLM-4.6V.
1️⃣ Подключить GLM-4.6 к Claude Code
1. Оформляешь GLM Coding Plan (Lite от ~$3/мес, заточен под Claude Code / Cline / OpenCode).
2. Берёшь API-ключ в кабинете Z.ai.
3. Ставишь Claude Code (если ещё нет): npm install -g @anthropic-ai/claude-code
4. Запускаешь офиц. скрипт Z.ai, который сам пропатчит
2️⃣ Включить GLM-4.6V через Vision MCP Server
Теперь добавляем глаза — Vision MCP Server, который уже использует GLM-4.6V под капотом.
1. Node.js ≥ 22 локально.
2. Одной командой регистрируем MCP-сервер в Claude Code:
Vision MCP даёт набор тулов поверх GLM-4.6V:
-
-
-
-
-
-
-
---
3️⃣ Как этим пользоваться в Claude Code на практике
После того как Coding Plan и Vision MCP заведены:
1. В корне проекта кладёшь, например,
2. Открываешь Claude Code:
3. В диалоге пишешь что-то в духе:
• UI → код:
Преврати ui-dashboard.png в адаптивную React + Tailwind страницу с теми же блоками и сеткой. Используй MCP-инструмент ui_to_artifact.
• Анализ диаграммы:
Разбери архитектуру на system-arch.png как understand_technical_diagram, выпиши сервисы, очереди и БД, а потом предложи план миграции на микросервисы.
• Разбор графиков / метрик:
Проанализируй metrics.png через analyze_data_visualization и опиши, что происходит с латентностью и ошибками за последнюю неделю.
Claude Code сам дернет Vision MCP, а тот — GLM-4.6V. Ты при этом остаёшься в привычном flow: запрос → tools → коммиты/патчи в репо.
⸻
4️⃣ А можно прямым API вместо MCP?
Если вдруг хочешь чистый GLM-4.6V как модель (например, для своего сервиса/агента), есть варианты:
• Z.ai / BigModel — родной API (Vision endpoint).
• Novita AI, OpenRouter — дают GLM-4.6V по OpenAI-совместимому API с роутингом/биллингом.
В теории можно завернуть такой endpoint в свой “Anthropic-совместимый” прокси и подложить его Claude Code через ANTHROPIC_BASE_URL + модель glm-4.6v. Но официально для Claude Code сейчас рекомендуемый путь именно через GLM Coding Plan + Vision MCP, потому что там уже готово:
• нормальные лимиты,
• стабильный MCP-сервер,
• и гарантированно правильное использование GLM-4.6V (vision) + GLM-4.6 (code).
Важно: в кодинге рулит GLM-4.6 (текст), а GLM-4.6V едет “под капотом” Vision MCP-сервера. То есть в Claude Code ты используешь GLM-4.6 как основного “кодера”, а все визуальные задачи отдаёшь Vision MCP, который уже ходит в GLM-4.6V.
1️⃣ Подключить GLM-4.6 к Claude Code
1. Оформляешь GLM Coding Plan (Lite от ~$3/мес, заточен под Claude Code / Cline / OpenCode).
2. Берёшь API-ключ в кабинете Z.ai.
3. Ставишь Claude Code (если ещё нет): npm install -g @anthropic-ai/claude-code
4. Запускаешь офиц. скрипт Z.ai, который сам пропатчит
~/.claude/settings.json:curl -O "https://cdn.bigmodel.cn/install/claude_code_zai_env.sh" && bash ./claude_code_zai_env.sh2️⃣ Включить GLM-4.6V через Vision MCP Server
Теперь добавляем глаза — Vision MCP Server, который уже использует GLM-4.6V под капотом.
1. Node.js ≥ 22 локально.
2. Одной командой регистрируем MCP-сервер в Claude Code:
claude mcp add -s user zai-mcp-server \
--env Z_AI_API_KEY=your_api_key Z_AI_MODE=ZAI \
-- npx -y "@z_ai/mcp-server"Vision MCP даёт набор тулов поверх GLM-4.6V:
-
ui_to_artifact — скрин → код/спека/описание (идеально под frontend-генерацию). -
extract_text_from_screenshot — OCR любых скринов (код, логи, ошибки, документация). -
diagnose_error_screenshot — анализ скринов с ошибками/стектрейсами. -
understand_technical_diagram — архитектуры, UML, ER и т.п. -
analyze_data_visualization — чтение чартов и дашбордов. -
ui_diff_check — сравнение двух UI-скринов. -
image_analysis / video_analysis — общие визуальные задачи и короткие видео. ---
3️⃣ Как этим пользоваться в Claude Code на практике
После того как Coding Plan и Vision MCP заведены:
1. В корне проекта кладёшь, например,
ui-dashboard.png. 2. Открываешь Claude Code:
cd /your/project
claude3. В диалоге пишешь что-то в духе:
• UI → код:
Преврати ui-dashboard.png в адаптивную React + Tailwind страницу с теми же блоками и сеткой. Используй MCP-инструмент ui_to_artifact.
• Анализ диаграммы:
Разбери архитектуру на system-arch.png как understand_technical_diagram, выпиши сервисы, очереди и БД, а потом предложи план миграции на микросервисы.
• Разбор графиков / метрик:
Проанализируй metrics.png через analyze_data_visualization и опиши, что происходит с латентностью и ошибками за последнюю неделю.
Claude Code сам дернет Vision MCP, а тот — GLM-4.6V. Ты при этом остаёшься в привычном flow: запрос → tools → коммиты/патчи в репо.
⸻
4️⃣ А можно прямым API вместо MCP?
Если вдруг хочешь чистый GLM-4.6V как модель (например, для своего сервиса/агента), есть варианты:
• Z.ai / BigModel — родной API (Vision endpoint).
• Novita AI, OpenRouter — дают GLM-4.6V по OpenAI-совместимому API с роутингом/биллингом.
В теории можно завернуть такой endpoint в свой “Anthropic-совместимый” прокси и подложить его Claude Code через ANTHROPIC_BASE_URL + модель glm-4.6v. Но официально для Claude Code сейчас рекомендуемый путь именно через GLM Coding Plan + Vision MCP, потому что там уже готово:
• нормальные лимиты,
• стабильный MCP-сервер,
• и гарантированно правильное использование GLM-4.6V (vision) + GLM-4.6 (code).
Z.AI DEVELOPER DOCUMENT
Claude Code - Z.AI DEVELOPER DOCUMENT
Methods for integrating the latest GLM-4.5 series models from Z.AI with Claude Code
🤔2🔥1
🧩 Don’t build agents, build skills
У Anthropic вышел очень классный доклад Barry Zhang & Mahesh Murag — мысль простая, но переворачивает подход к агентам:
не надо сразу строить “суперагента на все случаи жизни”, нужно строить библиотеку скиллов.
Что такое skill в их понимании:
• это оформленный сценарий работы: инструкция + примеры + (опционально) код;
• он решает одну конкретную задачу: написать отчёт по шаблону, разобрать выгрузку, оформить предложение клиенту;
• модель сама подбирает нужный skill и подгружает только релевантные куски (progressive disclosure), а не тащит в контекст всю вселенную как это происходит с mcp.
Почему это важнее, чем “один большой агент”:
• 🔍 Контроль — легко тестировать и дебажить отдельный навык, а не разбираться, почему “агент сошёл с ума”.
• 🧱 Композиция — разные skills можно комбинировать под запрос, не переписывая архитектуру.
• 🧪 Эволюция — можно версионировать и чинить конкретный skill, не ломая всё остальное.
• 👥 Орг-знание — skills становятся способом упаковать процессы компании так, чтобы ИИ работал “как ваша команда”, а не как абстрактный ассистент.
Примеры того, что логично оформлять в skills, а не “учить агента на лету”:
• оформление коммерческих предложений именно в вашем стиле;
• подготовка отчётов/презентаций по внутреннему шаблону;
• разбор логов/метрик по вашей методике;
• чек-листы ревью кода и релизов.
Если вы играете с Claude, Agents SDK, LangGraph, MCP и прочими штуками — стоит начинать проектирование именно со скиллов, а не с “агента-генерала”. Сначала описываем повторяемые процедуры, потом даём модели оркестрировать их под задачу.
Видео: “Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag (Anthropic)” — очень рекомендую к просмотру, особенно тем, кто сейчас проектирует свою агентную платформу или ИИ-помощника под команду.
Ссылка: https://www.youtube.com/watch?v=CEvIs9y1uog
У Anthropic вышел очень классный доклад Barry Zhang & Mahesh Murag — мысль простая, но переворачивает подход к агентам:
не надо сразу строить “суперагента на все случаи жизни”, нужно строить библиотеку скиллов.
Что такое skill в их понимании:
• это оформленный сценарий работы: инструкция + примеры + (опционально) код;
• он решает одну конкретную задачу: написать отчёт по шаблону, разобрать выгрузку, оформить предложение клиенту;
• модель сама подбирает нужный skill и подгружает только релевантные куски (progressive disclosure), а не тащит в контекст всю вселенную как это происходит с mcp.
Почему это важнее, чем “один большой агент”:
• 🔍 Контроль — легко тестировать и дебажить отдельный навык, а не разбираться, почему “агент сошёл с ума”.
• 🧱 Композиция — разные skills можно комбинировать под запрос, не переписывая архитектуру.
• 🧪 Эволюция — можно версионировать и чинить конкретный skill, не ломая всё остальное.
• 👥 Орг-знание — skills становятся способом упаковать процессы компании так, чтобы ИИ работал “как ваша команда”, а не как абстрактный ассистент.
Примеры того, что логично оформлять в skills, а не “учить агента на лету”:
• оформление коммерческих предложений именно в вашем стиле;
• подготовка отчётов/презентаций по внутреннему шаблону;
• разбор логов/метрик по вашей методике;
• чек-листы ревью кода и релизов.
Если вы играете с Claude, Agents SDK, LangGraph, MCP и прочими штуками — стоит начинать проектирование именно со скиллов, а не с “агента-генерала”. Сначала описываем повторяемые процедуры, потом даём модели оркестрировать их под задачу.
Видео: “Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag (Anthropic)” — очень рекомендую к просмотру, особенно тем, кто сейчас проектирует свою агентную платформу или ИИ-помощника под команду.
Ссылка: https://www.youtube.com/watch?v=CEvIs9y1uog
YouTube
Don't Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag, Anthropic
In the past year, we've seen rapid advancement of model intelligence and convergence on agent scaffolding. But there's still a gap: agents often lack the domain expertise and specialized knowledge needed for real-world work. We think Skills are the solution—a…
🔥4👍1
🚀 Anthropic “отпускает” MCP в open-source и запускает Agentic AI Foundation
Anthropic объявила, что передаёт Model Context Protocol (MCP) под крыло Linux Foundation — в новый фонд Agentic AI Foundation (AAIF), который они сделали вместе с Block и OpenAI при поддержке Google, Microsoft, AWS, Cloudflare и Bloomberg.
Что важно про MCP прямо сейчас:
• Уже 10 000+ публичных MCP-серверов — от дев-тулов до форчунов.
• MCP поддерживают ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code и другие продукты.
• Есть enterprise-инфра: деплой через AWS, Cloudflare, Google Cloud, Azure.
За год MCP сильно эволюционировал:
• Появился официальный Registry MCP-серверов.
• В релизе спеки от 25 ноября добавили асинхронные операции, stateless-режим, идентичность сервера и extensibility.
• Вышли официальные SDK на основных языках, уже 97M+ скачиваний в месяц (Python + TypeScript).
🧱 Agentic AI Foundation (AAIF) — это directed fund внутри Linux Foundation для всего, что связано с агентными AI-системами и открытыми стандартами. MCP становится одним из базовых проектов фонда, рядом с goose (Block) и AGENTS.md (OpenAI).
Ключевой смысл:
• MCP закрепляют как открытый, вендор-нейтральный стандарт под управлением Linux Foundation.
• Говернанс MCP остаётся community-driven, мейнтейнеры продолжают рулить развитием вместе с сообществом.
Для нас, кто строит агентов и инфраструктуру вокруг них, это сигнал, что MCP — уже не “формат Anthropic”, а общий инфраструктурный слой для экосистемы агентного AI.
Anthropic объявила, что передаёт Model Context Protocol (MCP) под крыло Linux Foundation — в новый фонд Agentic AI Foundation (AAIF), который они сделали вместе с Block и OpenAI при поддержке Google, Microsoft, AWS, Cloudflare и Bloomberg.
Что важно про MCP прямо сейчас:
• Уже 10 000+ публичных MCP-серверов — от дев-тулов до форчунов.
• MCP поддерживают ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code и другие продукты.
• Есть enterprise-инфра: деплой через AWS, Cloudflare, Google Cloud, Azure.
За год MCP сильно эволюционировал:
• Появился официальный Registry MCP-серверов.
• В релизе спеки от 25 ноября добавили асинхронные операции, stateless-режим, идентичность сервера и extensibility.
• Вышли официальные SDK на основных языках, уже 97M+ скачиваний в месяц (Python + TypeScript).
🧱 Agentic AI Foundation (AAIF) — это directed fund внутри Linux Foundation для всего, что связано с агентными AI-системами и открытыми стандартами. MCP становится одним из базовых проектов фонда, рядом с goose (Block) и AGENTS.md (OpenAI).
Ключевой смысл:
• MCP закрепляют как открытый, вендор-нейтральный стандарт под управлением Linux Foundation.
• Говернанс MCP остаётся community-driven, мейнтейнеры продолжают рулить развитием вместе с сообществом.
Для нас, кто строит агентов и инфраструктуру вокруг них, это сигнал, что MCP — уже не “формат Anthropic”, а общий инфраструктурный слой для экосистемы агентного AI.
1👍7
⚙️ Devstral 2: инференс дешевеет на глазах
Mistral выкатила Devstral 2 — кодовую модель 123B с 256K контекстом, которая берёт 72.2% на SWE-Bench Verified и при этом до 7 раз дешевле Claude Sonnet на реальных задачах, по их же бенчмаркам.
Младшая Devstral Small 2 (24B) даёт 68% на SWE-Bench Verified, держится на уровне/выше многих 70B-моделей и может работать локально, в том числе через GGUF/Unsloth и MLX на макбуках.
Тренд понятен:
• параметры падают,
• качество растёт,
• цена инференса летит вниз — от бесплатного API-окна сейчас до очень дешёвых локальных запусков завтра.
Если так продолжится, к концу следующего года нас ждёт очень интересный мир, где “сильный код-агент” — это не сервис по подписке, а просто ещё один бинарь рядом с git и docker. Учитывая еще достижения в области квантовых вычислений.
claude code на devstral 2 на mlx coming soon… )
https://mistral.ai/news/devstral-2-vibe-cli
Mistral выкатила Devstral 2 — кодовую модель 123B с 256K контекстом, которая берёт 72.2% на SWE-Bench Verified и при этом до 7 раз дешевле Claude Sonnet на реальных задачах, по их же бенчмаркам.
Младшая Devstral Small 2 (24B) даёт 68% на SWE-Bench Verified, держится на уровне/выше многих 70B-моделей и может работать локально, в том числе через GGUF/Unsloth и MLX на макбуках.
Тренд понятен:
• параметры падают,
• качество растёт,
• цена инференса летит вниз — от бесплатного API-окна сейчас до очень дешёвых локальных запусков завтра.
Если так продолжится, к концу следующего года нас ждёт очень интересный мир, где “сильный код-агент” — это не сервис по подписке, а просто ещё один бинарь рядом с git и docker. Учитывая еще достижения в области квантовых вычислений.
claude code на devstral 2 на mlx coming soon… )
https://mistral.ai/news/devstral-2-vibe-cli
👍3🥴1
🟣 Claude Island — Dynamic Island для Claude Code на macOS
Классная маленькая утилита для тех, кто живёт в Claude Code CLI:
Claude Island — это меню-барное приложение для macOS, которое превращает «чёлку» MacBook в виджет с уведомлениями от Claude Code.
Что умеет:
• 🏝 Notch UI — анимационный оверлей, который выезжает из выреза (Dynamic Island-стайл).
• 👀 Live-мониторинг сессий — показывает несколько сессий Claude Code в реальном времени.
• ✅ Approve / Deny из «чёлки» — запросы на запуск tools можно подтверждать/отклонять прямо из виджета, не переключаясь в терминал.
• 🧾 История чата — просмотр полной истории сессии с рендерингом Markdown.
• 🔌 Auto-setup — при первом запуске сам ставит хуки в ~/.claude/hooks/ и слушает события через Unix-сокет.
Требования:
• macOS 15.6+
• установленный Claude Code CLI
Установка:
1. Скачать последний релиз из GitHub Releases.
2. Или собрать из исходников:
Немного про телеметрию:
• Использует Mixpanel для анонимной статистики (запуск приложения, старт сессии и т.п.),
• контент переписок не отправляется.
Лицензия — Apache 2.0, репозиторий открытый:
https://github.com/farouqaldori/claude-island
Классная маленькая утилита для тех, кто живёт в Claude Code CLI:
Claude Island — это меню-барное приложение для macOS, которое превращает «чёлку» MacBook в виджет с уведомлениями от Claude Code.
Что умеет:
• 🏝 Notch UI — анимационный оверлей, который выезжает из выреза (Dynamic Island-стайл).
• 👀 Live-мониторинг сессий — показывает несколько сессий Claude Code в реальном времени.
• ✅ Approve / Deny из «чёлки» — запросы на запуск tools можно подтверждать/отклонять прямо из виджета, не переключаясь в терминал.
• 🧾 История чата — просмотр полной истории сессии с рендерингом Markdown.
• 🔌 Auto-setup — при первом запуске сам ставит хуки в ~/.claude/hooks/ и слушает события через Unix-сокет.
Требования:
• macOS 15.6+
• установленный Claude Code CLI
Установка:
1. Скачать последний релиз из GitHub Releases.
2. Или собрать из исходников:
xcodebuild -scheme ClaudeIsland -configuration Release build
``` [oai_citation:3‡GitHub](https://github.com/farouqaldori/claude-island) Немного про телеметрию:
• Использует Mixpanel для анонимной статистики (запуск приложения, старт сессии и т.п.),
• контент переписок не отправляется.
Лицензия — Apache 2.0, репозиторий открытый:
https://github.com/farouqaldori/claude-island
GitHub
GitHub - farouqaldori/claude-island: Claude Code notifications without the context switch. A minimal, always-present session manager…
Claude Code notifications without the context switch. A minimal, always-present session manager for macOS. - farouqaldori/claude-island
2026: Год, когда IDE умерла — но не разработчики 🔥
В видео «2026: The Year The IDE Died» Стив Йегги и Джин Ким обсуждают, как AI-кодинг меняет саму идею IDE и разработки в целом. Не про «ещё один плагин к VS Code», а про смену парадигмы.
Ключевые мысли, которые стоит вынести 👇
• 🪦 Классическая IDE — переходная форма.
В мире AI-coding главный объект — больше не файл и не редактор, а поток работы: задачи, спеки, чанки изменений, агенты, которые всё это жонглируют. IDE превращается в оркестратор агентов и воркфлоу, а не «умный текстовый редактор».
• 🐝 Роевые агенты важнее «одной супермодели».
Вместо «одного всесильного ИИ» — стая специализированных агентов:
• одни режут задачи на подзадачи,
• другие предлагают патчи,
• третьи гоняют тесты и статанализ,
• четвёртые следят за архитектурными инвариантами.
Разработчик становится дирижёром этого роя.
• 👓 Код мы всё равно будем читать.
Вопреки хайпу «через два года никто не будет смотреть в код» — для серьёзных систем всё равно остаётся: ревью, диффы, понимание инвариантов, отказоустойчивости, секьюрности. Люди меньше «печатают», но больше осмысляют и проверяют.
• 🧠 Роль сеньора: меньше рук, больше головы.
Сеньоры смещаются из роли «главный тачтАйпист» в роль:
• формулировать спеки и границы систем,
• задавать архитектуру и контракты,
• выстраивать guardrails для агентов,
• ревьюить и интегрировать их работу.
• 🧑🎓 Джуниорам AI даёт турбо-ускорение, но не заменяет базу.
AI прекрасно помогает учиться быстрее — пробовать больше идей, получать объяснения, разбирать чужой код. Но без понимания алгоритмов, состояния, потоков данных и дебагинга — это будет «замок на песке».
• ⚠️ Две опасные крайности:
• сеньоры, которые снисходительно считают AI «автокомплитом» и добровольно отказываются от leverage;
• новички, которые полностью полагаются на AI и вообще не строят ментальные модели систем.
В итоге месседж видео простой, но важный:
IDE в привычном виде действительно «умирает» — на её месте рождается AI-first среда, где код — это артефакт, а основная работа разработчика — постановка задач, дизайн систем и управление роем агентов.
Очень резонирует с идеей vibe-coding / hive-coding:
меньше ковыряться в файлах, больше — в смыслах и потоках работы.
https://www.youtube.com/watch?v=7Dtu2bilcFs
В видео «2026: The Year The IDE Died» Стив Йегги и Джин Ким обсуждают, как AI-кодинг меняет саму идею IDE и разработки в целом. Не про «ещё один плагин к VS Code», а про смену парадигмы.
Ключевые мысли, которые стоит вынести 👇
• 🪦 Классическая IDE — переходная форма.
В мире AI-coding главный объект — больше не файл и не редактор, а поток работы: задачи, спеки, чанки изменений, агенты, которые всё это жонглируют. IDE превращается в оркестратор агентов и воркфлоу, а не «умный текстовый редактор».
• 🐝 Роевые агенты важнее «одной супермодели».
Вместо «одного всесильного ИИ» — стая специализированных агентов:
• одни режут задачи на подзадачи,
• другие предлагают патчи,
• третьи гоняют тесты и статанализ,
• четвёртые следят за архитектурными инвариантами.
Разработчик становится дирижёром этого роя.
• 👓 Код мы всё равно будем читать.
Вопреки хайпу «через два года никто не будет смотреть в код» — для серьёзных систем всё равно остаётся: ревью, диффы, понимание инвариантов, отказоустойчивости, секьюрности. Люди меньше «печатают», но больше осмысляют и проверяют.
• 🧠 Роль сеньора: меньше рук, больше головы.
Сеньоры смещаются из роли «главный тачтАйпист» в роль:
• формулировать спеки и границы систем,
• задавать архитектуру и контракты,
• выстраивать guardrails для агентов,
• ревьюить и интегрировать их работу.
• 🧑🎓 Джуниорам AI даёт турбо-ускорение, но не заменяет базу.
AI прекрасно помогает учиться быстрее — пробовать больше идей, получать объяснения, разбирать чужой код. Но без понимания алгоритмов, состояния, потоков данных и дебагинга — это будет «замок на песке».
• ⚠️ Две опасные крайности:
• сеньоры, которые снисходительно считают AI «автокомплитом» и добровольно отказываются от leverage;
• новички, которые полностью полагаются на AI и вообще не строят ментальные модели систем.
В итоге месседж видео простой, но важный:
IDE в привычном виде действительно «умирает» — на её месте рождается AI-first среда, где код — это артефакт, а основная работа разработчика — постановка задач, дизайн систем и управление роем агентов.
Очень резонирует с идеей vibe-coding / hive-coding:
меньше ковыряться в файлах, больше — в смыслах и потоках работы.
https://www.youtube.com/watch?v=7Dtu2bilcFs
YouTube
2026: The Year The IDE Died — Steve Yegge & Gene Kim, Authors, Vibe Coding
As AI has grown more capable, software developers around the world have lagged behind the technology advances, and have consistently eschewed the most powerful tools. In this talk I explore why devs are staying 9-12 months behind the AI curve. I'll share…
🔥5👍2❤1
И еще раз про OpenCode (opencode.ai)
OpenCode — open-source AI coding agent для терминала (есть TUI, десктоп и IDE-интеграция), который реально можно встроить в ежедневный dev-флоу.
Что мне понравилось (и почему это “серьёзная лига”):
• Модель-агностик: можно подключать разных провайдеров (Claude/GPT/Gemini и т.д.), есть поддержка локальных моделей, заявлено 75+ провайдеров через AI SDK / Models.dev.
• Agents + subagents: в OpenCode есть “первичные” агенты и сабагенты, между ними можно переключаться или вызывать через @-упоминание. Удобный паттерн: “plan”-агент для анализа без правок кода.
• Commands: можно описывать команды, и важный флажок — subtask: true, чтобы команда выполнялась как сабагент и не засоряла основной контекст.
• Custom Tools = skills: кастомные тулзы — это ваши функции, которые модель может вызывать рядом со встроенными read/write/bash. По сути, это прям “скиллы” для агента (хоть на Python).
• Безопасность выполнения: для shell-команд есть запрос разрешений (accept / accept always / deny) и понятная область действия “accept always”.
Моё ощущение: если Claude Code — №1 терминальный агент, то OpenCode сейчас выглядит как кандидат на №2 по мощности — за счёт open-source, гибкой агентности (subagents) и расширяемости через tools/commands.
# установка
Ссылки:
https://opencode.ai/
https://opencode.ai/docs/agents/
https://opencode.ai/docs/commands/
https://opencode.ai/docs/custom-tools/
OpenCode — open-source AI coding agent для терминала (есть TUI, десктоп и IDE-интеграция), который реально можно встроить в ежедневный dev-флоу.
Что мне понравилось (и почему это “серьёзная лига”):
• Модель-агностик: можно подключать разных провайдеров (Claude/GPT/Gemini и т.д.), есть поддержка локальных моделей, заявлено 75+ провайдеров через AI SDK / Models.dev.
• Agents + subagents: в OpenCode есть “первичные” агенты и сабагенты, между ними можно переключаться или вызывать через @-упоминание. Удобный паттерн: “plan”-агент для анализа без правок кода.
• Commands: можно описывать команды, и важный флажок — subtask: true, чтобы команда выполнялась как сабагент и не засоряла основной контекст.
• Custom Tools = skills: кастомные тулзы — это ваши функции, которые модель может вызывать рядом со встроенными read/write/bash. По сути, это прям “скиллы” для агента (хоть на Python).
• Безопасность выполнения: для shell-команд есть запрос разрешений (accept / accept always / deny) и понятная область действия “accept always”.
Моё ощущение: если Claude Code — №1 терминальный агент, то OpenCode сейчас выглядит как кандидат на №2 по мощности — за счёт open-source, гибкой агентности (subagents) и расширяемости через tools/commands.
# установка
curl -fsSL https://opencode.ai/install | bashСсылки:
https://opencode.ai/
https://opencode.ai/docs/agents/
https://opencode.ai/docs/commands/
https://opencode.ai/docs/custom-tools/
opencode.ai
OpenCode | The open source AI coding agent
OpenCode - The open source coding agent.
👍3
Я на самом деле ковырялся в репе ребят из https://github.com/nearai. И нашел у них сетап свой https://github.com/nearai/opencode. Надо тоже свой сетап делать)
GitHub
Near AI
Near AI has 45 repositories available. Follow their code on GitHub.
Вам интересно читать мои мысли про агентов на блокчейне и вообще про блокчейн?
Anonymous Poll
30%
Да, агенты на блокчейне очень интересно
36%
Интересно и про агентов на блокчейне и про сам блокчейн
34%
Не, подписалсся читать только про вайб кодинг
Media is too big
VIEW IN TELEGRAM
🧠 Один из самых выдающихся инженеров современности Джефф Дин сделал доклад — “Important AI Trends” (Stanford AI Club, ~41 мин) и переведенное мной видео на русский. На мой взгляд там очень много технических важных терминов, и лучше сразу прослушать на русском, а потом закрепить на английском)
Ссылка на оригинал: https://www.youtube.com/watch?v=AnTw_t21ayE
Это быстрый “таймлайн” того, как AI дошёл от нейросетей до мультимодальных LLM, и почему следующий рывок — не только в параметрах, а в эффективности, архитектуре и системах.
Что внутри (по главам/таймкодам)
• 10:00 → 07:10: основы/возрождение нейросетей, Google Brain, unsupervised/word representations, seq2seq
• 12:15 → 20:57: TPU, open-source стек (TensorFlow/PyTorch), attention + масштабирование LM, ViT, sparse + Pathways
• 24:55 → 29:26: prompting + distillation, RL для post-training
• 35:07 → конец: демо Gemini (мультимодальность, большие контексты, прогресс в матем. рассуждениях и кодогенерации)
Главные тезисы, которые я бы вынес
1. Сдвиг “scale любой ценой” → “scale с умной активацией”: sparse-архитектуры в духе Pathways (активируется лишь нужная часть модели под задачу).
2. Железо — часть модели: специализированные ускорители (TPU) и “упаковка” в большие конфигурации (в т.ч. Ironwood до 9,216 чипов) — это прямой множитель прогресса.
3. “Дешевле и компактнее” важно не меньше “умнее”: distillation — классический приём (Hinton et al.) как тащить качество больших моделей в маленькие, ближе к продакшен-ограничениям.
4. Post-training через RL — отдельный слой качества/поведения поверх предобучения (особенно в проверяемых доменах вроде кода/математики).
Ссылка на оригинал: https://www.youtube.com/watch?v=AnTw_t21ayE
Это быстрый “таймлайн” того, как AI дошёл от нейросетей до мультимодальных LLM, и почему следующий рывок — не только в параметрах, а в эффективности, архитектуре и системах.
Что внутри (по главам/таймкодам)
• 10:00 → 07:10: основы/возрождение нейросетей, Google Brain, unsupervised/word representations, seq2seq
• 12:15 → 20:57: TPU, open-source стек (TensorFlow/PyTorch), attention + масштабирование LM, ViT, sparse + Pathways
• 24:55 → 29:26: prompting + distillation, RL для post-training
• 35:07 → конец: демо Gemini (мультимодальность, большие контексты, прогресс в матем. рассуждениях и кодогенерации)
Главные тезисы, которые я бы вынес
1. Сдвиг “scale любой ценой” → “scale с умной активацией”: sparse-архитектуры в духе Pathways (активируется лишь нужная часть модели под задачу).
2. Железо — часть модели: специализированные ускорители (TPU) и “упаковка” в большие конфигурации (в т.ч. Ironwood до 9,216 чипов) — это прямой множитель прогресса.
3. “Дешевле и компактнее” важно не меньше “умнее”: distillation — классический приём (Hinton et al.) как тащить качество больших моделей в маленькие, ближе к продакшен-ограничениям.
4. Post-training через RL — отдельный слой качества/поведения поверх предобучения (особенно в проверяемых доменах вроде кода/математики).
👍3