Все носятся с MCP, плагинами и “AI-SDK для всего”, а про самое простое часто забывают:
агенты уже офигенно умеют работать с обычными CLI-утилитами — если у них есть нормальный --help и внятные описания команд. 🧰
По сути, любой CLI с хорошим help-текстом = готовый “инструмент” для агента:
• gh (GitHub CLI)
• aws (AWS CLI)
• yc (Yandex Cloud CLI)
• gcloud, kubectl, docker, terraform и т.д.
Модели умеют:
• читать ... --help
• выбирать нужную команду
• подставлять аргументы
• запускать её
• смотреть вывод и на основе этого вызывать следующую команду
То есть ровно то, что вы вручную делаете в терминале, только без вашего участия.
⸻
Что нужно от вас на самом деле
Никакой магии, всё упирается в три вещи:
1. Дать агенту доступ к shell
В агент-рантайме/IDE нужно включить “command line” / “terminal” / “shell” tool.
Это может быть:
• встроенный tool типа “execute_command”
• или ваш прокси-скрипт, который запускает CLI в нужном окружении.
2. Правильно “накормить” его токенами 🔑
Всё как у людей:
• AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_REGION
• GITHUB_TOKEN
• YC_TOKEN, YC_CLOUD_ID, YC_FOLDER_ID
• любые другие env-переменные/конфиги для вашего CLI
Агенту не нужно “знать” токен — ему нужен уже настроенный CLI, который просто работает:
Если это в вашем терминале уже работает — значит, агенту достаточно дать тот же самый контекст.
3. Минимальные рамки безопасности 🧱
• Ограничить рабочую директорию (чтоб не полез во всё подряд).
• Выдать минимально необходимый набор прав для токенов.
• По возможности сначала гонять всё это в sandbox / staging.
⸻
Что агент может делать за вас (грязная работа) 🧽
После этого агент может сам:
• создавать и настраивать инфраструктуру через CLI
(сети, бакеты, функции, контейнеры, кластера)
• деплоить обновления, прогонять миграции, проверять статус сервисов
• читать логи, искать ошибки, фильтровать по времени/запросам
• разруливать рутину с GitHub:
• создавать репозитории
• открывать PR’ы
• вешать лейблы
• мёрджить по правилам
• гонять скрипты обслуживания: бэкапы, ротация, массовые операции
Проще говоря, всё, что вы уже умеете делать через CLI, может делать агент — последовательно, без усталости и с оглядкой на --help.
⸻
Главная мысль
Прежде чем придумывать сложные кастомные интеграции, MCP-серверы и специальные API, просто спросите себя:
“А у этой штуки есть нормальный CLI с хорошим --help?”
Если да — то у вас уже есть полноценный интерфейс для агента.
Добавили токены → включили shell-tool → описали в системном промпте рамки →
и он спокойно делает за вас всю грязную терминальную работу. 💻🤖
агенты уже офигенно умеют работать с обычными CLI-утилитами — если у них есть нормальный --help и внятные описания команд. 🧰
По сути, любой CLI с хорошим help-текстом = готовый “инструмент” для агента:
• gh (GitHub CLI)
• aws (AWS CLI)
• yc (Yandex Cloud CLI)
• gcloud, kubectl, docker, terraform и т.д.
Модели умеют:
• читать ... --help
• выбирать нужную команду
• подставлять аргументы
• запускать её
• смотреть вывод и на основе этого вызывать следующую команду
То есть ровно то, что вы вручную делаете в терминале, только без вашего участия.
⸻
Что нужно от вас на самом деле
Никакой магии, всё упирается в три вещи:
1. Дать агенту доступ к shell
В агент-рантайме/IDE нужно включить “command line” / “terminal” / “shell” tool.
Это может быть:
• встроенный tool типа “execute_command”
• или ваш прокси-скрипт, который запускает CLI в нужном окружении.
2. Правильно “накормить” его токенами 🔑
Всё как у людей:
• AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_REGION
• GITHUB_TOKEN
• YC_TOKEN, YC_CLOUD_ID, YC_FOLDER_ID
• любые другие env-переменные/конфиги для вашего CLI
Агенту не нужно “знать” токен — ему нужен уже настроенный CLI, который просто работает:
aws s3 ls
gh repo list
yc vm listЕсли это в вашем терминале уже работает — значит, агенту достаточно дать тот же самый контекст.
3. Минимальные рамки безопасности 🧱
• Ограничить рабочую директорию (чтоб не полез во всё подряд).
• Выдать минимально необходимый набор прав для токенов.
• По возможности сначала гонять всё это в sandbox / staging.
⸻
Что агент может делать за вас (грязная работа) 🧽
После этого агент может сам:
• создавать и настраивать инфраструктуру через CLI
(сети, бакеты, функции, контейнеры, кластера)
• деплоить обновления, прогонять миграции, проверять статус сервисов
• читать логи, искать ошибки, фильтровать по времени/запросам
• разруливать рутину с GitHub:
• создавать репозитории
• открывать PR’ы
• вешать лейблы
• мёрджить по правилам
• гонять скрипты обслуживания: бэкапы, ротация, массовые операции
Проще говоря, всё, что вы уже умеете делать через CLI, может делать агент — последовательно, без усталости и с оглядкой на --help.
⸻
Главная мысль
Прежде чем придумывать сложные кастомные интеграции, MCP-серверы и специальные API, просто спросите себя:
“А у этой штуки есть нормальный CLI с хорошим --help?”
Если да — то у вас уже есть полноценный интерфейс для агента.
Добавили токены → включили shell-tool → описали в системном промпте рамки →
и он спокойно делает за вас всю грязную терминальную работу. 💻🤖
👍4🤔1
🛠 Coding Tool Helper: быстрый буст для GLM Coding Plan + Claude Code
Z.AI тихо завезли очень полезную штуку для vibecoding-стека — Coding Tool Helper. Это CLI-ассистент, который одним мастером настраивает вам GLM Coding Plan в Claude Code и при этом помогает управлять MCP-серверами и конфигурацией, вместо того чтобы руками прописывать env’ы и ковырять конфиги.
Что это такое
• CLI-помощник для код-инструментов (в первую очередь Claude Code).
• Умеет подтянуть GLM Coding Plan, прописать ключ, подхватить/поставить нужные тулзы и настроить MCP.
• Работает через npm-пакет @z_ai/coding-helper, нужен Node.js ≥ 18.
🧩 Что он делает за вас
• Показывает интерактивный wizard в терминале: выбираете язык интерфейса, план, вводите API-ключ, отмечаете какие coding tools хотите менеджить.
• Может автоматически установить и сконфигурировать Claude Code, если он ещё не стоит.
• Настраивает MCP-сервисы (Vision/Web/Search и т.п.) и сохраняет конфиг локально.
• Поддерживает несколько языков интерфейса (i18n) — удобно, если команда разноязычная.
🚀 Как попробовать
Самый простой старт — без глобальной установки:
npx @z_ai/coding-helper
Дальше просто кликаете стрелочками по мастеру, и на выходе получаете: GLM-4.6/4.5 уже прописан в Claude Code, ключ подхвачен, MCP-серверы подключены — можно сразу идти писать код.
🔗 Документация:
https://docs.z.ai/devpack/tool/coding-tool-helper
Z.AI тихо завезли очень полезную штуку для vibecoding-стека — Coding Tool Helper. Это CLI-ассистент, который одним мастером настраивает вам GLM Coding Plan в Claude Code и при этом помогает управлять MCP-серверами и конфигурацией, вместо того чтобы руками прописывать env’ы и ковырять конфиги.
Что это такое
• CLI-помощник для код-инструментов (в первую очередь Claude Code).
• Умеет подтянуть GLM Coding Plan, прописать ключ, подхватить/поставить нужные тулзы и настроить MCP.
• Работает через npm-пакет @z_ai/coding-helper, нужен Node.js ≥ 18.
🧩 Что он делает за вас
• Показывает интерактивный wizard в терминале: выбираете язык интерфейса, план, вводите API-ключ, отмечаете какие coding tools хотите менеджить.
• Может автоматически установить и сконфигурировать Claude Code, если он ещё не стоит.
• Настраивает MCP-сервисы (Vision/Web/Search и т.п.) и сохраняет конфиг локально.
• Поддерживает несколько языков интерфейса (i18n) — удобно, если команда разноязычная.
🚀 Как попробовать
Самый простой старт — без глобальной установки:
npx @z_ai/coding-helper
Дальше просто кликаете стрелочками по мастеру, и на выходе получаете: GLM-4.6/4.5 уже прописан в Claude Code, ключ подхвачен, MCP-серверы подключены — можно сразу идти писать код.
🔗 Документация:
https://docs.z.ai/devpack/tool/coding-tool-helper
👍2🔥2
🤝 Open Agent Protocol (OAP) и AGNTCY — кирпичики “Интернета агентов”
С мультиагентными системами сейчас та же история, что когда-то с вебом: каждый варится в своём фреймворке, а экосистема тонет в зоопарке протоколов. OAP и AGNTCY — попытка навести порядок и собрать общий “Интернет агентов”.
⸻
🧩 OAP — “HTTP” для агентов
Open Agent Protocol (OAP) — открытый комьюнити-драйв стандарт для общения агентов между собой и с инструментами, независимо от фреймворка. Идея простая: дать универсальный API, чтобы агент мог:
• передать задачу другому агенту,
• получить статус выполнения и логи,
• забрать результаты в стандартном формате,
• объявить вовне свои возможности и схему (что умеет, какие входы/выходы).
Если упрощать — OAP хочет быть тем же, чем стал HTTP для сайтов: общим языком для любых “агентных сервисов”, поверх которого вы уже строите свои графы, рантаймы и оркестраторы.
Подробнее: сайт OAP Foundation
⸻
🏗 AGNTCY — инфраструктура “Интернета агентов”
AGNTCY — это уже не один протокол, а open-source стек инфраструктуры для “Internet of Agents”: discovery, identity, messaging и observability между агентами разных вендоров и фреймворков (LangGraph, LangChain, CrewAI, LlamaIndex и т.д.).
Его двигают Cisco, LangChain, Galileo и ко под зонтиком Linux Foundation как открытый стандарт для мультиагентных систем.
Технический фундамент AGNTCY:
• OASF (Open Agent Schema Framework) — как OpenAPI, но для агентов:
описывает capabilities, входы/выходы, эндпоинты, метрики. Поддерживает A2A-агентов, MCP-серверы и может расширяться под другие форматы.
• ACP (Agent Connect Protocol) — безопасный протокол подключения и общения:
как подключиться к агенту, запустить ран, подписаться на события, мониторить выполнение.
AGNTCY, по сути, строит “городскую инфраструктуру” для агентов: есть правила регистрации (OASF), линии связи и протоколы (ACP), единые механизмы мониторинга и управления.
Подробнее:
• сайт: agntcy.org
• дока/спеки: docs.agntcy.org
⸻
🧠 Зачем это практику
Если вы строите своих агентов / ассистентов / MCP-инструменты, OAP + AGNTCY дают:
• интероперабельность — агенты и инструменты в разных фреймворках могут общаться по единому API, без жёсткого vendor lock-in;
• единый слой discovery и описаний (OASF) — агент становится “ресурсом сети”, который можно найти, оценить и подключить;
• готовую инфраструктуру для продакшена: трассировка, метрики, безопасность и управление multi-agent workflow’ами на уровне экосистемы, а не только вашего кода.
Короче, это шаг к тому, чтобы агенты стали не локальными игрушками внутри одного рантайма, а полноценными участниками распределённого “Интернета агентов”.
С мультиагентными системами сейчас та же история, что когда-то с вебом: каждый варится в своём фреймворке, а экосистема тонет в зоопарке протоколов. OAP и AGNTCY — попытка навести порядок и собрать общий “Интернет агентов”.
⸻
🧩 OAP — “HTTP” для агентов
Open Agent Protocol (OAP) — открытый комьюнити-драйв стандарт для общения агентов между собой и с инструментами, независимо от фреймворка. Идея простая: дать универсальный API, чтобы агент мог:
• передать задачу другому агенту,
• получить статус выполнения и логи,
• забрать результаты в стандартном формате,
• объявить вовне свои возможности и схему (что умеет, какие входы/выходы).
Если упрощать — OAP хочет быть тем же, чем стал HTTP для сайтов: общим языком для любых “агентных сервисов”, поверх которого вы уже строите свои графы, рантаймы и оркестраторы.
Подробнее: сайт OAP Foundation
⸻
🏗 AGNTCY — инфраструктура “Интернета агентов”
AGNTCY — это уже не один протокол, а open-source стек инфраструктуры для “Internet of Agents”: discovery, identity, messaging и observability между агентами разных вендоров и фреймворков (LangGraph, LangChain, CrewAI, LlamaIndex и т.д.).
Его двигают Cisco, LangChain, Galileo и ко под зонтиком Linux Foundation как открытый стандарт для мультиагентных систем.
Технический фундамент AGNTCY:
• OASF (Open Agent Schema Framework) — как OpenAPI, но для агентов:
описывает capabilities, входы/выходы, эндпоинты, метрики. Поддерживает A2A-агентов, MCP-серверы и может расширяться под другие форматы.
• ACP (Agent Connect Protocol) — безопасный протокол подключения и общения:
как подключиться к агенту, запустить ран, подписаться на события, мониторить выполнение.
AGNTCY, по сути, строит “городскую инфраструктуру” для агентов: есть правила регистрации (OASF), линии связи и протоколы (ACP), единые механизмы мониторинга и управления.
Подробнее:
• сайт: agntcy.org
• дока/спеки: docs.agntcy.org
⸻
🧠 Зачем это практику
Если вы строите своих агентов / ассистентов / MCP-инструменты, OAP + AGNTCY дают:
• интероперабельность — агенты и инструменты в разных фреймворках могут общаться по единому API, без жёсткого vendor lock-in;
• единый слой discovery и описаний (OASF) — агент становится “ресурсом сети”, который можно найти, оценить и подключить;
• готовую инфраструктуру для продакшена: трассировка, метрики, безопасность и управление multi-agent workflow’ами на уровне экосистемы, а не только вашего кода.
Короче, это шаг к тому, чтобы агенты стали не локальными игрушками внутри одного рантайма, а полноценными участниками распределённого “Интернета агентов”.
👍2🤪1
PSI как базовая «шина приватных данных» для AI-агентов
Когда начинаешь связывать несколько AI-агентов между собой, быстро упираешься в вопрос:
как обмениваться инсайтами, не раскрывая сырые данные?
Здесь в игру вступает PSI (Private Set Intersection) и MPC-фреймворки.
⸻
PSI по сути
PSI позволяет нескольким сторонам узнать пересечение их множеств (например, общих пользователей)
без раскрытия остальной части списков.
В мультиагентных системах это выглядит так:
• каждый агент хранит свою базу (пользователи, сделки, события);
• через PSI они узнают только, кто у них общий;
• сырые данные за пределами пересечения никто не видит.
Фактически PSI становится приватной шиной сопоставления идентификаторов между агентами.
⸻
Дальше — Secure MPC: вычисления поверх зашифрованных данных
PSI решает «кто пересекается?».
Но обычно нужно ещё и что-то посчитать поверх пересечения: скоринг, агрегаты, фичи для моделей и т.д.
Это делает Secure Multi-Party Computation (MPC) — совместные вычисления функции f(x₁, x₂,…)
так, чтобы участники не раскрывали друг другу свои входные данные.
Ключевые фреймворки:
• MP-SPDZ
• Поддерживает 34+ вариантов MPC-протоколов под разные модели безопасности.
• Даёт единый high-level интерфейс, позволяя выбирать протокол под задачу (скорость / угрозы / инфраструктура).
• ABY Framework
• Комбинирует три представления:
• Arithmetic sharing — удобно для матриц и ML,
• Boolean sharing — удобно для логики и сравнений,
• Yao’s garbled circuits — универсальный вариант.
• Важное свойство — дешёвые конверсии между представлениями, что позволяет оптимизировать вычисления.
⸻
Circuit-PSI: когда пересечение — это только начало
Circuit-PSI идёт дальше:
• стороны выполняют PSI,
• но пересечение сразу остаётся в виде secret-shared представления,
• и поверх него тут же запускается MPC-вычисление нужной функции.
То есть агенты никогда не видят сами элементы пересечения, только итоговый результат вычислений
(скоринг, агрегаты, метрики и т.д.).
⸻
Как это встраивается в архитектуру AI-агентов
Базовый паттерн для приватных мультиагентных / федеративных сценариев:
1. PSI / Circuit-PSI
• агенты приватно синхронизируют пересечение по user_id / device_id / merchant_id и т.п.
2. MPC (MP-SPDZ / ABY)
• поверх этого пересечения считаются скоринги, статистика, обучаются/обновляются модели.
• выбирается протокол под требования регуляции и производительности.
3. Агентный оркестратор
• один агент отвечает за выбор протоколов и запуск криптопайплайна,
• предметные агенты (риск, маркетинг, рекомендации) получают только безопасный агрегированный результат,
• сырые данные сторон по-прежнему изолированы.
⸻
Итог:
PSI + MPC (MP-SPDZ, ABY, Circuit-PSI) — это слой, который позволяет AI-агентам сотрудничать на данных
в духе «федеративной аналитики», не превращая систему в ещё один централизованный «пылесос данных».
Когда начинаешь связывать несколько AI-агентов между собой, быстро упираешься в вопрос:
как обмениваться инсайтами, не раскрывая сырые данные?
Здесь в игру вступает PSI (Private Set Intersection) и MPC-фреймворки.
⸻
PSI по сути
PSI позволяет нескольким сторонам узнать пересечение их множеств (например, общих пользователей)
без раскрытия остальной части списков.
В мультиагентных системах это выглядит так:
• каждый агент хранит свою базу (пользователи, сделки, события);
• через PSI они узнают только, кто у них общий;
• сырые данные за пределами пересечения никто не видит.
Фактически PSI становится приватной шиной сопоставления идентификаторов между агентами.
⸻
Дальше — Secure MPC: вычисления поверх зашифрованных данных
PSI решает «кто пересекается?».
Но обычно нужно ещё и что-то посчитать поверх пересечения: скоринг, агрегаты, фичи для моделей и т.д.
Это делает Secure Multi-Party Computation (MPC) — совместные вычисления функции f(x₁, x₂,…)
так, чтобы участники не раскрывали друг другу свои входные данные.
Ключевые фреймворки:
• MP-SPDZ
• Поддерживает 34+ вариантов MPC-протоколов под разные модели безопасности.
• Даёт единый high-level интерфейс, позволяя выбирать протокол под задачу (скорость / угрозы / инфраструктура).
• ABY Framework
• Комбинирует три представления:
• Arithmetic sharing — удобно для матриц и ML,
• Boolean sharing — удобно для логики и сравнений,
• Yao’s garbled circuits — универсальный вариант.
• Важное свойство — дешёвые конверсии между представлениями, что позволяет оптимизировать вычисления.
⸻
Circuit-PSI: когда пересечение — это только начало
Circuit-PSI идёт дальше:
• стороны выполняют PSI,
• но пересечение сразу остаётся в виде secret-shared представления,
• и поверх него тут же запускается MPC-вычисление нужной функции.
То есть агенты никогда не видят сами элементы пересечения, только итоговый результат вычислений
(скоринг, агрегаты, метрики и т.д.).
⸻
Как это встраивается в архитектуру AI-агентов
Базовый паттерн для приватных мультиагентных / федеративных сценариев:
1. PSI / Circuit-PSI
• агенты приватно синхронизируют пересечение по user_id / device_id / merchant_id и т.п.
2. MPC (MP-SPDZ / ABY)
• поверх этого пересечения считаются скоринги, статистика, обучаются/обновляются модели.
• выбирается протокол под требования регуляции и производительности.
3. Агентный оркестратор
• один агент отвечает за выбор протоколов и запуск криптопайплайна,
• предметные агенты (риск, маркетинг, рекомендации) получают только безопасный агрегированный результат,
• сырые данные сторон по-прежнему изолированы.
⸻
Итог:
PSI + MPC (MP-SPDZ, ABY, Circuit-PSI) — это слой, который позволяет AI-агентам сотрудничать на данных
в духе «федеративной аналитики», не превращая систему в ещё один централизованный «пылесос данных».
👍2🔥1
🧩 Axiom — боевые Claude Code-агенты для iOS/xOS
Если вы пишете под iOS / iPadOS / watchOS / tvOS и уже пользуетесь Claude Code, обязательно посмотрите Axiom от Charles Wiltgen. Это не просто «примерчики», а целая сборка агентов и skills, обкатанных на реальных прод-кейсах: дедлайны App Store, утечки памяти у живых пользователей, миграции баз с сотнями тысяч юзеров.
Что внутри 👇
• 🧠 Apple Intelligence / Foundation Models
Готовые паттерны под on-device AI: structured output через @Generable, стриминг, tool calling, обвязка вокруг всех ключевых примеров WWDC 2025.
• 🎨 Современный UI и SwiftUI
Liquid Glass, новые фичи SwiftUI 26, профилирование производительности, разбор «почему этот вью тормозит», устойчивые UI-тесты (меньше флейков).
• ♿ Доступность
Скиллы, которые помогают ловить проблемы с VoiceOver, Dynamic Type, WCAG и тем, что может завалить ревью в App Store.
• 🐞 Отладка и перф
BUILD FAILED, зависший симулятор, зомби-процессы, гонки данных в Swift 6 concurrency, профилирование через Instruments — под всё это есть отдельные skills.
• 💾 Хранилища и миграции
Core Data, SwiftData, SQLiteData, GRDB, миграции без потери данных, переезд с Realm и SwiftData на другие стеки, CloudKit-синхронизация.
• 🌐 Сеть и аудио
Networking (включая UDP/TCP, Network.framework), AVFoundation/пространственное аудио, бит-перфектный вывод.
Методология тоже интересная: автор жёстко завязан на TDD + “red/green/refactor”, каждый skill — это дисциплинирующий workflow, а не «магическая подсказка». Много готовых checklists и куски кода в формате «что работает / что ломает прод».
⚠️ Сейчас это preview-релиз под MIT-лицензией, автор просит фидбек — хороший момент зайти пораньше и построить свой iOS-стек вокруг Axiom + Claude Code.
🔗 Сайт: https://charleswiltgen.github.io/Axiom/
Если вы пишете под iOS / iPadOS / watchOS / tvOS и уже пользуетесь Claude Code, обязательно посмотрите Axiom от Charles Wiltgen. Это не просто «примерчики», а целая сборка агентов и skills, обкатанных на реальных прод-кейсах: дедлайны App Store, утечки памяти у живых пользователей, миграции баз с сотнями тысяч юзеров.
Что внутри 👇
• 🧠 Apple Intelligence / Foundation Models
Готовые паттерны под on-device AI: structured output через @Generable, стриминг, tool calling, обвязка вокруг всех ключевых примеров WWDC 2025.
• 🎨 Современный UI и SwiftUI
Liquid Glass, новые фичи SwiftUI 26, профилирование производительности, разбор «почему этот вью тормозит», устойчивые UI-тесты (меньше флейков).
• ♿ Доступность
Скиллы, которые помогают ловить проблемы с VoiceOver, Dynamic Type, WCAG и тем, что может завалить ревью в App Store.
• 🐞 Отладка и перф
BUILD FAILED, зависший симулятор, зомби-процессы, гонки данных в Swift 6 concurrency, профилирование через Instruments — под всё это есть отдельные skills.
• 💾 Хранилища и миграции
Core Data, SwiftData, SQLiteData, GRDB, миграции без потери данных, переезд с Realm и SwiftData на другие стеки, CloudKit-синхронизация.
• 🌐 Сеть и аудио
Networking (включая UDP/TCP, Network.framework), AVFoundation/пространственное аудио, бит-перфектный вывод.
Методология тоже интересная: автор жёстко завязан на TDD + “red/green/refactor”, каждый skill — это дисциплинирующий workflow, а не «магическая подсказка». Много готовых checklists и куски кода в формате «что работает / что ломает прод».
⚠️ Сейчас это preview-релиз под MIT-лицензией, автор просит фидбек — хороший момент зайти пораньше и построить свой iOS-стек вокруг Axiom + Claude Code.
🔗 Сайт: https://charleswiltgen.github.io/Axiom/
charleswiltgen.github.io
Axiom
Battle-tested Claude Code skills, commands, and references for Apple platform development
🔥3
🚀 GLM-4.6V вышел: “глаза” для агентов и кодеров + как завести его в Claude Code
Z.ai выкатили GLM-4.6V — новую линейку open-source VLM-моделей (Vision-Language), заточенную под агентов и frontend-автоматизацию, а не просто “ответить по картинке”.
Ключевые фишки:
• 🧠 Две версии:
• GLM-4.6V (≈106B) — тяжёлый флагман под кластер.
• GLM-4.6V-Flash (9B) — облегчённый вариант под локальные / дешёвые деплои.
• 📚 128K контекст для мультимодальных задач: длинные документы как картинки/PDF, сложные UI-макеты, цепочки тулов без обрезки мыслей.
• 🛠 Нативный function calling по картинкам и видео — скриншот/фрейм сразу идёт в tool, без лишнего “картинка → текст → prompt”.
• 🎨 Фокус на frontend replication & visual interaction: “скрин → код”, понимание диаграмм, UI-diff, анализ графиков и дашбордов.
Отдельно: Z.ai официально позиционирует GLM-4.6V как базовый визуальный движок для агентных workflows (vision + tools).
Z.ai выкатили GLM-4.6V — новую линейку open-source VLM-моделей (Vision-Language), заточенную под агентов и frontend-автоматизацию, а не просто “ответить по картинке”.
Ключевые фишки:
• 🧠 Две версии:
• GLM-4.6V (≈106B) — тяжёлый флагман под кластер.
• GLM-4.6V-Flash (9B) — облегчённый вариант под локальные / дешёвые деплои.
• 📚 128K контекст для мультимодальных задач: длинные документы как картинки/PDF, сложные UI-макеты, цепочки тулов без обрезки мыслей.
• 🛠 Нативный function calling по картинкам и видео — скриншот/фрейм сразу идёт в tool, без лишнего “картинка → текст → prompt”.
• 🎨 Фокус на frontend replication & visual interaction: “скрин → код”, понимание диаграмм, UI-diff, анализ графиков и дашбордов.
Отдельно: Z.ai официально позиционирует GLM-4.6V как базовый визуальный движок для агентных workflows (vision + tools).
👍2🔥1
Как запускать GLM-4.6V в связке с Claude Code
Важно: в кодинге рулит GLM-4.6 (текст), а GLM-4.6V едет “под капотом” Vision MCP-сервера. То есть в Claude Code ты используешь GLM-4.6 как основного “кодера”, а все визуальные задачи отдаёшь Vision MCP, который уже ходит в GLM-4.6V.
1️⃣ Подключить GLM-4.6 к Claude Code
1. Оформляешь GLM Coding Plan (Lite от ~$3/мес, заточен под Claude Code / Cline / OpenCode).
2. Берёшь API-ключ в кабинете Z.ai.
3. Ставишь Claude Code (если ещё нет): npm install -g @anthropic-ai/claude-code
4. Запускаешь офиц. скрипт Z.ai, который сам пропатчит
2️⃣ Включить GLM-4.6V через Vision MCP Server
Теперь добавляем глаза — Vision MCP Server, который уже использует GLM-4.6V под капотом.
1. Node.js ≥ 22 локально.
2. Одной командой регистрируем MCP-сервер в Claude Code:
Vision MCP даёт набор тулов поверх GLM-4.6V:
-
-
-
-
-
-
-
---
3️⃣ Как этим пользоваться в Claude Code на практике
После того как Coding Plan и Vision MCP заведены:
1. В корне проекта кладёшь, например,
2. Открываешь Claude Code:
3. В диалоге пишешь что-то в духе:
• UI → код:
Преврати ui-dashboard.png в адаптивную React + Tailwind страницу с теми же блоками и сеткой. Используй MCP-инструмент ui_to_artifact.
• Анализ диаграммы:
Разбери архитектуру на system-arch.png как understand_technical_diagram, выпиши сервисы, очереди и БД, а потом предложи план миграции на микросервисы.
• Разбор графиков / метрик:
Проанализируй metrics.png через analyze_data_visualization и опиши, что происходит с латентностью и ошибками за последнюю неделю.
Claude Code сам дернет Vision MCP, а тот — GLM-4.6V. Ты при этом остаёшься в привычном flow: запрос → tools → коммиты/патчи в репо.
⸻
4️⃣ А можно прямым API вместо MCP?
Если вдруг хочешь чистый GLM-4.6V как модель (например, для своего сервиса/агента), есть варианты:
• Z.ai / BigModel — родной API (Vision endpoint).
• Novita AI, OpenRouter — дают GLM-4.6V по OpenAI-совместимому API с роутингом/биллингом.
В теории можно завернуть такой endpoint в свой “Anthropic-совместимый” прокси и подложить его Claude Code через ANTHROPIC_BASE_URL + модель glm-4.6v. Но официально для Claude Code сейчас рекомендуемый путь именно через GLM Coding Plan + Vision MCP, потому что там уже готово:
• нормальные лимиты,
• стабильный MCP-сервер,
• и гарантированно правильное использование GLM-4.6V (vision) + GLM-4.6 (code).
Важно: в кодинге рулит GLM-4.6 (текст), а GLM-4.6V едет “под капотом” Vision MCP-сервера. То есть в Claude Code ты используешь GLM-4.6 как основного “кодера”, а все визуальные задачи отдаёшь Vision MCP, который уже ходит в GLM-4.6V.
1️⃣ Подключить GLM-4.6 к Claude Code
1. Оформляешь GLM Coding Plan (Lite от ~$3/мес, заточен под Claude Code / Cline / OpenCode).
2. Берёшь API-ключ в кабинете Z.ai.
3. Ставишь Claude Code (если ещё нет): npm install -g @anthropic-ai/claude-code
4. Запускаешь офиц. скрипт Z.ai, который сам пропатчит
~/.claude/settings.json:curl -O "https://cdn.bigmodel.cn/install/claude_code_zai_env.sh" && bash ./claude_code_zai_env.sh2️⃣ Включить GLM-4.6V через Vision MCP Server
Теперь добавляем глаза — Vision MCP Server, который уже использует GLM-4.6V под капотом.
1. Node.js ≥ 22 локально.
2. Одной командой регистрируем MCP-сервер в Claude Code:
claude mcp add -s user zai-mcp-server \
--env Z_AI_API_KEY=your_api_key Z_AI_MODE=ZAI \
-- npx -y "@z_ai/mcp-server"Vision MCP даёт набор тулов поверх GLM-4.6V:
-
ui_to_artifact — скрин → код/спека/описание (идеально под frontend-генерацию). -
extract_text_from_screenshot — OCR любых скринов (код, логи, ошибки, документация). -
diagnose_error_screenshot — анализ скринов с ошибками/стектрейсами. -
understand_technical_diagram — архитектуры, UML, ER и т.п. -
analyze_data_visualization — чтение чартов и дашбордов. -
ui_diff_check — сравнение двух UI-скринов. -
image_analysis / video_analysis — общие визуальные задачи и короткие видео. ---
3️⃣ Как этим пользоваться в Claude Code на практике
После того как Coding Plan и Vision MCP заведены:
1. В корне проекта кладёшь, например,
ui-dashboard.png. 2. Открываешь Claude Code:
cd /your/project
claude3. В диалоге пишешь что-то в духе:
• UI → код:
Преврати ui-dashboard.png в адаптивную React + Tailwind страницу с теми же блоками и сеткой. Используй MCP-инструмент ui_to_artifact.
• Анализ диаграммы:
Разбери архитектуру на system-arch.png как understand_technical_diagram, выпиши сервисы, очереди и БД, а потом предложи план миграции на микросервисы.
• Разбор графиков / метрик:
Проанализируй metrics.png через analyze_data_visualization и опиши, что происходит с латентностью и ошибками за последнюю неделю.
Claude Code сам дернет Vision MCP, а тот — GLM-4.6V. Ты при этом остаёшься в привычном flow: запрос → tools → коммиты/патчи в репо.
⸻
4️⃣ А можно прямым API вместо MCP?
Если вдруг хочешь чистый GLM-4.6V как модель (например, для своего сервиса/агента), есть варианты:
• Z.ai / BigModel — родной API (Vision endpoint).
• Novita AI, OpenRouter — дают GLM-4.6V по OpenAI-совместимому API с роутингом/биллингом.
В теории можно завернуть такой endpoint в свой “Anthropic-совместимый” прокси и подложить его Claude Code через ANTHROPIC_BASE_URL + модель glm-4.6v. Но официально для Claude Code сейчас рекомендуемый путь именно через GLM Coding Plan + Vision MCP, потому что там уже готово:
• нормальные лимиты,
• стабильный MCP-сервер,
• и гарантированно правильное использование GLM-4.6V (vision) + GLM-4.6 (code).
Z.AI DEVELOPER DOCUMENT
Claude Code - Z.AI DEVELOPER DOCUMENT
Methods for integrating the latest GLM-4.5 series models from Z.AI with Claude Code
🤔2🔥1
🧩 Don’t build agents, build skills
У Anthropic вышел очень классный доклад Barry Zhang & Mahesh Murag — мысль простая, но переворачивает подход к агентам:
не надо сразу строить “суперагента на все случаи жизни”, нужно строить библиотеку скиллов.
Что такое skill в их понимании:
• это оформленный сценарий работы: инструкция + примеры + (опционально) код;
• он решает одну конкретную задачу: написать отчёт по шаблону, разобрать выгрузку, оформить предложение клиенту;
• модель сама подбирает нужный skill и подгружает только релевантные куски (progressive disclosure), а не тащит в контекст всю вселенную как это происходит с mcp.
Почему это важнее, чем “один большой агент”:
• 🔍 Контроль — легко тестировать и дебажить отдельный навык, а не разбираться, почему “агент сошёл с ума”.
• 🧱 Композиция — разные skills можно комбинировать под запрос, не переписывая архитектуру.
• 🧪 Эволюция — можно версионировать и чинить конкретный skill, не ломая всё остальное.
• 👥 Орг-знание — skills становятся способом упаковать процессы компании так, чтобы ИИ работал “как ваша команда”, а не как абстрактный ассистент.
Примеры того, что логично оформлять в skills, а не “учить агента на лету”:
• оформление коммерческих предложений именно в вашем стиле;
• подготовка отчётов/презентаций по внутреннему шаблону;
• разбор логов/метрик по вашей методике;
• чек-листы ревью кода и релизов.
Если вы играете с Claude, Agents SDK, LangGraph, MCP и прочими штуками — стоит начинать проектирование именно со скиллов, а не с “агента-генерала”. Сначала описываем повторяемые процедуры, потом даём модели оркестрировать их под задачу.
Видео: “Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag (Anthropic)” — очень рекомендую к просмотру, особенно тем, кто сейчас проектирует свою агентную платформу или ИИ-помощника под команду.
Ссылка: https://www.youtube.com/watch?v=CEvIs9y1uog
У Anthropic вышел очень классный доклад Barry Zhang & Mahesh Murag — мысль простая, но переворачивает подход к агентам:
не надо сразу строить “суперагента на все случаи жизни”, нужно строить библиотеку скиллов.
Что такое skill в их понимании:
• это оформленный сценарий работы: инструкция + примеры + (опционально) код;
• он решает одну конкретную задачу: написать отчёт по шаблону, разобрать выгрузку, оформить предложение клиенту;
• модель сама подбирает нужный skill и подгружает только релевантные куски (progressive disclosure), а не тащит в контекст всю вселенную как это происходит с mcp.
Почему это важнее, чем “один большой агент”:
• 🔍 Контроль — легко тестировать и дебажить отдельный навык, а не разбираться, почему “агент сошёл с ума”.
• 🧱 Композиция — разные skills можно комбинировать под запрос, не переписывая архитектуру.
• 🧪 Эволюция — можно версионировать и чинить конкретный skill, не ломая всё остальное.
• 👥 Орг-знание — skills становятся способом упаковать процессы компании так, чтобы ИИ работал “как ваша команда”, а не как абстрактный ассистент.
Примеры того, что логично оформлять в skills, а не “учить агента на лету”:
• оформление коммерческих предложений именно в вашем стиле;
• подготовка отчётов/презентаций по внутреннему шаблону;
• разбор логов/метрик по вашей методике;
• чек-листы ревью кода и релизов.
Если вы играете с Claude, Agents SDK, LangGraph, MCP и прочими штуками — стоит начинать проектирование именно со скиллов, а не с “агента-генерала”. Сначала описываем повторяемые процедуры, потом даём модели оркестрировать их под задачу.
Видео: “Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag (Anthropic)” — очень рекомендую к просмотру, особенно тем, кто сейчас проектирует свою агентную платформу или ИИ-помощника под команду.
Ссылка: https://www.youtube.com/watch?v=CEvIs9y1uog
YouTube
Don't Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag, Anthropic
In the past year, we've seen rapid advancement of model intelligence and convergence on agent scaffolding. But there's still a gap: agents often lack the domain expertise and specialized knowledge needed for real-world work. We think Skills are the solution—a…
🔥4👍1
🚀 Anthropic “отпускает” MCP в open-source и запускает Agentic AI Foundation
Anthropic объявила, что передаёт Model Context Protocol (MCP) под крыло Linux Foundation — в новый фонд Agentic AI Foundation (AAIF), который они сделали вместе с Block и OpenAI при поддержке Google, Microsoft, AWS, Cloudflare и Bloomberg.
Что важно про MCP прямо сейчас:
• Уже 10 000+ публичных MCP-серверов — от дев-тулов до форчунов.
• MCP поддерживают ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code и другие продукты.
• Есть enterprise-инфра: деплой через AWS, Cloudflare, Google Cloud, Azure.
За год MCP сильно эволюционировал:
• Появился официальный Registry MCP-серверов.
• В релизе спеки от 25 ноября добавили асинхронные операции, stateless-режим, идентичность сервера и extensibility.
• Вышли официальные SDK на основных языках, уже 97M+ скачиваний в месяц (Python + TypeScript).
🧱 Agentic AI Foundation (AAIF) — это directed fund внутри Linux Foundation для всего, что связано с агентными AI-системами и открытыми стандартами. MCP становится одним из базовых проектов фонда, рядом с goose (Block) и AGENTS.md (OpenAI).
Ключевой смысл:
• MCP закрепляют как открытый, вендор-нейтральный стандарт под управлением Linux Foundation.
• Говернанс MCP остаётся community-driven, мейнтейнеры продолжают рулить развитием вместе с сообществом.
Для нас, кто строит агентов и инфраструктуру вокруг них, это сигнал, что MCP — уже не “формат Anthropic”, а общий инфраструктурный слой для экосистемы агентного AI.
Anthropic объявила, что передаёт Model Context Protocol (MCP) под крыло Linux Foundation — в новый фонд Agentic AI Foundation (AAIF), который они сделали вместе с Block и OpenAI при поддержке Google, Microsoft, AWS, Cloudflare и Bloomberg.
Что важно про MCP прямо сейчас:
• Уже 10 000+ публичных MCP-серверов — от дев-тулов до форчунов.
• MCP поддерживают ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code и другие продукты.
• Есть enterprise-инфра: деплой через AWS, Cloudflare, Google Cloud, Azure.
За год MCP сильно эволюционировал:
• Появился официальный Registry MCP-серверов.
• В релизе спеки от 25 ноября добавили асинхронные операции, stateless-режим, идентичность сервера и extensibility.
• Вышли официальные SDK на основных языках, уже 97M+ скачиваний в месяц (Python + TypeScript).
🧱 Agentic AI Foundation (AAIF) — это directed fund внутри Linux Foundation для всего, что связано с агентными AI-системами и открытыми стандартами. MCP становится одним из базовых проектов фонда, рядом с goose (Block) и AGENTS.md (OpenAI).
Ключевой смысл:
• MCP закрепляют как открытый, вендор-нейтральный стандарт под управлением Linux Foundation.
• Говернанс MCP остаётся community-driven, мейнтейнеры продолжают рулить развитием вместе с сообществом.
Для нас, кто строит агентов и инфраструктуру вокруг них, это сигнал, что MCP — уже не “формат Anthropic”, а общий инфраструктурный слой для экосистемы агентного AI.
1👍7
⚙️ Devstral 2: инференс дешевеет на глазах
Mistral выкатила Devstral 2 — кодовую модель 123B с 256K контекстом, которая берёт 72.2% на SWE-Bench Verified и при этом до 7 раз дешевле Claude Sonnet на реальных задачах, по их же бенчмаркам.
Младшая Devstral Small 2 (24B) даёт 68% на SWE-Bench Verified, держится на уровне/выше многих 70B-моделей и может работать локально, в том числе через GGUF/Unsloth и MLX на макбуках.
Тренд понятен:
• параметры падают,
• качество растёт,
• цена инференса летит вниз — от бесплатного API-окна сейчас до очень дешёвых локальных запусков завтра.
Если так продолжится, к концу следующего года нас ждёт очень интересный мир, где “сильный код-агент” — это не сервис по подписке, а просто ещё один бинарь рядом с git и docker. Учитывая еще достижения в области квантовых вычислений.
claude code на devstral 2 на mlx coming soon… )
https://mistral.ai/news/devstral-2-vibe-cli
Mistral выкатила Devstral 2 — кодовую модель 123B с 256K контекстом, которая берёт 72.2% на SWE-Bench Verified и при этом до 7 раз дешевле Claude Sonnet на реальных задачах, по их же бенчмаркам.
Младшая Devstral Small 2 (24B) даёт 68% на SWE-Bench Verified, держится на уровне/выше многих 70B-моделей и может работать локально, в том числе через GGUF/Unsloth и MLX на макбуках.
Тренд понятен:
• параметры падают,
• качество растёт,
• цена инференса летит вниз — от бесплатного API-окна сейчас до очень дешёвых локальных запусков завтра.
Если так продолжится, к концу следующего года нас ждёт очень интересный мир, где “сильный код-агент” — это не сервис по подписке, а просто ещё один бинарь рядом с git и docker. Учитывая еще достижения в области квантовых вычислений.
claude code на devstral 2 на mlx coming soon… )
https://mistral.ai/news/devstral-2-vibe-cli
👍3🥴1
🟣 Claude Island — Dynamic Island для Claude Code на macOS
Классная маленькая утилита для тех, кто живёт в Claude Code CLI:
Claude Island — это меню-барное приложение для macOS, которое превращает «чёлку» MacBook в виджет с уведомлениями от Claude Code.
Что умеет:
• 🏝 Notch UI — анимационный оверлей, который выезжает из выреза (Dynamic Island-стайл).
• 👀 Live-мониторинг сессий — показывает несколько сессий Claude Code в реальном времени.
• ✅ Approve / Deny из «чёлки» — запросы на запуск tools можно подтверждать/отклонять прямо из виджета, не переключаясь в терминал.
• 🧾 История чата — просмотр полной истории сессии с рендерингом Markdown.
• 🔌 Auto-setup — при первом запуске сам ставит хуки в ~/.claude/hooks/ и слушает события через Unix-сокет.
Требования:
• macOS 15.6+
• установленный Claude Code CLI
Установка:
1. Скачать последний релиз из GitHub Releases.
2. Или собрать из исходников:
Немного про телеметрию:
• Использует Mixpanel для анонимной статистики (запуск приложения, старт сессии и т.п.),
• контент переписок не отправляется.
Лицензия — Apache 2.0, репозиторий открытый:
https://github.com/farouqaldori/claude-island
Классная маленькая утилита для тех, кто живёт в Claude Code CLI:
Claude Island — это меню-барное приложение для macOS, которое превращает «чёлку» MacBook в виджет с уведомлениями от Claude Code.
Что умеет:
• 🏝 Notch UI — анимационный оверлей, который выезжает из выреза (Dynamic Island-стайл).
• 👀 Live-мониторинг сессий — показывает несколько сессий Claude Code в реальном времени.
• ✅ Approve / Deny из «чёлки» — запросы на запуск tools можно подтверждать/отклонять прямо из виджета, не переключаясь в терминал.
• 🧾 История чата — просмотр полной истории сессии с рендерингом Markdown.
• 🔌 Auto-setup — при первом запуске сам ставит хуки в ~/.claude/hooks/ и слушает события через Unix-сокет.
Требования:
• macOS 15.6+
• установленный Claude Code CLI
Установка:
1. Скачать последний релиз из GitHub Releases.
2. Или собрать из исходников:
xcodebuild -scheme ClaudeIsland -configuration Release build
``` [oai_citation:3‡GitHub](https://github.com/farouqaldori/claude-island) Немного про телеметрию:
• Использует Mixpanel для анонимной статистики (запуск приложения, старт сессии и т.п.),
• контент переписок не отправляется.
Лицензия — Apache 2.0, репозиторий открытый:
https://github.com/farouqaldori/claude-island
GitHub
GitHub - farouqaldori/claude-island: Claude Code notifications without the context switch. A minimal, always-present session manager…
Claude Code notifications without the context switch. A minimal, always-present session manager for macOS. - farouqaldori/claude-island
2026: Год, когда IDE умерла — но не разработчики 🔥
В видео «2026: The Year The IDE Died» Стив Йегги и Джин Ким обсуждают, как AI-кодинг меняет саму идею IDE и разработки в целом. Не про «ещё один плагин к VS Code», а про смену парадигмы.
Ключевые мысли, которые стоит вынести 👇
• 🪦 Классическая IDE — переходная форма.
В мире AI-coding главный объект — больше не файл и не редактор, а поток работы: задачи, спеки, чанки изменений, агенты, которые всё это жонглируют. IDE превращается в оркестратор агентов и воркфлоу, а не «умный текстовый редактор».
• 🐝 Роевые агенты важнее «одной супермодели».
Вместо «одного всесильного ИИ» — стая специализированных агентов:
• одни режут задачи на подзадачи,
• другие предлагают патчи,
• третьи гоняют тесты и статанализ,
• четвёртые следят за архитектурными инвариантами.
Разработчик становится дирижёром этого роя.
• 👓 Код мы всё равно будем читать.
Вопреки хайпу «через два года никто не будет смотреть в код» — для серьёзных систем всё равно остаётся: ревью, диффы, понимание инвариантов, отказоустойчивости, секьюрности. Люди меньше «печатают», но больше осмысляют и проверяют.
• 🧠 Роль сеньора: меньше рук, больше головы.
Сеньоры смещаются из роли «главный тачтАйпист» в роль:
• формулировать спеки и границы систем,
• задавать архитектуру и контракты,
• выстраивать guardrails для агентов,
• ревьюить и интегрировать их работу.
• 🧑🎓 Джуниорам AI даёт турбо-ускорение, но не заменяет базу.
AI прекрасно помогает учиться быстрее — пробовать больше идей, получать объяснения, разбирать чужой код. Но без понимания алгоритмов, состояния, потоков данных и дебагинга — это будет «замок на песке».
• ⚠️ Две опасные крайности:
• сеньоры, которые снисходительно считают AI «автокомплитом» и добровольно отказываются от leverage;
• новички, которые полностью полагаются на AI и вообще не строят ментальные модели систем.
В итоге месседж видео простой, но важный:
IDE в привычном виде действительно «умирает» — на её месте рождается AI-first среда, где код — это артефакт, а основная работа разработчика — постановка задач, дизайн систем и управление роем агентов.
Очень резонирует с идеей vibe-coding / hive-coding:
меньше ковыряться в файлах, больше — в смыслах и потоках работы.
https://www.youtube.com/watch?v=7Dtu2bilcFs
В видео «2026: The Year The IDE Died» Стив Йегги и Джин Ким обсуждают, как AI-кодинг меняет саму идею IDE и разработки в целом. Не про «ещё один плагин к VS Code», а про смену парадигмы.
Ключевые мысли, которые стоит вынести 👇
• 🪦 Классическая IDE — переходная форма.
В мире AI-coding главный объект — больше не файл и не редактор, а поток работы: задачи, спеки, чанки изменений, агенты, которые всё это жонглируют. IDE превращается в оркестратор агентов и воркфлоу, а не «умный текстовый редактор».
• 🐝 Роевые агенты важнее «одной супермодели».
Вместо «одного всесильного ИИ» — стая специализированных агентов:
• одни режут задачи на подзадачи,
• другие предлагают патчи,
• третьи гоняют тесты и статанализ,
• четвёртые следят за архитектурными инвариантами.
Разработчик становится дирижёром этого роя.
• 👓 Код мы всё равно будем читать.
Вопреки хайпу «через два года никто не будет смотреть в код» — для серьёзных систем всё равно остаётся: ревью, диффы, понимание инвариантов, отказоустойчивости, секьюрности. Люди меньше «печатают», но больше осмысляют и проверяют.
• 🧠 Роль сеньора: меньше рук, больше головы.
Сеньоры смещаются из роли «главный тачтАйпист» в роль:
• формулировать спеки и границы систем,
• задавать архитектуру и контракты,
• выстраивать guardrails для агентов,
• ревьюить и интегрировать их работу.
• 🧑🎓 Джуниорам AI даёт турбо-ускорение, но не заменяет базу.
AI прекрасно помогает учиться быстрее — пробовать больше идей, получать объяснения, разбирать чужой код. Но без понимания алгоритмов, состояния, потоков данных и дебагинга — это будет «замок на песке».
• ⚠️ Две опасные крайности:
• сеньоры, которые снисходительно считают AI «автокомплитом» и добровольно отказываются от leverage;
• новички, которые полностью полагаются на AI и вообще не строят ментальные модели систем.
В итоге месседж видео простой, но важный:
IDE в привычном виде действительно «умирает» — на её месте рождается AI-first среда, где код — это артефакт, а основная работа разработчика — постановка задач, дизайн систем и управление роем агентов.
Очень резонирует с идеей vibe-coding / hive-coding:
меньше ковыряться в файлах, больше — в смыслах и потоках работы.
https://www.youtube.com/watch?v=7Dtu2bilcFs
YouTube
2026: The Year The IDE Died — Steve Yegge & Gene Kim, Authors, Vibe Coding
As AI has grown more capable, software developers around the world have lagged behind the technology advances, and have consistently eschewed the most powerful tools. In this talk I explore why devs are staying 9-12 months behind the AI curve. I'll share…
🔥5👍2❤1
И еще раз про OpenCode (opencode.ai)
OpenCode — open-source AI coding agent для терминала (есть TUI, десктоп и IDE-интеграция), который реально можно встроить в ежедневный dev-флоу.
Что мне понравилось (и почему это “серьёзная лига”):
• Модель-агностик: можно подключать разных провайдеров (Claude/GPT/Gemini и т.д.), есть поддержка локальных моделей, заявлено 75+ провайдеров через AI SDK / Models.dev.
• Agents + subagents: в OpenCode есть “первичные” агенты и сабагенты, между ними можно переключаться или вызывать через @-упоминание. Удобный паттерн: “plan”-агент для анализа без правок кода.
• Commands: можно описывать команды, и важный флажок — subtask: true, чтобы команда выполнялась как сабагент и не засоряла основной контекст.
• Custom Tools = skills: кастомные тулзы — это ваши функции, которые модель может вызывать рядом со встроенными read/write/bash. По сути, это прям “скиллы” для агента (хоть на Python).
• Безопасность выполнения: для shell-команд есть запрос разрешений (accept / accept always / deny) и понятная область действия “accept always”.
Моё ощущение: если Claude Code — №1 терминальный агент, то OpenCode сейчас выглядит как кандидат на №2 по мощности — за счёт open-source, гибкой агентности (subagents) и расширяемости через tools/commands.
# установка
Ссылки:
https://opencode.ai/
https://opencode.ai/docs/agents/
https://opencode.ai/docs/commands/
https://opencode.ai/docs/custom-tools/
OpenCode — open-source AI coding agent для терминала (есть TUI, десктоп и IDE-интеграция), который реально можно встроить в ежедневный dev-флоу.
Что мне понравилось (и почему это “серьёзная лига”):
• Модель-агностик: можно подключать разных провайдеров (Claude/GPT/Gemini и т.д.), есть поддержка локальных моделей, заявлено 75+ провайдеров через AI SDK / Models.dev.
• Agents + subagents: в OpenCode есть “первичные” агенты и сабагенты, между ними можно переключаться или вызывать через @-упоминание. Удобный паттерн: “plan”-агент для анализа без правок кода.
• Commands: можно описывать команды, и важный флажок — subtask: true, чтобы команда выполнялась как сабагент и не засоряла основной контекст.
• Custom Tools = skills: кастомные тулзы — это ваши функции, которые модель может вызывать рядом со встроенными read/write/bash. По сути, это прям “скиллы” для агента (хоть на Python).
• Безопасность выполнения: для shell-команд есть запрос разрешений (accept / accept always / deny) и понятная область действия “accept always”.
Моё ощущение: если Claude Code — №1 терминальный агент, то OpenCode сейчас выглядит как кандидат на №2 по мощности — за счёт open-source, гибкой агентности (subagents) и расширяемости через tools/commands.
# установка
curl -fsSL https://opencode.ai/install | bashСсылки:
https://opencode.ai/
https://opencode.ai/docs/agents/
https://opencode.ai/docs/commands/
https://opencode.ai/docs/custom-tools/
opencode.ai
OpenCode | The open source AI coding agent
OpenCode - The open source coding agent.
👍3
Я на самом деле ковырялся в репе ребят из https://github.com/nearai. И нашел у них сетап свой https://github.com/nearai/opencode. Надо тоже свой сетап делать)
GitHub
Near AI
Near AI has 45 repositories available. Follow their code on GitHub.
Вам интересно читать мои мысли про агентов на блокчейне и вообще про блокчейн?
Anonymous Poll
28%
Да, агенты на блокчейне очень интересно
37%
Интересно и про агентов на блокчейне и про сам блокчейн
35%
Не, подписалсся читать только про вайб кодинг
Media is too big
VIEW IN TELEGRAM
🧠 Один из самых выдающихся инженеров современности Джефф Дин сделал доклад — “Important AI Trends” (Stanford AI Club, ~41 мин) и переведенное мной видео на русский. На мой взгляд там очень много технических важных терминов, и лучше сразу прослушать на русском, а потом закрепить на английском)
Ссылка на оригинал: https://www.youtube.com/watch?v=AnTw_t21ayE
Это быстрый “таймлайн” того, как AI дошёл от нейросетей до мультимодальных LLM, и почему следующий рывок — не только в параметрах, а в эффективности, архитектуре и системах.
Что внутри (по главам/таймкодам)
• 10:00 → 07:10: основы/возрождение нейросетей, Google Brain, unsupervised/word representations, seq2seq
• 12:15 → 20:57: TPU, open-source стек (TensorFlow/PyTorch), attention + масштабирование LM, ViT, sparse + Pathways
• 24:55 → 29:26: prompting + distillation, RL для post-training
• 35:07 → конец: демо Gemini (мультимодальность, большие контексты, прогресс в матем. рассуждениях и кодогенерации)
Главные тезисы, которые я бы вынес
1. Сдвиг “scale любой ценой” → “scale с умной активацией”: sparse-архитектуры в духе Pathways (активируется лишь нужная часть модели под задачу).
2. Железо — часть модели: специализированные ускорители (TPU) и “упаковка” в большие конфигурации (в т.ч. Ironwood до 9,216 чипов) — это прямой множитель прогресса.
3. “Дешевле и компактнее” важно не меньше “умнее”: distillation — классический приём (Hinton et al.) как тащить качество больших моделей в маленькие, ближе к продакшен-ограничениям.
4. Post-training через RL — отдельный слой качества/поведения поверх предобучения (особенно в проверяемых доменах вроде кода/математики).
Ссылка на оригинал: https://www.youtube.com/watch?v=AnTw_t21ayE
Это быстрый “таймлайн” того, как AI дошёл от нейросетей до мультимодальных LLM, и почему следующий рывок — не только в параметрах, а в эффективности, архитектуре и системах.
Что внутри (по главам/таймкодам)
• 10:00 → 07:10: основы/возрождение нейросетей, Google Brain, unsupervised/word representations, seq2seq
• 12:15 → 20:57: TPU, open-source стек (TensorFlow/PyTorch), attention + масштабирование LM, ViT, sparse + Pathways
• 24:55 → 29:26: prompting + distillation, RL для post-training
• 35:07 → конец: демо Gemini (мультимодальность, большие контексты, прогресс в матем. рассуждениях и кодогенерации)
Главные тезисы, которые я бы вынес
1. Сдвиг “scale любой ценой” → “scale с умной активацией”: sparse-архитектуры в духе Pathways (активируется лишь нужная часть модели под задачу).
2. Железо — часть модели: специализированные ускорители (TPU) и “упаковка” в большие конфигурации (в т.ч. Ironwood до 9,216 чипов) — это прямой множитель прогресса.
3. “Дешевле и компактнее” важно не меньше “умнее”: distillation — классический приём (Hinton et al.) как тащить качество больших моделей в маленькие, ближе к продакшен-ограничениям.
4. Post-training через RL — отдельный слой качества/поведения поверх предобучения (особенно в проверяемых доменах вроде кода/математики).
👍3
🧠 Где на самом деле будут жить AI-агенты?
Последнее время много кручу в голове тему инфраструктуры для AI в Web3. Хайпа много, но технически подружить нейронки с блокчейном — та еще задача.
L1 (типа Ethereum) — это по сути очень медленный калькулятор. Запускать на нем инференс LLM — утопия.
Я прихожу к выводу, что мы идем к концепции «Вычислительных Зон». Для нас, разработчиков, это по сути AI-сопроцессоры. Блокчейн остается слоем верификации (судьей), а тяжелые вычисления (ML) уходят в специализированные среды.
Вот 5 технологий, за которыми я сейчас слежу. Именно из них будет собираться стек децентрализованного AI:
1️⃣ ZK (Zero-Knowledge) — Криптографическая гарантия Для AI-кодинга это перерастает в направление zkML. — О чем я думаю: Это способ доказать, что модель выдала результат честно, не подменив веса, и при этом не раскрывать саму модель (если она проприетарная). — Стек: Тут сейчас идет битва виртуальных машин (RISC Zero vs SP1). Они позволяют компилировать Rust/C++ в ZK-пруфы. Если вы пишете на Rust — это ваша следующая большая ниша.
2️⃣ FHE (Fully Homomorphic Encryption) — «Слепые» вычисления Пожалуй, самая интересная штука для приватности. — Суть: Инференс происходит над зашифрованными данными. Нейронка обрабатывает промпт, даже не «видя» его. — Почему сейчас: Раньше это было дико медленно. Но в этом году случился прорыв с ускорением на GPU (Zama и др). Задержки падают до миллисекунд. Для медицинских AI или финтеха — это киллер-фича.
3️⃣ TEE (Trusted Execution Environments) — Хардварный путь Это про использование анклавов в процессорах (Intel SGX, Nvidia H100 с Confidential Compute). — Мой тейк: Это самый быстрый способ запустить приватную модель прямо сейчас. Мы доверяем не математике, а «железу» (изоляции внутри чипа). Для высокочастотных AI-агентов это станет стандартом.
4️⃣ Optimistic Models — Прагматизм Подход, который мы знаем по L2 (Arbitrum/Optimism). — Как это работает: Агент выдает результат, мы считаем его верным по дефолту. Если кто-то не согласен — есть окно времени на челлендж. Дешево, сердито, работает на стандартном стеке.
5️⃣ MPC (Multi-Party Computation) Это больше про безопасность весов модели и ключей. Модель как бы «разбита» между несколькими серверами, ни один из которых не видит полной картины.
👨💻 К чему я это все?
Мы переходим от просто написания промптов к архитектуре Verifiable AI. В ближайшем будущем, создавая AI-приложение, мы будем выбирать среду выполнения как базу данных:
• Нужна скорость? → TEE • Нужна математическая гарантия? → ZK • Нужна абсолютная приватность юзера? → FHE
Стык криптографии и ML — это сейчас, пожалуй, самое сложное, но и самое перспективное направление в деве.
Кто-то уже пробовал щупать библиотеки типа tfhe-rs или писать под zkVM? Делитесь опытом 👇
Последнее время много кручу в голове тему инфраструктуры для AI в Web3. Хайпа много, но технически подружить нейронки с блокчейном — та еще задача.
L1 (типа Ethereum) — это по сути очень медленный калькулятор. Запускать на нем инференс LLM — утопия.
Я прихожу к выводу, что мы идем к концепции «Вычислительных Зон». Для нас, разработчиков, это по сути AI-сопроцессоры. Блокчейн остается слоем верификации (судьей), а тяжелые вычисления (ML) уходят в специализированные среды.
Вот 5 технологий, за которыми я сейчас слежу. Именно из них будет собираться стек децентрализованного AI:
1️⃣ ZK (Zero-Knowledge) — Криптографическая гарантия Для AI-кодинга это перерастает в направление zkML. — О чем я думаю: Это способ доказать, что модель выдала результат честно, не подменив веса, и при этом не раскрывать саму модель (если она проприетарная). — Стек: Тут сейчас идет битва виртуальных машин (RISC Zero vs SP1). Они позволяют компилировать Rust/C++ в ZK-пруфы. Если вы пишете на Rust — это ваша следующая большая ниша.
2️⃣ FHE (Fully Homomorphic Encryption) — «Слепые» вычисления Пожалуй, самая интересная штука для приватности. — Суть: Инференс происходит над зашифрованными данными. Нейронка обрабатывает промпт, даже не «видя» его. — Почему сейчас: Раньше это было дико медленно. Но в этом году случился прорыв с ускорением на GPU (Zama и др). Задержки падают до миллисекунд. Для медицинских AI или финтеха — это киллер-фича.
3️⃣ TEE (Trusted Execution Environments) — Хардварный путь Это про использование анклавов в процессорах (Intel SGX, Nvidia H100 с Confidential Compute). — Мой тейк: Это самый быстрый способ запустить приватную модель прямо сейчас. Мы доверяем не математике, а «железу» (изоляции внутри чипа). Для высокочастотных AI-агентов это станет стандартом.
4️⃣ Optimistic Models — Прагматизм Подход, который мы знаем по L2 (Arbitrum/Optimism). — Как это работает: Агент выдает результат, мы считаем его верным по дефолту. Если кто-то не согласен — есть окно времени на челлендж. Дешево, сердито, работает на стандартном стеке.
5️⃣ MPC (Multi-Party Computation) Это больше про безопасность весов модели и ключей. Модель как бы «разбита» между несколькими серверами, ни один из которых не видит полной картины.
👨💻 К чему я это все?
Мы переходим от просто написания промптов к архитектуре Verifiable AI. В ближайшем будущем, создавая AI-приложение, мы будем выбирать среду выполнения как базу данных:
• Нужна скорость? → TEE • Нужна математическая гарантия? → ZK • Нужна абсолютная приватность юзера? → FHE
Стык криптографии и ML — это сейчас, пожалуй, самое сложное, но и самое перспективное направление в деве.
Кто-то уже пробовал щупать библиотеки типа tfhe-rs или писать под zkVM? Делитесь опытом 👇
👍3🤔1
🛡️ Shannon — автономный AI‑пентестер для веб‑приложений (KeygraphHQ).
Если коротко: это не “сканер, который насыпает алертов”, а агент, который старается доказать уязвимость делом. Shannon сам ищет векторы в коде, а потом через встроенный браузер пытается реально воспроизвести эксплойт (например, инъекции или обход авторизации), чтобы подтвердить, что баг действительно эксплуатируем.
Что внутри:
• Full‑auto режим: старт одной командой — логины (в т.ч. 2FA/TOTP и даже Google Sign‑In), навигация по приложению и финальный отчёт без ручного пинания
• Отчёты “по‑пентестерски”: только подтверждённые находки + воспроизводимые PoC’и (копипаст)
• Покрывает критичные веб‑классы (на старте): Injection, XSS, SSRF, broken auth/authorization
• “Code‑aware” динамика: использует исходники, чтобы умнее строить атаки, и подтверждает риск на живом приложении
• Под капотом подключает утилиты вроде Nmap/Subfinder/WhatWeb/Schemathesis и умеет параллелить этапы, чтобы ускоряться
Работает через Claude Code в докере. Совместимо со всеми моделями поддерживающими Anthropic протокол. То есть и GLM-4.6. То есть и ollama тоже через прокси
Есть Shannon Lite (open‑source, AGPL‑3.0) и Shannon Pro (коммерческий, с более продвинутым анализом кода).
⚠️ Важно: Shannon Lite — white‑box история (нужен доступ к коду/структуре репо). И запускать это можно только на своих системах или при явном письменном разрешении владельца иначе это статья УК 274!
GitHub: https://github.com/KeygraphHQ/shannon
Если коротко: это не “сканер, который насыпает алертов”, а агент, который старается доказать уязвимость делом. Shannon сам ищет векторы в коде, а потом через встроенный браузер пытается реально воспроизвести эксплойт (например, инъекции или обход авторизации), чтобы подтвердить, что баг действительно эксплуатируем.
Что внутри:
• Full‑auto режим: старт одной командой — логины (в т.ч. 2FA/TOTP и даже Google Sign‑In), навигация по приложению и финальный отчёт без ручного пинания
• Отчёты “по‑пентестерски”: только подтверждённые находки + воспроизводимые PoC’и (копипаст)
• Покрывает критичные веб‑классы (на старте): Injection, XSS, SSRF, broken auth/authorization
• “Code‑aware” динамика: использует исходники, чтобы умнее строить атаки, и подтверждает риск на живом приложении
• Под капотом подключает утилиты вроде Nmap/Subfinder/WhatWeb/Schemathesis и умеет параллелить этапы, чтобы ускоряться
Работает через Claude Code в докере. Совместимо со всеми моделями поддерживающими Anthropic протокол. То есть и GLM-4.6. То есть и ollama тоже через прокси
Есть Shannon Lite (open‑source, AGPL‑3.0) и Shannon Pro (коммерческий, с более продвинутым анализом кода).
⚠️ Важно: Shannon Lite — white‑box история (нужен доступ к коду/структуре репо). И запускать это можно только на своих системах или при явном письменном разрешении владельца иначе это статья УК 274!
GitHub: https://github.com/KeygraphHQ/shannon
GitHub
GitHub - KeygraphHQ/shannon: Fully autonomous AI hacker to find actual exploits in your web apps. Shannon has achieved a 96.15%…
Fully autonomous AI hacker to find actual exploits in your web apps. Shannon has achieved a 96.15% success rate on the hint-free, source-aware XBOW Benchmark. - KeygraphHQ/shannon
👍1
🚀 Cerebras + GLM-4.6: “инстант-кодинг” становится реальным
Cerebras выкатили GLM-4.6 в своём Cerebras Inference API и сделали акцент на главном: почти “фронтирное” качество для кодинга — но с вау-скоростью.
Что именно впечатляет (по их данным)
• ~1,000 tokens/sec на GLM-4.6 — это уже скорость, где ожидание перестаёт быть частью процесса.
• По сравнению с Sonnet 4.5: ~17× быстрее и при этом ~25% дешевле на Cerebras (в их бенчмарках/кейcах).
• Сильные стороны модели для прод-разработки: надёжный tool-calling, веб-дев “под ключ”, экономия токенов, точность правок кода (на телеметрии Cline: 94.5% vs 96.2% у Sonnet 4.5).
Почему Cerebras вообще может так быстро
Их ставка — убрать “бутылочное горлышко” инференса: хранить модель на чипе и не гонять веса туда-сюда через внешнюю память. В их описании — wafer-scale дизайн и 44GB SRAM на одном чипе, что снижает зависимость от памяти/межсоединений и ускоряет генерацию.
Важный нюанс про GLM-4.6
GLM-4.6 — модель от Zhipu (Z.ai), и в гайде Cerebras подчёркивают: это MoE-трансформер (355B всего, ~32B активны на проход) и она ведёт себя иначе, чем “закрытые” Claude/GPT, поэтому промпты лучше адаптировать.
Доступ и планы
В посте заявлены: pay-as-you-go dev tier от $10, а также подписки Cerebras Code от $50/мес (и более высокий план) + упоминание интеграций с инструментами вроде Cline/VS Code/OpenCode.
Вывод: Cerebras пытаются “сломать” привычную экономику вайб-кодинга: если ответы приходят за секунды, то можно реально строить многошаговые агентные цепочки без ощущения, что ты половину дня смотришь на прогресс-бар.
Посмотрите их демо с GLM https://www.cerebras.ai/blog/glm
Cerebras выкатили GLM-4.6 в своём Cerebras Inference API и сделали акцент на главном: почти “фронтирное” качество для кодинга — но с вау-скоростью.
Что именно впечатляет (по их данным)
• ~1,000 tokens/sec на GLM-4.6 — это уже скорость, где ожидание перестаёт быть частью процесса.
• По сравнению с Sonnet 4.5: ~17× быстрее и при этом ~25% дешевле на Cerebras (в их бенчмарках/кейcах).
• Сильные стороны модели для прод-разработки: надёжный tool-calling, веб-дев “под ключ”, экономия токенов, точность правок кода (на телеметрии Cline: 94.5% vs 96.2% у Sonnet 4.5).
Почему Cerebras вообще может так быстро
Их ставка — убрать “бутылочное горлышко” инференса: хранить модель на чипе и не гонять веса туда-сюда через внешнюю память. В их описании — wafer-scale дизайн и 44GB SRAM на одном чипе, что снижает зависимость от памяти/межсоединений и ускоряет генерацию.
Важный нюанс про GLM-4.6
GLM-4.6 — модель от Zhipu (Z.ai), и в гайде Cerebras подчёркивают: это MoE-трансформер (355B всего, ~32B активны на проход) и она ведёт себя иначе, чем “закрытые” Claude/GPT, поэтому промпты лучше адаптировать.
Доступ и планы
В посте заявлены: pay-as-you-go dev tier от $10, а также подписки Cerebras Code от $50/мес (и более высокий план) + упоминание интеграций с инструментами вроде Cline/VS Code/OpenCode.
Вывод: Cerebras пытаются “сломать” привычную экономику вайб-кодинга: если ответы приходят за секунды, то можно реально строить многошаговые агентные цепочки без ощущения, что ты половину дня смотришь на прогресс-бар.
Посмотрите их демо с GLM https://www.cerebras.ai/blog/glm
www.cerebras.ai
Cerebras is the go-to platform for fast and effortless AI training. Learn more at cerebras.ai.
🤔2