AI Coder – Telegram
AI Coder
289 subscribers
81 photos
10 videos
2 files
184 links
AI will not replace you, people who use AI will.
Download Telegram
Все носятся с MCP, плагинами и “AI-SDK для всего”, а про самое простое часто забывают:
агенты уже офигенно умеют работать с обычными CLI-утилитами — если у них есть нормальный --help и внятные описания команд. 🧰

По сути, любой CLI с хорошим help-текстом = готовый “инструмент” для агента:
• gh (GitHub CLI)
• aws (AWS CLI)
• yc (Yandex Cloud CLI)
• gcloud, kubectl, docker, terraform и т.д.

Модели умеют:
• читать ... --help
• выбирать нужную команду
• подставлять аргументы
• запускать её
• смотреть вывод и на основе этого вызывать следующую команду

То есть ровно то, что вы вручную делаете в терминале, только без вашего участия.



Что нужно от вас на самом деле

Никакой магии, всё упирается в три вещи:
1. Дать агенту доступ к shell
В агент-рантайме/IDE нужно включить “command line” / “terminal” / “shell” tool.
Это может быть:
• встроенный tool типа “execute_command”
• или ваш прокси-скрипт, который запускает CLI в нужном окружении.
2. Правильно “накормить” его токенами 🔑
Всё как у людей:
• AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY, AWS_REGION
• GITHUB_TOKEN
• YC_TOKEN, YC_CLOUD_ID, YC_FOLDER_ID
• любые другие env-переменные/конфиги для вашего CLI
Агенту не нужно “знать” токен — ему нужен уже настроенный CLI, который просто работает:

aws s3 ls
gh repo list
yc vm list


Если это в вашем терминале уже работает — значит, агенту достаточно дать тот же самый контекст.

3. Минимальные рамки безопасности 🧱
• Ограничить рабочую директорию (чтоб не полез во всё подряд).
• Выдать минимально необходимый набор прав для токенов.
• По возможности сначала гонять всё это в sandbox / staging.



Что агент может делать за вас (грязная работа) 🧽

После этого агент может сам:
• создавать и настраивать инфраструктуру через CLI
(сети, бакеты, функции, контейнеры, кластера)
• деплоить обновления, прогонять миграции, проверять статус сервисов
• читать логи, искать ошибки, фильтровать по времени/запросам
• разруливать рутину с GitHub:
• создавать репозитории
• открывать PR’ы
• вешать лейблы
• мёрджить по правилам
• гонять скрипты обслуживания: бэкапы, ротация, массовые операции

Проще говоря, всё, что вы уже умеете делать через CLI, может делать агент — последовательно, без усталости и с оглядкой на --help.



Главная мысль

Прежде чем придумывать сложные кастомные интеграции, MCP-серверы и специальные API, просто спросите себя:

“А у этой штуки есть нормальный CLI с хорошим --help?”

Если да — то у вас уже есть полноценный интерфейс для агента.
Добавили токены → включили shell-tool → описали в системном промпте рамки →
и он спокойно делает за вас всю грязную терминальную работу. 💻🤖
👍4🤔1
🛠 Coding Tool Helper: быстрый буст для GLM Coding Plan + Claude Code

Z.AI тихо завезли очень полезную штуку для vibecoding-стека — Coding Tool Helper. Это CLI-ассистент, который одним мастером настраивает вам GLM Coding Plan в Claude Code и при этом помогает управлять MCP-серверами и конфигурацией, вместо того чтобы руками прописывать env’ы и ковырять конфиги.

Что это такое
• CLI-помощник для код-инструментов (в первую очередь Claude Code).
• Умеет подтянуть GLM Coding Plan, прописать ключ, подхватить/поставить нужные тулзы и настроить MCP.
• Работает через npm-пакет @z_ai/coding-helper, нужен Node.js ≥ 18.

🧩 Что он делает за вас
• Показывает интерактивный wizard в терминале: выбираете язык интерфейса, план, вводите API-ключ, отмечаете какие coding tools хотите менеджить.
• Может автоматически установить и сконфигурировать Claude Code, если он ещё не стоит.
• Настраивает MCP-сервисы (Vision/Web/Search и т.п.) и сохраняет конфиг локально.
• Поддерживает несколько языков интерфейса (i18n) — удобно, если команда разноязычная.

🚀 Как попробовать
Самый простой старт — без глобальной установки:

npx @z_ai/coding-helper

Дальше просто кликаете стрелочками по мастеру, и на выходе получаете: GLM-4.6/4.5 уже прописан в Claude Code, ключ подхвачен, MCP-серверы подключены — можно сразу идти писать код.

🔗 Документация:
https://docs.z.ai/devpack/tool/coding-tool-helper
👍2🔥2
🤝 Open Agent Protocol (OAP) и AGNTCY — кирпичики “Интернета агентов”

С мультиагентными системами сейчас та же история, что когда-то с вебом: каждый варится в своём фреймворке, а экосистема тонет в зоопарке протоколов. OAP и AGNTCY — попытка навести порядок и собрать общий “Интернет агентов”.



🧩 OAP — “HTTP” для агентов

Open Agent Protocol (OAP) — открытый комьюнити-драйв стандарт для общения агентов между собой и с инструментами, независимо от фреймворка. Идея простая: дать универсальный API, чтобы агент мог:
• передать задачу другому агенту,
• получить статус выполнения и логи,
• забрать результаты в стандартном формате,
• объявить вовне свои возможности и схему (что умеет, какие входы/выходы).

Если упрощать — OAP хочет быть тем же, чем стал HTTP для сайтов: общим языком для любых “агентных сервисов”, поверх которого вы уже строите свои графы, рантаймы и оркестраторы.

Подробнее: сайт OAP Foundation



🏗 AGNTCY — инфраструктура “Интернета агентов”

AGNTCY — это уже не один протокол, а open-source стек инфраструктуры для “Internet of Agents”: discovery, identity, messaging и observability между агентами разных вендоров и фреймворков (LangGraph, LangChain, CrewAI, LlamaIndex и т.д.).

Его двигают Cisco, LangChain, Galileo и ко под зонтиком Linux Foundation как открытый стандарт для мультиагентных систем.

Технический фундамент AGNTCY:
• OASF (Open Agent Schema Framework) — как OpenAPI, но для агентов:
описывает capabilities, входы/выходы, эндпоинты, метрики. Поддерживает A2A-агентов, MCP-серверы и может расширяться под другие форматы.
• ACP (Agent Connect Protocol) — безопасный протокол подключения и общения:
как подключиться к агенту, запустить ран, подписаться на события, мониторить выполнение.

AGNTCY, по сути, строит “городскую инфраструктуру” для агентов: есть правила регистрации (OASF), линии связи и протоколы (ACP), единые механизмы мониторинга и управления.

Подробнее:
• сайт: agntcy.org
• дока/спеки: docs.agntcy.org



🧠 Зачем это практику

Если вы строите своих агентов / ассистентов / MCP-инструменты, OAP + AGNTCY дают:
• интероперабельность — агенты и инструменты в разных фреймворках могут общаться по единому API, без жёсткого vendor lock-in;
• единый слой discovery и описаний (OASF) — агент становится “ресурсом сети”, который можно найти, оценить и подключить;
• готовую инфраструктуру для продакшена: трассировка, метрики, безопасность и управление multi-agent workflow’ами на уровне экосистемы, а не только вашего кода.

Короче, это шаг к тому, чтобы агенты стали не локальными игрушками внутри одного рантайма, а полноценными участниками распределённого “Интернета агентов”.
👍2🤪1
PSI как базовая «шина приватных данных» для AI-агентов

Когда начинаешь связывать несколько AI-агентов между собой, быстро упираешься в вопрос:
как обмениваться инсайтами, не раскрывая сырые данные?

Здесь в игру вступает PSI (Private Set Intersection) и MPC-фреймворки.



PSI по сути

PSI позволяет нескольким сторонам узнать пересечение их множеств (например, общих пользователей)
без раскрытия остальной части списков.

В мультиагентных системах это выглядит так:
• каждый агент хранит свою базу (пользователи, сделки, события);
• через PSI они узнают только, кто у них общий;
• сырые данные за пределами пересечения никто не видит.

Фактически PSI становится приватной шиной сопоставления идентификаторов между агентами.



Дальше — Secure MPC: вычисления поверх зашифрованных данных

PSI решает «кто пересекается?».
Но обычно нужно ещё и что-то посчитать поверх пересечения: скоринг, агрегаты, фичи для моделей и т.д.

Это делает Secure Multi-Party Computation (MPC) — совместные вычисления функции f(x₁, x₂,…)
так, чтобы участники не раскрывали друг другу свои входные данные.

Ключевые фреймворки:
MP-SPDZ
• Поддерживает 34+ вариантов MPC-протоколов под разные модели безопасности.
• Даёт единый high-level интерфейс, позволяя выбирать протокол под задачу (скорость / угрозы / инфраструктура).
ABY Framework
• Комбинирует три представления:
Arithmetic sharing — удобно для матриц и ML,
Boolean sharing — удобно для логики и сравнений,
Yao’s garbled circuits — универсальный вариант.
• Важное свойство — дешёвые конверсии между представлениями, что позволяет оптимизировать вычисления.



Circuit-PSI: когда пересечение — это только начало

Circuit-PSI идёт дальше:
• стороны выполняют PSI,
• но пересечение сразу остаётся в виде secret-shared представления,
• и поверх него тут же запускается MPC-вычисление нужной функции.

То есть агенты никогда не видят сами элементы пересечения, только итоговый результат вычислений
(скоринг, агрегаты, метрики и т.д.).



Как это встраивается в архитектуру AI-агентов

Базовый паттерн для приватных мультиагентных / федеративных сценариев:
1. PSI / Circuit-PSI
• агенты приватно синхронизируют пересечение по user_id / device_id / merchant_id и т.п.
2. MPC (MP-SPDZ / ABY)
• поверх этого пересечения считаются скоринги, статистика, обучаются/обновляются модели.
• выбирается протокол под требования регуляции и производительности.
3. Агентный оркестратор
• один агент отвечает за выбор протоколов и запуск криптопайплайна,
• предметные агенты (риск, маркетинг, рекомендации) получают только безопасный агрегированный результат,
• сырые данные сторон по-прежнему изолированы.



Итог:
PSI + MPC (MP-SPDZ, ABY, Circuit-PSI) — это слой, который позволяет AI-агентам сотрудничать на данных
в духе «федеративной аналитики», не превращая систему в ещё один централизованный «пылесос данных».
👍2🔥1
🧩 Axiom — боевые Claude Code-агенты для iOS/xOS

Если вы пишете под iOS / iPadOS / watchOS / tvOS и уже пользуетесь Claude Code, обязательно посмотрите Axiom от Charles Wiltgen. Это не просто «примерчики», а целая сборка агентов и skills, обкатанных на реальных прод-кейсах: дедлайны App Store, утечки памяти у живых пользователей, миграции баз с сотнями тысяч юзеров.

Что внутри 👇
🧠 Apple Intelligence / Foundation Models
Готовые паттерны под on-device AI: structured output через @Generable, стриминг, tool calling, обвязка вокруг всех ключевых примеров WWDC 2025.
🎨 Современный UI и SwiftUI
Liquid Glass, новые фичи SwiftUI 26, профилирование производительности, разбор «почему этот вью тормозит», устойчивые UI-тесты (меньше флейков).
Доступность
Скиллы, которые помогают ловить проблемы с VoiceOver, Dynamic Type, WCAG и тем, что может завалить ревью в App Store.
🐞 Отладка и перф
BUILD FAILED, зависший симулятор, зомби-процессы, гонки данных в Swift 6 concurrency, профилирование через Instruments — под всё это есть отдельные skills.
💾 Хранилища и миграции
Core Data, SwiftData, SQLiteData, GRDB, миграции без потери данных, переезд с Realm и SwiftData на другие стеки, CloudKit-синхронизация.
🌐 Сеть и аудио
Networking (включая UDP/TCP, Network.framework), AVFoundation/пространственное аудио, бит-перфектный вывод.

Методология тоже интересная: автор жёстко завязан на TDD + “red/green/refactor”, каждый skill — это дисциплинирующий workflow, а не «магическая подсказка». Много готовых checklists и куски кода в формате «что работает / что ломает прод».

⚠️ Сейчас это preview-релиз под MIT-лицензией, автор просит фидбек — хороший момент зайти пораньше и построить свой iOS-стек вокруг Axiom + Claude Code.

🔗 Сайт: https://charleswiltgen.github.io/Axiom/
🔥3
🚀 GLM-4.6V вышел: “глаза” для агентов и кодеров + как завести его в Claude Code

Z.ai выкатили GLM-4.6V — новую линейку open-source VLM-моделей (Vision-Language), заточенную под агентов и frontend-автоматизацию, а не просто “ответить по картинке”.

Ключевые фишки:
🧠 Две версии:
GLM-4.6V (≈106B) — тяжёлый флагман под кластер.
GLM-4.6V-Flash (9B) — облегчённый вариант под локальные / дешёвые деплои.
📚 128K контекст для мультимодальных задач: длинные документы как картинки/PDF, сложные UI-макеты, цепочки тулов без обрезки мыслей.
🛠 Нативный function calling по картинкам и видео — скриншот/фрейм сразу идёт в tool, без лишнего “картинка → текст → prompt”.
🎨 Фокус на frontend replication & visual interaction: “скрин → код”, понимание диаграмм, UI-diff, анализ графиков и дашбордов.

Отдельно: Z.ai официально позиционирует GLM-4.6V как базовый визуальный движок для агентных workflows (vision + tools).
👍2🔥1
Как запускать GLM-4.6V в связке с Claude Code

Важно: в кодинге рулит GLM-4.6 (текст), а GLM-4.6V едет “под капотом” Vision MCP-сервера. То есть в Claude Code ты используешь GLM-4.6 как основного “кодера”, а все визуальные задачи отдаёшь Vision MCP, который уже ходит в GLM-4.6V.

1️⃣ Подключить GLM-4.6 к Claude Code
1. Оформляешь GLM Coding Plan (Lite от ~$3/мес, заточен под Claude Code / Cline / OpenCode).
2. Берёшь API-ключ в кабинете Z.ai.
3. Ставишь Claude Code (если ещё нет): npm install -g @anthropic-ai/claude-code
4. Запускаешь офиц. скрипт Z.ai, который сам пропатчит ~/.claude/settings.json:

curl -O "https://cdn.bigmodel.cn/install/claude_code_zai_env.sh" && bash ./claude_code_zai_env.sh

2️⃣ Включить GLM-4.6V через Vision MCP Server

Теперь добавляем глаза — Vision MCP Server, который уже использует GLM-4.6V под капотом.
1. Node.js ≥ 22 локально.
2. Одной командой регистрируем MCP-сервер в Claude Code:

claude mcp add -s user zai-mcp-server \
--env Z_AI_API_KEY=your_api_key Z_AI_MODE=ZAI \
-- npx -y "@z_ai/mcp-server"


Vision MCP даёт набор тулов поверх GLM-4.6V:

- ui_to_artifactскрин → код/спека/описание (идеально под frontend-генерацию).
- extract_text_from_screenshot — OCR любых скринов (код, логи, ошибки, документация).
- diagnose_error_screenshot — анализ скринов с ошибками/стектрейсами.
- understand_technical_diagram — архитектуры, UML, ER и т.п.
- analyze_data_visualization — чтение чартов и дашбордов.
- ui_diff_check — сравнение двух UI-скринов.
- image_analysis / video_analysis — общие визуальные задачи и короткие видео.

---

3️⃣ Как этим пользоваться в Claude Code на практике

После того как Coding Plan и Vision MCP заведены:

1. В корне проекта кладёшь, например, ui-dashboard.png.
2. Открываешь Claude Code:

cd /your/project
claude


3. В диалоге пишешь что-то в духе:

• UI → код:

Преврати ui-dashboard.png в адаптивную React + Tailwind страницу с теми же блоками и сеткой. Используй MCP-инструмент ui_to_artifact.

• Анализ диаграммы:

Разбери архитектуру на system-arch.png как understand_technical_diagram, выпиши сервисы, очереди и БД, а потом предложи план миграции на микросервисы.

• Разбор графиков / метрик:

Проанализируй metrics.png через analyze_data_visualization и опиши, что происходит с латентностью и ошибками за последнюю неделю.

Claude Code сам дернет Vision MCP, а тот — GLM-4.6V. Ты при этом остаёшься в привычном flow: запрос → tools → коммиты/патчи в репо.



4️⃣ А можно прямым API вместо MCP?

Если вдруг хочешь чистый GLM-4.6V как модель (например, для своего сервиса/агента), есть варианты:
Z.ai / BigModel — родной API (Vision endpoint).
• Novita AI, OpenRouter — дают GLM-4.6V по OpenAI-совместимому API с роутингом/биллингом.

В теории можно завернуть такой endpoint в свой “Anthropic-совместимый” прокси и подложить его Claude Code через ANTHROPIC_BASE_URL + модель glm-4.6v. Но официально для Claude Code сейчас рекомендуемый путь именно через GLM Coding Plan + Vision MCP, потому что там уже готово:
• нормальные лимиты,
• стабильный MCP-сервер,
• и гарантированно правильное использование GLM-4.6V (vision) + GLM-4.6 (code).
🤔2🔥1
🧩 Don’t build agents, build skills

У Anthropic вышел очень классный доклад Barry Zhang & Mahesh Murag — мысль простая, но переворачивает подход к агентам:
не надо сразу строить “суперагента на все случаи жизни”, нужно строить библиотеку скиллов.

Что такое skill в их понимании:
• это оформленный сценарий работы: инструкция + примеры + (опционально) код;
• он решает одну конкретную задачу: написать отчёт по шаблону, разобрать выгрузку, оформить предложение клиенту;
• модель сама подбирает нужный skill и подгружает только релевантные куски (progressive disclosure), а не тащит в контекст всю вселенную как это происходит с mcp.

Почему это важнее, чем “один большой агент”:
🔍 Контроль — легко тестировать и дебажить отдельный навык, а не разбираться, почему “агент сошёл с ума”.
🧱 Композиция — разные skills можно комбинировать под запрос, не переписывая архитектуру.
🧪 Эволюция — можно версионировать и чинить конкретный skill, не ломая всё остальное.
👥 Орг-знание — skills становятся способом упаковать процессы компании так, чтобы ИИ работал “как ваша команда”, а не как абстрактный ассистент.

Примеры того, что логично оформлять в skills, а не “учить агента на лету”:
• оформление коммерческих предложений именно в вашем стиле;
• подготовка отчётов/презентаций по внутреннему шаблону;
• разбор логов/метрик по вашей методике;
• чек-листы ревью кода и релизов.

Если вы играете с Claude, Agents SDK, LangGraph, MCP и прочими штуками — стоит начинать проектирование именно со скиллов, а не с “агента-генерала”. Сначала описываем повторяемые процедуры, потом даём модели оркестрировать их под задачу.

Видео: “Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag (Anthropic)” — очень рекомендую к просмотру, особенно тем, кто сейчас проектирует свою агентную платформу или ИИ-помощника под команду.

Ссылка: https://www.youtube.com/watch?v=CEvIs9y1uog
🔥4👍1
🚀 Anthropic “отпускает” MCP в open-source и запускает Agentic AI Foundation

Anthropic объявила, что передаёт Model Context Protocol (MCP) под крыло Linux Foundation — в новый фонд Agentic AI Foundation (AAIF), который они сделали вместе с Block и OpenAI при поддержке Google, Microsoft, AWS, Cloudflare и Bloomberg.

Что важно про MCP прямо сейчас:
• Уже 10 000+ публичных MCP-серверов — от дев-тулов до форчунов.
• MCP поддерживают ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code и другие продукты.
• Есть enterprise-инфра: деплой через AWS, Cloudflare, Google Cloud, Azure.

За год MCP сильно эволюционировал:
• Появился официальный Registry MCP-серверов.
• В релизе спеки от 25 ноября добавили асинхронные операции, stateless-режим, идентичность сервера и extensibility.
• Вышли официальные SDK на основных языках, уже 97M+ скачиваний в месяц (Python + TypeScript).

🧱 Agentic AI Foundation (AAIF) — это directed fund внутри Linux Foundation для всего, что связано с агентными AI-системами и открытыми стандартами. MCP становится одним из базовых проектов фонда, рядом с goose (Block) и AGENTS.md (OpenAI).

Ключевой смысл:
• MCP закрепляют как открытый, вендор-нейтральный стандарт под управлением Linux Foundation.
• Говернанс MCP остаётся community-driven, мейнтейнеры продолжают рулить развитием вместе с сообществом.

Для нас, кто строит агентов и инфраструктуру вокруг них, это сигнал, что MCP — уже не “формат Anthropic”, а общий инфраструктурный слой для экосистемы агентного AI.
1👍7
⚙️ Devstral 2: инференс дешевеет на глазах

Mistral выкатила Devstral 2 — кодовую модель 123B с 256K контекстом, которая берёт 72.2% на SWE-Bench Verified и при этом до 7 раз дешевле Claude Sonnet на реальных задачах, по их же бенчмаркам.

Младшая Devstral Small 2 (24B) даёт 68% на SWE-Bench Verified, держится на уровне/выше многих 70B-моделей и может работать локально, в том числе через GGUF/Unsloth и MLX на макбуках.

Тренд понятен:
• параметры падают,
• качество растёт,
• цена инференса летит вниз — от бесплатного API-окна сейчас до очень дешёвых локальных запусков завтра.

Если так продолжится, к концу следующего года нас ждёт очень интересный мир, где “сильный код-агент” — это не сервис по подписке, а просто ещё один бинарь рядом с git и docker. Учитывая еще достижения в области квантовых вычислений.

claude code на devstral 2 на mlx coming soon… )

https://mistral.ai/news/devstral-2-vibe-cli
👍3🥴1
🟣 Claude Island — Dynamic Island для Claude Code на macOS

Классная маленькая утилита для тех, кто живёт в Claude Code CLI:
Claude Island — это меню-барное приложение для macOS, которое превращает «чёлку» MacBook в виджет с уведомлениями от Claude Code.

Что умеет:
🏝 Notch UI — анимационный оверлей, который выезжает из выреза (Dynamic Island-стайл).
👀 Live-мониторинг сессий — показывает несколько сессий Claude Code в реальном времени.
Approve / Deny из «чёлки» — запросы на запуск tools можно подтверждать/отклонять прямо из виджета, не переключаясь в терминал.
🧾 История чата — просмотр полной истории сессии с рендерингом Markdown.
🔌 Auto-setup — при первом запуске сам ставит хуки в ~/.claude/hooks/ и слушает события через Unix-сокет.

Требования:
• macOS 15.6+
• установленный Claude Code CLI

Установка:
1. Скачать последний релиз из GitHub Releases.
2. Или собрать из исходников:

xcodebuild -scheme ClaudeIsland -configuration Release build
``` [oai_citation:3‡GitHub](https://github.com/farouqaldori/claude-island)




Немного про телеметрию:
• Использует Mixpanel для анонимной статистики (запуск приложения, старт сессии и т.п.),
• контент переписок не отправляется.

Лицензия — Apache 2.0, репозиторий открытый:
https://github.com/farouqaldori/claude-island
2026: Год, когда IDE умерла — но не разработчики 🔥

В видео «2026: The Year The IDE Died» Стив Йегги и Джин Ким обсуждают, как AI-кодинг меняет саму идею IDE и разработки в целом. Не про «ещё один плагин к VS Code», а про смену парадигмы.

Ключевые мысли, которые стоит вынести 👇
🪦 Классическая IDE — переходная форма.
В мире AI-coding главный объект — больше не файл и не редактор, а поток работы: задачи, спеки, чанки изменений, агенты, которые всё это жонглируют. IDE превращается в оркестратор агентов и воркфлоу, а не «умный текстовый редактор».
🐝 Роевые агенты важнее «одной супермодели».
Вместо «одного всесильного ИИ» — стая специализированных агентов:
• одни режут задачи на подзадачи,
• другие предлагают патчи,
• третьи гоняют тесты и статанализ,
• четвёртые следят за архитектурными инвариантами.
Разработчик становится дирижёром этого роя.
👓 Код мы всё равно будем читать.
Вопреки хайпу «через два года никто не будет смотреть в код» — для серьёзных систем всё равно остаётся: ревью, диффы, понимание инвариантов, отказоустойчивости, секьюрности. Люди меньше «печатают», но больше осмысляют и проверяют.
🧠 Роль сеньора: меньше рук, больше головы.
Сеньоры смещаются из роли «главный тачтАйпист» в роль:
• формулировать спеки и границы систем,
• задавать архитектуру и контракты,
• выстраивать guardrails для агентов,
• ревьюить и интегрировать их работу.
🧑‍🎓 Джуниорам AI даёт турбо-ускорение, но не заменяет базу.
AI прекрасно помогает учиться быстрее — пробовать больше идей, получать объяснения, разбирать чужой код. Но без понимания алгоритмов, состояния, потоков данных и дебагинга — это будет «замок на песке».
⚠️ Две опасные крайности:
• сеньоры, которые снисходительно считают AI «автокомплитом» и добровольно отказываются от leverage;
• новички, которые полностью полагаются на AI и вообще не строят ментальные модели систем.

В итоге месседж видео простой, но важный:

IDE в привычном виде действительно «умирает» — на её месте рождается AI-first среда, где код — это артефакт, а основная работа разработчика — постановка задач, дизайн систем и управление роем агентов.

Очень резонирует с идеей vibe-coding / hive-coding:
меньше ковыряться в файлах, больше — в смыслах и потоках работы.

https://www.youtube.com/watch?v=7Dtu2bilcFs
🔥5👍21
И еще раз про OpenCode (opencode.ai)

OpenCode — open-source AI coding agent для терминала (есть TUI, десктоп и IDE-интеграция), который реально можно встроить в ежедневный dev-флоу.

Что мне понравилось (и почему это “серьёзная лига”):
• Модель-агностик: можно подключать разных провайдеров (Claude/GPT/Gemini и т.д.), есть поддержка локальных моделей, заявлено 75+ провайдеров через AI SDK / Models.dev.

• Agents + subagents: в OpenCode есть “первичные” агенты и сабагенты, между ними можно переключаться или вызывать через @-упоминание. Удобный паттерн: “plan”-агент для анализа без правок кода.

• Commands: можно описывать команды, и важный флажок — subtask: true, чтобы команда выполнялась как сабагент и не засоряла основной контекст.

• Custom Tools = skills: кастомные тулзы — это ваши функции, которые модель может вызывать рядом со встроенными read/write/bash. По сути, это прям “скиллы” для агента (хоть на Python).

• Безопасность выполнения: для shell-команд есть запрос разрешений (accept / accept always / deny) и понятная область действия “accept always”.


Моё ощущение: если Claude Code — №1 терминальный агент, то OpenCode сейчас выглядит как кандидат на №2 по мощности — за счёт open-source, гибкой агентности (subagents) и расширяемости через tools/commands.

# установка
curl -fsSL https://opencode.ai/install | bash

Ссылки:
https://opencode.ai/
https://opencode.ai/docs/agents/
https://opencode.ai/docs/commands/
https://opencode.ai/docs/custom-tools/
👍3
Я на самом деле ковырялся в репе ребят из https://github.com/nearai. И нашел у них сетап свой https://github.com/nearai/opencode. Надо тоже свой сетап делать)
Меня часто спрашивают почему я так много пишу про Anthropic, вот и Илон Маск тоже написал…
🤣4😁1
Media is too big
VIEW IN TELEGRAM
🧠 Один из самых выдающихся инженеров современности Джефф Дин сделал доклад — “Important AI Trends” (Stanford AI Club, ~41 мин) и переведенное мной видео на русский. На мой взгляд там очень много технических важных терминов, и лучше сразу прослушать на русском, а потом закрепить на английском)
Ссылка на оригинал: https://www.youtube.com/watch?v=AnTw_t21ayE

Это быстрый “таймлайн” того, как AI дошёл от нейросетей до мультимодальных LLM, и почему следующий рывок — не только в параметрах, а в эффективности, архитектуре и системах.

Что внутри (по главам/таймкодам)
• 10:00 → 07:10: основы/возрождение нейросетей, Google Brain, unsupervised/word representations, seq2seq
• 12:15 → 20:57: TPU, open-source стек (TensorFlow/PyTorch), attention + масштабирование LM, ViT, sparse + Pathways
• 24:55 → 29:26: prompting + distillation, RL для post-training
• 35:07 → конец: демо Gemini (мультимодальность, большие контексты, прогресс в матем. рассуждениях и кодогенерации)

Главные тезисы, которые я бы вынес
1. Сдвиг “scale любой ценой” → “scale с умной активацией”: sparse-архитектуры в духе Pathways (активируется лишь нужная часть модели под задачу).
2. Железо — часть модели: специализированные ускорители (TPU) и “упаковка” в большие конфигурации (в т.ч. Ironwood до 9,216 чипов) — это прямой множитель прогресса.
3. “Дешевле и компактнее” важно не меньше “умнее”: distillation — классический приём (Hinton et al.) как тащить качество больших моделей в маленькие, ближе к продакшен-ограничениям.
4. Post-training через RL — отдельный слой качества/поведения поверх предобучения (особенно в проверяемых доменах вроде кода/математики).
👍3
🧠 Где на самом деле будут жить AI-агенты?

Последнее время много кручу в голове тему инфраструктуры для AI в Web3. Хайпа много, но технически подружить нейронки с блокчейном — та еще задача.

L1 (типа Ethereum) — это по сути очень медленный калькулятор. Запускать на нем инференс LLM — утопия.

Я прихожу к выводу, что мы идем к концепции «Вычислительных Зон». Для нас, разработчиков, это по сути AI-сопроцессоры. Блокчейн остается слоем верификации (судьей), а тяжелые вычисления (ML) уходят в специализированные среды.

Вот 5 технологий, за которыми я сейчас слежу. Именно из них будет собираться стек децентрализованного AI:

1️⃣ ZK (Zero-Knowledge) — Криптографическая гарантия Для AI-кодинга это перерастает в направление zkML. — О чем я думаю: Это способ доказать, что модель выдала результат честно, не подменив веса, и при этом не раскрывать саму модель (если она проприетарная). — Стек: Тут сейчас идет битва виртуальных машин (RISC Zero vs SP1). Они позволяют компилировать Rust/C++ в ZK-пруфы. Если вы пишете на Rust — это ваша следующая большая ниша.

2️⃣ FHE (Fully Homomorphic Encryption) — «Слепые» вычисления Пожалуй, самая интересная штука для приватности. — Суть: Инференс происходит над зашифрованными данными. Нейронка обрабатывает промпт, даже не «видя» его. — Почему сейчас: Раньше это было дико медленно. Но в этом году случился прорыв с ускорением на GPU (Zama и др). Задержки падают до миллисекунд. Для медицинских AI или финтеха — это киллер-фича.

3️⃣ TEE (Trusted Execution Environments) — Хардварный путь Это про использование анклавов в процессорах (Intel SGX, Nvidia H100 с Confidential Compute). — Мой тейк: Это самый быстрый способ запустить приватную модель прямо сейчас. Мы доверяем не математике, а «железу» (изоляции внутри чипа). Для высокочастотных AI-агентов это станет стандартом.

4️⃣ Optimistic Models — Прагматизм Подход, который мы знаем по L2 (Arbitrum/Optimism). — Как это работает: Агент выдает результат, мы считаем его верным по дефолту. Если кто-то не согласен — есть окно времени на челлендж. Дешево, сердито, работает на стандартном стеке.

5️⃣ MPC (Multi-Party Computation) Это больше про безопасность весов модели и ключей. Модель как бы «разбита» между несколькими серверами, ни один из которых не видит полной картины.

👨‍💻 К чему я это все?

Мы переходим от просто написания промптов к архитектуре Verifiable AI. В ближайшем будущем, создавая AI-приложение, мы будем выбирать среду выполнения как базу данных:

• Нужна скорость? → TEE • Нужна математическая гарантия? → ZK • Нужна абсолютная приватность юзера? → FHE

Стык криптографии и ML — это сейчас, пожалуй, самое сложное, но и самое перспективное направление в деве.

Кто-то уже пробовал щупать библиотеки типа tfhe-rs или писать под zkVM? Делитесь опытом 👇
👍3🤔1
🛡️ Shannon — автономный AI‑пентестер для веб‑приложений (KeygraphHQ).

Если коротко: это не “сканер, который насыпает алертов”, а агент, который старается доказать уязвимость делом. Shannon сам ищет векторы в коде, а потом через встроенный браузер пытается реально воспроизвести эксплойт (например, инъекции или обход авторизации), чтобы подтвердить, что баг действительно эксплуатируем.

Что внутри:
• Full‑auto режим: старт одной командой — логины (в т.ч. 2FA/TOTP и даже Google Sign‑In), навигация по приложению и финальный отчёт без ручного пинания
• Отчёты “по‑пентестерски”: только подтверждённые находки + воспроизводимые PoC’и (копипаст)
• Покрывает критичные веб‑классы (на старте): Injection, XSS, SSRF, broken auth/authorization
• “Code‑aware” динамика: использует исходники, чтобы умнее строить атаки, и подтверждает риск на живом приложении
• Под капотом подключает утилиты вроде Nmap/Subfinder/WhatWeb/Schemathesis и умеет параллелить этапы, чтобы ускоряться

Работает через Claude Code в докере. Совместимо со всеми моделями поддерживающими Anthropic протокол. То есть и GLM-4.6. То есть и ollama тоже через прокси

Есть Shannon Lite (open‑source, AGPL‑3.0) и Shannon Pro (коммерческий, с более продвинутым анализом кода).

⚠️ Важно: Shannon Lite — white‑box история (нужен доступ к коду/структуре репо). И запускать это можно только на своих системах или при явном письменном разрешении владельца иначе это статья УК 274!

GitHub: https://github.com/KeygraphHQ/shannon
👍1
🚀 Cerebras + GLM-4.6: “инстант-кодинг” становится реальным

Cerebras выкатили GLM-4.6 в своём Cerebras Inference API и сделали акцент на главном: почти “фронтирное” качество для кодинга — но с вау-скоростью.

Что именно впечатляет (по их данным)
• ~1,000 tokens/sec на GLM-4.6 — это уже скорость, где ожидание перестаёт быть частью процесса.
• По сравнению с Sonnet 4.5: ~17× быстрее и при этом ~25% дешевле на Cerebras (в их бенчмарках/кейcах).
• Сильные стороны модели для прод-разработки: надёжный tool-calling, веб-дев “под ключ”, экономия токенов, точность правок кода (на телеметрии Cline: 94.5% vs 96.2% у Sonnet 4.5).

Почему Cerebras вообще может так быстро

Их ставка — убрать “бутылочное горлышко” инференса: хранить модель на чипе и не гонять веса туда-сюда через внешнюю память. В их описании — wafer-scale дизайн и 44GB SRAM на одном чипе, что снижает зависимость от памяти/межсоединений и ускоряет генерацию.

Важный нюанс про GLM-4.6

GLM-4.6 — модель от Zhipu (Z.ai), и в гайде Cerebras подчёркивают: это MoE-трансформер (355B всего, ~32B активны на проход) и она ведёт себя иначе, чем “закрытые” Claude/GPT, поэтому промпты лучше адаптировать.

Доступ и планы

В посте заявлены: pay-as-you-go dev tier от $10, а также подписки Cerebras Code от $50/мес (и более высокий план) + упоминание интеграций с инструментами вроде Cline/VS Code/OpenCode.

Вывод: Cerebras пытаются “сломать” привычную экономику вайб-кодинга: если ответы приходят за секунды, то можно реально строить многошаговые агентные цепочки без ощущения, что ты половину дня смотришь на прогресс-бар.

Посмотрите их демо с GLM https://www.cerebras.ai/blog/glm
🤔2