AI Coder – Telegram
AI Coder
289 subscribers
81 photos
10 videos
2 files
184 links
AI will not replace you, people who use AI will.
Download Telegram
🧩 Don’t build agents, build skills

У Anthropic вышел очень классный доклад Barry Zhang & Mahesh Murag — мысль простая, но переворачивает подход к агентам:
не надо сразу строить “суперагента на все случаи жизни”, нужно строить библиотеку скиллов.

Что такое skill в их понимании:
• это оформленный сценарий работы: инструкция + примеры + (опционально) код;
• он решает одну конкретную задачу: написать отчёт по шаблону, разобрать выгрузку, оформить предложение клиенту;
• модель сама подбирает нужный skill и подгружает только релевантные куски (progressive disclosure), а не тащит в контекст всю вселенную как это происходит с mcp.

Почему это важнее, чем “один большой агент”:
🔍 Контроль — легко тестировать и дебажить отдельный навык, а не разбираться, почему “агент сошёл с ума”.
🧱 Композиция — разные skills можно комбинировать под запрос, не переписывая архитектуру.
🧪 Эволюция — можно версионировать и чинить конкретный skill, не ломая всё остальное.
👥 Орг-знание — skills становятся способом упаковать процессы компании так, чтобы ИИ работал “как ваша команда”, а не как абстрактный ассистент.

Примеры того, что логично оформлять в skills, а не “учить агента на лету”:
• оформление коммерческих предложений именно в вашем стиле;
• подготовка отчётов/презентаций по внутреннему шаблону;
• разбор логов/метрик по вашей методике;
• чек-листы ревью кода и релизов.

Если вы играете с Claude, Agents SDK, LangGraph, MCP и прочими штуками — стоит начинать проектирование именно со скиллов, а не с “агента-генерала”. Сначала описываем повторяемые процедуры, потом даём модели оркестрировать их под задачу.

Видео: “Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag (Anthropic)” — очень рекомендую к просмотру, особенно тем, кто сейчас проектирует свою агентную платформу или ИИ-помощника под команду.

Ссылка: https://www.youtube.com/watch?v=CEvIs9y1uog
🔥4👍1
🚀 Anthropic “отпускает” MCP в open-source и запускает Agentic AI Foundation

Anthropic объявила, что передаёт Model Context Protocol (MCP) под крыло Linux Foundation — в новый фонд Agentic AI Foundation (AAIF), который они сделали вместе с Block и OpenAI при поддержке Google, Microsoft, AWS, Cloudflare и Bloomberg.

Что важно про MCP прямо сейчас:
• Уже 10 000+ публичных MCP-серверов — от дев-тулов до форчунов.
• MCP поддерживают ChatGPT, Cursor, Gemini, Microsoft Copilot, VS Code и другие продукты.
• Есть enterprise-инфра: деплой через AWS, Cloudflare, Google Cloud, Azure.

За год MCP сильно эволюционировал:
• Появился официальный Registry MCP-серверов.
• В релизе спеки от 25 ноября добавили асинхронные операции, stateless-режим, идентичность сервера и extensibility.
• Вышли официальные SDK на основных языках, уже 97M+ скачиваний в месяц (Python + TypeScript).

🧱 Agentic AI Foundation (AAIF) — это directed fund внутри Linux Foundation для всего, что связано с агентными AI-системами и открытыми стандартами. MCP становится одним из базовых проектов фонда, рядом с goose (Block) и AGENTS.md (OpenAI).

Ключевой смысл:
• MCP закрепляют как открытый, вендор-нейтральный стандарт под управлением Linux Foundation.
• Говернанс MCP остаётся community-driven, мейнтейнеры продолжают рулить развитием вместе с сообществом.

Для нас, кто строит агентов и инфраструктуру вокруг них, это сигнал, что MCP — уже не “формат Anthropic”, а общий инфраструктурный слой для экосистемы агентного AI.
1👍7
⚙️ Devstral 2: инференс дешевеет на глазах

Mistral выкатила Devstral 2 — кодовую модель 123B с 256K контекстом, которая берёт 72.2% на SWE-Bench Verified и при этом до 7 раз дешевле Claude Sonnet на реальных задачах, по их же бенчмаркам.

Младшая Devstral Small 2 (24B) даёт 68% на SWE-Bench Verified, держится на уровне/выше многих 70B-моделей и может работать локально, в том числе через GGUF/Unsloth и MLX на макбуках.

Тренд понятен:
• параметры падают,
• качество растёт,
• цена инференса летит вниз — от бесплатного API-окна сейчас до очень дешёвых локальных запусков завтра.

Если так продолжится, к концу следующего года нас ждёт очень интересный мир, где “сильный код-агент” — это не сервис по подписке, а просто ещё один бинарь рядом с git и docker. Учитывая еще достижения в области квантовых вычислений.

claude code на devstral 2 на mlx coming soon… )

https://mistral.ai/news/devstral-2-vibe-cli
👍3🥴1
🟣 Claude Island — Dynamic Island для Claude Code на macOS

Классная маленькая утилита для тех, кто живёт в Claude Code CLI:
Claude Island — это меню-барное приложение для macOS, которое превращает «чёлку» MacBook в виджет с уведомлениями от Claude Code.

Что умеет:
🏝 Notch UI — анимационный оверлей, который выезжает из выреза (Dynamic Island-стайл).
👀 Live-мониторинг сессий — показывает несколько сессий Claude Code в реальном времени.
Approve / Deny из «чёлки» — запросы на запуск tools можно подтверждать/отклонять прямо из виджета, не переключаясь в терминал.
🧾 История чата — просмотр полной истории сессии с рендерингом Markdown.
🔌 Auto-setup — при первом запуске сам ставит хуки в ~/.claude/hooks/ и слушает события через Unix-сокет.

Требования:
• macOS 15.6+
• установленный Claude Code CLI

Установка:
1. Скачать последний релиз из GitHub Releases.
2. Или собрать из исходников:

xcodebuild -scheme ClaudeIsland -configuration Release build
``` [oai_citation:3‡GitHub](https://github.com/farouqaldori/claude-island)




Немного про телеметрию:
• Использует Mixpanel для анонимной статистики (запуск приложения, старт сессии и т.п.),
• контент переписок не отправляется.

Лицензия — Apache 2.0, репозиторий открытый:
https://github.com/farouqaldori/claude-island
2026: Год, когда IDE умерла — но не разработчики 🔥

В видео «2026: The Year The IDE Died» Стив Йегги и Джин Ким обсуждают, как AI-кодинг меняет саму идею IDE и разработки в целом. Не про «ещё один плагин к VS Code», а про смену парадигмы.

Ключевые мысли, которые стоит вынести 👇
🪦 Классическая IDE — переходная форма.
В мире AI-coding главный объект — больше не файл и не редактор, а поток работы: задачи, спеки, чанки изменений, агенты, которые всё это жонглируют. IDE превращается в оркестратор агентов и воркфлоу, а не «умный текстовый редактор».
🐝 Роевые агенты важнее «одной супермодели».
Вместо «одного всесильного ИИ» — стая специализированных агентов:
• одни режут задачи на подзадачи,
• другие предлагают патчи,
• третьи гоняют тесты и статанализ,
• четвёртые следят за архитектурными инвариантами.
Разработчик становится дирижёром этого роя.
👓 Код мы всё равно будем читать.
Вопреки хайпу «через два года никто не будет смотреть в код» — для серьёзных систем всё равно остаётся: ревью, диффы, понимание инвариантов, отказоустойчивости, секьюрности. Люди меньше «печатают», но больше осмысляют и проверяют.
🧠 Роль сеньора: меньше рук, больше головы.
Сеньоры смещаются из роли «главный тачтАйпист» в роль:
• формулировать спеки и границы систем,
• задавать архитектуру и контракты,
• выстраивать guardrails для агентов,
• ревьюить и интегрировать их работу.
🧑‍🎓 Джуниорам AI даёт турбо-ускорение, но не заменяет базу.
AI прекрасно помогает учиться быстрее — пробовать больше идей, получать объяснения, разбирать чужой код. Но без понимания алгоритмов, состояния, потоков данных и дебагинга — это будет «замок на песке».
⚠️ Две опасные крайности:
• сеньоры, которые снисходительно считают AI «автокомплитом» и добровольно отказываются от leverage;
• новички, которые полностью полагаются на AI и вообще не строят ментальные модели систем.

В итоге месседж видео простой, но важный:

IDE в привычном виде действительно «умирает» — на её месте рождается AI-first среда, где код — это артефакт, а основная работа разработчика — постановка задач, дизайн систем и управление роем агентов.

Очень резонирует с идеей vibe-coding / hive-coding:
меньше ковыряться в файлах, больше — в смыслах и потоках работы.

https://www.youtube.com/watch?v=7Dtu2bilcFs
🔥5👍21
И еще раз про OpenCode (opencode.ai)

OpenCode — open-source AI coding agent для терминала (есть TUI, десктоп и IDE-интеграция), который реально можно встроить в ежедневный dev-флоу.

Что мне понравилось (и почему это “серьёзная лига”):
• Модель-агностик: можно подключать разных провайдеров (Claude/GPT/Gemini и т.д.), есть поддержка локальных моделей, заявлено 75+ провайдеров через AI SDK / Models.dev.

• Agents + subagents: в OpenCode есть “первичные” агенты и сабагенты, между ними можно переключаться или вызывать через @-упоминание. Удобный паттерн: “plan”-агент для анализа без правок кода.

• Commands: можно описывать команды, и важный флажок — subtask: true, чтобы команда выполнялась как сабагент и не засоряла основной контекст.

• Custom Tools = skills: кастомные тулзы — это ваши функции, которые модель может вызывать рядом со встроенными read/write/bash. По сути, это прям “скиллы” для агента (хоть на Python).

• Безопасность выполнения: для shell-команд есть запрос разрешений (accept / accept always / deny) и понятная область действия “accept always”.


Моё ощущение: если Claude Code — №1 терминальный агент, то OpenCode сейчас выглядит как кандидат на №2 по мощности — за счёт open-source, гибкой агентности (subagents) и расширяемости через tools/commands.

# установка
curl -fsSL https://opencode.ai/install | bash

Ссылки:
https://opencode.ai/
https://opencode.ai/docs/agents/
https://opencode.ai/docs/commands/
https://opencode.ai/docs/custom-tools/
👍3
Я на самом деле ковырялся в репе ребят из https://github.com/nearai. И нашел у них сетап свой https://github.com/nearai/opencode. Надо тоже свой сетап делать)
Меня часто спрашивают почему я так много пишу про Anthropic, вот и Илон Маск тоже написал…
🤣4😁1
Media is too big
VIEW IN TELEGRAM
🧠 Один из самых выдающихся инженеров современности Джефф Дин сделал доклад — “Important AI Trends” (Stanford AI Club, ~41 мин) и переведенное мной видео на русский. На мой взгляд там очень много технических важных терминов, и лучше сразу прослушать на русском, а потом закрепить на английском)
Ссылка на оригинал: https://www.youtube.com/watch?v=AnTw_t21ayE

Это быстрый “таймлайн” того, как AI дошёл от нейросетей до мультимодальных LLM, и почему следующий рывок — не только в параметрах, а в эффективности, архитектуре и системах.

Что внутри (по главам/таймкодам)
• 10:00 → 07:10: основы/возрождение нейросетей, Google Brain, unsupervised/word representations, seq2seq
• 12:15 → 20:57: TPU, open-source стек (TensorFlow/PyTorch), attention + масштабирование LM, ViT, sparse + Pathways
• 24:55 → 29:26: prompting + distillation, RL для post-training
• 35:07 → конец: демо Gemini (мультимодальность, большие контексты, прогресс в матем. рассуждениях и кодогенерации)

Главные тезисы, которые я бы вынес
1. Сдвиг “scale любой ценой” → “scale с умной активацией”: sparse-архитектуры в духе Pathways (активируется лишь нужная часть модели под задачу).
2. Железо — часть модели: специализированные ускорители (TPU) и “упаковка” в большие конфигурации (в т.ч. Ironwood до 9,216 чипов) — это прямой множитель прогресса.
3. “Дешевле и компактнее” важно не меньше “умнее”: distillation — классический приём (Hinton et al.) как тащить качество больших моделей в маленькие, ближе к продакшен-ограничениям.
4. Post-training через RL — отдельный слой качества/поведения поверх предобучения (особенно в проверяемых доменах вроде кода/математики).
👍3
🧠 Где на самом деле будут жить AI-агенты?

Последнее время много кручу в голове тему инфраструктуры для AI в Web3. Хайпа много, но технически подружить нейронки с блокчейном — та еще задача.

L1 (типа Ethereum) — это по сути очень медленный калькулятор. Запускать на нем инференс LLM — утопия.

Я прихожу к выводу, что мы идем к концепции «Вычислительных Зон». Для нас, разработчиков, это по сути AI-сопроцессоры. Блокчейн остается слоем верификации (судьей), а тяжелые вычисления (ML) уходят в специализированные среды.

Вот 5 технологий, за которыми я сейчас слежу. Именно из них будет собираться стек децентрализованного AI:

1️⃣ ZK (Zero-Knowledge) — Криптографическая гарантия Для AI-кодинга это перерастает в направление zkML. — О чем я думаю: Это способ доказать, что модель выдала результат честно, не подменив веса, и при этом не раскрывать саму модель (если она проприетарная). — Стек: Тут сейчас идет битва виртуальных машин (RISC Zero vs SP1). Они позволяют компилировать Rust/C++ в ZK-пруфы. Если вы пишете на Rust — это ваша следующая большая ниша.

2️⃣ FHE (Fully Homomorphic Encryption) — «Слепые» вычисления Пожалуй, самая интересная штука для приватности. — Суть: Инференс происходит над зашифрованными данными. Нейронка обрабатывает промпт, даже не «видя» его. — Почему сейчас: Раньше это было дико медленно. Но в этом году случился прорыв с ускорением на GPU (Zama и др). Задержки падают до миллисекунд. Для медицинских AI или финтеха — это киллер-фича.

3️⃣ TEE (Trusted Execution Environments) — Хардварный путь Это про использование анклавов в процессорах (Intel SGX, Nvidia H100 с Confidential Compute). — Мой тейк: Это самый быстрый способ запустить приватную модель прямо сейчас. Мы доверяем не математике, а «железу» (изоляции внутри чипа). Для высокочастотных AI-агентов это станет стандартом.

4️⃣ Optimistic Models — Прагматизм Подход, который мы знаем по L2 (Arbitrum/Optimism). — Как это работает: Агент выдает результат, мы считаем его верным по дефолту. Если кто-то не согласен — есть окно времени на челлендж. Дешево, сердито, работает на стандартном стеке.

5️⃣ MPC (Multi-Party Computation) Это больше про безопасность весов модели и ключей. Модель как бы «разбита» между несколькими серверами, ни один из которых не видит полной картины.

👨‍💻 К чему я это все?

Мы переходим от просто написания промптов к архитектуре Verifiable AI. В ближайшем будущем, создавая AI-приложение, мы будем выбирать среду выполнения как базу данных:

• Нужна скорость? → TEE • Нужна математическая гарантия? → ZK • Нужна абсолютная приватность юзера? → FHE

Стык криптографии и ML — это сейчас, пожалуй, самое сложное, но и самое перспективное направление в деве.

Кто-то уже пробовал щупать библиотеки типа tfhe-rs или писать под zkVM? Делитесь опытом 👇
👍4🤔1
🛡️ Shannon — автономный AI‑пентестер для веб‑приложений (KeygraphHQ).

Если коротко: это не “сканер, который насыпает алертов”, а агент, который старается доказать уязвимость делом. Shannon сам ищет векторы в коде, а потом через встроенный браузер пытается реально воспроизвести эксплойт (например, инъекции или обход авторизации), чтобы подтвердить, что баг действительно эксплуатируем.

Что внутри:
• Full‑auto режим: старт одной командой — логины (в т.ч. 2FA/TOTP и даже Google Sign‑In), навигация по приложению и финальный отчёт без ручного пинания
• Отчёты “по‑пентестерски”: только подтверждённые находки + воспроизводимые PoC’и (копипаст)
• Покрывает критичные веб‑классы (на старте): Injection, XSS, SSRF, broken auth/authorization
• “Code‑aware” динамика: использует исходники, чтобы умнее строить атаки, и подтверждает риск на живом приложении
• Под капотом подключает утилиты вроде Nmap/Subfinder/WhatWeb/Schemathesis и умеет параллелить этапы, чтобы ускоряться

Работает через Claude Code в докере. Совместимо со всеми моделями поддерживающими Anthropic протокол. То есть и GLM-4.6. То есть и ollama тоже через прокси

Есть Shannon Lite (open‑source, AGPL‑3.0) и Shannon Pro (коммерческий, с более продвинутым анализом кода).

⚠️ Важно: Shannon Lite — white‑box история (нужен доступ к коду/структуре репо). И запускать это можно только на своих системах или при явном письменном разрешении владельца иначе это статья УК 274!

GitHub: https://github.com/KeygraphHQ/shannon
👍1
🚀 Cerebras + GLM-4.6: “инстант-кодинг” становится реальным

Cerebras выкатили GLM-4.6 в своём Cerebras Inference API и сделали акцент на главном: почти “фронтирное” качество для кодинга — но с вау-скоростью.

Что именно впечатляет (по их данным)
• ~1,000 tokens/sec на GLM-4.6 — это уже скорость, где ожидание перестаёт быть частью процесса.
• По сравнению с Sonnet 4.5: ~17× быстрее и при этом ~25% дешевле на Cerebras (в их бенчмарках/кейcах).
• Сильные стороны модели для прод-разработки: надёжный tool-calling, веб-дев “под ключ”, экономия токенов, точность правок кода (на телеметрии Cline: 94.5% vs 96.2% у Sonnet 4.5).

Почему Cerebras вообще может так быстро

Их ставка — убрать “бутылочное горлышко” инференса: хранить модель на чипе и не гонять веса туда-сюда через внешнюю память. В их описании — wafer-scale дизайн и 44GB SRAM на одном чипе, что снижает зависимость от памяти/межсоединений и ускоряет генерацию.

Важный нюанс про GLM-4.6

GLM-4.6 — модель от Zhipu (Z.ai), и в гайде Cerebras подчёркивают: это MoE-трансформер (355B всего, ~32B активны на проход) и она ведёт себя иначе, чем “закрытые” Claude/GPT, поэтому промпты лучше адаптировать.

Доступ и планы

В посте заявлены: pay-as-you-go dev tier от $10, а также подписки Cerebras Code от $50/мес (и более высокий план) + упоминание интеграций с инструментами вроде Cline/VS Code/OpenCode.

Вывод: Cerebras пытаются “сломать” привычную экономику вайб-кодинга: если ответы приходят за секунды, то можно реально строить многошаговые агентные цепочки без ощущения, что ты половину дня смотришь на прогресс-бар.

Посмотрите их демо с GLM https://www.cerebras.ai/blog/glm
🤔3