AI Coder – Telegram
AI Coder
289 subscribers
81 photos
10 videos
2 files
184 links
AI will not replace you, people who use AI will.
Download Telegram
🚀 Новая эра агент-приложений: Claude Agent SDK от Anthropic

Anthropic недавно переименовали Claude Code SDK в Claude Agent SDK и расширили его возможности — теперь это не просто инструмент для помощи в коде, а полноценная платформа для построения автономных агентов.

🔍 Что это даёт
• Агент получает «компьютер» — доступ к файловой системе, запуск bash-команд, чтение/запись файлов и прочее. Это позволяет выполнять задачи вне рамок чистого текста.
• Используя этот подход, агент можно натренировать на:
Финансовые агенты (анализ портфелей, прогнозы)
Персональных ассистентов (календарь, travel, планирование)
Службы поддержки (обработка запросов, эскалации)
Глубокие агенты-исследователи (поиск по документам, сводка, анализ)

🔁 Архитектура: цикл агента

Типичный цикл работы агента в Claude Agent SDK:
1. Gather context — сбор контекста (файлы, логи, предыдущие сообщения)
2. Take action — применение инструментов, запуск кода, обращения к API
3. Verify work — проверка результатов, исправление ошибок, итерации

Ключевые детали:
Инструменты (Tools): надо явно выделять основные действия, которые агент может предпринимать (например, fetchInbox, searchEmails)
Subagents: агент может запускать субагентов, чтобы параллельно решать подзадачи и потом свернуть результаты назад
Суммаризация контекста (compaction): при росте объёма контекста автоматически сводятся или резюмируются старые данные, чтобы не выйти за пределы контекстного окна
Верификация: через правила (линтинг кода, валидацию), визуальные проверки (скриншоты), либо «судейство» другим LLM

🧪 Как начать
• Claude Agent SDK уже доступен — можно начать экспериментировать прямо сейчас.
• Для тех, кто уже работает с SDK, Anthropic публикуют гайд по миграции на новую версию.
• Важно: проектируйте агента вокруг цикла и методов верификации, потому что надёжность и возможность самоисправления — ключ к стабильной работе.
Forwarded from Dealer.AI
Мода на файловую память, теперь и код-агенты anthropic.

Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.

Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.

Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.

В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска. Особенно для файлов сотни мб или гб. Тут кстати и может помочь аналог чанкования, в виде иерархии файлов, на которые заранее бьём большие. Далее, берем файлик и читаем агентом, переносим из файла релевантное в контекст.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
Не успел я написать обзор glm-4.5 как вдруг:


🚀 Z.ai (Zhipu AI) выпустили GLM-4.6

Что нового:
📏 Контекст до 200K, вывод до 128K — влезают длинные ТЗ, логи и треки агентов.
💻 Кодинг: ощутимый рост в реальных задачах; по их CC-Bench — рядом с Claude Sonnet 4 и ~15% меньше токенов, чем у 4.5.
🧠 Рассуждения, tool-use, поиск и агенты — стабильнее и «умнее» в фреймворках.
🪪 Открытые веса (MIT) на Hugging Face → можно катать локально (vLLM/SGLang).
🔌 Где пощупать: Z.ai (чат/API) и OpenRouter ($0.60/M in, $2/M out); для IDE — GLM Coding Plan от $3/мес.

Кому зайдёт: разработчикам и тимлидам, кто строит агентные пайплайны и держит большие контексты в проде.
1🔥3👍21
По многочисленным просьбам!

🔑 Z.AI (GLM) — как зарегистрироваться по моей рефке, оплатить и получить API-ключ

Моя реф-ссылка:
https://z.ai/subscribe?ic=HRSUIKMMVP

Зачем это нужно?
API-ключ позволит использовать GLM (например, через zclaude для Claude Code) и другие интеграции.

Шаги:
1. Перейди по ссылке и создай аккаунт
Открой реф-страницу и зарегистрируйся/войдИ. После логина попадёшь в зону подписок.
2. Выбери тариф и оформи подписку
На странице подписки выбери план (напр. GLM Coding Lite или GLM Coding Pro) и следуй шагам оплаты. Эти планы заточены под кодинг-агентов и Claude Code.
3. Привяжи способ оплаты
В аккаунте открой раздел API Management → Payment Method и добавь карту (если не предложили в мастере подписки).
4. Создай API-ключ
Перейди в API Management → API Keys и нажми Create Key. Скопируй ключ и сохрани его в безопасном месте.
5. (Опционально) Подключение к Claude Code / zclaude
Для работы через Anthropic-совместимый эндпоинт Z.AI укажи базовый URL и ключ (см. мой ланчер zclaude). Базовый эндпоинт для Claude Code:
https://api.z.ai/api/anthropic
🧰 zclaude: параллельный запуск Claude через Z.AI (GLM) + оригинальный Claude (Sonnet 4.5)

Что даёт:
• zclaude — запускает Claude Code через Z.AI (GLM-4.6) и ходит на сервера z.ai.
• claude — остаётся оригинальным (Anthropic), можно гонять Sonnet 4.5 параллельно.

Gist со скриптом:
https://gist.github.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63



0) Что понадобится

Установить Claude Code (CLI) на macOS:

# Вариант A: npm (если установлен Node 18+)
npm install -g @anthropic-ai/claude-code

# Вариант B: нативный инсталлятор (beta)
curl -fsSL https://claude.ai/install.sh | bash

# Проверка
claude doctor





1) Положить zclaude в $PATH

mkdir -p ~/bin
curl -fsSL -o ~/bin/zclaude \
https://gist.githubusercontent.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63/raw
chmod +x ~/bin/zclaude


# Добавить ~/bin в PATH (если ещё не добавлен)
echo 'export PATH="$HOME/bin:$PATH"' >> ~/.zshrc
exec zsh -l


# Проверка
which zclaude # должно показать: /Users/<ты>/bin/zclaude




2) Ключ Z.AI и эндпоинт

Эндпоинт (Anthropic-совместимый): https://api.z.ai/api/anthropic

Вариант A — хранить ключ в файле (как ожидает скрипт):

read -s ZAIKEY && echo "$ZAIKEY" > ~/.zai_api_key && chmod 600 ~/.zai_api_key

Вариант B — через переменную окружения:

echo 'export ZAI_API_KEY="ВАШ_API_КЛЮЧ_ZAI"' >> ~/.zshrc
exec zsh -l


zclaude сам подставит нужные ENV только для дочернего процесса, оригинальный claude не тронет.



3) Тест быстрого старта (GLM через Z.AI)

# Разовый запрос (без REPL):
zclaude -p "Сделай функцию fib(n) на Python с мемоизацией и тестом."

# Интерактивный режим:
zclaude
# внутри набери:
# /status # увидишь активную модель (GLM) и базовый URL api.z.ai


По умолчанию zclaude стартует с --model glm-4.6. При желании можешь указать модель вручную:

zclaude --model glm-4.5




4) Оригинальный claude (Sonnet 4.5) — параллельно

Во втором терминале запускай «родной» Claude Code:

claude --model claude-sonnet-4-5-20250929

Так можно держать два окна:
A: zclaude (GLM-4.6 через Z.AI)
B: claude --model claude-sonnet-4-5-20250929 (Anthropic)




5) Полезные команды

# Пайпинг файла:
zclaude -p "Объясни этот файл" < ./src/file.ts
cat src/file.ts | zclaude -p "дай краткий обзор"


# Смена модели в интерактиве оригинального claude:
claude
/model claude-sonnet-4-5-20250929


# Диагностика:
claude doctor
1
⚙️ GLM-4.6 + Claude Code: полный функционал как у Sonnet, агенты, скорость, без VPN

— Полная совместимость с Claude Code. Z.AI даёт Anthropic-совместимый endpoint, поэтому Claude Code работает с GLM-4.6 «из коробки» — без правок в самом CLI.

— Функциональность на уровне Sonnet-4. В реальных код-тестах внутри Claude Code GLM-4.6 показывает паритет/превосходит Sonnet-4; модель «заточена» под агентные сценарии и tool use.

— Агенты — работают. Claude Code сам по себе — агентный инструмент; GLM-4.6 улучшает планирование и вызов инструментов, так что привычные фишки (права/инструменты, автономные шаги и т. п.) сохраняются.

— Быстро. GLM-4.6 специально выпущен для кодинга (GLM Coding Plan) и стал заметно эффективнее: в среднем >30% экономичнее по токенам vs GLM-4.5, что ощущается как более резвый отклик в рабочих сценариях.

— Без VPN. Подключение идёт к домену z.ai (Anthropic-совместимый ANTRHOPIC_BASE_URL=https://api.z.ai/api/anthropic), поэтому доступ обычно работает «как есть»
👍3
Ну и за $360 в год за полный анлим это конечно сильное предложение
🔥4
https://docs.z.ai/guides/llm/glm-4.6

По моим ощущениям оно прям на уровне пашет с sonnet 4.5 если настроены mcp и контекст хорошо подготовлен для агентности. Прям на уровне, ребята!
🔥2👍1💯1
🚀 Sculptor: недостающий UI для Claude Code от Imbue

Наткнулся на интересный инструмент — Sculptor от Imbue — который пытается закрыть один из слабых мест при работе с агентами ИИ: как удерживать контроль, работать параллельно и не превратить весь рабочий процесс в хаос.

🔍 Что это и зачем
• Sculptor запускает каждый Claude-агент в своём контейнере — изолированно, безопасно, без опасений “что-то сломается на моей машине”.
• Можно переключаться между агентами мгновенно с помощью “Pairing Mode” — тестировать изменения, смотреть результаты.
• Ты можешь принимать изменения, сливаться или отклонять — как на кодовых ветках, но с интерфейсом, заточенным под агентов.

🛠 Ключевые фичи
Параллельные агенты — не надо ждать по очереди, можно запускать задачи одновременно.
Изоляция в контейнерах — агенты могут устанавливать зависимости, запускать код, не мешая основной системе.
Управление данными / приватность — Sculptor работает в основном локально, и вы сами контролируете, что отсылается Imbue (логи, чаты и т.д.).
Платформы: macOS, Linux, и на Windows через WSL.
Сколько стоит: на этапе беты — бесплатно. Но нужен доступ к API Anthropic или подписка Claude Pro/Max.
Поддержка других моделей: пока только Claude Code, но в планах — GPT-5 и др.

Почему стоит присмотреться (для devs, инженеров)
• Если ты работаешь с агентами и уже сталкивался с “ветвлением”, конфликтами измнений, проблемами окружения — Sculptor предлагает удобный UI-слой, который снимает часть болей.
• Возможность экспериментировать параллельно — это огромный прокаченный UX по сравнению с “один агент в одной ветке”.
• Контроль: ты остаёшься архитектором идеи, агенты — лишь “исполнители”, а ты решаешь, что принимать.

⚠️ Что пока стоит учесть / риски
• Пока ранняя версия / бета — возможны баги, недоделки.
• Ограничение по модели (Claude Code) — если ты используешь другие языковые модели, не факт, что поддерживаются прямо сейчас.
• Нужно доверие: часть логов / данных может отправляться (но выбор за тобой).
• Архитектурный overhead: контейнеры + переключения — некоторый “cost” по ресурсам, инфраструктуре.
💻 Cursor теперь доступен в CLI

Cursor выпустил новый инструмент — Cursor Agent CLI, который позволяет запускать мощь Cursor прямо из терминала или в headless-режиме.

Что умеет:
• Поддержка любых AI-моделей или режима Auto
• Работа с тем же контекстом, что и в Cursor IDE
• Интеграция с внешними инструментами через MCP
• Автозапуск скриптов: код-ревью, генерация документации, автоправки
• Поддержка GitHub Actions и CI/CD

👉 Установка в одну команду:

curl https://cursor.com/install -fsS | bash

Это превращает Cursor в универсального помощника — теперь агент доступен не только в IDE, но и везде, где есть терминал. Синхронизации с самим Cursor IDE пока нет.

🔗 Попробовать CLI
🔥2👍1
🧠 CodeSpeak — новый язык от автора Kotlin

Интересный анонс: Андрей Бреслав, создатель языка Kotlin, представил новый проект — CodeSpeak (home.codespeak.dev).

В чём идея

CodeSpeak задуман как язык, где вы описываете что вы хотите, а не как это реализовать.
• Используется «человеческий» синтаксис (на английском), из которого система автоматически генерирует код на привычных языках (Python, JS, Kotlin, Swift и др.).
• Если формулировка неоднозначна, инструмент уточняет смысл у разработчика.
• Уже сгенерированный код не затирается полностью — можно улучшать его руками без риска потерять связь со спецификацией.

Зачем это может быть нужно
📌 Быстрая разработка прототипов и MVP.
📌 Мост между нетехническими специалистами (аналитики, продукт) и разработчиками.
📌 Снижение «технического долга» за счёт работы на уровне требований, а не деталей реализации.

Вопросы и риски
• Как CodeSpeak справится с реально сложной бизнес-логикой?
• Что будет с отладкой и интеграцией в существующие проекты?
• Хватит ли точности «человеческого языка» для промышленных систем?

Почему стоит следить

⚡️ Потому что это новый шаг в карьере Андрея Бреслава — человека, который уже создал один из самых популярных языков в мире (Kotlin). Его эксперименты обычно превращаются в тренды для всей индустрии.

👉 Подробнее: home.codespeak.dev
🔥5
Попался тут под руку любопытный бенчмарк кодинг моделей из Berkeley https://gorilla.cs.berkeley.edu/leaderboard.html.

Он очень совпадает с моими субъективными ощущениями. GLM-4.6 это SOTA. Да, она плохо дизайнит интерфейсы по сравнению с Opus или Sonnet, НО как круто она дебажит и рефакторит код, восторг
👍2
🔥 Crush: мой рабочий конфиг для daily-dev
Гист: https://gist.github.com/dpolishuk/3dd1faed27f526eb329e0f0997a55549

Что внутри (кратко):
• MCP-плагины: perplexity-mcp, context7, task-master-ai, nodejs-docs — быстрый ресёрч, общий контекст по проектам и удобные dev-тулы прямо из терминала.
• LSP: gopls + typenoscript-language-server — точнее правки кода и лучшее авто-дополнение.
• Безопасность: whitelist на auto-run инструментов вместо «разрешить всё».
• Отладка: debug: true + логи (crush logs) — прозрачно видно, что делает агент.

Где лежит crush.json:
1. .crush.json в корне проекта → 2) crush.json в проекте → 3) глобально: ~/.config/crush/crush.json (Win: %USERPROFILE%\AppData\Local\crush\crush.json).

Лайфхаки:
Делите MCP на узкие роли — проще дебажить.
Белый список тулов безопаснее «YOLO».
Включайте LSP даже для чтения кода — качество правок растёт.

Использую crush с GLM-4.6 (Моя реф-ссылка на скидку: https://z.ai/subscribe?ic=HRSUIKMMVP)

И давайте делиться сетапами!
2🔥103👍2
🚀 Perplexity MCP теперь ставится в одно касание через Homebrew

У меня в crush.json есть perplexity-mcp. Вот недостающая инструкция как это у себя настроить.
Я использую @Alcova-AI/perplexity-mcp — лёгкий MCP-сервер, который делает Perplexity полноценным агентом прямо внутри Charmbracelet Crush и других MCP-клиентов.
Работает стабильно, без Python-виртуалок и uv — просто ставится и работает.

Сначала идем за ключом сюда https://www.perplexity.ai/settings/api

Потом:

🧩 Установка

brew tap alcova-ai/tap
brew install perplexity-mcp


🔑 Перед запуском нужно выставить ключ API:

export PERPLEXITY_API_KEY="pplx_************************"

и (опционально) выбрать модель:

export PERPLEXITY_MODEL="sonar-pro"




⚙️ Интеграция с Crush

Добавь MCP-секцию в ~/.config/crush/crush.json:

{
"$schema": "https://charm.land/crush.json",
"mcp": {
"perplexity": {
"type": "stdio",
"command": "perplexity-mcp",
"env": {
"PERPLEXITY_API_KEY": "pplx_************************",
"PERPLEXITY_MODEL": "sonar-pro"
}
}
}
}


Теперь прямо из Crush можно вызывать Perplexity, как родной инструмент MCP — выполнять поиск, аналитические запросы, ресёрч по теме и всё это в общем контексте с другими агентами 🔍🤖
1👍4🔥21
2
Media is too big
VIEW IN TELEGRAM
Давно обещал сделать видео о том как я генерирую код по макетам из Figma, а тут еще и Figma Make подъехал! Собственно на видео процесс подготовки макета, копирования шаблона кода и потом claude code по шаблону делает готовый mvp. Видео с бодрящей музыкой, если что
1🔥9👍61👏1🥱1
Вы в коментариях пишите про что еще сделать видео. Задавайте вопросы. Пока я планирую сделать видео по настройске claude code и crush с mcp еще
1👍3
🧪 Playwright Agents: Planner, Generator и Healer — как это работает

https://dev.to/playwright/playwright-agents-planner-generator-and-healer-in-action-5ajh

Недавно вышла статья на DEV, демонстрирующая новую функциональность Playwright Agents (начиная с версии 1.56) — три агента, которые помогают автоматизировать жизненный цикл тестов: Planner, Generator и Healer.

Что делают агенты

Агент Назначение
Planner Генерирует тест-план (набор сценариев, покрытие фичи).
Generator По плану создаёт реальные тестовые файлы.
Healer При сбоях запускает диагностику и пытается «подлечить» тесты.

Как начать
1. Обновление Playwright до версии ≥ 1.56
2. Запуск команды:

npx playwright init-agents --loop=claude

(вместо vscode можно выбрать claude, opencode и др.)

3. Подготовить seed-файл — базовый контекст / фикстуры, которые копируются в генерируемые тесты.
4. В режиме чата VS Code выбрать агента (Planner, Generator или Healer) и отправлять команды вроде “Generate test plan for feature X” или “Fix failing test”.

Преимущества и ограничения

Плюсы:
• Автоматизация рутинных задач в тестировании
• Быстрое покрытие сценариев
• Возможность самостоятельного восстановления тестов при мелких изменениях

Вопросы / моменты, на которые стоит обратить внимание:
• Безопасность: как агенты работают с конфиденциальными данными (логины, ключи)?
• Нужно ли вручную корректировать планы или дописывать сценарии?
• Насколько хорошо Healer справляется в сложных случаях, когда причина сбоя — не просто изменение селектора?

Итог

Playwright Agents — серьёзный шаг в сторону «умного» тестирования: планирование, генерация и лечение тестов почти без участия человека. Но, как и везде с AI, важны контроль, аудит и разумное применение.
1
Как я сейчас генерирую суб агентов на Claude Code, вот промпт:

could you pls analyze the project and think up sub agents like here https://docs.anthropic.com/en/docs/claude-code/sub-agents. use file format which was specified in this url. use
perplexity
. use best practices. always use context7

Этот промпт за счет использования perplexity дает значительно лучший результат и по точности и по актуальности.
3👍1🤔1
В github уже есть такое. Ну короче github тоже пытается конкурировать с lovable, replit, orchids.app и bolt.new. Рынок огромный!
⚙️ Spec-driven development (SDD) с GitHub Spec Kit
GitHub выкатил Spec Kit — open-source тулкит, который ставит спецификацию в центр разработки: сначала описываем что и зачем, и уже по ней ИИ-агенты генерируют план, задачи и код. Это снижает «vibe-coding» и повышает предсказуемость результата.

Почему это важно
— Спека становится «исполняемым артефактом»: единый источник правды для команды и ИИ.
— Работает с любимыми агентами: Copilot, Claude Code, Gemini CLI, Cursor, Qwen и др.

Процесс из 4 фаз
1. Specify → 2) Plan → 3) Tasks → 4) Implement — на каждом этапе есть проверка/валидация, прежде чем двигаться дальше.

Как попробовать (1 мин):

# Инициализация проекта
uvx --from git+https://github.com/github/spec-kit.git specify init my-app

# Дальше — прямо в вашем агенте:
# /speckit.constitution — зафиксировать принципы/гайдлайны проекта
# /speckit.specify — сформировать продуктовую спеку (что/почему)
# /speckit.plan — технический план (стек, архитектура, ограничения)
# /speckit.tasks — разбиение на задачи
# /speckit.implement — выполнение по списку задач


Команды и CLI описаны в репозитории Spec Kit. Лицензия — MIT.

Где особенно заходит
0→1: быстрый старт новых проектов без хаоса.
N→N+1: добавление фич в сложные кодовые базы.
Legacy-модернизация: перенос логики в современную архитектуру через спеки.

Источник: GitHub Blog и репозиторий github/spec-kit.
1👍4