🚀 Новая эра агент-приложений: Claude Agent SDK от Anthropic
Anthropic недавно переименовали Claude Code SDK в Claude Agent SDK и расширили его возможности — теперь это не просто инструмент для помощи в коде, а полноценная платформа для построения автономных агентов.
🔍 Что это даёт
• Агент получает «компьютер» — доступ к файловой системе, запуск bash-команд, чтение/запись файлов и прочее. Это позволяет выполнять задачи вне рамок чистого текста.
• Используя этот подход, агент можно натренировать на:
• Финансовые агенты (анализ портфелей, прогнозы)
• Персональных ассистентов (календарь, travel, планирование)
• Службы поддержки (обработка запросов, эскалации)
• Глубокие агенты-исследователи (поиск по документам, сводка, анализ)
🔁 Архитектура: цикл агента
Типичный цикл работы агента в Claude Agent SDK:
1. Gather context — сбор контекста (файлы, логи, предыдущие сообщения)
2. Take action — применение инструментов, запуск кода, обращения к API
3. Verify work — проверка результатов, исправление ошибок, итерации
Ключевые детали:
• Инструменты (Tools): надо явно выделять основные действия, которые агент может предпринимать (например, fetchInbox, searchEmails)
• Subagents: агент может запускать субагентов, чтобы параллельно решать подзадачи и потом свернуть результаты назад
• Суммаризация контекста (compaction): при росте объёма контекста автоматически сводятся или резюмируются старые данные, чтобы не выйти за пределы контекстного окна
• Верификация: через правила (линтинг кода, валидацию), визуальные проверки (скриншоты), либо «судейство» другим LLM
🧪 Как начать
• Claude Agent SDK уже доступен — можно начать экспериментировать прямо сейчас.
• Для тех, кто уже работает с SDK, Anthropic публикуют гайд по миграции на новую версию.
• Важно: проектируйте агента вокруг цикла и методов верификации, потому что надёжность и возможность самоисправления — ключ к стабильной работе.
Anthropic недавно переименовали Claude Code SDK в Claude Agent SDK и расширили его возможности — теперь это не просто инструмент для помощи в коде, а полноценная платформа для построения автономных агентов.
🔍 Что это даёт
• Агент получает «компьютер» — доступ к файловой системе, запуск bash-команд, чтение/запись файлов и прочее. Это позволяет выполнять задачи вне рамок чистого текста.
• Используя этот подход, агент можно натренировать на:
• Финансовые агенты (анализ портфелей, прогнозы)
• Персональных ассистентов (календарь, travel, планирование)
• Службы поддержки (обработка запросов, эскалации)
• Глубокие агенты-исследователи (поиск по документам, сводка, анализ)
🔁 Архитектура: цикл агента
Типичный цикл работы агента в Claude Agent SDK:
1. Gather context — сбор контекста (файлы, логи, предыдущие сообщения)
2. Take action — применение инструментов, запуск кода, обращения к API
3. Verify work — проверка результатов, исправление ошибок, итерации
Ключевые детали:
• Инструменты (Tools): надо явно выделять основные действия, которые агент может предпринимать (например, fetchInbox, searchEmails)
• Subagents: агент может запускать субагентов, чтобы параллельно решать подзадачи и потом свернуть результаты назад
• Суммаризация контекста (compaction): при росте объёма контекста автоматически сводятся или резюмируются старые данные, чтобы не выйти за пределы контекстного окна
• Верификация: через правила (линтинг кода, валидацию), визуальные проверки (скриншоты), либо «судейство» другим LLM
🧪 Как начать
• Claude Agent SDK уже доступен — можно начать экспериментировать прямо сейчас.
• Для тех, кто уже работает с SDK, Anthropic публикуют гайд по миграции на новую версию.
• Важно: проектируйте агента вокруг цикла и методов верификации, потому что надёжность и возможность самоисправления — ключ к стабильной работе.
Forwarded from Dealer.AI
Мода на файловую память, теперь и код-агенты anthropic.
Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.
Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.
Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.
В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска.Особенно для файлов сотни мб или гб. Тут кстати и может помочь аналог чанкования, в виде иерархии файлов, на которые заранее бьём большие. Далее, берем файлик и читаем агентом, переносим из файла релевантное в контекст.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.
Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.
Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.
В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
Не успел я написать обзор glm-4.5 как вдруг:
⸻
🚀 Z.ai (Zhipu AI) выпустили GLM-4.6
Что нового:
• 📏 Контекст до 200K, вывод до 128K — влезают длинные ТЗ, логи и треки агентов.
• 💻 Кодинг: ощутимый рост в реальных задачах; по их CC-Bench — рядом с Claude Sonnet 4 и ~15% меньше токенов, чем у 4.5.
• 🧠 Рассуждения, tool-use, поиск и агенты — стабильнее и «умнее» в фреймворках.
• 🪪 Открытые веса (MIT) на Hugging Face → можно катать локально (vLLM/SGLang).
• 🔌 Где пощупать: Z.ai (чат/API) и OpenRouter ($0.60/M in, $2/M out); для IDE — GLM Coding Plan от $3/мес.
Кому зайдёт: разработчикам и тимлидам, кто строит агентные пайплайны и держит большие контексты в проде.
⸻
🚀 Z.ai (Zhipu AI) выпустили GLM-4.6
Что нового:
• 📏 Контекст до 200K, вывод до 128K — влезают длинные ТЗ, логи и треки агентов.
• 💻 Кодинг: ощутимый рост в реальных задачах; по их CC-Bench — рядом с Claude Sonnet 4 и ~15% меньше токенов, чем у 4.5.
• 🧠 Рассуждения, tool-use, поиск и агенты — стабильнее и «умнее» в фреймворках.
• 🪪 Открытые веса (MIT) на Hugging Face → можно катать локально (vLLM/SGLang).
• 🔌 Где пощупать: Z.ai (чат/API) и OpenRouter ($0.60/M in, $2/M out); для IDE — GLM Coding Plan от $3/мес.
Кому зайдёт: разработчикам и тимлидам, кто строит агентные пайплайны и держит большие контексты в проде.
1🔥3👍2✍1
По многочисленным просьбам!
🔑 Z.AI (GLM) — как зарегистрироваться по моей рефке, оплатить и получить API-ключ
Моя реф-ссылка:
https://z.ai/subscribe?ic=HRSUIKMMVP
Зачем это нужно?
API-ключ позволит использовать GLM (например, через zclaude для Claude Code) и другие интеграции.
Шаги:
1. Перейди по ссылке и создай аккаунт
Открой реф-страницу и зарегистрируйся/войдИ. После логина попадёшь в зону подписок.
2. Выбери тариф и оформи подписку
На странице подписки выбери план (напр. GLM Coding Lite или GLM Coding Pro) и следуй шагам оплаты. Эти планы заточены под кодинг-агентов и Claude Code.
3. Привяжи способ оплаты
В аккаунте открой раздел API Management → Payment Method и добавь карту (если не предложили в мастере подписки).
4. Создай API-ключ
Перейди в API Management → API Keys и нажми Create Key. Скопируй ключ и сохрани его в безопасном месте.
5. (Опционально) Подключение к Claude Code / zclaude
Для работы через Anthropic-совместимый эндпоинт Z.AI укажи базовый URL и ключ (см. мой ланчер zclaude). Базовый эндпоинт для Claude Code:
https://api.z.ai/api/anthropic
🔑 Z.AI (GLM) — как зарегистрироваться по моей рефке, оплатить и получить API-ключ
Моя реф-ссылка:
https://z.ai/subscribe?ic=HRSUIKMMVP
Зачем это нужно?
API-ключ позволит использовать GLM (например, через zclaude для Claude Code) и другие интеграции.
Шаги:
1. Перейди по ссылке и создай аккаунт
Открой реф-страницу и зарегистрируйся/войдИ. После логина попадёшь в зону подписок.
2. Выбери тариф и оформи подписку
На странице подписки выбери план (напр. GLM Coding Lite или GLM Coding Pro) и следуй шагам оплаты. Эти планы заточены под кодинг-агентов и Claude Code.
3. Привяжи способ оплаты
В аккаунте открой раздел API Management → Payment Method и добавь карту (если не предложили в мастере подписки).
4. Создай API-ключ
Перейди в API Management → API Keys и нажми Create Key. Скопируй ключ и сохрани его в безопасном месте.
5. (Опционально) Подключение к Claude Code / zclaude
Для работы через Anthropic-совместимый эндпоинт Z.AI укажи базовый URL и ключ (см. мой ланчер zclaude). Базовый эндпоинт для Claude Code:
https://api.z.ai/api/anthropic
z.ai
GLM Coding Plan powered by GLM-4.6
AI-powered coding with GLM-4.6 in Claude Code, Cline, OpenCode, and more. Plans start at $3/month to help you code faster, smarter, and more reliably.
🧰 zclaude: параллельный запуск Claude через Z.AI (GLM) + оригинальный Claude (Sonnet 4.5)
Что даёт:
• zclaude — запускает Claude Code через Z.AI (GLM-4.6) и ходит на сервера z.ai.
• claude — остаётся оригинальным (Anthropic), можно гонять Sonnet 4.5 параллельно.
Gist со скриптом:
https://gist.github.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63
⸻
0) Что понадобится
Установить Claude Code (CLI) на macOS:
⸻
1) Положить zclaude в $PATH
# Добавить ~/bin в PATH (если ещё не добавлен)
# Проверка
⸻
2) Ключ Z.AI и эндпоинт
Эндпоинт (Anthropic-совместимый): https://api.z.ai/api/anthropic
Вариант A — хранить ключ в файле (как ожидает скрипт):
Вариант B — через переменную окружения:
zclaude сам подставит нужные ENV только для дочернего процесса, оригинальный claude не тронет.
⸻
3) Тест быстрого старта (GLM через Z.AI)
По умолчанию zclaude стартует с --model glm-4.6. При желании можешь указать модель вручную:
⸻
4) Оригинальный claude (Sonnet 4.5) — параллельно
Во втором терминале запускай «родной» Claude Code:
claude --model claude-sonnet-4-5-20250929
Так можно держать два окна:
⸻
5) Полезные команды
# Пайпинг файла:
# Смена модели в интерактиве оригинального claude:
# Диагностика:
claude doctor
Что даёт:
• zclaude — запускает Claude Code через Z.AI (GLM-4.6) и ходит на сервера z.ai.
• claude — остаётся оригинальным (Anthropic), можно гонять Sonnet 4.5 параллельно.
Gist со скриптом:
https://gist.github.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63
⸻
0) Что понадобится
Установить Claude Code (CLI) на macOS:
# Вариант A: npm (если установлен Node 18+)
npm install -g @anthropic-ai/claude-code
# Вариант B: нативный инсталлятор (beta)
curl -fsSL https://claude.ai/install.sh | bash
# Проверка
claude doctor⸻
1) Положить zclaude в $PATH
mkdir -p ~/bin
curl -fsSL -o ~/bin/zclaude \
https://gist.githubusercontent.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63/raw
chmod +x ~/bin/zclaude# Добавить ~/bin в PATH (если ещё не добавлен)
echo 'export PATH="$HOME/bin:$PATH"' >> ~/.zshrc
exec zsh -l# Проверка
which zclaude # должно показать: /Users/<ты>/bin/zclaude⸻
2) Ключ Z.AI и эндпоинт
Эндпоинт (Anthropic-совместимый): https://api.z.ai/api/anthropic
Вариант A — хранить ключ в файле (как ожидает скрипт):
read -s ZAIKEY && echo "$ZAIKEY" > ~/.zai_api_key && chmod 600 ~/.zai_api_keyВариант B — через переменную окружения:
echo 'export ZAI_API_KEY="ВАШ_API_КЛЮЧ_ZAI"' >> ~/.zshrc
exec zsh -lzclaude сам подставит нужные ENV только для дочернего процесса, оригинальный claude не тронет.
⸻
3) Тест быстрого старта (GLM через Z.AI)
# Разовый запрос (без REPL):
zclaude -p "Сделай функцию fib(n) на Python с мемоизацией и тестом."
# Интерактивный режим:
zclaude
# внутри набери:
# /status # увидишь активную модель (GLM) и базовый URL api.z.aiПо умолчанию zclaude стартует с --model glm-4.6. При желании можешь указать модель вручную:
zclaude --model glm-4.5⸻
4) Оригинальный claude (Sonnet 4.5) — параллельно
Во втором терминале запускай «родной» Claude Code:
claude --model claude-sonnet-4-5-20250929
Так можно держать два окна:
A: zclaude (GLM-4.6 через Z.AI)
B: claude --model claude-sonnet-4-5-20250929 (Anthropic)⸻
5) Полезные команды
# Пайпинг файла:
zclaude -p "Объясни этот файл" < ./src/file.ts
cat src/file.ts | zclaude -p "дай краткий обзор"# Смена модели в интерактиве оригинального claude:
claude
/model claude-sonnet-4-5-20250929# Диагностика:
claude doctor
Gist
zClaude run noscript
zClaude run noscript. GitHub Gist: instantly share code, notes, and snippets.
✍1
⚙️ GLM-4.6 + Claude Code: полный функционал как у Sonnet, агенты, скорость, без VPN
— Полная совместимость с Claude Code. Z.AI даёт Anthropic-совместимый endpoint, поэтому Claude Code работает с GLM-4.6 «из коробки» — без правок в самом CLI.
— Функциональность на уровне Sonnet-4. В реальных код-тестах внутри Claude Code GLM-4.6 показывает паритет/превосходит Sonnet-4; модель «заточена» под агентные сценарии и tool use.
— Агенты — работают. Claude Code сам по себе — агентный инструмент; GLM-4.6 улучшает планирование и вызов инструментов, так что привычные фишки (права/инструменты, автономные шаги и т. п.) сохраняются.
— Быстро. GLM-4.6 специально выпущен для кодинга (GLM Coding Plan) и стал заметно эффективнее: в среднем >30% экономичнее по токенам vs GLM-4.5, что ощущается как более резвый отклик в рабочих сценариях.
— Без VPN. Подключение идёт к домену z.ai (Anthropic-совместимый ANTRHOPIC_BASE_URL=https://api.z.ai/api/anthropic), поэтому доступ обычно работает «как есть»
— Полная совместимость с Claude Code. Z.AI даёт Anthropic-совместимый endpoint, поэтому Claude Code работает с GLM-4.6 «из коробки» — без правок в самом CLI.
— Функциональность на уровне Sonnet-4. В реальных код-тестах внутри Claude Code GLM-4.6 показывает паритет/превосходит Sonnet-4; модель «заточена» под агентные сценарии и tool use.
— Агенты — работают. Claude Code сам по себе — агентный инструмент; GLM-4.6 улучшает планирование и вызов инструментов, так что привычные фишки (права/инструменты, автономные шаги и т. п.) сохраняются.
— Быстро. GLM-4.6 специально выпущен для кодинга (GLM Coding Plan) и стал заметно эффективнее: в среднем >30% экономичнее по токенам vs GLM-4.5, что ощущается как более резвый отклик в рабочих сценариях.
— Без VPN. Подключение идёт к домену z.ai (Anthropic-совместимый ANTRHOPIC_BASE_URL=https://api.z.ai/api/anthropic), поэтому доступ обычно работает «как есть»
👍3
https://docs.z.ai/guides/llm/glm-4.6
По моим ощущениям оно прям на уровне пашет с sonnet 4.5 если настроены mcp и контекст хорошо подготовлен для агентности. Прям на уровне, ребята!
По моим ощущениям оно прям на уровне пашет с sonnet 4.5 если настроены mcp и контекст хорошо подготовлен для агентности. Прям на уровне, ребята!
🔥2👍1💯1
🚀 Sculptor: недостающий UI для Claude Code от Imbue
Наткнулся на интересный инструмент — Sculptor от Imbue — который пытается закрыть один из слабых мест при работе с агентами ИИ: как удерживать контроль, работать параллельно и не превратить весь рабочий процесс в хаос.
🔍 Что это и зачем
• Sculptor запускает каждый Claude-агент в своём контейнере — изолированно, безопасно, без опасений “что-то сломается на моей машине”.
• Можно переключаться между агентами мгновенно с помощью “Pairing Mode” — тестировать изменения, смотреть результаты.
• Ты можешь принимать изменения, сливаться или отклонять — как на кодовых ветках, но с интерфейсом, заточенным под агентов.
🛠 Ключевые фичи
• Параллельные агенты — не надо ждать по очереди, можно запускать задачи одновременно.
• Изоляция в контейнерах — агенты могут устанавливать зависимости, запускать код, не мешая основной системе.
• Управление данными / приватность — Sculptor работает в основном локально, и вы сами контролируете, что отсылается Imbue (логи, чаты и т.д.).
• Платформы: macOS, Linux, и на Windows через WSL.
• Сколько стоит: на этапе беты — бесплатно. Но нужен доступ к API Anthropic или подписка Claude Pro/Max.
• Поддержка других моделей: пока только Claude Code, но в планах — GPT-5 и др.
✅ Почему стоит присмотреться (для devs, инженеров)
• Если ты работаешь с агентами и уже сталкивался с “ветвлением”, конфликтами измнений, проблемами окружения — Sculptor предлагает удобный UI-слой, который снимает часть болей.
• Возможность экспериментировать параллельно — это огромный прокаченный UX по сравнению с “один агент в одной ветке”.
• Контроль: ты остаёшься архитектором идеи, агенты — лишь “исполнители”, а ты решаешь, что принимать.
⚠️ Что пока стоит учесть / риски
• Пока ранняя версия / бета — возможны баги, недоделки.
• Ограничение по модели (Claude Code) — если ты используешь другие языковые модели, не факт, что поддерживаются прямо сейчас.
• Нужно доверие: часть логов / данных может отправляться (но выбор за тобой).
• Архитектурный overhead: контейнеры + переключения — некоторый “cost” по ресурсам, инфраструктуре.
Наткнулся на интересный инструмент — Sculptor от Imbue — который пытается закрыть один из слабых мест при работе с агентами ИИ: как удерживать контроль, работать параллельно и не превратить весь рабочий процесс в хаос.
🔍 Что это и зачем
• Sculptor запускает каждый Claude-агент в своём контейнере — изолированно, безопасно, без опасений “что-то сломается на моей машине”.
• Можно переключаться между агентами мгновенно с помощью “Pairing Mode” — тестировать изменения, смотреть результаты.
• Ты можешь принимать изменения, сливаться или отклонять — как на кодовых ветках, но с интерфейсом, заточенным под агентов.
🛠 Ключевые фичи
• Параллельные агенты — не надо ждать по очереди, можно запускать задачи одновременно.
• Изоляция в контейнерах — агенты могут устанавливать зависимости, запускать код, не мешая основной системе.
• Управление данными / приватность — Sculptor работает в основном локально, и вы сами контролируете, что отсылается Imbue (логи, чаты и т.д.).
• Платформы: macOS, Linux, и на Windows через WSL.
• Сколько стоит: на этапе беты — бесплатно. Но нужен доступ к API Anthropic или подписка Claude Pro/Max.
• Поддержка других моделей: пока только Claude Code, но в планах — GPT-5 и др.
✅ Почему стоит присмотреться (для devs, инженеров)
• Если ты работаешь с агентами и уже сталкивался с “ветвлением”, конфликтами измнений, проблемами окружения — Sculptor предлагает удобный UI-слой, который снимает часть болей.
• Возможность экспериментировать параллельно — это огромный прокаченный UX по сравнению с “один агент в одной ветке”.
• Контроль: ты остаёшься архитектором идеи, агенты — лишь “исполнители”, а ты решаешь, что принимать.
⚠️ Что пока стоит учесть / риски
• Пока ранняя версия / бета — возможны баги, недоделки.
• Ограничение по модели (Claude Code) — если ты используешь другие языковые модели, не факт, что поддерживаются прямо сейчас.
• Нужно доверие: часть логов / данных может отправляться (но выбор за тобой).
• Архитектурный overhead: контейнеры + переключения — некоторый “cost” по ресурсам, инфраструктуре.
💻 Cursor теперь доступен в CLI
Cursor выпустил новый инструмент — Cursor Agent CLI, который позволяет запускать мощь Cursor прямо из терминала или в headless-режиме.
✨ Что умеет:
• Поддержка любых AI-моделей или режима Auto
• Работа с тем же контекстом, что и в Cursor IDE
• Интеграция с внешними инструментами через MCP
• Автозапуск скриптов: код-ревью, генерация документации, автоправки
• Поддержка GitHub Actions и CI/CD
👉 Установка в одну команду:
Это превращает Cursor в универсального помощника — теперь агент доступен не только в IDE, но и везде, где есть терминал. Синхронизации с самим Cursor IDE пока нет.
🔗 Попробовать CLI
Cursor выпустил новый инструмент — Cursor Agent CLI, который позволяет запускать мощь Cursor прямо из терминала или в headless-режиме.
✨ Что умеет:
• Поддержка любых AI-моделей или режима Auto
• Работа с тем же контекстом, что и в Cursor IDE
• Интеграция с внешними инструментами через MCP
• Автозапуск скриптов: код-ревью, генерация документации, автоправки
• Поддержка GitHub Actions и CI/CD
👉 Установка в одну команду:
curl https://cursor.com/install -fsS | bashЭто превращает Cursor в универсального помощника — теперь агент доступен не только в IDE, но и везде, где есть терминал. Синхронизации с самим Cursor IDE пока нет.
🔗 Попробовать CLI
🔥2👍1
🧠 CodeSpeak — новый язык от автора Kotlin
Интересный анонс: Андрей Бреслав, создатель языка Kotlin, представил новый проект — CodeSpeak (home.codespeak.dev).
В чём идея
CodeSpeak задуман как язык, где вы описываете что вы хотите, а не как это реализовать.
• Используется «человеческий» синтаксис (на английском), из которого система автоматически генерирует код на привычных языках (Python, JS, Kotlin, Swift и др.).
• Если формулировка неоднозначна, инструмент уточняет смысл у разработчика.
• Уже сгенерированный код не затирается полностью — можно улучшать его руками без риска потерять связь со спецификацией.
Зачем это может быть нужно
• 📌 Быстрая разработка прототипов и MVP.
• 📌 Мост между нетехническими специалистами (аналитики, продукт) и разработчиками.
• 📌 Снижение «технического долга» за счёт работы на уровне требований, а не деталей реализации.
Вопросы и риски
• Как CodeSpeak справится с реально сложной бизнес-логикой?
• Что будет с отладкой и интеграцией в существующие проекты?
• Хватит ли точности «человеческого языка» для промышленных систем?
Почему стоит следить
⚡️ Потому что это новый шаг в карьере Андрея Бреслава — человека, который уже создал один из самых популярных языков в мире (Kotlin). Его эксперименты обычно превращаются в тренды для всей индустрии.
👉 Подробнее: home.codespeak.dev
Интересный анонс: Андрей Бреслав, создатель языка Kotlin, представил новый проект — CodeSpeak (home.codespeak.dev).
В чём идея
CodeSpeak задуман как язык, где вы описываете что вы хотите, а не как это реализовать.
• Используется «человеческий» синтаксис (на английском), из которого система автоматически генерирует код на привычных языках (Python, JS, Kotlin, Swift и др.).
• Если формулировка неоднозначна, инструмент уточняет смысл у разработчика.
• Уже сгенерированный код не затирается полностью — можно улучшать его руками без риска потерять связь со спецификацией.
Зачем это может быть нужно
• 📌 Быстрая разработка прототипов и MVP.
• 📌 Мост между нетехническими специалистами (аналитики, продукт) и разработчиками.
• 📌 Снижение «технического долга» за счёт работы на уровне требований, а не деталей реализации.
Вопросы и риски
• Как CodeSpeak справится с реально сложной бизнес-логикой?
• Что будет с отладкой и интеграцией в существующие проекты?
• Хватит ли точности «человеческого языка» для промышленных систем?
Почему стоит следить
⚡️ Потому что это новый шаг в карьере Андрея Бреслава — человека, который уже создал один из самых популярных языков в мире (Kotlin). Его эксперименты обычно превращаются в тренды для всей индустрии.
👉 Подробнее: home.codespeak.dev
home.codespeak.dev
Programming in plain English. At scale
CodeSpeak is a programming language designed to help teams of humans build complex applications. CodeSpeak is based on plain English. It raises the level of abstraction above those of traditional languages.
Zoom out…
CodeSpeak is a programming language designed to help teams of humans build complex applications. CodeSpeak is based on plain English. It raises the level of abstraction above those of traditional languages.
Zoom out…
🔥5
Попался тут под руку любопытный бенчмарк кодинг моделей из Berkeley https://gorilla.cs.berkeley.edu/leaderboard.html.
Он очень совпадает с моими субъективными ощущениями. GLM-4.6 это SOTA. Да, она плохо дизайнит интерфейсы по сравнению с Opus или Sonnet, НО как круто она дебажит и рефакторит код, восторг
Он очень совпадает с моими субъективными ощущениями. GLM-4.6 это SOTA. Да, она плохо дизайнит интерфейсы по сравнению с Opus или Sonnet, НО как круто она дебажит и рефакторит код, восторг
👍2
🔥 Crush: мой рабочий конфиг для daily-dev
Гист: https://gist.github.com/dpolishuk/3dd1faed27f526eb329e0f0997a55549
Что внутри (кратко):
• MCP-плагины: perplexity-mcp, context7, task-master-ai, nodejs-docs — быстрый ресёрч, общий контекст по проектам и удобные dev-тулы прямо из терминала.
• LSP: gopls + typenoscript-language-server — точнее правки кода и лучшее авто-дополнение.
• Безопасность: whitelist на auto-run инструментов вместо «разрешить всё».
• Отладка: debug: true + логи (crush logs) — прозрачно видно, что делает агент.
Где лежит crush.json:
1. .crush.json в корне проекта → 2) crush.json в проекте → 3) глобально: ~/.config/crush/crush.json (Win: %USERPROFILE%\AppData\Local\crush\crush.json).
Лайфхаки:
✅ Делите MCP на узкие роли — проще дебажить.
✅ Белый список тулов безопаснее «YOLO».
✅ Включайте LSP даже для чтения кода — качество правок растёт.
Использую crush с GLM-4.6 (Моя реф-ссылка на скидку: https://z.ai/subscribe?ic=HRSUIKMMVP)
И давайте делиться сетапами!
Гист: https://gist.github.com/dpolishuk/3dd1faed27f526eb329e0f0997a55549
Что внутри (кратко):
• MCP-плагины: perplexity-mcp, context7, task-master-ai, nodejs-docs — быстрый ресёрч, общий контекст по проектам и удобные dev-тулы прямо из терминала.
• LSP: gopls + typenoscript-language-server — точнее правки кода и лучшее авто-дополнение.
• Безопасность: whitelist на auto-run инструментов вместо «разрешить всё».
• Отладка: debug: true + логи (crush logs) — прозрачно видно, что делает агент.
Где лежит crush.json:
1. .crush.json в корне проекта → 2) crush.json в проекте → 3) глобально: ~/.config/crush/crush.json (Win: %USERPROFILE%\AppData\Local\crush\crush.json).
Лайфхаки:
✅ Делите MCP на узкие роли — проще дебажить.
✅ Белый список тулов безопаснее «YOLO».
✅ Включайте LSP даже для чтения кода — качество правок растёт.
Использую crush с GLM-4.6 (Моя реф-ссылка на скидку: https://z.ai/subscribe?ic=HRSUIKMMVP)
И давайте делиться сетапами!
Gist
crush.json
crush.json. GitHub Gist: instantly share code, notes, and snippets.
2🔥10❤3👍2
🚀 Perplexity MCP теперь ставится в одно касание через Homebrew
У меня в crush.json есть perplexity-mcp. Вот недостающая инструкция как это у себя настроить.
Я использую @Alcova-AI/perplexity-mcp — лёгкий MCP-сервер, который делает Perplexity полноценным агентом прямо внутри Charmbracelet Crush и других MCP-клиентов.
Работает стабильно, без Python-виртуалок и uv — просто ставится и работает.
Сначала идем за ключом сюда https://www.perplexity.ai/settings/api
Потом:
🧩 Установка
🔑 Перед запуском нужно выставить ключ API:
и (опционально) выбрать модель:
⸻
⚙️ Интеграция с Crush
Добавь MCP-секцию в ~/.config/crush/crush.json:
Теперь прямо из Crush можно вызывать Perplexity, как родной инструмент MCP — выполнять поиск, аналитические запросы, ресёрч по теме и всё это в общем контексте с другими агентами 🔍🤖
У меня в crush.json есть perplexity-mcp. Вот недостающая инструкция как это у себя настроить.
Я использую @Alcova-AI/perplexity-mcp — лёгкий MCP-сервер, который делает Perplexity полноценным агентом прямо внутри Charmbracelet Crush и других MCP-клиентов.
Работает стабильно, без Python-виртуалок и uv — просто ставится и работает.
Сначала идем за ключом сюда https://www.perplexity.ai/settings/api
Потом:
🧩 Установка
brew tap alcova-ai/tap
brew install perplexity-mcp🔑 Перед запуском нужно выставить ключ API:
export PERPLEXITY_API_KEY="pplx_************************"и (опционально) выбрать модель:
export PERPLEXITY_MODEL="sonar-pro"⸻
⚙️ Интеграция с Crush
Добавь MCP-секцию в ~/.config/crush/crush.json:
{
"$schema": "https://charm.land/crush.json",
"mcp": {
"perplexity": {
"type": "stdio",
"command": "perplexity-mcp",
"env": {
"PERPLEXITY_API_KEY": "pplx_************************",
"PERPLEXITY_MODEL": "sonar-pro"
}
}
}
}Теперь прямо из Crush можно вызывать Perplexity, как родной инструмент MCP — выполнять поиск, аналитические запросы, ресёрч по теме и всё это в общем контексте с другими агентами 🔍🤖
GitHub
GitHub - Alcova-AI/perplexity-mcp: An MCP server for the Perplexity for use with Claude Code and Claude Desktop, giving you enhanced…
An MCP server for the Perplexity for use with Claude Code and Claude Desktop, giving you enhanced search and reasoning capabilties. - Alcova-AI/perplexity-mcp
1👍4🔥2✍1
Какие агенты для написания кода вы используете?
Anonymous Poll
59%
Claude Code
3%
Opencode
10%
Crush
13%
Cline
13%
Codex
28%
Cursor
3%
Windsurf
8%
Roo Code
3%
Jetbrains AI
8%
Не помню, какую-то шляпу
2
Media is too big
VIEW IN TELEGRAM
Давно обещал сделать видео о том как я генерирую код по макетам из Figma, а тут еще и Figma Make подъехал! Собственно на видео процесс подготовки макета, копирования шаблона кода и потом claude code по шаблону делает готовый mvp. Видео с бодрящей музыкой, если что
1🔥9👍6✍1👏1🥱1
Вы в коментариях пишите про что еще сделать видео. Задавайте вопросы. Пока я планирую сделать видео по настройске claude code и crush с mcp еще
1👍3
🧪 Playwright Agents: Planner, Generator и Healer — как это работает
https://dev.to/playwright/playwright-agents-planner-generator-and-healer-in-action-5ajh
Недавно вышла статья на DEV, демонстрирующая новую функциональность Playwright Agents (начиная с версии 1.56) — три агента, которые помогают автоматизировать жизненный цикл тестов: Planner, Generator и Healer.
Что делают агенты
Агент Назначение
Planner Генерирует тест-план (набор сценариев, покрытие фичи).
Generator По плану создаёт реальные тестовые файлы.
Healer При сбоях запускает диагностику и пытается «подлечить» тесты.
Как начать
1. Обновление Playwright до версии ≥ 1.56
2. Запуск команды:
(вместо vscode можно выбрать claude, opencode и др.)
3. Подготовить seed-файл — базовый контекст / фикстуры, которые копируются в генерируемые тесты.
4. В режиме чата VS Code выбрать агента (Planner, Generator или Healer) и отправлять команды вроде “Generate test plan for feature X” или “Fix failing test”.
Преимущества и ограничения
Плюсы:
• Автоматизация рутинных задач в тестировании
• Быстрое покрытие сценариев
• Возможность самостоятельного восстановления тестов при мелких изменениях
Вопросы / моменты, на которые стоит обратить внимание:
• Безопасность: как агенты работают с конфиденциальными данными (логины, ключи)?
• Нужно ли вручную корректировать планы или дописывать сценарии?
• Насколько хорошо Healer справляется в сложных случаях, когда причина сбоя — не просто изменение селектора?
Итог
Playwright Agents — серьёзный шаг в сторону «умного» тестирования: планирование, генерация и лечение тестов почти без участия человека. Но, как и везде с AI, важны контроль, аудит и разумное применение.
https://dev.to/playwright/playwright-agents-planner-generator-and-healer-in-action-5ajh
Недавно вышла статья на DEV, демонстрирующая новую функциональность Playwright Agents (начиная с версии 1.56) — три агента, которые помогают автоматизировать жизненный цикл тестов: Planner, Generator и Healer.
Что делают агенты
Агент Назначение
Planner Генерирует тест-план (набор сценариев, покрытие фичи).
Generator По плану создаёт реальные тестовые файлы.
Healer При сбоях запускает диагностику и пытается «подлечить» тесты.
Как начать
1. Обновление Playwright до версии ≥ 1.56
2. Запуск команды:
npx playwright init-agents --loop=claude(вместо vscode можно выбрать claude, opencode и др.)
3. Подготовить seed-файл — базовый контекст / фикстуры, которые копируются в генерируемые тесты.
4. В режиме чата VS Code выбрать агента (Planner, Generator или Healer) и отправлять команды вроде “Generate test plan for feature X” или “Fix failing test”.
Преимущества и ограничения
Плюсы:
• Автоматизация рутинных задач в тестировании
• Быстрое покрытие сценариев
• Возможность самостоятельного восстановления тестов при мелких изменениях
Вопросы / моменты, на которые стоит обратить внимание:
• Безопасность: как агенты работают с конфиденциальными данными (логины, ключи)?
• Нужно ли вручную корректировать планы или дописывать сценарии?
• Насколько хорошо Healer справляется в сложных случаях, когда причина сбоя — не просто изменение селектора?
Итог
Playwright Agents — серьёзный шаг в сторону «умного» тестирования: планирование, генерация и лечение тестов почти без участия человека. Но, как и везде с AI, важны контроль, аудит и разумное применение.
DEV Community
Playwright Agents: Planner, Generator, and Healer in Action
Playwright has introduced a powerful new feature: Playwright Agents, new in Version 1.56. These...
❤1
Как я сейчас генерирую суб агентов на Claude Code, вот промпт:
Этот промпт за счет использования perplexity дает значительно лучший результат и по точности и по актуальности.
could you pls analyze the project and think up sub agents like here https://docs.anthropic.com/en/docs/claude-code/sub-agents. use file format which was specified in this url. use
perplexity. use best practices. always use context7Этот промпт за счет использования perplexity дает значительно лучший результат и по точности и по актуальности.
Claude Code Docs
Subagents - Claude Code Docs
Create and use specialized AI subagents in Claude Code for task-specific workflows and improved context management.
✍3👍1🤔1
В github уже есть такое. Ну короче github тоже пытается конкурировать с lovable, replit, orchids.app и bolt.new. Рынок огромный!
⚙️ Spec-driven development (SDD) с GitHub Spec Kit
GitHub выкатил Spec Kit — open-source тулкит, который ставит спецификацию в центр разработки: сначала описываем что и зачем, и уже по ней ИИ-агенты генерируют план, задачи и код. Это снижает «vibe-coding» и повышает предсказуемость результата.
Почему это важно
— Спека становится «исполняемым артефактом»: единый источник правды для команды и ИИ.
— Работает с любимыми агентами: Copilot, Claude Code, Gemini CLI, Cursor, Qwen и др.
Процесс из 4 фаз
1. Specify → 2) Plan → 3) Tasks → 4) Implement — на каждом этапе есть проверка/валидация, прежде чем двигаться дальше.
Как попробовать (1 мин):
Команды и CLI описаны в репозитории Spec Kit. Лицензия — MIT.
Где особенно заходит
• 0→1: быстрый старт новых проектов без хаоса.
• N→N+1: добавление фич в сложные кодовые базы.
• Legacy-модернизация: перенос логики в современную архитектуру через спеки.
Источник: GitHub Blog и репозиторий github/spec-kit.
GitHub выкатил Spec Kit — open-source тулкит, который ставит спецификацию в центр разработки: сначала описываем что и зачем, и уже по ней ИИ-агенты генерируют план, задачи и код. Это снижает «vibe-coding» и повышает предсказуемость результата.
Почему это важно
— Спека становится «исполняемым артефактом»: единый источник правды для команды и ИИ.
— Работает с любимыми агентами: Copilot, Claude Code, Gemini CLI, Cursor, Qwen и др.
Процесс из 4 фаз
1. Specify → 2) Plan → 3) Tasks → 4) Implement — на каждом этапе есть проверка/валидация, прежде чем двигаться дальше.
Как попробовать (1 мин):
# Инициализация проекта
uvx --from git+https://github.com/github/spec-kit.git specify init my-app
# Дальше — прямо в вашем агенте:
# /speckit.constitution — зафиксировать принципы/гайдлайны проекта
# /speckit.specify — сформировать продуктовую спеку (что/почему)
# /speckit.plan — технический план (стек, архитектура, ограничения)
# /speckit.tasks — разбиение на задачи
# /speckit.implement — выполнение по списку задачКоманды и CLI описаны в репозитории Spec Kit. Лицензия — MIT.
Где особенно заходит
• 0→1: быстрый старт новых проектов без хаоса.
• N→N+1: добавление фич в сложные кодовые базы.
• Legacy-модернизация: перенос логики в современную архитектуру через спеки.
Источник: GitHub Blog и репозиторий github/spec-kit.
1👍4