🧑💻 Вопрос про лимиты и токены Anthropic
Меня тут спрашивали — как обойти лимиты у Anthropic? А я спрошу в ответ: зачем вообще?
Сейчас есть куча бесплатных топовых моделей от китайцев, доступных прямо в OpenRouter. Один минус — они будут обучаться на вашем коде (если это критично, просто не используйте).
✨ Примеры свежих State-of-the-Art моделей:
• DeepSeek 3.1
• Qwen Coder 480B (самая большая кодер-модель)
• Kimi K2 (последняя версия)
И все они доступны бесплатно через OpenRouter.
⚙️ Как подключить:
1. Регистрируетесь в OpenRouter.
2. Делаете API-ключ.
3. Подключаете его к Crush — терминальному агенту, про который я недавно рассказывал.
После этого можно использовать бесплатные модели прямо в терминале.
🚀 Скоро еще покажу несколько интересных китайских терминальных агентов.
Меня тут спрашивали — как обойти лимиты у Anthropic? А я спрошу в ответ: зачем вообще?
Сейчас есть куча бесплатных топовых моделей от китайцев, доступных прямо в OpenRouter. Один минус — они будут обучаться на вашем коде (если это критично, просто не используйте).
✨ Примеры свежих State-of-the-Art моделей:
• DeepSeek 3.1
• Qwen Coder 480B (самая большая кодер-модель)
• Kimi K2 (последняя версия)
И все они доступны бесплатно через OpenRouter.
⚙️ Как подключить:
1. Регистрируетесь в OpenRouter.
2. Делаете API-ключ.
3. Подключаете его к Crush — терминальному агенту, про который я недавно рассказывал.
После этого можно использовать бесплатные модели прямо в терминале.
🚀 Скоро еще покажу несколько интересных китайских терминальных агентов.
GitHub
GitHub - charmbracelet/crush: The glamourous AI coding agent for your favourite terminal 💘
The glamourous AI coding agent for your favourite terminal 💘 - charmbracelet/crush
1👍6❤2🔥2
Forwarded from эйай ньюз
Китайцы из Zhipu запустили подписку для Claude Code
В основе — собственная модель Zhipu, GLM 4.5. Работает исключительно с Claude Code, подписчикам выдаётся API ключ для эндпоинта совместимого с API Anthropic, который можно засунуть в агента от Антропик. Основной селлинг поинт — повышенные лимиты по сравнению с подпиской от Anthropic и меньше цена ($3 в месяц за Lite подписку и $15 за Pro). Вообще интересно наблюдать как, несмотря на закрытость Claude Code, всё больше провайдеров прилагают кучу усилий чтобы поддерживать именно его, а не что-то более открытое.
z.ai/subscribe
@ai_newz
В основе — собственная модель Zhipu, GLM 4.5. Работает исключительно с Claude Code, подписчикам выдаётся API ключ для эндпоинта совместимого с API Anthropic, который можно засунуть в агента от Антропик. Основной селлинг поинт — повышенные лимиты по сравнению с подпиской от Anthropic и меньше цена ($3 в месяц за Lite подписку и $15 за Pro). Вообще интересно наблюдать как, несмотря на закрытость Claude Code, всё больше провайдеров прилагают кучу усилий чтобы поддерживать именно его, а не что-то более открытое.
z.ai/subscribe
@ai_newz
❤4
Чуть не пропустил
https://developer.apple.com/documentation/xcode-release-notes/xcode-26-release-notes
Apple вслед за JetBrains активно докатывает большие coding LLM себе в интерфейс, что очень радует конечно. Но тут самое главное чтоб там был агент который умеет работать непосредственно с тулингом среды разработки, а не просто код писать. Код писать уже любая модель умеет…
https://developer.apple.com/documentation/xcode-release-notes/xcode-26-release-notes
Apple вслед за JetBrains активно докатывает большие coding LLM себе в интерфейс, что очень радует конечно. Но тут самое главное чтоб там был агент который умеет работать непосредственно с тулингом среды разработки, а не просто код писать. Код писать уже любая модель умеет…
👍2
💡 Vibe Coding: сначала план, потом код (или в сотый раз о самом важном)
Многие садятся вайб кодить — и тонут в хаосе. В Vibe Coding у нас всегда два этапа: Планируем → Кодируем. Это не бюрократия — это ускоритель.
⸻
1️⃣ План (обязательный артефакт)
• Сформулируй цель и границы.
• Собери доп. инфо: API/схемы/примеры/риски/ограничения.
• Определи DoD (критерии приёмки) и тест-кейс-скелет.
• Спланируй ветки и параллельные треки.
• Загрузите план в контекст ИИ (чтобы модель не «уходила в лес»).
Мини-шаблон (кидай в контекст перед кодом):
# План
Цель:
Объем/границы:
Входы/выходы:
API/контракты/схемы:
Ограничения/риски:
Артефакты на выходе:
DoD (критерии приёмки):
Тесты/метрики:
Ветки/параллельные треки:
План обзора (review):
⸻
2️⃣ Кодирование (строго по плану)
• Работаем в отдельных ветках: feature/..., fix/..., spike/....
• Для параллели используем git worktrees + Claude Code (удобно держать несколько сессий):
https://docs.claude.com/en/docs/claude-code/common-workflows#run-parallel-claude-code-sessions-with-git-worktrees
• Регулярный синк: фиксируем расхождения → обновляем план → только потом продолжаем код.
⸻
3️⃣ Обзор (review)
Сверяем результат с DoD и тестами. Не совпало? Сначала корректируем план, затем код. Так гасим галлюцинации ИИ, отвлечения и «забывание».
⸻
Почему это важно
✅ Меньше хаоса и бесконечных доработок.
✅ Быстрее поставка за счёт фокуса.
✅ Легче масштабировать команду и параллельные треки.
Анти-паттерн
«Сейчас накидаю, а там разберёмся» → путаница, хотфиксы, долгий хвост.
Чек-лист запуска
☑️ 15–30 мин на план → ☑️ загрузить в контекст → ☑️ ветки + worktrees → ☑️ регулярный синк → ☑️ review по DoD.
Многие садятся вайб кодить — и тонут в хаосе. В Vibe Coding у нас всегда два этапа: Планируем → Кодируем. Это не бюрократия — это ускоритель.
⸻
1️⃣ План (обязательный артефакт)
• Сформулируй цель и границы.
• Собери доп. инфо: API/схемы/примеры/риски/ограничения.
• Определи DoD (критерии приёмки) и тест-кейс-скелет.
• Спланируй ветки и параллельные треки.
• Загрузите план в контекст ИИ (чтобы модель не «уходила в лес»).
Мини-шаблон (кидай в контекст перед кодом):
# План
Цель:
Объем/границы:
Входы/выходы:
API/контракты/схемы:
Ограничения/риски:
Артефакты на выходе:
DoD (критерии приёмки):
Тесты/метрики:
Ветки/параллельные треки:
План обзора (review):
⸻
2️⃣ Кодирование (строго по плану)
• Работаем в отдельных ветках: feature/..., fix/..., spike/....
• Для параллели используем git worktrees + Claude Code (удобно держать несколько сессий):
https://docs.claude.com/en/docs/claude-code/common-workflows#run-parallel-claude-code-sessions-with-git-worktrees
• Регулярный синк: фиксируем расхождения → обновляем план → только потом продолжаем код.
⸻
3️⃣ Обзор (review)
Сверяем результат с DoD и тестами. Не совпало? Сначала корректируем план, затем код. Так гасим галлюцинации ИИ, отвлечения и «забывание».
⸻
Почему это важно
✅ Меньше хаоса и бесконечных доработок.
✅ Быстрее поставка за счёт фокуса.
✅ Легче масштабировать команду и параллельные треки.
Анти-паттерн
«Сейчас накидаю, а там разберёмся» → путаница, хотфиксы, долгий хвост.
Чек-лист запуска
☑️ 15–30 мин на план → ☑️ загрузить в контекст → ☑️ ветки + worktrees → ☑️ регулярный синк → ☑️ review по DoD.
Claude Code Docs
Common workflows - Claude Code Docs
Learn about common workflows with Claude Code.
1✍4👍3💯1
🚀 Anthropic выпустила Claude Sonnet 4.5 — новая SOTA в кодировании и автономных агентах
Сегодня Anthropic анонсировала Claude Sonnet 4.5 — крупный шаг вперёд в линейке Claude.
⚙️ Что заявлено нового и впечатляющего:
• Модель способна работать автономно до 30 часов подряд, выполняя сложные задачи — по сравнению с ~7 часами у предшественника Opus 4.
• Внутренние тесты включали полную разработку веб-приложения “с нуля” — включая логику, базы данных и весь стек.
• Значительный рост “умения использовать компьютер / инструменты” (operating system benchmark): ~60 % против ~40 % у предыдущих версий.
• Улучшенные навыки в финанcах, научных задачах, безопасности, многошаговых рассуждениях.
• Sonnet 4.5 уже доступна в публичной превью для GitHub Copilot — пользователи Pro, Business и Enterprise смогут её выбрать.
• Стоимость API остаётся прежней: $3 за миллион входных токенов и $15 за миллион выходных токенов.
• Anthropic утверждает, что Sonnet 4.5 — их наиболее “aligned” (согласованная) модель по сей день — с меньшей склонностью к отклонениям, манипуляциям и “внедрению” побочных намерений.
🧭 Почему это важный релиз (и чем интересен для сообщества):
• Это шаг к ИИ-агентам нового поколения, способным автономно работать над длительными проектами без постоянного вмешательства.
• Значительное повышение надёжности: не просто “быстро отвечает”, а “утрясает логику, связывает инструменты, завершает продукт”.
• Конкуренция на рынке LLM усиливается: Anthropic показывает, что может не просто догонять, но и задавать темп.
• Переход из “демо-фич” к реальным системам, которые можно внедрить в производство и закрыть требования к надёжности.
⸻
📌 Критически важно: пока что мы видим заявленные показатели и внутренние тесты; реальные кейсы внедрения и стабильность в продакшене покажут, насколько они соответствуют амбициям.
Го тестить!
Ну и скоро мой обзор glm-4.5 от z.ai
Сегодня Anthropic анонсировала Claude Sonnet 4.5 — крупный шаг вперёд в линейке Claude.
⚙️ Что заявлено нового и впечатляющего:
• Модель способна работать автономно до 30 часов подряд, выполняя сложные задачи — по сравнению с ~7 часами у предшественника Opus 4.
• Внутренние тесты включали полную разработку веб-приложения “с нуля” — включая логику, базы данных и весь стек.
• Значительный рост “умения использовать компьютер / инструменты” (operating system benchmark): ~60 % против ~40 % у предыдущих версий.
• Улучшенные навыки в финанcах, научных задачах, безопасности, многошаговых рассуждениях.
• Sonnet 4.5 уже доступна в публичной превью для GitHub Copilot — пользователи Pro, Business и Enterprise смогут её выбрать.
• Стоимость API остаётся прежней: $3 за миллион входных токенов и $15 за миллион выходных токенов.
• Anthropic утверждает, что Sonnet 4.5 — их наиболее “aligned” (согласованная) модель по сей день — с меньшей склонностью к отклонениям, манипуляциям и “внедрению” побочных намерений.
🧭 Почему это важный релиз (и чем интересен для сообщества):
• Это шаг к ИИ-агентам нового поколения, способным автономно работать над длительными проектами без постоянного вмешательства.
• Значительное повышение надёжности: не просто “быстро отвечает”, а “утрясает логику, связывает инструменты, завершает продукт”.
• Конкуренция на рынке LLM усиливается: Anthropic показывает, что может не просто догонять, но и задавать темп.
• Переход из “демо-фич” к реальным системам, которые можно внедрить в производство и закрыть требования к надёжности.
⸻
📌 Критически важно: пока что мы видим заявленные показатели и внутренние тесты; реальные кейсы внедрения и стабильность в продакшене покажут, насколько они соответствуют амбициям.
Го тестить!
Ну и скоро мой обзор glm-4.5 от z.ai
🔥3❤1👍1
Forwarded from Data, Stories and Languages
Claude Code 2.0
Но что ещё интереснее, anthropic опубликовали claude code 2.0!
https://www.npmjs.com/package/@anthropic-ai/claude-code
Из интересных изменений:
• Нативное приложение для VS Code
• команда /rewind для отката изменений
• команда /usage для просмотра лимитов твоего плана
• Ctrl + R для поиска по истории
• Tab для включения думающего режима
Остальные изменения тут: https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md#200
Но что ещё интереснее, anthropic опубликовали claude code 2.0!
https://www.npmjs.com/package/@anthropic-ai/claude-code
Из интересных изменений:
• Нативное приложение для VS Code
• команда /rewind для отката изменений
• команда /usage для просмотра лимитов твоего плана
• Ctrl + R для поиска по истории
• Tab для включения думающего режима
Остальные изменения тут: https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md#200
GitHub
claude-code/CHANGELOG.md at main · anthropics/claude-code
Claude Code is an agentic coding tool that lives in your terminal, understands your codebase, and helps you code faster by executing routine tasks, explaining complex code, and handling git workflo...
❤4👍1
https://youtu.be/dGiqrsv530Y?si=Od3w7JWk1IgFqiwU
Посмотрите этот демо ролик обязательно. Genie это были цветочки
Посмотрите этот демо ролик обязательно. Genie это были цветочки
YouTube
An experimental new way to design software
We’ve been experimenting with a new way to generate software. In this research preview, Claude builds whatever you can imagine, on the fly, without writing any code first. What you see is Claude creating software in real time, responding and adapting to your…
🚀 Новая эра агент-приложений: Claude Agent SDK от Anthropic
Anthropic недавно переименовали Claude Code SDK в Claude Agent SDK и расширили его возможности — теперь это не просто инструмент для помощи в коде, а полноценная платформа для построения автономных агентов.
🔍 Что это даёт
• Агент получает «компьютер» — доступ к файловой системе, запуск bash-команд, чтение/запись файлов и прочее. Это позволяет выполнять задачи вне рамок чистого текста.
• Используя этот подход, агент можно натренировать на:
• Финансовые агенты (анализ портфелей, прогнозы)
• Персональных ассистентов (календарь, travel, планирование)
• Службы поддержки (обработка запросов, эскалации)
• Глубокие агенты-исследователи (поиск по документам, сводка, анализ)
🔁 Архитектура: цикл агента
Типичный цикл работы агента в Claude Agent SDK:
1. Gather context — сбор контекста (файлы, логи, предыдущие сообщения)
2. Take action — применение инструментов, запуск кода, обращения к API
3. Verify work — проверка результатов, исправление ошибок, итерации
Ключевые детали:
• Инструменты (Tools): надо явно выделять основные действия, которые агент может предпринимать (например, fetchInbox, searchEmails)
• Subagents: агент может запускать субагентов, чтобы параллельно решать подзадачи и потом свернуть результаты назад
• Суммаризация контекста (compaction): при росте объёма контекста автоматически сводятся или резюмируются старые данные, чтобы не выйти за пределы контекстного окна
• Верификация: через правила (линтинг кода, валидацию), визуальные проверки (скриншоты), либо «судейство» другим LLM
🧪 Как начать
• Claude Agent SDK уже доступен — можно начать экспериментировать прямо сейчас.
• Для тех, кто уже работает с SDK, Anthropic публикуют гайд по миграции на новую версию.
• Важно: проектируйте агента вокруг цикла и методов верификации, потому что надёжность и возможность самоисправления — ключ к стабильной работе.
Anthropic недавно переименовали Claude Code SDK в Claude Agent SDK и расширили его возможности — теперь это не просто инструмент для помощи в коде, а полноценная платформа для построения автономных агентов.
🔍 Что это даёт
• Агент получает «компьютер» — доступ к файловой системе, запуск bash-команд, чтение/запись файлов и прочее. Это позволяет выполнять задачи вне рамок чистого текста.
• Используя этот подход, агент можно натренировать на:
• Финансовые агенты (анализ портфелей, прогнозы)
• Персональных ассистентов (календарь, travel, планирование)
• Службы поддержки (обработка запросов, эскалации)
• Глубокие агенты-исследователи (поиск по документам, сводка, анализ)
🔁 Архитектура: цикл агента
Типичный цикл работы агента в Claude Agent SDK:
1. Gather context — сбор контекста (файлы, логи, предыдущие сообщения)
2. Take action — применение инструментов, запуск кода, обращения к API
3. Verify work — проверка результатов, исправление ошибок, итерации
Ключевые детали:
• Инструменты (Tools): надо явно выделять основные действия, которые агент может предпринимать (например, fetchInbox, searchEmails)
• Subagents: агент может запускать субагентов, чтобы параллельно решать подзадачи и потом свернуть результаты назад
• Суммаризация контекста (compaction): при росте объёма контекста автоматически сводятся или резюмируются старые данные, чтобы не выйти за пределы контекстного окна
• Верификация: через правила (линтинг кода, валидацию), визуальные проверки (скриншоты), либо «судейство» другим LLM
🧪 Как начать
• Claude Agent SDK уже доступен — можно начать экспериментировать прямо сейчас.
• Для тех, кто уже работает с SDK, Anthropic публикуют гайд по миграции на новую версию.
• Важно: проектируйте агента вокруг цикла и методов верификации, потому что надёжность и возможность самоисправления — ключ к стабильной работе.
Forwarded from Dealer.AI
Мода на файловую память, теперь и код-агенты anthropic.
Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.
Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.
Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.
В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска.Особенно для файлов сотни мб или гб. Тут кстати и может помочь аналог чанкования, в виде иерархии файлов, на которые заранее бьём большие. Далее, берем файлик и читаем агентом, переносим из файла релевантное в контекст.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.
Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.
Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.
В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
Не успел я написать обзор glm-4.5 как вдруг:
⸻
🚀 Z.ai (Zhipu AI) выпустили GLM-4.6
Что нового:
• 📏 Контекст до 200K, вывод до 128K — влезают длинные ТЗ, логи и треки агентов.
• 💻 Кодинг: ощутимый рост в реальных задачах; по их CC-Bench — рядом с Claude Sonnet 4 и ~15% меньше токенов, чем у 4.5.
• 🧠 Рассуждения, tool-use, поиск и агенты — стабильнее и «умнее» в фреймворках.
• 🪪 Открытые веса (MIT) на Hugging Face → можно катать локально (vLLM/SGLang).
• 🔌 Где пощупать: Z.ai (чат/API) и OpenRouter ($0.60/M in, $2/M out); для IDE — GLM Coding Plan от $3/мес.
Кому зайдёт: разработчикам и тимлидам, кто строит агентные пайплайны и держит большие контексты в проде.
⸻
🚀 Z.ai (Zhipu AI) выпустили GLM-4.6
Что нового:
• 📏 Контекст до 200K, вывод до 128K — влезают длинные ТЗ, логи и треки агентов.
• 💻 Кодинг: ощутимый рост в реальных задачах; по их CC-Bench — рядом с Claude Sonnet 4 и ~15% меньше токенов, чем у 4.5.
• 🧠 Рассуждения, tool-use, поиск и агенты — стабильнее и «умнее» в фреймворках.
• 🪪 Открытые веса (MIT) на Hugging Face → можно катать локально (vLLM/SGLang).
• 🔌 Где пощупать: Z.ai (чат/API) и OpenRouter ($0.60/M in, $2/M out); для IDE — GLM Coding Plan от $3/мес.
Кому зайдёт: разработчикам и тимлидам, кто строит агентные пайплайны и держит большие контексты в проде.
1🔥3👍2✍1
По многочисленным просьбам!
🔑 Z.AI (GLM) — как зарегистрироваться по моей рефке, оплатить и получить API-ключ
Моя реф-ссылка:
https://z.ai/subscribe?ic=HRSUIKMMVP
Зачем это нужно?
API-ключ позволит использовать GLM (например, через zclaude для Claude Code) и другие интеграции.
Шаги:
1. Перейди по ссылке и создай аккаунт
Открой реф-страницу и зарегистрируйся/войдИ. После логина попадёшь в зону подписок.
2. Выбери тариф и оформи подписку
На странице подписки выбери план (напр. GLM Coding Lite или GLM Coding Pro) и следуй шагам оплаты. Эти планы заточены под кодинг-агентов и Claude Code.
3. Привяжи способ оплаты
В аккаунте открой раздел API Management → Payment Method и добавь карту (если не предложили в мастере подписки).
4. Создай API-ключ
Перейди в API Management → API Keys и нажми Create Key. Скопируй ключ и сохрани его в безопасном месте.
5. (Опционально) Подключение к Claude Code / zclaude
Для работы через Anthropic-совместимый эндпоинт Z.AI укажи базовый URL и ключ (см. мой ланчер zclaude). Базовый эндпоинт для Claude Code:
https://api.z.ai/api/anthropic
🔑 Z.AI (GLM) — как зарегистрироваться по моей рефке, оплатить и получить API-ключ
Моя реф-ссылка:
https://z.ai/subscribe?ic=HRSUIKMMVP
Зачем это нужно?
API-ключ позволит использовать GLM (например, через zclaude для Claude Code) и другие интеграции.
Шаги:
1. Перейди по ссылке и создай аккаунт
Открой реф-страницу и зарегистрируйся/войдИ. После логина попадёшь в зону подписок.
2. Выбери тариф и оформи подписку
На странице подписки выбери план (напр. GLM Coding Lite или GLM Coding Pro) и следуй шагам оплаты. Эти планы заточены под кодинг-агентов и Claude Code.
3. Привяжи способ оплаты
В аккаунте открой раздел API Management → Payment Method и добавь карту (если не предложили в мастере подписки).
4. Создай API-ключ
Перейди в API Management → API Keys и нажми Create Key. Скопируй ключ и сохрани его в безопасном месте.
5. (Опционально) Подключение к Claude Code / zclaude
Для работы через Anthropic-совместимый эндпоинт Z.AI укажи базовый URL и ключ (см. мой ланчер zclaude). Базовый эндпоинт для Claude Code:
https://api.z.ai/api/anthropic
z.ai
GLM Coding Plan powered by GLM-4.6
AI-powered coding with GLM-4.6 in Claude Code, Cline, OpenCode, and more. Plans start at $3/month to help you code faster, smarter, and more reliably.
🧰 zclaude: параллельный запуск Claude через Z.AI (GLM) + оригинальный Claude (Sonnet 4.5)
Что даёт:
• zclaude — запускает Claude Code через Z.AI (GLM-4.6) и ходит на сервера z.ai.
• claude — остаётся оригинальным (Anthropic), можно гонять Sonnet 4.5 параллельно.
Gist со скриптом:
https://gist.github.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63
⸻
0) Что понадобится
Установить Claude Code (CLI) на macOS:
⸻
1) Положить zclaude в $PATH
# Добавить ~/bin в PATH (если ещё не добавлен)
# Проверка
⸻
2) Ключ Z.AI и эндпоинт
Эндпоинт (Anthropic-совместимый): https://api.z.ai/api/anthropic
Вариант A — хранить ключ в файле (как ожидает скрипт):
Вариант B — через переменную окружения:
zclaude сам подставит нужные ENV только для дочернего процесса, оригинальный claude не тронет.
⸻
3) Тест быстрого старта (GLM через Z.AI)
По умолчанию zclaude стартует с --model glm-4.6. При желании можешь указать модель вручную:
⸻
4) Оригинальный claude (Sonnet 4.5) — параллельно
Во втором терминале запускай «родной» Claude Code:
claude --model claude-sonnet-4-5-20250929
Так можно держать два окна:
⸻
5) Полезные команды
# Пайпинг файла:
# Смена модели в интерактиве оригинального claude:
# Диагностика:
claude doctor
Что даёт:
• zclaude — запускает Claude Code через Z.AI (GLM-4.6) и ходит на сервера z.ai.
• claude — остаётся оригинальным (Anthropic), можно гонять Sonnet 4.5 параллельно.
Gist со скриптом:
https://gist.github.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63
⸻
0) Что понадобится
Установить Claude Code (CLI) на macOS:
# Вариант A: npm (если установлен Node 18+)
npm install -g @anthropic-ai/claude-code
# Вариант B: нативный инсталлятор (beta)
curl -fsSL https://claude.ai/install.sh | bash
# Проверка
claude doctor⸻
1) Положить zclaude в $PATH
mkdir -p ~/bin
curl -fsSL -o ~/bin/zclaude \
https://gist.githubusercontent.com/dpolishuk/515d1213525e1d3dc7afb102c2ae1f63/raw
chmod +x ~/bin/zclaude# Добавить ~/bin в PATH (если ещё не добавлен)
echo 'export PATH="$HOME/bin:$PATH"' >> ~/.zshrc
exec zsh -l# Проверка
which zclaude # должно показать: /Users/<ты>/bin/zclaude⸻
2) Ключ Z.AI и эндпоинт
Эндпоинт (Anthropic-совместимый): https://api.z.ai/api/anthropic
Вариант A — хранить ключ в файле (как ожидает скрипт):
read -s ZAIKEY && echo "$ZAIKEY" > ~/.zai_api_key && chmod 600 ~/.zai_api_keyВариант B — через переменную окружения:
echo 'export ZAI_API_KEY="ВАШ_API_КЛЮЧ_ZAI"' >> ~/.zshrc
exec zsh -lzclaude сам подставит нужные ENV только для дочернего процесса, оригинальный claude не тронет.
⸻
3) Тест быстрого старта (GLM через Z.AI)
# Разовый запрос (без REPL):
zclaude -p "Сделай функцию fib(n) на Python с мемоизацией и тестом."
# Интерактивный режим:
zclaude
# внутри набери:
# /status # увидишь активную модель (GLM) и базовый URL api.z.aiПо умолчанию zclaude стартует с --model glm-4.6. При желании можешь указать модель вручную:
zclaude --model glm-4.5⸻
4) Оригинальный claude (Sonnet 4.5) — параллельно
Во втором терминале запускай «родной» Claude Code:
claude --model claude-sonnet-4-5-20250929
Так можно держать два окна:
A: zclaude (GLM-4.6 через Z.AI)
B: claude --model claude-sonnet-4-5-20250929 (Anthropic)⸻
5) Полезные команды
# Пайпинг файла:
zclaude -p "Объясни этот файл" < ./src/file.ts
cat src/file.ts | zclaude -p "дай краткий обзор"# Смена модели в интерактиве оригинального claude:
claude
/model claude-sonnet-4-5-20250929# Диагностика:
claude doctor
Gist
zClaude run noscript
zClaude run noscript. GitHub Gist: instantly share code, notes, and snippets.
✍1
⚙️ GLM-4.6 + Claude Code: полный функционал как у Sonnet, агенты, скорость, без VPN
— Полная совместимость с Claude Code. Z.AI даёт Anthropic-совместимый endpoint, поэтому Claude Code работает с GLM-4.6 «из коробки» — без правок в самом CLI.
— Функциональность на уровне Sonnet-4. В реальных код-тестах внутри Claude Code GLM-4.6 показывает паритет/превосходит Sonnet-4; модель «заточена» под агентные сценарии и tool use.
— Агенты — работают. Claude Code сам по себе — агентный инструмент; GLM-4.6 улучшает планирование и вызов инструментов, так что привычные фишки (права/инструменты, автономные шаги и т. п.) сохраняются.
— Быстро. GLM-4.6 специально выпущен для кодинга (GLM Coding Plan) и стал заметно эффективнее: в среднем >30% экономичнее по токенам vs GLM-4.5, что ощущается как более резвый отклик в рабочих сценариях.
— Без VPN. Подключение идёт к домену z.ai (Anthropic-совместимый ANTRHOPIC_BASE_URL=https://api.z.ai/api/anthropic), поэтому доступ обычно работает «как есть»
— Полная совместимость с Claude Code. Z.AI даёт Anthropic-совместимый endpoint, поэтому Claude Code работает с GLM-4.6 «из коробки» — без правок в самом CLI.
— Функциональность на уровне Sonnet-4. В реальных код-тестах внутри Claude Code GLM-4.6 показывает паритет/превосходит Sonnet-4; модель «заточена» под агентные сценарии и tool use.
— Агенты — работают. Claude Code сам по себе — агентный инструмент; GLM-4.6 улучшает планирование и вызов инструментов, так что привычные фишки (права/инструменты, автономные шаги и т. п.) сохраняются.
— Быстро. GLM-4.6 специально выпущен для кодинга (GLM Coding Plan) и стал заметно эффективнее: в среднем >30% экономичнее по токенам vs GLM-4.5, что ощущается как более резвый отклик в рабочих сценариях.
— Без VPN. Подключение идёт к домену z.ai (Anthropic-совместимый ANTRHOPIC_BASE_URL=https://api.z.ai/api/anthropic), поэтому доступ обычно работает «как есть»
👍3
https://docs.z.ai/guides/llm/glm-4.6
По моим ощущениям оно прям на уровне пашет с sonnet 4.5 если настроены mcp и контекст хорошо подготовлен для агентности. Прям на уровне, ребята!
По моим ощущениям оно прям на уровне пашет с sonnet 4.5 если настроены mcp и контекст хорошо подготовлен для агентности. Прям на уровне, ребята!
🔥2👍1💯1
🚀 Sculptor: недостающий UI для Claude Code от Imbue
Наткнулся на интересный инструмент — Sculptor от Imbue — который пытается закрыть один из слабых мест при работе с агентами ИИ: как удерживать контроль, работать параллельно и не превратить весь рабочий процесс в хаос.
🔍 Что это и зачем
• Sculptor запускает каждый Claude-агент в своём контейнере — изолированно, безопасно, без опасений “что-то сломается на моей машине”.
• Можно переключаться между агентами мгновенно с помощью “Pairing Mode” — тестировать изменения, смотреть результаты.
• Ты можешь принимать изменения, сливаться или отклонять — как на кодовых ветках, но с интерфейсом, заточенным под агентов.
🛠 Ключевые фичи
• Параллельные агенты — не надо ждать по очереди, можно запускать задачи одновременно.
• Изоляция в контейнерах — агенты могут устанавливать зависимости, запускать код, не мешая основной системе.
• Управление данными / приватность — Sculptor работает в основном локально, и вы сами контролируете, что отсылается Imbue (логи, чаты и т.д.).
• Платформы: macOS, Linux, и на Windows через WSL.
• Сколько стоит: на этапе беты — бесплатно. Но нужен доступ к API Anthropic или подписка Claude Pro/Max.
• Поддержка других моделей: пока только Claude Code, но в планах — GPT-5 и др.
✅ Почему стоит присмотреться (для devs, инженеров)
• Если ты работаешь с агентами и уже сталкивался с “ветвлением”, конфликтами измнений, проблемами окружения — Sculptor предлагает удобный UI-слой, который снимает часть болей.
• Возможность экспериментировать параллельно — это огромный прокаченный UX по сравнению с “один агент в одной ветке”.
• Контроль: ты остаёшься архитектором идеи, агенты — лишь “исполнители”, а ты решаешь, что принимать.
⚠️ Что пока стоит учесть / риски
• Пока ранняя версия / бета — возможны баги, недоделки.
• Ограничение по модели (Claude Code) — если ты используешь другие языковые модели, не факт, что поддерживаются прямо сейчас.
• Нужно доверие: часть логов / данных может отправляться (но выбор за тобой).
• Архитектурный overhead: контейнеры + переключения — некоторый “cost” по ресурсам, инфраструктуре.
Наткнулся на интересный инструмент — Sculptor от Imbue — который пытается закрыть один из слабых мест при работе с агентами ИИ: как удерживать контроль, работать параллельно и не превратить весь рабочий процесс в хаос.
🔍 Что это и зачем
• Sculptor запускает каждый Claude-агент в своём контейнере — изолированно, безопасно, без опасений “что-то сломается на моей машине”.
• Можно переключаться между агентами мгновенно с помощью “Pairing Mode” — тестировать изменения, смотреть результаты.
• Ты можешь принимать изменения, сливаться или отклонять — как на кодовых ветках, но с интерфейсом, заточенным под агентов.
🛠 Ключевые фичи
• Параллельные агенты — не надо ждать по очереди, можно запускать задачи одновременно.
• Изоляция в контейнерах — агенты могут устанавливать зависимости, запускать код, не мешая основной системе.
• Управление данными / приватность — Sculptor работает в основном локально, и вы сами контролируете, что отсылается Imbue (логи, чаты и т.д.).
• Платформы: macOS, Linux, и на Windows через WSL.
• Сколько стоит: на этапе беты — бесплатно. Но нужен доступ к API Anthropic или подписка Claude Pro/Max.
• Поддержка других моделей: пока только Claude Code, но в планах — GPT-5 и др.
✅ Почему стоит присмотреться (для devs, инженеров)
• Если ты работаешь с агентами и уже сталкивался с “ветвлением”, конфликтами измнений, проблемами окружения — Sculptor предлагает удобный UI-слой, который снимает часть болей.
• Возможность экспериментировать параллельно — это огромный прокаченный UX по сравнению с “один агент в одной ветке”.
• Контроль: ты остаёшься архитектором идеи, агенты — лишь “исполнители”, а ты решаешь, что принимать.
⚠️ Что пока стоит учесть / риски
• Пока ранняя версия / бета — возможны баги, недоделки.
• Ограничение по модели (Claude Code) — если ты используешь другие языковые модели, не факт, что поддерживаются прямо сейчас.
• Нужно доверие: часть логов / данных может отправляться (но выбор за тобой).
• Архитектурный overhead: контейнеры + переключения — некоторый “cost” по ресурсам, инфраструктуре.
💻 Cursor теперь доступен в CLI
Cursor выпустил новый инструмент — Cursor Agent CLI, который позволяет запускать мощь Cursor прямо из терминала или в headless-режиме.
✨ Что умеет:
• Поддержка любых AI-моделей или режима Auto
• Работа с тем же контекстом, что и в Cursor IDE
• Интеграция с внешними инструментами через MCP
• Автозапуск скриптов: код-ревью, генерация документации, автоправки
• Поддержка GitHub Actions и CI/CD
👉 Установка в одну команду:
Это превращает Cursor в универсального помощника — теперь агент доступен не только в IDE, но и везде, где есть терминал. Синхронизации с самим Cursor IDE пока нет.
🔗 Попробовать CLI
Cursor выпустил новый инструмент — Cursor Agent CLI, который позволяет запускать мощь Cursor прямо из терминала или в headless-режиме.
✨ Что умеет:
• Поддержка любых AI-моделей или режима Auto
• Работа с тем же контекстом, что и в Cursor IDE
• Интеграция с внешними инструментами через MCP
• Автозапуск скриптов: код-ревью, генерация документации, автоправки
• Поддержка GitHub Actions и CI/CD
👉 Установка в одну команду:
curl https://cursor.com/install -fsS | bashЭто превращает Cursor в универсального помощника — теперь агент доступен не только в IDE, но и везде, где есть терминал. Синхронизации с самим Cursor IDE пока нет.
🔗 Попробовать CLI
🔥2👍1
🧠 CodeSpeak — новый язык от автора Kotlin
Интересный анонс: Андрей Бреслав, создатель языка Kotlin, представил новый проект — CodeSpeak (home.codespeak.dev).
В чём идея
CodeSpeak задуман как язык, где вы описываете что вы хотите, а не как это реализовать.
• Используется «человеческий» синтаксис (на английском), из которого система автоматически генерирует код на привычных языках (Python, JS, Kotlin, Swift и др.).
• Если формулировка неоднозначна, инструмент уточняет смысл у разработчика.
• Уже сгенерированный код не затирается полностью — можно улучшать его руками без риска потерять связь со спецификацией.
Зачем это может быть нужно
• 📌 Быстрая разработка прототипов и MVP.
• 📌 Мост между нетехническими специалистами (аналитики, продукт) и разработчиками.
• 📌 Снижение «технического долга» за счёт работы на уровне требований, а не деталей реализации.
Вопросы и риски
• Как CodeSpeak справится с реально сложной бизнес-логикой?
• Что будет с отладкой и интеграцией в существующие проекты?
• Хватит ли точности «человеческого языка» для промышленных систем?
Почему стоит следить
⚡️ Потому что это новый шаг в карьере Андрея Бреслава — человека, который уже создал один из самых популярных языков в мире (Kotlin). Его эксперименты обычно превращаются в тренды для всей индустрии.
👉 Подробнее: home.codespeak.dev
Интересный анонс: Андрей Бреслав, создатель языка Kotlin, представил новый проект — CodeSpeak (home.codespeak.dev).
В чём идея
CodeSpeak задуман как язык, где вы описываете что вы хотите, а не как это реализовать.
• Используется «человеческий» синтаксис (на английском), из которого система автоматически генерирует код на привычных языках (Python, JS, Kotlin, Swift и др.).
• Если формулировка неоднозначна, инструмент уточняет смысл у разработчика.
• Уже сгенерированный код не затирается полностью — можно улучшать его руками без риска потерять связь со спецификацией.
Зачем это может быть нужно
• 📌 Быстрая разработка прототипов и MVP.
• 📌 Мост между нетехническими специалистами (аналитики, продукт) и разработчиками.
• 📌 Снижение «технического долга» за счёт работы на уровне требований, а не деталей реализации.
Вопросы и риски
• Как CodeSpeak справится с реально сложной бизнес-логикой?
• Что будет с отладкой и интеграцией в существующие проекты?
• Хватит ли точности «человеческого языка» для промышленных систем?
Почему стоит следить
⚡️ Потому что это новый шаг в карьере Андрея Бреслава — человека, который уже создал один из самых популярных языков в мире (Kotlin). Его эксперименты обычно превращаются в тренды для всей индустрии.
👉 Подробнее: home.codespeak.dev
home.codespeak.dev
Programming in plain English. At scale
CodeSpeak is a programming language designed to help teams of humans build complex applications. CodeSpeak is based on plain English. It raises the level of abstraction above those of traditional languages.
Zoom out…
CodeSpeak is a programming language designed to help teams of humans build complex applications. CodeSpeak is based on plain English. It raises the level of abstraction above those of traditional languages.
Zoom out…
🔥5
Попался тут под руку любопытный бенчмарк кодинг моделей из Berkeley https://gorilla.cs.berkeley.edu/leaderboard.html.
Он очень совпадает с моими субъективными ощущениями. GLM-4.6 это SOTA. Да, она плохо дизайнит интерфейсы по сравнению с Opus или Sonnet, НО как круто она дебажит и рефакторит код, восторг
Он очень совпадает с моими субъективными ощущениями. GLM-4.6 это SOTA. Да, она плохо дизайнит интерфейсы по сравнению с Opus или Sonnet, НО как круто она дебажит и рефакторит код, восторг
👍2