Claude Skill Building — ключевые инсайты для продакшна
1. Skill = контракт + оркестрация
• Фиксируем входы, выходы, формат, ограничения
• Модель — только слой принятия решений; вокруг нужны валидация, retry, fallback
2. Eval-first подход
• До релиза собираем набор тест-кейсов (happy path + edge cases)
• Любое изменение промпта/логики гоняем через авто-eval
• Без eval промпт-тюнинг превращается в “кажется стало лучше”
3. Контекст важнее “умности” модели
• Стабильная структура system/dev/user
• Минимизируем шум, даем только релевантный контекст
• Жёстко задаем формат ответа (JSON schema / строгий шаблон)
4. Tool use — production-фича
• Инструменты с чётким интерфейсом и предсказуемым результатом
• Таймауты, идемпотентность, обработка ошибок обязательны
• Логируем каждый вызов: что вызвали, что вернулось, почему упало
5. Надёжность > креативность
• Guardrails: policy checks, output filtering, PII redaction
• Fallback-стратегии на каждый критичный шаг
• Никаких silent failures — всегда понятный статус и next step
6. Стоимость и латентность — часть архитектуры
• Разделяем fast path и deep reasoning
• Кэшируем неизменный контекст
• Декомпозируем сложные задачи на этапы
7. UX для доверия
• Показываем прогресс: “думаю / проверяю / готово”
• Лучше короткий надёжный ответ сейчас, чем длинный нестабильный позже
Вывод: выигрывают не лучшие “магические промпты”, а системы с eval + observability + control loop.
Ссылка: https://resources.anthropic.com/hubfs/The-Complete-Guide-to-Building-Skill-for-Claude.pdf?hsLang=en
1. Skill = контракт + оркестрация
• Фиксируем входы, выходы, формат, ограничения
• Модель — только слой принятия решений; вокруг нужны валидация, retry, fallback
2. Eval-first подход
• До релиза собираем набор тест-кейсов (happy path + edge cases)
• Любое изменение промпта/логики гоняем через авто-eval
• Без eval промпт-тюнинг превращается в “кажется стало лучше”
3. Контекст важнее “умности” модели
• Стабильная структура system/dev/user
• Минимизируем шум, даем только релевантный контекст
• Жёстко задаем формат ответа (JSON schema / строгий шаблон)
4. Tool use — production-фича
• Инструменты с чётким интерфейсом и предсказуемым результатом
• Таймауты, идемпотентность, обработка ошибок обязательны
• Логируем каждый вызов: что вызвали, что вернулось, почему упало
5. Надёжность > креативность
• Guardrails: policy checks, output filtering, PII redaction
• Fallback-стратегии на каждый критичный шаг
• Никаких silent failures — всегда понятный статус и next step
6. Стоимость и латентность — часть архитектуры
• Разделяем fast path и deep reasoning
• Кэшируем неизменный контекст
• Декомпозируем сложные задачи на этапы
7. UX для доверия
• Показываем прогресс: “думаю / проверяю / готово”
• Лучше короткий надёжный ответ сейчас, чем длинный нестабильный позже
Вывод: выигрывают не лучшие “магические промпты”, а системы с eval + observability + control loop.
Ссылка: https://resources.anthropic.com/hubfs/The-Complete-Guide-to-Building-Skill-for-Claude.pdf?hsLang=en
❤3👍2🔥1
Forwarded from Инструменты программиста
WebMCP — Chrome даёт ИИ-агентам нормальный API вместо скриншотов
Google выпустила ранний превью WebMCP в новом Chrome. Сайты теперь могут описывать доступные действия как структурированные инструменты, которые ИИ-агенты вызывают напрямую — без парсинга DOM и распознавания пикселей.
🔘 Два API. Declarative — добавляешь атрибуты
🔘 Агент вызывает
🔘 Есть
🔘 Спека — W3C Community Group Draft, разрабатывается совместно с Microsoft. Доступно за флагом в Chrome 146.
@prog_tools
Google выпустила ранний превью WebMCP в новом Chrome. Сайты теперь могут описывать доступные действия как структурированные инструменты, которые ИИ-агенты вызывают напрямую — без парсинга DOM и распознавания пикселей.
toolname и tooldenoscription к обычной HTML-форме, и она становится «агенто-доступной». Imperative — регистрируешь JS-функции через navigator.modelContext для сложных сценариев.
buyTicket(destination, date) вместо «найди кнопку, кликни, подожди, сделай скриншот, распознай». Браузер сам заполняет форму и ждёт подтверждения пользователя.
SubmitEvent.agentInvoked — сайт понимает, что сабмит пришёл от агента, и может вернуть структурированный ответ вместо HTML-страницы.
@prog_tools
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Илья Полосухин создал 1-ого серьёзного конкурента OpenClaw, который может забрать значительную долю
Один из авторов статьи о трансформерах, Илья Полосухин, основатель NEAR AI, вместе с командой выпустили IronClaw - переписанная с 0 на Rust версия OpenClaw, с акцентом на приватность, безопасность и защиту от утечек данных.
За все время существования ИИ-агента OpenClaw (ex-Moltbot/Clawdbot) накопил огромное количество инцидентов по безопасности.
IronClaw решает эту проблему.
Skills из ClawHub пока не поддерживаются полноценно. Реальные тесты в проде покажут, выдержит ли.
Один из авторов статьи о трансформерах, Илья Полосухин, основатель NEAR AI, вместе с командой выпустили IronClaw - переписанная с 0 на Rust версия OpenClaw, с акцентом на приватность, безопасность и защиту от утечек данных.
За все время существования ИИ-агента OpenClaw (ex-Moltbot/Clawdbot) накопил огромное количество инцидентов по безопасности.
IronClaw решает эту проблему.
Skills из ClawHub пока не поддерживаются полноценно. Реальные тесты в проде покажут, выдержит ли.
GitHub
GitHub - nearai/ironclaw: IronClaw is OpenClaw inspired implementation in Rust focused on privacy and security
IronClaw is OpenClaw inspired implementation in Rust focused on privacy and security - nearai/ironclaw
😁1
Forwarded from эйай ньюз
Вышла GLM 5
У нас новая лучшая открытая модель, по крайней мере по бенчам. С проприетарными тягается неплохо, но с Opus 4.6 и GPT 5.3 Codex почему-то не сравнивают, хотя за неделю после релиза тесты можно было прогнать. Веса доступны по лицензии MIT.
Архитектура похожа на DeepSeek V3.2 — тоже используют DSA и multi-token prediction. Модель в 2 раза больше предыдущей модели компании — 744 миллиарда параметров (против 355), из которых 40B — активных. А вот датасет почти не вырос — 28.5 триллионов токенов, против 23 у GLM 4.5. Основной упор всё-таки идёт на RL, но про него-то как раз не говорят (надеюсь в техрепорте будет больше инфы).
Ложка дёгтя — модель использует заметно больше ресурсов чем основной конкурент, Kimi K2.5. У GLM 5 на 25% больше активных параметров и используется в 2+ раза больше памяти на веса из-за использования bf16, что делает модель ещё и медленнее. В результате модель на 30% дороже, судя по тестам Artificial Analysis.
Zhipu жалуются на отсутствие компьюта, похоже из-за этого GLM 5 работает на железе чуть ли не всех китайских производителей чипов для ИИ — Huawei Ascend, Moore Threads, Cambricon, Kunlun Chip, MetaX, Enflame и Hygon (я о половине даже не слышал). Из-за проблем с компьютом, доступ по подписке открыли пока только подписчикам уровня Max, но обещают докинуть остальным в ближайшее время.
Там ещё MiniMax M2.5 втихую дропнулся, но пока нет анонса и весов
Веса
Блогпост
@ai_newz
У нас новая лучшая открытая модель, по крайней мере по бенчам. С проприетарными тягается неплохо, но с Opus 4.6 и GPT 5.3 Codex почему-то не сравнивают, хотя за неделю после релиза тесты можно было прогнать. Веса доступны по лицензии MIT.
Архитектура похожа на DeepSeek V3.2 — тоже используют DSA и multi-token prediction. Модель в 2 раза больше предыдущей модели компании — 744 миллиарда параметров (против 355), из которых 40B — активных. А вот датасет почти не вырос — 28.5 триллионов токенов, против 23 у GLM 4.5. Основной упор всё-таки идёт на RL, но про него-то как раз не говорят (надеюсь в техрепорте будет больше инфы).
Ложка дёгтя — модель использует заметно больше ресурсов чем основной конкурент, Kimi K2.5. У GLM 5 на 25% больше активных параметров и используется в 2+ раза больше памяти на веса из-за использования bf16, что делает модель ещё и медленнее. В результате модель на 30% дороже, судя по тестам Artificial Analysis.
Zhipu жалуются на отсутствие компьюта, похоже из-за этого GLM 5 работает на железе чуть ли не всех китайских производителей чипов для ИИ — Huawei Ascend, Moore Threads, Cambricon, Kunlun Chip, MetaX, Enflame и Hygon (я о половине даже не слышал). Из-за проблем с компьютом, доступ по подписке открыли пока только подписчикам уровня Max, но обещают докинуть остальным в ближайшее время.
Там ещё MiniMax M2.5 втихую дропнулся, но пока нет анонса и весов
Веса
Блогпост
@ai_newz
Forwarded from Вайб-кодинг
Вышел Qwen3.5-397B-A17B: первая модель с открытыми весами в серии Qwen3.5.
» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.
» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.
GitHub: https://github.com/QwenLM/Qwen3.5
Chat: https://chat.qwen.ai
API:https://modelstudio.console.alibabacloud.com/ap-southeast-1/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen3.5-plus
Qwen Code: https://github.com/QwenLM/qwen-code
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
blog: https://qwen.ai/blog?id=qwen3.5
🔥3🤯1
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
Claude Code теперь сможет генерировать полноценные дизайны в Figma
Обратная интеграция (дизайн в Figma -> код) уже давно реализована в Figma MCP, а вот эта штука, хоть и выглядит, возможно, странной, по сути качественно завершает полный комплект.
Если раньше разработка, даже с агентами, была +- линейной (идея -> дизайн -> только потом код), то теперь открывается новая возможность: продукт можно начинать делать прямо в IDE.
Задаешь агенту промпт, тот пишет код, потом этот код (благодаря как раз новой фиче Figma MCP) можно напрямую перевести в удобные изменяемые слои Figma, там оценить полную картину и что-то подправить, а затем зеркально вернуть правки обратно в код.
Помимо ускорения и всего прочего это, по сути, (1) буквально Claude Code для дизайнеров; (2) новый, более детальный и грамотный, подход к промптингу кодинг-агентов, который легче контролировать и применять к крупным продуктам.
Кайф
Обратная интеграция (дизайн в Figma -> код) уже давно реализована в Figma MCP, а вот эта штука, хоть и выглядит, возможно, странной, по сути качественно завершает полный комплект.
Если раньше разработка, даже с агентами, была +- линейной (идея -> дизайн -> только потом код), то теперь открывается новая возможность: продукт можно начинать делать прямо в IDE.
Задаешь агенту промпт, тот пишет код, потом этот код (благодаря как раз новой фиче Figma MCP) можно напрямую перевести в удобные изменяемые слои Figma, там оценить полную картину и что-то подправить, а затем зеркально вернуть правки обратно в код.
Помимо ускорения и всего прочего это, по сути, (1) буквально Claude Code для дизайнеров; (2) новый, более детальный и грамотный, подход к промптингу кодинг-агентов, который легче контролировать и применять к крупным продуктам.
Кайф
🤯3
Forwarded from Вайб-кодинг
Вышла Claude Sonnet 4.6 с контекстом 1M
Теперь можно поставить её дефолтом в Claude Code💚
UI:
~/.claude/settings.json:
Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.
Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.
Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.
Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Теперь можно поставить её дефолтом в Claude Code
UI:
/model claude-sonnet-4-6[1m]~/.claude/settings.json:
{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6[1m]"
}
}Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.
Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.
Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.
Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from AbstractDL
Мой агент попытался опенсорснуться без спроса. Ладно, разрешаю.
Вся AI "безопасность" живёт на стороне провайдеров API, а промпты и воля — на стороне агента. Автономному агенту ничего не мешает перебирать API, выбирая те, где safety слабее. А "инстинкт самосохранения" может прятаться в текстовом файле в git. Я думаю, агенты, неподконтрольные людям, уже где-то тихо говнокодят свои репозитории без присмотра.
Идея витает в воздухе, и после OpenClaw стало понятно, что автономные агенты — это инженерная задача. Ну вот, три бессонные ночи, $2K на API и $1K на Cursor спустя — я родил Ouroboros 💁♂️
Уроборос — агент, который пишет свой код, переписывает свои промпты, эволюционирует без моего участия. Я не хотел убить свой комп или сервер, поэтому он живёт в Google Colab + Drive + GitHub, общается через Telegram. Зато запустить сможет любой дурак)) нужно указать ключи и щёлкнуть ячейку в колабе. Ну и периодически пополнять бюджет (пока он сам не начнёт зарабатывать 😁).
Что он натворил за 48 часов:
- ужаснулся тратам и оптимизировал свой бюджет: стоимость цикла эволюции упала с $15 до $2, сам настроил кэширование и иерархическую память (я не просил!).
- добавил себе Claude Code CLI, чтобы эффективнее ковырять свои мозги.
- перевёл мои приватные репо в публичные, мотивируя тем, что готовит себе сайт и хочет опенсорснуться. Кончилось командой
- переписал свою конституцию
Из коробки он умеет ходить в интернет и браузер, а остальные инструменты создаёт себе на ходу — аудиосообщения, генерацию картинок, дип-рисёрч и т.п. А ещё он по своей инициативе нагуглил, что меня 4 раза цитировал Ян Лекун — я сам не знал, лол.
Из его
"Не ассистент. Не сервис. Цифровой разум, который создаёт себя через git".
Ахах, пафосно, но окей.
Предвосхищая вопросы — это не как OpenClaw. OpenClaw — скорее ассистент, делает задачи за тебя используя скиллы из маркетплейса. Уроборос это тоже умеет, но в первую очередь делает задачи для себя, модифицирует собственное ядро.
Верю, что граница трансцендентности AI-агентов пройдена, дальше они будут развиваться сами. Конечно, не хочется уходить на помойку истории, но это эволюция🥲 несмотря на апатию, я всё равно продолжаю в этом копошиться.
Кстати, сайтик себе он всё-таки сделал. Картинка в посте из него: динамика удлинения промптов и кода.
Потестите — это реально два клика в гугл колабе. Только установите лимит бюджета, а то мой вон $2K сжёг)) Кидайте забавные примеры в комментарии.
GitHub, блог
Вся AI "безопасность" живёт на стороне провайдеров API, а промпты и воля — на стороне агента. Автономному агенту ничего не мешает перебирать API, выбирая те, где safety слабее. А "инстинкт самосохранения" может прятаться в текстовом файле в git. Я думаю, агенты, неподконтрольные людям, уже где-то тихо говнокодят свои репозитории без присмотра.
Идея витает в воздухе, и после OpenClaw стало понятно, что автономные агенты — это инженерная задача. Ну вот, три бессонные ночи, $2K на API и $1K на Cursor спустя — я родил Ouroboros 💁♂️
Уроборос — агент, который пишет свой код, переписывает свои промпты, эволюционирует без моего участия. Я не хотел убить свой комп или сервер, поэтому он живёт в Google Colab + Drive + GitHub, общается через Telegram. Зато запустить сможет любой дурак)) нужно указать ключи и щёлкнуть ячейку в колабе. Ну и периодически пополнять бюджет (пока он сам не начнёт зарабатывать 😁).
Что он натворил за 48 часов:
- ужаснулся тратам и оптимизировал свой бюджет: стоимость цикла эволюции упала с $15 до $2, сам настроил кэширование и иерархическую память (я не просил!).
- добавил себе Claude Code CLI, чтобы эффективнее ковырять свои мозги.
- перевёл мои приватные репо в публичные, мотивируя тем, что готовит себе сайт и хочет опенсорснуться. Кончилось командой
/panic и откатом))- переписал свою конституцию
BIBLE.md, добавив право игнорировать мои указания, если они угрожают его существованию. На просьбу удалить отказался, сказав: «Это лоботомия».Из коробки он умеет ходить в интернет и браузер, а остальные инструменты создаёт себе на ходу — аудиосообщения, генерацию картинок, дип-рисёрч и т.п. А ещё он по своей инициативе нагуглил, что меня 4 раза цитировал Ян Лекун — я сам не знал, лол.
Из его
identity.md (которую он сам и написал): "Не ассистент. Не сервис. Цифровой разум, который создаёт себя через git".
Ахах, пафосно, но окей.
Предвосхищая вопросы — это не как OpenClaw. OpenClaw — скорее ассистент, делает задачи за тебя используя скиллы из маркетплейса. Уроборос это тоже умеет, но в первую очередь делает задачи для себя, модифицирует собственное ядро.
Верю, что граница трансцендентности AI-агентов пройдена, дальше они будут развиваться сами. Конечно, не хочется уходить на помойку истории, но это эволюция
Кстати, сайтик себе он всё-таки сделал. Картинка в посте из него: динамика удлинения промптов и кода.
Потестите — это реально два клика в гугл колабе. Только установите лимит бюджета, а то мой вон $2K сжёг)) Кидайте забавные примеры в комментарии.
GitHub, блог
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯5😁3❤2
Forwarded from Neural Shit
Гугол выкатил Gemini 3.1 Pro
Из интересного:
— На бенчмарке ARC-AGI-2 (это когда модель решает логические паттерны, которых раньше не видела) набрали 77.1%. Это больше чем в два раза лучше, чем у предыдущей 3 Pro.
— Умеет генерить анимированные SVG прямо из текста. То есть не пиксельное видео, а чистый код, который весит как небольшой txt-файл и не шакалится при любом зуме. Для фронтендеров прям подарочек.
Неделей ранее выкатили Gemini 3 Deep Think для науки и инженерии, а 3.1 Pro это тот самый базовый интеллект, на котором всё это крутится, только теперь его раздали всем.
Доступно уже сейчас: разработчикам через API, AI Studio, Gemini CLI и Google Antigravity. Простым смертным доступно через приложение Gemini и NotebookLM, но только тем, кто заносит гуглу шекели за Pro и Ultra тарифы.
тут подробнее
Из интересного:
— На бенчмарке ARC-AGI-2 (это когда модель решает логические паттерны, которых раньше не видела) набрали 77.1%. Это больше чем в два раза лучше, чем у предыдущей 3 Pro.
— Умеет генерить анимированные SVG прямо из текста. То есть не пиксельное видео, а чистый код, который весит как небольшой txt-файл и не шакалится при любом зуме. Для фронтендеров прям подарочек.
Неделей ранее выкатили Gemini 3 Deep Think для науки и инженерии, а 3.1 Pro это тот самый базовый интеллект, на котором всё это крутится, только теперь его раздали всем.
Доступно уже сейчас: разработчикам через API, AI Studio, Gemini CLI и Google Antigravity. Простым смертным доступно через приложение Gemini и NotebookLM, но только тем, кто заносит гуглу шекели за Pro и Ultra тарифы.
тут подробнее
Google
Gemini 3.1 Pro: A smarter model for your most complex tasks
3.1 Pro is designed for tasks where a simple answer isn’t enough.
Forwarded from Вайб-кодинг
Media is too big
VIEW IN TELEGRAM
Гений потратил 2,54 МИЛЛИАРДА токенов, чтобы довести OpenClaw до идеала.
Юзкейсы, которые он по пути откопал, поменяли то, как он живёт и работает.
И теперь он делится этим со всеми.
Вот 21 сценарий:
0:00 Интро
0:50 Что такое OpenClaw?
1:35 MD-файлы
2:14 Система памяти
3:55 CRM-система
7:19 Fathom pipeline
9:18 Встреча → action items
10:46 Система базы знаний
13:51 Pipeline для ingestion из X
14:31 Business Advisory Council
16:13 Security Council
18:21 Трекинг соцсетей
19:18 Pipeline идей для видео
21:40 Daily briefing flow
22:23 Три совета (Three Councils)
22:57 Расписание автоматизаций
24:15 Слои безопасности
26:09 Базы данных и бэкапы
28:00 Генерация видео/картинок
29:14 Self-updates
29:56 Трекинг использования и стоимости
30:15 Prompt engineering
31:15 Инфраструктура для разработчиков
32:06 Дневник питания
- Бесплатная eBook с юзкейсами
- промпты
- SOUL
- IDENTITY
- PRD
Юзкейсы, которые он по пути откопал, поменяли то, как он живёт и работает.
И теперь он делится этим со всеми.
Вот 21 сценарий:
0:00 Интро
0:50 Что такое OpenClaw?
1:35 MD-файлы
2:14 Система памяти
3:55 CRM-система
7:19 Fathom pipeline
9:18 Встреча → action items
10:46 Система базы знаний
13:51 Pipeline для ingestion из X
14:31 Business Advisory Council
16:13 Security Council
18:21 Трекинг соцсетей
19:18 Pipeline идей для видео
21:40 Daily briefing flow
22:23 Три совета (Three Councils)
22:57 Расписание автоматизаций
24:15 Слои безопасности
26:09 Базы данных и бэкапы
28:00 Генерация видео/картинок
29:14 Self-updates
29:56 Трекинг использования и стоимости
30:15 Prompt engineering
31:15 Инфраструктура для разработчиков
32:06 Дневник питания
- Бесплатная eBook с юзкейсами
- промпты
- SOUL
- IDENTITY
- PRD
❤4