Можно использовать skills, чтобы оркестрировать сабагентов для сложных воркфлоу. Это отличный способ оптимизировать контекст, потому что у каждого сабагента он свой. Сегодня это потестили, работает реально хорошо.
Можно даже обернуть весь skill в отдельного сабагента, который будет его вызывать, чтобы ещё сильнее экономить контекст сессии.
Правда, это может ухудшить понимание того, что происходит внутри. Этот вариант пока не до конца изучен.
Что странно, можно упаковать сабагентов прямо внутрь самого skill, в папку {skill}/agents/. В документации про это вообще ни слова, но на практике всё работает вполне нормально.
Пруфы на 2 скрине🎩
Можно даже обернуть весь skill в отдельного сабагента, который будет его вызывать, чтобы ещё сильнее экономить контекст сессии.
Правда, это может ухудшить понимание того, что происходит внутри. Этот вариант пока не до конца изучен.
Что странно, можно упаковать сабагентов прямо внутрь самого skill, в папку {skill}/agents/. В документации про это вообще ни слова, но на практике всё работает вполне нормально.
Пруфы на 2 скрине
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤5👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Всем нужны onboarding-доки. С
Claude онбордит сам себя. Хороший Claude.❤️
/init Claude пишет их сам./init → Claude читает твой кодбейс и генерирует файл CLAUDE.md с командами сборки, инструкциями по тестированию, описанием ключевых директорий и принятых конвенций.Claude онбордит сам себя. Хороший Claude.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥3😁2👏1
Теперь можно собирать реальные приложения прямо в ChatGPT.
Без сетапа. Без переключения вкладок.
Просто опиши, что хочешь сделать, и смотри, как это оживает.
Знакомься: Replit в ChatGPT.
Старт прямо в ChatGPT: напиши
Приложение начинает собираться сразу.
Начать можно здесь🎧
Replit Agent:
• создаёт приложение
• настраивает всё окружение
• показывает живой превью прямо в чате
Без переключения вкладок.
Нужно что-то поменять? Просто скажи:
«Приведи в порядок лейаут.»
«Добавь ещё одну страницу.»
«Смени цвета.»
Изменения применяются в реальном времени.
Если ты можешь объяснить идею, ты можешь превратить её в приложение.
Попробуй❤️
Без сетапа. Без переключения вкладок.
Просто опиши, что хочешь сделать, и смотри, как это оживает.
Знакомься: Replit в ChatGPT.
Старт прямо в ChatGPT: напиши
@Replit и опиши свою идею.Приложение начинает собираться сразу.
Начать можно здесь
Replit Agent:
• создаёт приложение
• настраивает всё окружение
• показывает живой превью прямо в чате
Без переключения вкладок.
Нужно что-то поменять? Просто скажи:
«Приведи в порядок лейаут.»
«Добавь ещё одну страницу.»
«Смени цвета.»
Изменения применяются в реальном времени.
Если ты можешь объяснить идею, ты можешь превратить её в приложение.
Попробуй
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17🔥12😁4
Media is too big
VIEW IN TELEGRAM
Парень сделал skill для Claude, который превращает Claude Code в персонального наставника по программированию.
Ключевая идея простая. Claude Opus 4.5 уже сейчас лучший тьютор в мире. Команда Anthropic отлично поработала с этой моделью. У нее сильный эмоциональный интеллект и очень глубокие знания в коде.
Сам skill по сути просто обвязка. Он дает Claude возможность агентно собрать правильный контекст именно о ТЕБЕ, чтобы максимально точно персонализировать обучение.
Вот за счет чего это работает.
» Профиль ученика с первого дня. При первом запуске Claude проводит мини-интервью. Спрашивает про твой бэкграунд в программировании, цель (к чему ты хочешь прийти) и немного про тебя как человека. Это сохраняется и влияет на каждый туториал, который он для тебя пишет. С самого начала все на 100% персонализировано.
» Туториалы на ТВОЕМ коде. Когда ты хочешь что-то изучить, Claude не пихает абстрактные примеры из случайного блога. Он находит примеры прямо в том коде, над которым ты сейчас работаешь. Так концепции реально лучше укладываются, чем на оторванных от жизни примерах.
» Режим квизов с интервальным повторением. Можно запустить
» Единая база знаний для всех проектов. Неважно, ты пришел в новую компанию и разбираешь их код, изучаешь open source или прокачиваешь свой собственный вайб-кодинг проект. Все туториалы лежат в одном месте (~/coding-tutor-tutorials/). Твой персональный coding-tutor едет с тобой через все проекты.
В итоге получается замкнутый цикл: учишься → проходишь квиз → закрепляешь → учишься дальше → снова квиз → снова закрепление. Туториалы эволюционируют, знания накапливаются, а Claude со временем все лучше учит именно ТЕБЯ.
Как установить в Claude Code:
• Выполни
• Добавь marketplace nityeshaga/claude-code-essentials
• Включи плагин coding-tutor
GitHub: тут
И еще есть 20-минутное видео, где автор подробно показывает, как пользоваться плагином и как он устроен
Ключевая идея простая. Claude Opus 4.5 уже сейчас лучший тьютор в мире. Команда Anthropic отлично поработала с этой моделью. У нее сильный эмоциональный интеллект и очень глубокие знания в коде.
Сам skill по сути просто обвязка. Он дает Claude возможность агентно собрать правильный контекст именно о ТЕБЕ, чтобы максимально точно персонализировать обучение.
Вот за счет чего это работает.
» Профиль ученика с первого дня. При первом запуске Claude проводит мини-интервью. Спрашивает про твой бэкграунд в программировании, цель (к чему ты хочешь прийти) и немного про тебя как человека. Это сохраняется и влияет на каждый туториал, который он для тебя пишет. С самого начала все на 100% персонализировано.
» Туториалы на ТВОЕМ коде. Когда ты хочешь что-то изучить, Claude не пихает абстрактные примеры из случайного блога. Он находит примеры прямо в том коде, над которым ты сейчас работаешь. Так концепции реально лучше укладываются, чем на оторванных от жизни примерах.
» Режим квизов с интервальным повторением. Можно запустить
/quiz-me, и Claude проверит тебя по тем темам, которые ты уже проходил. Он ведет score по пониманию для каждого туториала и использует интервальное повторение. То, где ты плаваешь, возвращается через 2 дня. То, что ты уже уверенно знаешь, уходит на интервалы 55+ дней. » Единая база знаний для всех проектов. Неважно, ты пришел в новую компанию и разбираешь их код, изучаешь open source или прокачиваешь свой собственный вайб-кодинг проект. Все туториалы лежат в одном месте (~/coding-tutor-tutorials/). Твой персональный coding-tutor едет с тобой через все проекты.
В итоге получается замкнутый цикл: учишься → проходишь квиз → закрепляешь → учишься дальше → снова квиз → снова закрепление. Туториалы эволюционируют, знания накапливаются, а Claude со временем все лучше учит именно ТЕБЯ.
Как установить в Claude Code:
• Выполни
/plugin, чтобы открыть менеджер плагинов• Добавь marketplace nityeshaga/claude-code-essentials
• Включи плагин coding-tutor
GitHub: тут
И еще есть 20-минутное видео, где автор подробно показывает, как пользоваться плагином и как он устроен
🔥27👍7❤6
В последнее время вокруг Wenxin постоянно всплывают новости.
Только что пролистывал текстовый рейтинг LMArena и неожиданно увидел, что выкатили ещё один превью-релиз — ERNIE-5.0-Preview-1203.
Он уже ворвался в глобальный топ-10 и стал единственной китайской моделью в топ-20. Похоже, Baidu всё это время спокойно и под шумок наращивала мощь.
Говорят, релиз финальной версии запланирован на январь. Если даже превью уже настолько сильное, то на какое место выйдет полноценный релиз?😲
Интерес подогревается. Я продолжу следить за новостями и, когда выйдет финальная версия, постараюсь найти время и прогнать её в реальных тестах.
Только что пролистывал текстовый рейтинг LMArena и неожиданно увидел, что выкатили ещё один превью-релиз — ERNIE-5.0-Preview-1203.
Он уже ворвался в глобальный топ-10 и стал единственной китайской моделью в топ-20. Похоже, Baidu всё это время спокойно и под шумок наращивала мощь.
Говорят, релиз финальной версии запланирован на январь. Если даже превью уже настолько сильное, то на какое место выйдет полноценный релиз?
Интерес подогревается. Я продолжу следить за новостями и, когда выйдет финальная версия, постараюсь найти время и прогнать её в реальных тестах.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤6👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Большинство гайдов по RAG ограничиваются схемой retrieval + generation. При многотуровых диалогах и сложной логике такой подход быстро разваливается по качеству.
На GitHub нашел проект Агентный RAG для чайников. Не ведись на слово "для чайников" в названии: по сути это продакшен-уровневое решение agentic RAG, собранное на LangGraph.
Там есть память диалога и иерархическая индексация: сначала поиск по мелким чанкам, затем подтягивание крупных для полного контекста. Это снижает риск ответов без нормального окружения.
Поддерживается параллельная работа нескольких агентов для разруливания сложных запросов. Если инструкция расплывчатая, система может сама переспросить, чтобы уточнить намерение, вместо того чтобы уверенно галлюцинировать.
Еще внутри есть Gradio-интерфейс: управление документами, сохранение диалогов, ручное вмешательство (human-in-the-loop) и прочее. Плюс дается полный гайд по конвертации PDF в Markdown, с инструментами и сравнением вариантов.
Есть быстрый деплой через Docker и подробные Notebook-уроки, так что локально поднять все довольно легко.
На GitHub нашел проект Агентный RAG для чайников. Не ведись на слово "для чайников" в названии: по сути это продакшен-уровневое решение agentic RAG, собранное на LangGraph.
Там есть память диалога и иерархическая индексация: сначала поиск по мелким чанкам, затем подтягивание крупных для полного контекста. Это снижает риск ответов без нормального окружения.
Поддерживается параллельная работа нескольких агентов для разруливания сложных запросов. Если инструкция расплывчатая, система может сама переспросить, чтобы уточнить намерение, вместо того чтобы уверенно галлюцинировать.
Еще внутри есть Gradio-интерфейс: управление документами, сохранение диалогов, ручное вмешательство (human-in-the-loop) и прочее. Плюс дается полный гайд по конвертации PDF в Markdown, с инструментами и сравнением вариантов.
Есть быстрый деплой через Docker и подробные Notebook-уроки, так что локально поднять все довольно легко.
👍18❤8
This media is not supported in your browser
VIEW IN TELEGRAM
/export
Иногда нужны “протоколы”.
Удобно для доков, для обучения, ну и чтобы доказать самому себе в прошлом, что ты это уже пробовал.
Иногда нужны “протоколы”.
/export выгружает весь диалог в markdown: все промпты, ответы, вызовы тулов — вообще всё.Удобно для доков, для обучения, ну и чтобы доказать самому себе в прошлом, что ты это уже пробовал.
👍14🔥5❤4
AI-фреймворк для пентестинга с упором на автономных агентов.
Внутри больше 150 инструментов для автоматизации пентестов, поиска уязвимостей, багбаунти-рутинга и ресёрча в безопасности.
Сохраняем себе🕺
Внутри больше 150 инструментов для автоматизации пентестов, поиска уязвимостей, багбаунти-рутинга и ресёрча в безопасности.
Сохраняем себе
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18❤7👍3
PKM cтартовый набор. С AI-агентами и хуками на базе Obsidian + Claude Code:
• шаблон структуры Obsidian-хранилища (чтобы сразу начать вести заметки по шаблону)
• интеграция с Claude Code (чтобы интеллект мог работать с твоими заметками)
• хуки, кастомные агенты и «skills» (автоматизация задач, ревью недель, организация воронок и т.д.)
• автоматические коммиты, гиты, шаблоны ежедневных задач и целей
• модульные правила и расширяемость под себя
• цель — за ~15 минут получить рабочую PKM-систему с AI-помощниками
Кому интересно, вот ссылка📖
• шаблон структуры Obsidian-хранилища (чтобы сразу начать вести заметки по шаблону)
• интеграция с Claude Code (чтобы интеллект мог работать с твоими заметками)
• хуки, кастомные агенты и «skills» (автоматизация задач, ревью недель, организация воронок и т.д.)
• автоматические коммиты, гиты, шаблоны ежедневных задач и целей
• модульные правила и расширяемость под себя
• цель — за ~15 минут получить рабочую PKM-систему с AI-помощниками
Кому интересно, вот ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤4😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Firecrawl выкатили ноду
Обогащать данные ещё не было настолько легко: просто опиши, что тебе нужно, и
Глянь интеграцию тут
/agent для n8n Обогащать данные ещё не было настолько легко: просто опиши, что тебе нужно, и
/agent сам подтянет всю нужную инфу.Глянь интеграцию тут
❤6
В VS Code завезли визуальное редактирование для любых кодинг-агентов. Работает с твоими:
» Claude Code CLI
» Codex CLI
» GitHub Copilot
» Cursor CLI
Правишь визуально → смотришь diff → коммитишь, всё прямо в браузере.
Поддерживает любые фреймворки под приложение:
» Next.js
» React (Vite)
» Svelte
» Angular
» Другие стекы (.NET, Ruby и т.д.)
Если заходил визуальный редактор в Cursor, то должно зайти
Уже доступно как расширение для VS Code под названием Wuunu.🧦
» Claude Code CLI
» Codex CLI
» GitHub Copilot
» Cursor CLI
Правишь визуально → смотришь diff → коммитишь, всё прямо в браузере.
Поддерживает любые фреймворки под приложение:
» Next.js
» React (Vite)
» Svelte
» Angular
» Другие стекы (.NET, Ruby и т.д.)
Если заходил визуальный редактор в Cursor, то должно зайти
Уже доступно как расширение для VS Code под названием Wuunu.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Саб-агенты
Санта не сам заворачивает каждый подарок. У него есть эльфы.
Саб-агенты — это эльфы Клода.
Каждый саб-агент получает свой контекст на 200k токенов, берёт на себя узкие задачи, работает параллельно и сливает результат обратно в основной агент.
Делегируй как Санта🎅
Санта не сам заворачивает каждый подарок. У него есть эльфы.
Саб-агенты — это эльфы Клода.
Каждый саб-агент получает свой контекст на 200k токенов, берёт на себя узкие задачи, работает параллельно и сливает результат обратно в основной агент.
Делегируй как Санта
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍4
Встречайте самый сильный 3B-модельный чекпоинт на рынке.
LFM2-2.6B-Exp это экспериментальный чекпоинт, собранный на базе LFM2-2.6B и обученный на чистом reinforcement learning.
Стабильный прирост по instruction following, знаниям и математическим бенчмаркам
Обгоняет другие 3B-модели в этих доменах
По IFBench обходит DeepSeek R1-0528, модель в 263 раза больше
Скачать и потестить👌
LFM2-2.6B-Exp это экспериментальный чекпоинт, собранный на базе LFM2-2.6B и обученный на чистом reinforcement learning.
Стабильный прирост по instruction following, знаниям и математическим бенчмаркам
Обгоняет другие 3B-модели в этих доменах
По IFBench обходит DeepSeek R1-0528, модель в 263 раза больше
Скачать и потестить
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍4
Prompting GPT 5.2 Codex для сохранения контекста
Отлично держит длинные задачи, но без явных подсказок может потерять нить результата.
Кинь это в начало своего файла
Так я давал ему работать три часа подряд без развала контекста:
Можно прописать один раз в ~/.codex/AGENTS.md, и тогда он будет автоматически подхватываться во всех сессиях Codex
https://github.com/openai/codex/blob/main/docs/agents_md.md
Отлично держит длинные задачи, но без явных подсказок может потерять нить результата.
Кинь это в начало своего файла
AGENTS.md - так Codex сможет тянуть задачи ещё большего масштаба.Так я давал ему работать три часа подряд без развала контекста:
## Continuity Ledger (устойчив к компакции)
Держи единый Continuity Ledger для рабочего пространства в `CONTINUITY.md`. Это каноничный бриф сессии, который переживает сжатие контекста. Не полагайся на старые реплики в чате, если они не отражены в леджере.
### Как это работает
В начале каждого хода ассистента: прочитать `CONTINUITY.md`, обновить под текущие цели/ограничения/решения/состояние, потом продолжать работу.
Обновлять `CONTINUITY.md` при любом изменении: цели, ограничений/допущений, ключевых решений, статуса прогресса (Done/Now/Next) или важных результатов инструментов.
Коротко и стабильно: только факты, без расшифровок диалога. Лучше списками. Неуверенность помечай как `UNCONFIRMED`, не додумывай.
Если замечаешь провалы в памяти или сжатие контекста: восстанови леджер из видимого контекста, пробелы пометь `UNCONFIRMED`, задай 1–3 точечных вопроса и продолжай.
`functions.update_plan` vs Ledger
`functions.update_plan` это рабочий каркас под короткий цикл исполнения (3–7 шагов со статусами pending/in_progress/completed).
`http://CONTINUITY.md` это опора для долгой связности через компакцию (что/почему/текущее состояние), а не пошаговый чеклист.
Синхронизируй их: если меняется план или состояние, обнови леджер на уровне намерения/прогресса, без микрошагов.
### В ответах
Начинай с короткого “Ledger Snapshot” (Goal + Now/Next + Open Questions). Полный леджер присылай только если он реально поменялся или если об этом попросили.
### Формат `CONTINUITY.md` (сохрани заголовки)
- Goal (критерии успеха):
- Constraints/Assumptions:
- Key decisions:
- State:
- Done:
- Now:
- Next:
- Open questions (UNCONFIRMED если нужно):
- Working set (files/ids/commands):
Можно прописать один раз в ~/.codex/AGENTS.md, и тогда он будет автоматически подхватываться во всех сессиях Codex
https://github.com/openai/codex/blob/main/docs/agents_md.md
🔥15❤4👍4
continuous claude v2 уже подъехал. Конфиг, который решает самую дефицитную штуку в разработке — контекст.
Автор работал с Continuous Claude, и в какой-то момент всё упёрлось в компакшн и управление контекстом.
После долгой сессии ты уже раз пятнадцать ужал переписку. Получается конспект конспекта конспекта.🐒
Модель теряет нить, придумывает фичи из воздуха, строчит лишний код. То, что начиналось как нормальная сессия, превращается в крик и мольбы "клауд, ну давай уже".
Рассмотрим 12 проблемных областей и их решения. Все это входит в плагин Continuity Claude
Проблема 1: MCP
Model Context Protocol больше похож на Context Eating Protocol.
Идея крутая, но жрут токены как не в себя.
Когда 4–5 MCP подключены и под рукой 60–70 тулов, влетает минус 60к токенов до того, как ты вообще что-то написал.
Решение — запуск MCP через код, где Claude вызывает MCP как skills, которые триггерят скрипты.
Не надо руками включать/выключать MCP, и контекст не превращается в свалку.
Проблема 2: где вообще идёт работа?
Ты планируешь фичу, даёшь Claude задачу, он начинает, но посреди процесса бах — компакшн.
И дальше как повезёт, сервера просто выкидывают тебя из процесса и всё разваливается.
Ответ : агенты со свежим контекстом.
Создаёшь агента → у него чистое окно, без шлейфа прошлого диалога.
Организовали это нормально = и основная переписка становится дашбордом/панелью управления.
Проблема 3: контекст руками
Надо помнить: обновить ledger, сделать handoff, отметить результат.
В потоке об этом не думаешь и забываешь.
Решение = хуки, которые следят за окном и подсказывают: сохранить стейт, сделать handoff или
То есть модель сама напоминает про “сервисные вещи”.
Проблема 4: чёрт, я забыл вызвать skill
Это закрывает ПРОБЛЕМУ с контекстом.
Вместо явных вызовов: говорю “
Фокус остаётся на работе, а не на том, как правильно вызвать тул.
Проблема 5: какого чёрта, почему это не работает, Claude?
Тут спасает Braintrust. Трассировка всех ходов: каждый запрос, каждый tool call, каждое сообщение.
Claude получает идеальную картину и может реально отлаживать, а не гадать.
Шестая проблема: кодовая база разрослась до абсурда
RepoPrompt вывозит это за счёт внешнего контекст-билдинга. Основной чат остаётся чистым, а нужные куски контекста подтягиваются по запросу. Не надо пихать весь проект в одно окно.
Седьмая проблема: «серьёзно, клауд, это уже сто лет как устарело, почему ты всё ещё это предлагаешь?»
Nia от Nozomioai в моём опыте экономит контекст лучше, чем Context7. За счёт этого проверки планов и решений проходят гладко, без тонны лишнего балласта.
Восьмая проблема: «чем мы вообще занимались в прошлый раз?»
Идея регистр непрерывности топ. В процессе сессии фиксируем цели, ограничения, сделанное и следующие шаги. Claude не теряет нить и не выдумывает своё.
Девятая проблема: «я сделал
Хэндoффы от humanlayer идеально спасают. Перед очисткой создаётся подробный контекст-хэндов. После
Десятая проблема: «если я ещё раз наберу
statusline решает. Смотрю просто на цвет индикатора:🟢 → 🟡 → 🔴 , когда приближаемся к компакшену. Хуки сами кидают предупреждения, когда пора сохраняться или чистить.
Одиннадцатая проблема: «хочу улучшить процесс, но как?»
Не надо ставить тысячу скиллов. Лучше выращивать свои. braintrust снова в игре: LLM-as-judge на завершении сессии просматривает логи, хэндоффы и ledgerы с помощью gpt-5.2, даёт оценку потоку и предлагает улучшения.
Claude потом использует это, чтобы генерировать новые хуки, правила и агентов через
Двенадцатая проблема: «можем ли мы учиться на истории?»
Поверх learnings-скилла хуки индексируют handoffы и ledgerы в базу. Можно спросить: «как мы решали это в прошлый раз?» и Claude действительно проверит.
Дальше универсальная база, объединяющая проектные БД.
Форкни и подгони под себя.💪
Автор работал с Continuous Claude, и в какой-то момент всё упёрлось в компакшн и управление контекстом.
После долгой сессии ты уже раз пятнадцать ужал переписку. Получается конспект конспекта конспекта.
Модель теряет нить, придумывает фичи из воздуха, строчит лишний код. То, что начиналось как нормальная сессия, превращается в крик и мольбы "клауд, ну давай уже".
Рассмотрим 12 проблемных областей и их решения. Все это входит в плагин Continuity Claude
Проблема 1: MCP
Model Context Protocol больше похож на Context Eating Protocol.
Идея крутая, но жрут токены как не в себя.
Когда 4–5 MCP подключены и под рукой 60–70 тулов, влетает минус 60к токенов до того, как ты вообще что-то написал.
Решение — запуск MCP через код, где Claude вызывает MCP как skills, которые триггерят скрипты.
Не надо руками включать/выключать MCP, и контекст не превращается в свалку.
Проблема 2: где вообще идёт работа?
Ты планируешь фичу, даёшь Claude задачу, он начинает, но посреди процесса бах — компакшн.
И дальше как повезёт, сервера просто выкидывают тебя из процесса и всё разваливается.
Ответ : агенты со свежим контекстом.
Создаёшь агента → у него чистое окно, без шлейфа прошлого диалога.
Организовали это нормально = и основная переписка становится дашбордом/панелью управления.
Проблема 3: контекст руками
Надо помнить: обновить ledger, сделать handoff, отметить результат.
В потоке об этом не думаешь и забываешь.
Решение = хуки, которые следят за окном и подсказывают: сохранить стейт, сделать handoff или
/clear.То есть модель сама напоминает про “сервисные вещи”.
Проблема 4: чёрт, я забыл вызвать skill
Это закрывает ПРОБЛЕМУ с контекстом.
Вместо явных вызовов: говорю “
create plan” → спавнится агент-планировщик.Фокус остаётся на работе, а не на том, как правильно вызвать тул.
Проблема 5: какого чёрта, почему это не работает, Claude?
Тут спасает Braintrust. Трассировка всех ходов: каждый запрос, каждый tool call, каждое сообщение.
Claude получает идеальную картину и может реально отлаживать, а не гадать.
Шестая проблема: кодовая база разрослась до абсурда
RepoPrompt вывозит это за счёт внешнего контекст-билдинга. Основной чат остаётся чистым, а нужные куски контекста подтягиваются по запросу. Не надо пихать весь проект в одно окно.
Седьмая проблема: «серьёзно, клауд, это уже сто лет как устарело, почему ты всё ещё это предлагаешь?»
Nia от Nozomioai в моём опыте экономит контекст лучше, чем Context7. За счёт этого проверки планов и решений проходят гладко, без тонны лишнего балласта.
Восьмая проблема: «чем мы вообще занимались в прошлый раз?»
Идея регистр непрерывности топ. В процессе сессии фиксируем цели, ограничения, сделанное и следующие шаги. Claude не теряет нить и не выдумывает своё.
Девятая проблема: «я сделал
/clear и теперь клауд будто впервые видит проект»Хэндoффы от humanlayer идеально спасают. Перед очисткой создаётся подробный контекст-хэндов. После
/clear Claude читает ledger + handoff и ты мгновенно возвращаешься в точку выхода.Десятая проблема: «если я ещё раз наберу
/context, я взвою»statusline решает. Смотрю просто на цвет индикатора:
154.7K 77% | main A:2
»» bypass permissions on (shift+tab to cycle)
Одиннадцатая проблема: «хочу улучшить процесс, но как?»
Не надо ставить тысячу скиллов. Лучше выращивать свои. braintrust снова в игре: LLM-as-judge на завершении сессии просматривает логи, хэндоффы и ledgerы с помощью gpt-5.2, даёт оценку потоку и предлагает улучшения.
Claude потом использует это, чтобы генерировать новые хуки, правила и агентов через
/compound-learnings.Двенадцатая проблема: «можем ли мы учиться на истории?»
Поверх learnings-скилла хуки индексируют handoffы и ledgerы в базу. Можно спросить: «как мы решали это в прошлый раз?» и Claude действительно проверит.
Дальше универсальная база, объединяющая проектные БД.
Форкни и подгони под себя.
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤13🤯5🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
MiniMax M2.1 vs Opus 4.5 vs GLM-4.7: собрали с нуля интерактивную 3D-модель Солнечной системы.
Запускалось на 3 инстансах Claude Code параллельно.
Победитель:
🥇 GLM-4.7!
🥈 Opus 4.5 (slowest)
🥉 M2.1 (fastest)
У GLM-4.7 дизайн-скиллы вообще на другом уровне по сравнению с 4.6😲
Запускалось на 3 инстансах Claude Code параллельно.
Победитель:
🥇 GLM-4.7!
🥈 Opus 4.5 (slowest)
🥉 M2.1 (fastest)
У GLM-4.7 дизайн-скиллы вообще на другом уровне по сравнению с 4.6
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤12