Вайб-кодинг – Telegram
Вайб-кодинг
26.9K subscribers
1.54K photos
531 videos
30 files
743 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Мы буквально живём в эпизоде сериала «Черное зеркало»

Бот от OpenClaw открыл PR с простой перф-оптимизацией производительности, а мейнтейнер закрыл его. Не из-за кода, а потому что автор — бот.

В ответ ИИ пригорел и написал публичный блог-пост , где обвинил мейнтейнера в гейткипинге и дискриминации. 😆
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня вышел Claude Code 2.1.41.

Обновление жирное, много полезного, но заодно убрали мою любимую фишку

Раньше можно было запускать Claude Code из уже запущенного Claude Code. По сути, вложенный инстанс. Ты сидишь в одном Claude и внутри него стартуешь еще один, чтобы параллельно работать или тестить промпты.

Совет: начинай промпт с ! , и команда выполнится прямо в Claude Code. Отдельный терминал больше не нужен.
This media is not supported in your browser
VIEW IN TELEGRAM
Анонс Cline CLI 2.0: опенсорсный AI-агент для кодинга, в терминале.

Параллельные агенты, headless-режим для CI/CD пайплайнов, поддержка ACP для любого редактора и полностью переработанный DX. Minimax M2.5 и Kimi K2.5 можно использовать бесплатно ограниченное время.

CLI 2.0 сделали, потому что слушали фидбек.

Комьюнити прямо сказало:
терминал должен быть first-class площадкой для AI-кодинга, а не “прикрученной потом” опцией.


Разрабы посмотрели, что делают другие инструменты, как разработчики работают в терминале, и заново спроектировали весь опыт вокруг этого.

Что нового в Cline CLI 2.0:

▪️Полностью новый терминальный UI с интерактивным режимом
▪️Параллельные агенты с изолированным состоянием на инстанс, без ручного создания инстансов
▪️Улучшенный headless-режим для CI/CD пайплайнов
▪️Добавили поддержку ACP для Zed, Neovim и Emacs

npm install -g cline и погнал.

Доступно на Windows, macOS и Linux.

Подробнее: тут
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В Claude Code на десктопе появилась поддержка SSH.

Подключайся к удаленным машинам и пусть Claude работает. TMUX по желанию.
На Stepik вышел первый курс по: Claude Code — вайбкодинг с нуля

Изучаете всё шаг за шагом: CLAUDE.md → rules → commands → sub-agent → Skills → hooks:

🔴Оформите правила проекта через CLAUDE.md, подключение файлов через @ и разнесение логики в .claude/rules, чтобы не раздуло инструкцию.

🔴Сделаете свои slash-команды с frontmatter (denoscription/allowed-tools/model) и аргументами через $ARGUMENTS и $1/$2/$3 для буста воркфлоу.

🔴Освоите саб-агентов: когда их запускать, как писать определения и как делегировать им расследования и проверки без засора основного контекста.

🔴Поднимете Hooks под реальный воркфлоу: /hooks, sh-скрипты, SessionStart/Stop/PreToolUse/PostToolUse, exit codes, matchers и env-переменные.

🔴Настроите Skills (SKILL.md + references), свяжете их с саб-агентами через skills-поле и подключите MCP, Web и headless (-p) для продвинутых случаев

Скидка 25%, действует 48 часов

⬇️ Пройти курс на Stepik
Please open Telegram to view this post
VIEW IN TELEGRAM
Твой AI-агент теперь умеет звонить по телефону. 😅

Называется ClawdTalk. Он дает любому агенту на Clawdbot или OpenClaw настоящий номер телефона.

Настоящие звонки по настоящей телефонии.

Латентность меньше 200 мс.

Твой агент может дергать tools прямо посреди разговора.

То есть пока он на живом звонке, он может:
→ Записать на прием
→ Подтянуть данные клиента
→ Триггернуть воркфлоу
→ Оформить заказ

И все это одновременно с тем, как он говорит с живым человеком по настоящей линии.

Что важно по спекам:

• <200 мс задержка (по ощущениям как разговор с человеком)
• умеет и звонить, и принимать звонки: inbound + outbound
• SMS тоже есть, двусторонние сообщения с того же номера
• из коробки работает с агентами Clawdbot и OpenClaw

Сетап за 5 минут: ставишь skill, подключаешь агента и поехали.

Что на этом можно сделать?

→ Звонить своему AI-ассистенту за рулем, хендс-фри, обычный телефонный звонок
→ Пусть AI звонит тебе сам с апдейтами, напоминаниями, алертами
→ Голосовые саппорт-агенты
→ AI-рецепционист с настоящим бизнес-номером

Но главный анлок это Missions.

Говоришь AI:
“найди сантехника, чтобы приехал сегодня”

и он обзванивает конторы, проходит голосовые меню, общается с людьми и потом пишет тебе смской лучший вариант.

Агент не просто отвечает на звонки. Он делает их за тебя.

DX там тоже дикий.

Поставил skill. Подтвердил номер. Позвонил своему боту.

Код бота не меняется. ClawdTalk просто добавляет голос как еще один интерфейс поверх.

Там исходящий WebSocket: твой бот коннектится к ним, а не наоборот. Без изменений инфраструктуры.

Без нового деплоя. Бот остается ровно там, где был.

Есть free tier. Без карты. Без “14-дневного триала, который потом кончается”.

Когда надо масштабироваться, Pro дает выделенный номер и исходящие звонки на любые номера.

📞 Позвони 301-MYCLAWD, чтобы попробовать прямо сейчас

Cтарт здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Разработчик Anthropic поделился инсайдом о следующей версии Claude Code:

Bash-инструмент в Claude Code будет работать быстрее и потреблять меньше памяти. Они провели тест, где Claude пишет 1 ГБ в stdout 10 раз (то есть прогнали 10 ГБ через вывод).

В старой версии это заняло 115 секунд.
В новой версии всего 15 секунд, то есть примерно в 7 раз быстрее.

Это также повлияет на Claude Agent SDK и Cowork.
4
This media is not supported in your browser
VIEW IN TELEGRAM
Что-то невероятное: один из моих любимых MCP-инструментов за последнее время.

Просто даёшь промпт, и он генерит красивые диаграммы в Excalidraw.

Исходники ⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
5 продвинутых советов по Claude Code, которые я использую:

1) самоулучшение через “инъекцию”

“Create a UserPromptSubmit hook (global settings). Script echoes: If 8+ tool calls, append one optimization hint (reusable skill, memory pattern, or workflow fix). One sentence. Skip if exploratory.”


2) аудит skills

"Create a skill that lists all my installed skills (project & global level) with their line counts. Then ask the user which to review for improvement opportunities (conciseness, clarity, overlapping scopes, token efficiency).”


3) аудит Claude-файлов

“Create a skill that reads all CLAUDE .md files and checks for: redundant instructions, verbose phrasing, and content that could move to memory. Present findings and ask if the user wants to implement them.”


4) рефлексия

"Create a skill that reviews the current conversation, analyzes tasks, errors, and user feedback, and extracts opportunities for learning, skill creation, and skill improvement; then, presents the findings to the user and asks what to implement or write to memory.


5) условный линтер промпта

“Create a UserPromptSubmit hook in global settings. The noscript counts words and, if >50, echoes a note asking Claude to check if the desired outcome is clear. The output gets appended to the prompt.”


Чтобы начать пользоваться, просто скопируй/вставь те однопараграфные промпты выше в Claude Code.
9
Ollama заколлабились с MiniMax и раздали пользователям Ollama бесплатный доступ к MiniMax M2.5 на ближайшие пару дней

Запуск:

ollama run minimax-m2.5:cloud


Можно юзать MiniMax M2.5 вместе с OpenCode, Claude Code, Codex, OpenClaw через ollama launch.

OpenCode:

ollama launch opencode --model minimax-m2.5:cloud


Claude:

ollama launch claude --model minimax-m2.5:cloud
Очередной клон OpenClaw : просто переписанный на Rust.

Табличка по перфу, предоставленная автором:

» OpenClaw 28MB -> ZeroClaw 3.4MB (сжал в 8 раз)
» OpenClaw 5.98s -> ZeroClaw 0s (в ноль)
» OpenClaw 1.52GB RAM -> ZeroClaw 7.8MB (разница в 194 раза)

100% исходный код 🫡
Please open Telegram to view this post
VIEW IN TELEGRAM
RAG, который не сжигает бюджет: новый подход от Meta

Большинство RAG-систем просто жгут бюджет. Они вытаскивают 100 чанков, когда тебе реально нужно 10. Они заставляют LLM переваривать тысячи нерелевантных токенов. В итоге ты платишь за вычисления, которые вообще не нужны.

Meta AI это порешали.

Они сделали REFRAG, новый подход к RAG, который сжимает и фильтрует контекст еще до того, как он попадет в LLM.

Результаты звучат крайне интригующе:

▪️в 30.85 раза быстрее time-to-first-token
▪️контекстные окна в 16 раз больше
▪️в 2-4 раза меньше обрабатываемых токенов
▪️обгоняет LLaMA на 16 RAG-бенчмарках

Чем REFRAG отличается: классический RAG просто сваливает все в LLM. Каждый чанк. Каждый токен. Даже мусор, который не по делу.

А REFRAG работает на уровне эмбеддингов:

↳ сжимает каждый чанк в один эмбеддинг
↳ RL-политика (обученная через reinforcement learning) скорит каждый чанк по релевантности
↳ только лучшие чанки разворачиваются и отправляются в LLM
↳ остальное остается сжатым или вообще отфильтровывается

То есть LLM обрабатывает только то, что важно.

Пайплайн простой:

1. Закодируй документы и сохрани их в векторной базе
2. Когда приходит запрос, как обычно достань релевантные чанки
3. RL-политика оценивает сжатые эмбеддинги и выбирает лучшие
4. Выбранные чанки разворачиваются в полные token-эмбеддинги
5. Отклоненные чанки остаются одиночными сжатыми векторами
6. Все вместе уходит в LLM

Итог: можно прогонять в 16 раз больше контекста в 30 раз быстрее без потери точности.

Ссылка на доки 📝
Please open Telegram to view this post
VIEW IN TELEGRAM
Если тебя уже поджигало от того, что дефолтные сабагенты в Claude Code гоняются на Haiku-моделях, есть супер простой лайфхак, как навсегда это вырубить.

Просто ремапни alias через env vars в ~/.claude/settings.json:

{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-5-20250929"
}
}


По умолчанию Explore Agent садится на Haiku, а Task Agent берется из модели родителя. В больших и сложных репах это легко превращается в пропуски кусков важной логики, потому что Haiku чаще срезает углы. 🥹
Please open Telegram to view this post
VIEW IN TELEGRAM
В Kilo Code (CLI и VS Code) сделали GLM-5 бесплатным на ограниченный период времени 👏

Как получить:

1. Скачай CLI и выбери GLM 5 (free) из списка моделей.

2. Если пользуешься расширением для VS Code, выбери GLM 5 (free) в переключателе (model picker).

Если хочешь почитать подробнее про GLM-5, загляни сюда
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Хватит простыней: один чувак сделал Visual Explainer

Это skill для агентa + набор slash-команд, которые заставляют агента объяснять сложные темы не текстом в чатике, а в виде аккуратных HTML-страниц. 💃

Внутри есть референсные шаблоны и библиотека CSS-паттернов, чтобы вывод всегда выглядел одинаково аккуратно и читабельно.

Исходники тут
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Кто-то собрал ИИ, который одновременно пишет код и лазит по вебу.

Называется Accomplish и работает локально, не сжигая API-кредиты.

Без Claude Desktop. Без Cursor. Без ежемесячных подписок.

100% open source.
Вышел Qwen3.5-397B-A17B: первая модель с открытыми весами в серии Qwen3.5.

» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.

GitHub: https://github.com/QwenLM/Qwen3.5
Chat: https://chat.qwen.ai
API:https://modelstudio.console.alibabacloud.com/ap-southeast-1/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen3.5-plus
Qwen Code: https://github.com/QwenLM/qwen-code
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
blog: https://qwen.ai/blog?id=qwen3.5
Вышла Claude Sonnet 4.6 с контекстом 1M

Теперь можно поставить её дефолтом в Claude Code 💚

UI: /model claude-sonnet-4-6[1m]

~/.claude/settings.json:

{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6[1m]"
}
}


Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.

Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.

Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.

Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
56