Вайб-кодинг – Telegram
Вайб-кодинг
26.9K subscribers
1.54K photos
531 videos
30 files
743 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Твой AI-агент теперь умеет звонить по телефону. 😅

Называется ClawdTalk. Он дает любому агенту на Clawdbot или OpenClaw настоящий номер телефона.

Настоящие звонки по настоящей телефонии.

Латентность меньше 200 мс.

Твой агент может дергать tools прямо посреди разговора.

То есть пока он на живом звонке, он может:
→ Записать на прием
→ Подтянуть данные клиента
→ Триггернуть воркфлоу
→ Оформить заказ

И все это одновременно с тем, как он говорит с живым человеком по настоящей линии.

Что важно по спекам:

• <200 мс задержка (по ощущениям как разговор с человеком)
• умеет и звонить, и принимать звонки: inbound + outbound
• SMS тоже есть, двусторонние сообщения с того же номера
• из коробки работает с агентами Clawdbot и OpenClaw

Сетап за 5 минут: ставишь skill, подключаешь агента и поехали.

Что на этом можно сделать?

→ Звонить своему AI-ассистенту за рулем, хендс-фри, обычный телефонный звонок
→ Пусть AI звонит тебе сам с апдейтами, напоминаниями, алертами
→ Голосовые саппорт-агенты
→ AI-рецепционист с настоящим бизнес-номером

Но главный анлок это Missions.

Говоришь AI:
“найди сантехника, чтобы приехал сегодня”

и он обзванивает конторы, проходит голосовые меню, общается с людьми и потом пишет тебе смской лучший вариант.

Агент не просто отвечает на звонки. Он делает их за тебя.

DX там тоже дикий.

Поставил skill. Подтвердил номер. Позвонил своему боту.

Код бота не меняется. ClawdTalk просто добавляет голос как еще один интерфейс поверх.

Там исходящий WebSocket: твой бот коннектится к ним, а не наоборот. Без изменений инфраструктуры.

Без нового деплоя. Бот остается ровно там, где был.

Есть free tier. Без карты. Без “14-дневного триала, который потом кончается”.

Когда надо масштабироваться, Pro дает выделенный номер и исходящие звонки на любые номера.

📞 Позвони 301-MYCLAWD, чтобы попробовать прямо сейчас

Cтарт здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Разработчик Anthropic поделился инсайдом о следующей версии Claude Code:

Bash-инструмент в Claude Code будет работать быстрее и потреблять меньше памяти. Они провели тест, где Claude пишет 1 ГБ в stdout 10 раз (то есть прогнали 10 ГБ через вывод).

В старой версии это заняло 115 секунд.
В новой версии всего 15 секунд, то есть примерно в 7 раз быстрее.

Это также повлияет на Claude Agent SDK и Cowork.
4
This media is not supported in your browser
VIEW IN TELEGRAM
Что-то невероятное: один из моих любимых MCP-инструментов за последнее время.

Просто даёшь промпт, и он генерит красивые диаграммы в Excalidraw.

Исходники ⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
5 продвинутых советов по Claude Code, которые я использую:

1) самоулучшение через “инъекцию”

“Create a UserPromptSubmit hook (global settings). Script echoes: If 8+ tool calls, append one optimization hint (reusable skill, memory pattern, or workflow fix). One sentence. Skip if exploratory.”


2) аудит skills

"Create a skill that lists all my installed skills (project & global level) with their line counts. Then ask the user which to review for improvement opportunities (conciseness, clarity, overlapping scopes, token efficiency).”


3) аудит Claude-файлов

“Create a skill that reads all CLAUDE .md files and checks for: redundant instructions, verbose phrasing, and content that could move to memory. Present findings and ask if the user wants to implement them.”


4) рефлексия

"Create a skill that reviews the current conversation, analyzes tasks, errors, and user feedback, and extracts opportunities for learning, skill creation, and skill improvement; then, presents the findings to the user and asks what to implement or write to memory.


5) условный линтер промпта

“Create a UserPromptSubmit hook in global settings. The noscript counts words and, if >50, echoes a note asking Claude to check if the desired outcome is clear. The output gets appended to the prompt.”


Чтобы начать пользоваться, просто скопируй/вставь те однопараграфные промпты выше в Claude Code.
9
Ollama заколлабились с MiniMax и раздали пользователям Ollama бесплатный доступ к MiniMax M2.5 на ближайшие пару дней

Запуск:

ollama run minimax-m2.5:cloud


Можно юзать MiniMax M2.5 вместе с OpenCode, Claude Code, Codex, OpenClaw через ollama launch.

OpenCode:

ollama launch opencode --model minimax-m2.5:cloud


Claude:

ollama launch claude --model minimax-m2.5:cloud
Очередной клон OpenClaw : просто переписанный на Rust.

Табличка по перфу, предоставленная автором:

» OpenClaw 28MB -> ZeroClaw 3.4MB (сжал в 8 раз)
» OpenClaw 5.98s -> ZeroClaw 0s (в ноль)
» OpenClaw 1.52GB RAM -> ZeroClaw 7.8MB (разница в 194 раза)

100% исходный код 🫡
Please open Telegram to view this post
VIEW IN TELEGRAM
RAG, который не сжигает бюджет: новый подход от Meta

Большинство RAG-систем просто жгут бюджет. Они вытаскивают 100 чанков, когда тебе реально нужно 10. Они заставляют LLM переваривать тысячи нерелевантных токенов. В итоге ты платишь за вычисления, которые вообще не нужны.

Meta AI это порешали.

Они сделали REFRAG, новый подход к RAG, который сжимает и фильтрует контекст еще до того, как он попадет в LLM.

Результаты звучат крайне интригующе:

▪️в 30.85 раза быстрее time-to-first-token
▪️контекстные окна в 16 раз больше
▪️в 2-4 раза меньше обрабатываемых токенов
▪️обгоняет LLaMA на 16 RAG-бенчмарках

Чем REFRAG отличается: классический RAG просто сваливает все в LLM. Каждый чанк. Каждый токен. Даже мусор, который не по делу.

А REFRAG работает на уровне эмбеддингов:

↳ сжимает каждый чанк в один эмбеддинг
↳ RL-политика (обученная через reinforcement learning) скорит каждый чанк по релевантности
↳ только лучшие чанки разворачиваются и отправляются в LLM
↳ остальное остается сжатым или вообще отфильтровывается

То есть LLM обрабатывает только то, что важно.

Пайплайн простой:

1. Закодируй документы и сохрани их в векторной базе
2. Когда приходит запрос, как обычно достань релевантные чанки
3. RL-политика оценивает сжатые эмбеддинги и выбирает лучшие
4. Выбранные чанки разворачиваются в полные token-эмбеддинги
5. Отклоненные чанки остаются одиночными сжатыми векторами
6. Все вместе уходит в LLM

Итог: можно прогонять в 16 раз больше контекста в 30 раз быстрее без потери точности.

Ссылка на доки 📝
Please open Telegram to view this post
VIEW IN TELEGRAM
Если тебя уже поджигало от того, что дефолтные сабагенты в Claude Code гоняются на Haiku-моделях, есть супер простой лайфхак, как навсегда это вырубить.

Просто ремапни alias через env vars в ~/.claude/settings.json:

{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-5-20250929"
}
}


По умолчанию Explore Agent садится на Haiku, а Task Agent берется из модели родителя. В больших и сложных репах это легко превращается в пропуски кусков важной логики, потому что Haiku чаще срезает углы. 🥹
Please open Telegram to view this post
VIEW IN TELEGRAM
В Kilo Code (CLI и VS Code) сделали GLM-5 бесплатным на ограниченный период времени 👏

Как получить:

1. Скачай CLI и выбери GLM 5 (free) из списка моделей.

2. Если пользуешься расширением для VS Code, выбери GLM 5 (free) в переключателе (model picker).

Если хочешь почитать подробнее про GLM-5, загляни сюда
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Хватит простыней: один чувак сделал Visual Explainer

Это skill для агентa + набор slash-команд, которые заставляют агента объяснять сложные темы не текстом в чатике, а в виде аккуратных HTML-страниц. 💃

Внутри есть референсные шаблоны и библиотека CSS-паттернов, чтобы вывод всегда выглядел одинаково аккуратно и читабельно.

Исходники тут
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Кто-то собрал ИИ, который одновременно пишет код и лазит по вебу.

Называется Accomplish и работает локально, не сжигая API-кредиты.

Без Claude Desktop. Без Cursor. Без ежемесячных подписок.

100% open source.
Вышел Qwen3.5-397B-A17B: первая модель с открытыми весами в серии Qwen3.5.

» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.

GitHub: https://github.com/QwenLM/Qwen3.5
Chat: https://chat.qwen.ai
API:https://modelstudio.console.alibabacloud.com/ap-southeast-1/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen3.5-plus
Qwen Code: https://github.com/QwenLM/qwen-code
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
blog: https://qwen.ai/blog?id=qwen3.5
Вышла Claude Sonnet 4.6 с контекстом 1M

Теперь можно поставить её дефолтом в Claude Code 💚

UI: /model claude-sonnet-4-6[1m]

~/.claude/settings.json:

{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6[1m]"
}
}


Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.

Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.

Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.

Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
56
Вышел Codex 0.103 с экспериментальной поддержкой multi-agent.

TUI: включается в /experimental -> multi agents

config:

[features]
multi_agent = true


В комплекте 3 агента:

default для смешанных задач: "spawn default agent to debug the failure and propse fix"

explorer для ресерча по кодовой базе: "spawn explorer to map payment flow and check risks, no edits"

worker для кодинга и фиксов: "spawn worker for src/auth/* and implement token refresh & run tests"

Можно заводить и кастомных агентов. Пример:

[features]
multi_agent = true

[agents.fast_worker]
denoscription = "Fast scoped implementation agent."
config_file = "/Users/<you>/.codex/agents/fast_worker.toml"


~/.codex/agents/fast_worker.toml

model = "gpt-5.3-spark"
model_reasoning_effort = "low"
model_verbosity = "low"


Бонус: сейчас дефолт это 6 agent threads на сессию.

Можно поменять так:

[agents]
max_threads = 12
This media is not supported in your browser
VIEW IN TELEGRAM
React Doctor уже тут

Сканируй свой React-код на анти-паттерны:

▪️лишние useEffect-ы
▪️исправляет проблемы с доступностью (a11y)
▪️prop drilling вместо context / композиции

Запускается как CLI или как агент skill. Гоняешь снова и снова, пока всё не проходит. Полностью open source.

Запусти это в терминале, чтобы попробовать:

npx -y react-doctor@latest


исходный код
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Claude наблюдает, как я пишу код вручную
7
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь то, что ты собираешь в Claude Code, можно пушить прямо в Figma.

С последними обновлениями Figma MCP server процесс теперь бесшовный: сначала делаешь рабочий прототип в коде, потом отправляешь его на Figma canvas и там уже спокойно гоняешь несколько версий и вариантов.

Чтобы начать, установи Figma MCP server:

/plugin install figma@claude-plugin-directory


Дальше просто попроси Claude отправить страницу из твоего локального веб-приложения в Figma.

Подробности в доках