Вайб-кодинг – Telegram
Вайб-кодинг
26.9K subscribers
1.54K photos
531 videos
30 files
743 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Хватит простыней: один чувак сделал Visual Explainer

Это skill для агентa + набор slash-команд, которые заставляют агента объяснять сложные темы не текстом в чатике, а в виде аккуратных HTML-страниц. 💃

Внутри есть референсные шаблоны и библиотека CSS-паттернов, чтобы вывод всегда выглядел одинаково аккуратно и читабельно.

Исходники тут
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Кто-то собрал ИИ, который одновременно пишет код и лазит по вебу.

Называется Accomplish и работает локально, не сжигая API-кредиты.

Без Claude Desktop. Без Cursor. Без ежемесячных подписок.

100% open source.
Вышел Qwen3.5-397B-A17B: первая модель с открытыми весами в серии Qwen3.5.

» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.

GitHub: https://github.com/QwenLM/Qwen3.5
Chat: https://chat.qwen.ai
API:https://modelstudio.console.alibabacloud.com/ap-southeast-1/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen3.5-plus
Qwen Code: https://github.com/QwenLM/qwen-code
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
blog: https://qwen.ai/blog?id=qwen3.5
Вышла Claude Sonnet 4.6 с контекстом 1M

Теперь можно поставить её дефолтом в Claude Code 💚

UI: /model claude-sonnet-4-6[1m]

~/.claude/settings.json:

{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6[1m]"
}
}


Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.

Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.

Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.

Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
56
Вышел Codex 0.103 с экспериментальной поддержкой multi-agent.

TUI: включается в /experimental -> multi agents

config:

[features]
multi_agent = true


В комплекте 3 агента:

default для смешанных задач: "spawn default agent to debug the failure and propse fix"

explorer для ресерча по кодовой базе: "spawn explorer to map payment flow and check risks, no edits"

worker для кодинга и фиксов: "spawn worker for src/auth/* and implement token refresh & run tests"

Можно заводить и кастомных агентов. Пример:

[features]
multi_agent = true

[agents.fast_worker]
denoscription = "Fast scoped implementation agent."
config_file = "/Users/<you>/.codex/agents/fast_worker.toml"


~/.codex/agents/fast_worker.toml

model = "gpt-5.3-spark"
model_reasoning_effort = "low"
model_verbosity = "low"


Бонус: сейчас дефолт это 6 agent threads на сессию.

Можно поменять так:

[agents]
max_threads = 12
This media is not supported in your browser
VIEW IN TELEGRAM
React Doctor уже тут

Сканируй свой React-код на анти-паттерны:

▪️лишние useEffect-ы
▪️исправляет проблемы с доступностью (a11y)
▪️prop drilling вместо context / композиции

Запускается как CLI или как агент skill. Гоняешь снова и снова, пока всё не проходит. Полностью open source.

Запусти это в терминале, чтобы попробовать:

npx -y react-doctor@latest


исходный код
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Claude наблюдает, как я пишу код вручную
7
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь то, что ты собираешь в Claude Code, можно пушить прямо в Figma.

С последними обновлениями Figma MCP server процесс теперь бесшовный: сначала делаешь рабочий прототип в коде, потом отправляешь его на Figma canvas и там уже спокойно гоняешь несколько версий и вариантов.

Чтобы начать, установи Figma MCP server:

/plugin install figma@claude-plugin-directory


Дальше просто попроси Claude отправить страницу из твоего локального веб-приложения в Figma.

Подробности в доках
Кто-то выложил в опенсорс CLAUDE SKILL, который по словам автора, заставляет его перестать писать баговый код.

Называется MAKE NO MISTAKES.

Кидаешь один файл в проект, и Claude начинает ловить свои же ошибки еще до того, как ты их увидишь
1
Media is too big
VIEW IN TELEGRAM
Гений потратил 2,54 МИЛЛИАРДА токенов, чтобы довести OpenClaw до идеала.

Юзкейсы, которые он по пути откопал, поменяли то, как он живёт и работает.

И теперь он делится этим со всеми.

Вот 21 сценарий:

0:00 Интро
0:50 Что такое OpenClaw?
1:35 MD-файлы
2:14 Система памяти
3:55 CRM-система
7:19 Fathom pipeline
9:18 Встреча → action items
10:46 Система базы знаний
13:51 Pipeline для ingestion из X
14:31 Business Advisory Council
16:13 Security Council
18:21 Трекинг соцсетей
19:18 Pipeline идей для видео
21:40 Daily briefing flow
22:23 Три совета (Three Councils)
22:57 Расписание автоматизаций
24:15 Слои безопасности
26:09 Базы данных и бэкапы
28:00 Генерация видео/картинок
29:14 Self-updates
29:56 Трекинг использования и стоимости
30:15 Prompt engineering
31:15 Инфраструктура для разработчиков
32:06 Дневник питания

- Бесплатная eBook с юзкейсами
- промпты
- SOUL
- IDENTITY
- PRD
Gemini снова возвращается в топ кодинг-моделей: Google выкатили Gemini 3.1 Pro

Модель заметно прокачали в кодинге, reasoning и агентных задачах. Цифры говорят сами за себя:

— 77.1% на ARC-AGI-2 (было 31.1% у Gemini 3)
— 80.6% на SWE Verified (против 76.2%)
— 85.9% на BrowseComp (вместо 59.2%)

Уже доступно в приложении, на сайте, в Studio и по API 🎉
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Чувак собрал локальный движок инференса для LLM, который гоняет модель на 1B параметров на плате за $10 с 256 МБ RAM. Модель лежит на SD-карте и стримится по одному слою, при этом в оперативке держится примерно 45 МБ.

Можно использовать как локальный backend для модели в PicoClaw.

Без Python, без облака, без API-ключей.
80 КБ бинарник, чистый C, ноль зависимостей.

100% опенсорс 😼
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Одна команда, чтобы понять, что запустится на твоем железе: llmfit

Терминальная утилита, которая по твоей конфигурации RAM, CPU и GPU рекомендует LLM-модели, которые смогут у тебя запуститься.

Сейчас в базе 157 модели от 30 провайдеров: есть Llama, Mistral, Qwen, DeepSeek, Grok, Kimi и другие. Каждую модель оценивают по 4 метрикам:

- качество (число параметров, репутация семейства модели)
- скорость (примерная оценка tok/s)
- совместимость (насколько модель укладывается в память)
- контекст (размер контекстного окна)

Потом считают итоговый общий score, а то, что в память не влезает, автоматически уезжает вниз списка.

100% opensource 🎉
Please open Telegram to view this post
VIEW IN TELEGRAM
2
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code SKILL, с которым можно вообще забыть про PowerPoint.

После установки достаточно просто попросить Claude Code сделать презентацию, например:

- «Сделай 10 слайдов про тренды в возобновляемой энергетике»
- «Собери питч-дек/презентацию-предложение для SaaS-стартапа»
- «Сделай квартальный бизнес-ревью в виде презентации с графиками»

исходный код 😶
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Создатели dmux открывают исходники.

Это их внутренний инструмент для запуска роя агентов на Codex и Claude Code.

dmux создает отдельную tmux-панель под каждую задачу. У каждой панели свой git worktree и своя ветка, так что агенты работают в полной изоляции. Когда задача готова, жмешь m, и оно мержит результат обратно в основную ветку. В комплекте хуки для автоматизации, A/B сравнение Claude vs Codex, удобное управление worktrees и мультипроектные сессии.

Самая кайфовая фича, которую они подсветили, это "coordinator": ты просто делаешь родительскую директорию или репу, внутри которой лежит куча связанных проектов. В родителе они все исключены через .gitignore, а каждый подпроект это отдельный git-репозиторий. Это не submodules , а обычные папки. Обычно у меня в корне лежит файл AGENTS/CLAUDE, где описана структура.

Dmux сам находит эти вложенные репозитории и, когда ты создаешь worktree в корне, он автоматически создает worktree и для всех этих подпроектов внутри worktree родителя. А при merge он дает смержить каждый дочерний worktree отдельно. 👍

Для OSS-мейнтейнеров самое то.
Please open Telegram to view this post
VIEW IN TELEGRAM
На повестке дня - полезный трюк:

1. Открой Chrome DevTools.
2. Перейди во вкладку Memory, сделай snapshot и скачай его.
3. Закинь файл в Cursor. (или любую LLM)

Cursor напишет Python-скрипты для анализа snapshot и покажет, что именно делает сайт “тяжелым” и из-за чего он кажется тормозным. 🎉

Бонусом можешь сделать два снапшота - один до того, как сайт начинает тупить, и второй после. Тогда Cursor сможет сравнить “до” и “после”.
Please open Telegram to view this post
VIEW IN TELEGRAM
10
Anthropic выкатили Claude Code Security

Это новый security-слой внутри Claude Code: инструмент сканирует всю кодовую базу на уязвимости и предлагает точечные патчи для ревью человеком, позволяя командам находить и устранять проблемы, которые традиционные инструменты часто пропускают

Реакция рынка показательная – на фоне новости акции кибербез-компаний пошли вниз 📉

Что важно знать:
• Запуск в формате limited research preview для пользователей Enterprise и Team
• Мейнтейнерам опенсорс проектов дадут ускоренный бесплатный доступ, чтобы “пощупать” и потестить.
• Anthropic хотят вооружить защитников против надвигающейся волны AI-усиленных эксплойтов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
9