Вайб-кодинг – Telegram
Вайб-кодинг
13.6K subscribers
1.46K photos
474 videos
30 files
632 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Media is too big
VIEW IN TELEGRAM
В Chrome DevTools MCP добавили улучшение, о котором просили многие 🦌

Новый апдейт даёт возможность агентам напрямую подключаться к активным сессиям браузера.

Представьте, что вы хотите, чтобы ваш агент по программированию исправил проблему, доступ к которой возможен только после авторизации. Теперь ваш агент может напрямую получить доступ к вашей текущей сессии просмотра, не требуя дополнительной авторизации.

Теперь агенты могут получать доступ к активным сеансам отладки в пользовательском интерфейсе DevTools. Например, если вы обнаружите запрос с ошибкой на панели «Сеть» в Chrome DevTools, выберите запрос и попросите своего агента исследовать его. То же самое работает и с элементами, выбранными на панели «Элементы».
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍376👏2🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
Самое сложное в создании AI-агентов - это не сам AI. Это UI.

Объясняю:

Бэкенд для агентов, по сути, уже решенная задача.

Выбираешь фреймворк - LangGraph, CrewAI, Mastra - и собираешь что угодно.

Но как только пытаешься прикрутить это к фронтенд-приложению, начинаются проблемы:

↳ стриминг в реальном времени
↳ синхронизация состояния между UI и агентом
↳ разбор сообщений, вызовы инструментов и событий статуса
↳ логика реконнекта, когда пользователь обновляет страницу посреди диалога

У многих команд недели уходят на самописные WebSocket-хендлеры и обвязку, чтобы просто завести базу.

CopilotKit только что выкатили useAgent(), чтобы закрыть эту проблему

Один этот хук дает живое подключение к любому агенту:

const { agent } = useAgent({ agentId: "my-agent" });


Из коробки получаешь стриминг, синхрон состояния, пользовательский ввод автоматически упаковывается в события AG-UI, и есть "ручное подтверждение человеком".

Работает с любым бэкендом, который реализует протокол AG-UI.

Поддержка тредов встроена, так что разговоры сохраняются и автоматически продолжаются. Реконнект стрима тоже просто работает.

Для понимания, AG-UI - это протокол, который соединяет агентов с UI-приложениями. Можно думать так:

MCP: агенты - инструменты
A2A: агенты - агенты
AG-UI: агенты - пользователи

Если ты строишь интерактивных агентов уровня Cursor или Lovable, это тот фреймворк, который объединяет весь твой агентный стек

Полностью open-source. Ссылка на GitHub 🕺
Please open Telegram to view this post
VIEW IN TELEGRAM
34👍16
This media is not supported in your browser
VIEW IN TELEGRAM
Совет по Claude Code на сегодня: Ultrathink

Ты можешь управлять тем, насколько сильно Claude будет думать перед тем, как ответить.

"think" → 4k токенов на размышления
"think hard" → 10k токенов на размышления
"ultrathink" → 31 999 токенов на размышления

Просто напиши магическое слово где угодно в своём промпте. 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥249
3D-дрифтинг F1 HTML-симуляция

Промпт:

Create a 3D simulation of a formula 1 car performing a continuous drifting donut in the street using HTML/CSS/JS in a single HTML file.


Вывод (количество строк):

- 682 строки HTML (opus-4.5-thinking-32k)
- 640 строк HTML (gpt-5.2-extended-thinking)
- 282 строки HTML (gemini-3-pro)
- 151 строка HTML (grok-4.1-thinking)

Детали по моделям:

- gpt-5.2-extended-thinking: оценка 0.3/10. Время рассуждения: 23 с, общее время ответа: 102 с, всего слов в рассуждениях: 229
- gemini-3-pro: оценка 8.8/10. Время рассуждения: 13 с, общее время ответа: 43 с, всего слов в рассуждениях: 220
- grok-4.1-thinking: оценка 1/10. Время рассуждения: 8 с, общее время ответа: 15 с, всего слов в рассуждениях: 72
- claude-opus-4.5-thinking-32k: оценка 10/10. Время рассуждения: 57 с, общее время ответа: 173 с, всего слов в рассуждениях: 1 297

Примечания:

Все эксперименты используют самый первый, не доработанный ответ модели, без повторных попыток и без дополнительных уточнений.

GitHub с исходным кодом и доп. статистикой 🤓

Время рассуждения замерялось вручную с момента нажатия Enter. На изображениях таймер стартует только когда модель реально начинает инференс; между этими событиями есть небольшая задержка. Поэтому времена могут слегка не совпадать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2711🗿3😁1
😩😩😩
Please open Telegram to view this post
VIEW IN TELEGRAM
😁65👍64🔥3👏1
Media is too big
VIEW IN TELEGRAM
Совет по Claude Code на сегодня: Prompt Stashing

Это как git stash, только для промпта.

Ctrl+S сохраняет черновик. Отправляешь другое сообщение, а черновик потом автоматически возвращается.

Больше не надо копировать в блокнот и бояться потерять мысль. ☝️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥123👍3
Media is too big
VIEW IN TELEGRAM
Одна из причин, почему я предпочитаю Gemini вместо ChatGPT - это возможность без проблем загружать видеофайлы и обрабатывать их, получать инсайты, расшифровки и прочее.

Не понимаю, почему OpenAI до сих пор игнорирует эту возможность в ChatGPT. 🙅‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍4815😁4😭1🫡1
Ничеси, тут собраны ВСЕ полностью обновленные системные промты Claude Code

Репа огонь, добавляем в избранное и форкаем ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👍82
Media is too big
VIEW IN TELEGRAM
Полностью опенсорс альтернатива n8n. 🏃

Sim -» визуальный конструктор с перетаскиванием блоков для сборки мощных агентных цепочек:

- запускается локально на твоей машине
- работает с локальными языковыми моделями

Парень на видео собрал агента для анализа фондового рынка и подключил его к Телеграму за несколько минут.

Стек технологий:

Sim для сборки цепочек
Firecrawl для поиска информации в сети
Alpha Vantage MCP для доступа к данным фондового рынка
Docker для локального размещения всего проекта
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥33👀62
NVIDIA выложила открытую модель на 30B, которая обходит GPT-OSS и Qwen3-30B -» и работает в 2.2–3.3 раза быстрее.

Nemotron 3 Nano:

- контекст до 1 млн токенов
- MoE: 31.6B параметров всего, 3.6B активных
- лучшая в классе производительность на SWE-Bench
- открытые веса + инструкция по обучению + датасеты с правом перераспространения

Модель можно запускать локально -» достаточно 24 ГБ ОЗУ. 💪
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥34👍65👏2🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Если у тебя подписка Claude Max, ты можешь подарить бесплатную неделю Claude Pro трём друзьям.

Обновись до последней версии Claude Code и выполни команду /passes

Также ты можешь подарить Claude и Claude Code друзьям и близким. 🎁
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥5🗿32😁1
Пытаемся решить реальные проблемы с оркестрацией инструментов у AI-агентов.

Сборка AI-агентов всё ещё даётся непросто. Даже с MCP оркестрация инструментов всё ещё доставляет массу проблем, раздутые контексты инструментов, нестабильные комьюнити-инструменты, дырки в покрытии возможностей.

AnyTool решает это через универсальный слой оркестрации, который позволяет агентам надёжно работать практически с любыми инструментами -» от веб-API и системных команд до автоматизации GUI.

Вот сам гитхаб 🙈

Ключевые фичи AnyTool:

- Быстрый подбор инструментов -» многоступенчатая фильтрация, чтобы быстро находить нужный инструмент в любом наборе
- Самообучающаяся логика оркестрации -» система запоминает, какие инструменты реально работают, и со временем улучшает выбор
- Универсальное покрытие -» поддержка любых MCP-серверов, системных команд, GUI-автоматизации и не только

Одна строка кода и у любого агента появляется умная оркестрация с любыми инструментами. По сути, разрозненные пайплайны с кучей инструментов сводятся к одному API-вызову.

Пробуйте и делитесь фидбеком. 🎁
Please open Telegram to view this post
VIEW IN TELEGRAM
119🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Представили HyperBookLM, новую опенсорс платформу, основанную на NotebookLM, с интегрированными веб-агентами.

Просто загрузите URLs, PDF и TXT файлы и:

--» Задавайте вопросы по всем источникам
--» Создавайте структурированные майнд-карты
--» Экспортируйте в слайды одним кликом
--» Генерируйте аудио-сводки, которые можно прослушать

Открытый код и на базе Hyperbrowser.

Получите API-ключ Hyperbrowser здесь
21👍6🔥2
FreeCodeCamp выпустили полноценный курс по n8n - почти 4 часа контента.

В курсе разбирают:

- создание AI-агентов
- автоматизацию реальных процессов
- отправку писем и построение флоу с OpenAI
- деплой в Cloud, Docker и другие окружения

Забираем здесь 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
👍448🔥6
Xiaomi представила MiMo-V2-Flash, новую опенсорс MoE-модель, для агентных сценариев и быстрого инференса.

Архитектура включает 309B параметров, из которых 15B активны на шаг, что позволяет сочетать производительность моделей уровня топовых моделей с заметно меньшей задержкой.

Модель использует гибридное внимание: схема 5:1 с чередованием 128-оконного SWA и Global Attention, поддержка контекста до 256K токенов. По результатам бенчмарков MiMo-V2-Flash сопоставима с DeepSeek-V3.2 на общих задачах, но работает быстрее.

Отдельно отмечены результаты на SWE-Bench:

73.4% на SWE-Bench Verified
71.7% на SWE-Bench Multilingual — новый SOTA среди опенсорс моделей

Скорость генерации достигает 150 токенов/с, при этом модель получила Day-0 поддержку от lmsys.

MiMo-V2-Flash уже доступна:

-» модель на Hugging Face
-» технический отчет с деталями архитектуры
блог-пост команды
AI Studio для тестирования

Есть бесплатный доступ по API до конца года (потом - $0,1 за млн. входных токенов и $0,3 за млн. выходных).
👍123