Вайб-кодинг – Telegram
Вайб-кодинг
13.6K subscribers
1.47K photos
478 videos
30 files
642 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Теперь в ChatGPT можно общаться с приложениями

Вы уже можете начинать разрабатывать и тестировать приложения в ChatGPT с помощью предварительной версии Apps SDK, которую OpenAI выпустили сегодня как открытый стандарт, основанный на MCP.
👍1
Как RAG позволяет использовать ИИ для ваших данных. Начало

Читать: https://blog.bytebytego.com/p/how-rag-enables-ai-for-your-data
This media is not supported in your browser
VIEW IN TELEGRAM
Разработчик, активно использующий терминал, отметил отсутствие удобной функции поиска команд с помощью Cmd+K. Чтобы восполнить этот пробел, он создал простой алиас с помощью droid exec, позволяющий запускать команды естественным языком:

$ d kill anything on port 3000
$ d clear all laravel caches


Используется модель GLM 4.6, хотя автор надеется на более быструю версию.

Гист с функциями для добавления в терминал доступен здесь: https://gist.github.com/iannuttall/d44907230f3c909173db7d15f8dccdc2
Традиционные RAG-системы сталкиваются с проблемой хранения.

Большинство заранее делят документы на чанки, но что если делать это только тогда, когда документ действительно нужен?

Именно это реализует Chunk-On-Demand в Elysia, решая большую проблему, с которой сталкивалось сообщество.

Как работает Chunk-On-Demand:

На первом этапе поиск использует векторы на уровне документа для общего обзора.

Если документ превышает порог по токенам и оказывается релевантным запросу, Elysia динамически делит его на чанки.

Эти чанки сохраняются в отдельной, квантованной коллекции с перекрёстными ссылками на исходные документы.

При последующих похожих запросах система может использовать уже созданные чанки, повышая эффективность с течением времени.

Преимущества: снижение расходов на хранение при сохранении или даже улучшении качества поиска.

Попробовать Chunk-On-Demand можно в демо Elysia:
https://elysia.weaviate.io

Больше о создании Elysia читайте в блоге
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code теперь работает с любым локальным LLM

Появился простой инструмент, который позволяет запускать Claude Code на любом локальном LLM. Полный демо-стек: vLLM обслуживает GLM-4.5 Air на 4× RTX 3090, Claude Code генерирует код и документацию через прокси, всё в одном Python-файле с .env, а nvtop показывает нагрузку на GPU в реальном времени.

Для теста нужен GPU
This media is not supported in your browser
VIEW IN TELEGRAM
Один разработчик создал открытый проект Site-to-RAG — инструмент, который превращает любой сайт в данные, готовые для RAG

Просто вставь URL, и инструмент за секунды выдаст чистые, структурированные фрагменты текста с тегами для ссылок и учетом бюджета токенов. Идеально подходит для обучения AI-моделей без ручной подготовки данных.

https://github.com/hyperbrowserai/examples/tree/main/site2rag
Media is too big
VIEW IN TELEGRAM
Google представил расширения для Gemini CLI и одновременно запустил маркетплейс, где уже доступно более 70 расширений.

Расширения объединяют MCP-серверы, контекстные файлы и кастомные команды, чтобы «обучить» Gemini работать с любыми инструментами

Установить расширение можно командой: gemini extensions install <GitHub URL или локальный путь>
Google потряс мир.

Они решили кошмар с безопасностью кода, который десятилетиями мучил разработчиков.

Новый AI-агент DeepMind «Codemender» автоматически находит уязвимости в коде и исправляет их.

Уже выпущено 72 серьёзных исправления для крупных open-source проектов.

Это просто невероятно.

Больше никаких бесконечных поисков багов. Больше не нужно молиться, чтобы не пропустить что-то критичное.

Codemender тихо исправляет всё за вас.

Безопасность кода получила серьёзное обновление. 🔨
Please open Telegram to view this post
VIEW IN TELEGRAM
Новая AI-модель от Samsung, в 10 000 раз меньше, чем DeepSeek и Gemini 2.5 Pro, но уже превзошла их на ARC-AGI 1 и 2.

Tiny Recursive Model (TRM) примерно в 10 000 раз компактнее типичных LLM, но умнее, потому что мыслит рекурсивно, а не просто предсказывает текст. Сначала она делает черновой ответ, затем создаёт скрытую «рабочую тетрадь» для рассуждений, многократно критикует и улучшает свою логику (до 16 циклов), и на каждом цикле выдаёт более точный результат.

Этот подход показывает, что интеллект определяется архитектурой и циклом рассуждений, а не только размером модели. Он позволяет создавать мощные и эффективные модели, которые работают дешево, проверяют идеи нейросимволической обработки и делают высококачественное рассуждение доступным для большего числа приложений.

Гитхаб: https://github.com/SamsungSAILMontreal/TinyRecursiveModels
Подробнее: https://arxiv.org/pdf/2510.04871v1
Гугл только что опубликовал новый репозиторий на GitHub под названием “computer-use-preview”.

Это ранняя версия модели Computer Use на базе Gemini — агента, который может управлять браузером и выполнять задачи по простым текстовым инструкциям.

Вы можете попробовать её локально через Playwright или удалённо через Browserbase, используя Gemini Developer API или Vertex AI.

Проект открыт и распространяется по лицензии Apache 2.0.

https://github.com/google/computer-use-preview
This media is not supported in your browser
VIEW IN TELEGRAM
В 10 раз удобнее → чем GitHub для работы с pull request’ами.

Честно, ничего лучше Graphite для слияния кода я пока не видел.

Работать с агентом прямо внутри открытых PR → это вообще другой уровень: комментарии, обсуждения, правки и постоянная итерация в одном потоке.

Агент может объяснить, что делает конкретная строка кода.

Помогает закрывать комментарии.

Предлагает улучшения для PR.

Отмечает потенциальные риски и подсказывает, как их исправить.

Может сразу редактировать файлы и применять изменения.

UX у него просто делает GitHub.

Отдельное спасибо команде → за ранний доступ, поддержку 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
RIP fine-tuning ☠️

Похоже, ему действительно конец — новое исследование из Stanford всё перевернуло.

Называется Agentic Context Engineering (ACE), и его суть в том, что модель можно сделать умнее без единого изменения весов.

Вместо дообучения ACE развивает сам контекст.
Модель сама пишет, анализирует и переписывает собственный промпт, превращаясь в систему, которая обучает себя сама.

Представь, что модель ведёт растущую тетрадь заметок:
каждая ошибка превращается в стратегию,
каждый успех — в правило.

Результаты реально дикие:
→ на 10,6% лучше, чем GPT-4-агенты в AppWorld
→ на 8,6% лучше в финансовых задачах
→ на 86,9% дешевле и быстрее
→ без разметки, только на обратной связи

Все гонялись за «короткими и чистыми» промптами,
а ACE делает наоборот — строит длинные, эволюционирующие “плейбуки”, которые ничего не забывают.
И это работает, потому что LLM-ам нужна не простота, а плотность контекста.

Если технология масштабируется, следующая эпоха ИИ будет не “fine-tuned”, а self-tuned.

Эра живых промптов начинается. 👍

https://www.arxiv.org/abs/2510.04618
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Создан Sora MCP 🎬

Сервер может генерировать видео, делать ремиксы, проверять их статус и скачивать в любую выбранную папку.

https://github.com/Doriandarko/sora-mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic запустила Claude Code Plugins в открытой бете. Теперь можно устанавливать и делиться наборами slash-команд, агентов, MCP-серверов и хуков прямо внутри Claude Code.

Чтобы начать, добавь маркетплейс:

/plugin marketplace add user-or-org/repo-name


Затем можно просматривать и ставить плагины через меню /plugin

Попробуй рабочий процесс с несколькими агентами, который используют сами разработчики Claude Code:

/plugin marketplace add anthropics/claude-code
/plugin install feature-dev


Любой может разместить свой маркетплейс или плагин — достаточно git-репозитория с файлом
.claude-plugin/marketplace.json.

Подробнее: тык
Это лучший способ вырваться из «AI-цикла».

Когда агент застрял и вы крутитесь по кругу, просто попросите его:

- придумать 5 вариантов рефакторинга,
- оценить каждый,
- и выбрать самый надёжный.

Сработало с первого раза — после 20 минут борьбы с GPT-5 и Sonnet.
This media is not supported in your browser
VIEW IN TELEGRAM
Gitvizz превращает код в интерактивный граф

Новый инструмент Gitvizz решает вечную боль разработчиков —> разобраться в структуре чужого проекта.

Он мгновенно визуализирует репозиторий, показывая связи между файлами и модулями прямо в виде интерактивного графа.

Посмотреть можно на gitvizz.com
Этот репозиторий —> просто находка

В нём собраны практические туториалы по созданию AI-агентов, готовых к продакшену, с реальными кейсами и полным исходным кодом.

Плюс пошагово показано, как их деплоить.

https://github.com/NirDiamant/agents-towards-production
Media is too big
VIEW IN TELEGRAM
Google только что выкатил секретное оружие для разработчиков.

Теперь можно собирать AI-приложения за минуты.

→ Установи расширение Genkit для Gemini CLI.
→ Оно само генерирует воркфлоу.
→ Читает трейсы и само фиксит код.
→ Всё это бесплатно и с открытым исходником.

В 2025 году скорость — твое единственное преимущество.
This media is not supported in your browser
VIEW IN TELEGRAM
Собери мультимодальную команду UI/UX-агентов на Google ADK и Gemini 2.5 Flash Nano Banana.

Просто загрузи скриншот лендинга — агенты проанализируют дизайн, дадут экспертный фидбек и сгенерируют улучшенную версию.

100% open source код.

Пошаговое руководство с открытым исходным кодом
This media is not supported in your browser
VIEW IN TELEGRAM
Отличные новости для пользователей Netlify 🔥

Теперь в Netlify появились AI Agent Runners — агенты, которые позволяют исправлять, обновлять и деплоить код прямо из панели управления, просто вводя текстовые команды.

Поддерживаются Claude, OpenAI и Gemini.

По умолчанию система создаёт preview изменений, и когда всё готово — можно в один клик выкатить их в прод.

В демо я заменил всего одну фразу — с “Showing our” на “Check our”, чтобы показать, насколько это работает плавно
Please open Telegram to view this post
VIEW IN TELEGRAM