Вайб-кодинг – Telegram
Вайб-кодинг
13.6K subscribers
1.46K photos
474 videos
30 files
632 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Появился новый агент на базе MiniMax-M2, и это уже не просто эксперимент.

Он работает быстро, дёшево и полностью локально, без отправки кода и данных в сторонние сервисы. По качеству он почти не уступает топовым закрытым моделям вроде Gemini и Claude, но при этом остаётся open-source.

Главное то, что его можно запускать в проде (на сервере, на edge-устройствах и даже в корпоративных on-premise средах). Латентность низкая, ресурсы нужны небольшие, а приватность сохраняется полностью.

Если раньше приходилось выбирать между качеством и контролем, то сейчас этот выбор почти исчез. Open-source агенты становятся реальной альтернативой закрытым API. MiniMax-M2 уже доступен бесплатно, а код и примеры выложены в открытом доступе.
Разрабатывать MCP-серверы, та ещё рутина 😒

На днях наткнулся на OpenMCP - опенсорсный all-in-one дебаггер MCP-серверов на GitHub.

В нём уже встроены Inspector и базовые функции MCP-клиента, так что можно тестировать ресурсы, инструменты и промпты прямо внутри плагина.

Есть интерактивный модуль для проверки работы с LLM, а ещё можно использовать его вместе с SDK, чтобы быстро превращать отлаженный MCP в полноценное Agent-приложение.

Проект дает удобную панель для управления проектом, умеет работать с несколькими моделями, поддерживает XML-схемы и ручной выбор инструментов.

Плагин работает в VSCode, Trae и Cursor. Есть подробная документация по установке и деплою.

Если ты часто работаешь с MCP, штука реально экономит время.
Please open Telegram to view this post
VIEW IN TELEGRAM
5
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь в Claude Code CLI можно ввести &, чтобы запустить задачу в фоне и телепортировать её в Claude Code Web.

Чтобы пользоваться фоновой обработкой, нужно настроить Claude Code в вебе и пройти онбординг. Работает только с GitHub-репами, подключёнными к веб-версии.

Заметка: переписка сохраняется, но есть баг — сообщения пока не отображаются на веб-стороне.
This media is not supported in your browser
VIEW IN TELEGRAM
Разработчик представил osgrep, локальный инструмент семантического поиска по коду, который понимает естественный язык, работает как CLI и плагин для Claude Code и не требует подписок или API-ключей.

Держать скорость просто:

Локальные эмбеддинги (mixedbread xsmall с квантованием)
LanceDB для хранения векторов
Tree-sitter для умного разбиения
И финальный reranking.


Все работает только на CPU.

Плагин для Claude Code помогает агенту не тратить тонны токенов на чтение огромных файлов ради одной функции.

osgrep делает retrieval, находит нужные логические блоки и передаёт Claude только нужный фрагмент.😎

Это открытый исходный код с лицензией Apache.

npm install -g osgrep
Please open Telegram to view this post
VIEW IN TELEGRAM
Профи-совет для Claude Code: добавь в system prompt строку :

«Контекст будет автоматически сжиматься по мере приближения к лимиту. Никогда не останавливай задачу из-за ограничений токенов. Всегда доводи её до конца, даже если бюджет почти исчерпан.» 


потому что у Claude есть склонность осторожничать с завершением задач, а такая инструкция позволяет выполнять их автономно и без ограничения по контексту.
This media is not supported in your browser
VIEW IN TELEGRAM
Мой любимый лайфхак:

1. находишь лекцию на YouTube
2. берёшь транскрипт через http://ytscribe.ai
3. вставляешь в Gemini с таким промтом:

Сгенерируй изображение. Преврати этот транскрипт в шпаргалку с основными тезисами и выведи финальный результат как изображение 9:16, созданное nano banana.

[ВСТАВЬ ПОЛНЫЙ ТРАНСКРИПТ]
4
This media is not supported in your browser
VIEW IN TELEGRAM
Еще один опенсорсный CLI-инструмент для AI-разработки — CodeMachine CLI. Суть простая, кидаешь сюда ТЗ или requirements-док, и он превращает это в продакшн-готовый рабочий код.

Внутри работает несколько специализированных AI-агентов, которые кооперируются и закрывают сразу весь цикл разработки - архитектура, код, тесты и деплой.

Можно миксовать модели вроде Claude и Gemini под одну задачу. Разные модули проекта могут писаться одновременно. Агент может трудиться часами или даже сутками над сложным проектом. Встроенные проверки качества и валидация, чтобы код был консистентным и надежным. Сохранение полного контекста проекта 🧃
Please open Telegram to view this post
VIEW IN TELEGRAM
Анджей Карпати выложил в опенсорс LLM Council — симулятор совета LLM, где несколько моделей с разными ролями спорят и выбирают лучший ответ на ваши вопросы

И всего за сутки проект уже собрал больше 2 тысяч звёзд на GitHub. 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic выпустили Claude Opus 4.5 — новый ТОП-1 в кодинге. Модель набрала 80,9% на SWE-бенче, это лучший результат по программированию среди всех ИИ.

При этом модель стала в три раза дешевле: всего $5 / $25 за 1 млн входных/выходных токенов. Правда, даже с пониженной ценой она остаётся примерно вдвое дороже Gemini 3 Pro.

Попробовать уже можно в Claude (только с подпиской)
Anthropic работает над новым процессом создания Skills, где сам Claude сможет генерировать Skill по описанию пользователя.
This media is not supported in your browser
VIEW IN TELEGRAM
Появился новый проект: AI Researcher

Это многоагентная система на базе Gemini 3, которая автономно запускает ML-эксперименты.

Ты просто задаёшь исследовательский вопрос, а дальше система сама:

- проектирует эксперимент
- поднимает отдельных агентов со своими GPU для выполнения задач
- пишет итоговую научную работу

И самое приятное.. проект с открытым исходником. 😜
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Айти мемы
🎧🎧🎧
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Режим Plan в Claude Code долго недооценивали, а теперь он стал ещё лучше.

Он заметно повышает шанс получить нужный результат с первого раза. Меньше итераций, меньше микроменеджмента, итого итоговый результат лучше.

Попробуй: Shift + Tab дважды.

Теперь Plan Mode поднимает сразу несколько саб-агентов, которые параллельно изучают кодовую базу и генерируют планы с разных точек зрения. После этого он задаёт уточняющие вопросы, прежде чем выбрать стратегию.

Итог — более продуманный и полный план ещё до того, как Claude напишет хоть одну строку кода.

Пример: когда автор разрабатывал UX для multi-subagent режима (который ты видишь в видео), Claude создал два плана - один быстрый и хакающий проблему, второй более чистый и архитектурный. Главный агент совместил оба подхода, учитывая запрос, и выдал реально хорошее решение.

Вот в такие моменты Plan Mode раскрывается лучше всего.

Теперь Claude сохраняет plan-файлы в файловой системе, и ты можешь редактировать их через /plan open. Все изменения автоматически синхронизируются с контекстом Claude, так что если план не идеален, то можешь дотюнить его под себя.

Совет: можно включить Plan Mode по умолчанию через /config. 😐

Подробнее: тык
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Серьезный прорыв.

Кто-то наконец пофиксил почти все главные проблемы Jupyter Notebook.

Формат .ipynb застрял в 2014 году. Он создавался для другого времени, т.е. без облачной совместной работы, без AI-агентов и без нормальных командных процессов.

Меняешь одну ячейку и в git diff улетает 50+ строк бесполезного JSON-мусора. Код-ревью превращается в клоунаду. 😬

Хочешь расшарить одно подключение к базе между ноутбуками? Настраивай отдельно в каждом. Нужны комментарии или права доступа? Удачи.

Jupyter ок для соло-аналитики, но разваливается, когда команда строит продакшн-системы с AI.

Deepnote только что открыл исходники решения (Apache 2.0).

Они сделали новый стандарт ноутбуков, который реально подходит современным рабочим процессам:

→ Читаемый YAML. В diff отображаются реальные изменения, а не тонны JSON. Нормальные код-ревью наконец возможны.
→ Проектная структура. Несколько ноутбуков могут делить интеграции, секреты и настройки окружения. Один раз настроил = везде работает.
→ 23 новых блока. SQL, интерактивные инпуты, графики и KPI как полноценные элементы. Можно строить дата-приложения, а не просто аналитические ноутбуки.
→ Поддержка нескольких языков. Python и SQL в одном ноутбуке. Современная работа с данными давно не в одном языке.
→ Полная обратная совместимость. Любой Jupyter ноутбук можно сконвертировать в Deepnote и обратно одной командой:

npx @deepnote/convert notebook.ipynb


После этого можно открыть его в VS Code, Cursor, WindSurf или Antigravity. Миграция занимает секунды.

Облачная версия добавляет совместное редактирование в реальном времени, комментарии, права доступа и лайв-коллаб.

И это полностью open-source
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft. Google. AWS.

Все пытаются решить одну и ту же задачу для AI-агентов:

Как построить графовые базы знаний, достаточно быстрые для LLM-приложений в реальном времени?

FalkorDB это open-source графовая база данных, которая решает эту задачу, переосмыслив принцип работы графов. Она использует разреженные матрицы и линейную алгебру вместо классической обходной модели.

Разберем, почему она такая быстрая.

Обычные графовые базы данных хранят связи как связанные узлы и обходят граф по одному шагу.

Но тут возникает проблема.

Когда ты выполняешь запрос на поиск связей, база данных проходит через узлы и ребра примерно как по карте. В огромных графах знаний, используемых AI-агентами, это создает серьезное узкое место по производительности.

А что если представить весь граф как математическую структуру?

Здесь появляются разреженные матрицы.

Разреженная матрица хранит только существующие связи. Никаких лишних данных, никаких пустых ячеек. Только реальные отношения между объектами.

И вот ключевой момент:

Когда граф представлен как разреженная матрица, запросы можно выполнять через линейную алгебру вместо обхода. Запрос превращается в математическую операцию, а не в пошаговый проход узлов.

Математика быстрее обхода. Намного быстрее.

Плюс разреженные матрицы делают хранение невероятно эффективным. Ты хранишь только то, что существует, поэтому огромные графы знаний можно держать в памяти, не сжигая ресурсы.

Почему бы тогда просто не использовать Vector Search?

Vector Search действительно быстрый, но он работает только с наивным сходством. Он находит похожие объекты, но теряет структуру.

Графы фиксируют сложные связи между сущностями. Это дает AI-агенту контекст, который точнее и релевантнее, а не просто похож по смыслу.

Что дает FalkorDB:

↳ Очень быстрая многопользовательская графовая база
↳ Эффективное хранение через sparse matrix
↳ Совместимость с OpenCypher (тот же синтаксис, что у Neo4j)
↳ Спроектирована специально под LLM-приложения и память агентов
↳ Работает поверх Redis, упрощая деплой

Старт занимает одну Docker-команду. Я протестировал Python-клиент и разница в производительности чувствуется сразу.

Если ты делаешь AI-агентов, которым нужен доступ к связанным данным в реальном времени, стоит обратить внимание.

И что особенно приятно она полностью open-source.
Разработчики раскопали свежий репозиторий, который обещает превращать обычных кодеров в полноценных AI-инженеров.

Внутри собраны лучшие научные статьи, блоги и визуальные схемы по ключевым темам: архитектуры моделей, токенизация, RAG, MCP и еще куча того, что многие слышали, но руки так и не дошли изучить. 🖥
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Это от Apple. Модель с открытым доступом, которая в реальном времени описывает то, что видит.

Она называется FastVLM. Работает полностью локально прямо в браузере.

Зацени демо и офигеешь 😐😐

Демо: https://huggingface.co/spaces/apple/fastvlm-webgpu

Github: https://github.com/apple/ml-fastvlm
Please open Telegram to view this post
VIEW IN TELEGRAM
На GitHub есть опенсорсный инструмент под названием Continuous Claude, который позволяет запускать Claude Code в цикле для одной и той же задачи, и можно указать сколько раз он должен выполниться.

Если гонять Claude в цикле, он может автоматически создавать ветки, коммитить изменения, открывать PR, ждать пока все проверки пройдут, и потом мержить. Весь процесс идет без ручного участия.

Кроме того, инструмент использует общий Markdown-файл для сохранения контекста, так что каждая итерация понимает, что было сделано до этого.

Установить и запустить его можно через простые команды в терминале. Хороший вариант, если нужно обрабатывать большое количество повторяющихся задач в разработке. 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Разрабатывать приложения под Windows и добавлять туда AI-функции вроде распознавания изображений, генерации текста и прочего бывает долго и муторно, если настраивать модели и писать всё с нуля.

Поэтому Microsoft выложила в открытый доступ инструмент AI Dev Gallery. Он сделан специально для Windows-разработчиков и помогает быстро подключать модели и интегрировать разные AI-возможности.

Там есть больше 25 интерактивных примеров, которые покрывают работу с изображениями, текстом, голосом и другими задачами. Модели можно сразу просматривать и скачивать с Hugging Face и GitHub.

Каждый пример включает полный исходник на C#, и его можно экспортировать в самостоятельный проект Visual Studio одним кликом, чтобы дальше спокойно дорабатывать.

Установить можно через Microsoft Store или клонировать репозиторий и собрать проект в Visual Studio 2022 или новеe
This media is not supported in your browser
VIEW IN TELEGRAM
Этот open-source интерфейс для чатов переносит фичи ChatGPT и Claude.ai в любой LLM.

Можно использовать любую модель вместе с RAG, веб-поиском, MCP, deep research, code interpreter, кастомными командами и многим другим в одном месте.

Поддерживается self-hosting и развёртывание в изолированных средах.

Полностью открытый исходный код.
При работе с Claude Code иногда можно столкнуться с нестабильными API вызовами или лимитами, из-за чего генерация кода обрывается. Потом приходится вручную переключать API-ключи и перезапускать CC, что довольно утомляет.

Поэтому один разработчик выложил на GitHub open-source инструмент для умного ротационного прокси для Claude Code — ccNexus.

У него удобный визуальный интерфейс для управления конфигурацией. Можно добавить несколько API-ключей и форматов (Claude, OpenAI, Gemini и другие.)

Если API-вызов в Claude Code падает, инструмент может автоматически переключиться на следующий ключ без перезапуска CC.

Также доступна статистика в реальном времени: количество запросов, ошибки, расход токенов - всё показывается наглядно в интерфейсе.

Достаточно просто скачать исполняемый файл под свою систему и запустить. Никаких зависимостей ставить не нужно, все данные хранятся локально. 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
1