Вайб-кодинг – Telegram
Вайб-кодинг
13.6K subscribers
1.46K photos
475 videos
30 files
638 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Китай выкатил новый open-source LLM, который обошёл Claude 4 Sonnet.

Alibaba выпустила 30-миллиардную агентную модель, показавшую state-of-the-art результаты на Humanity’s Last Exam и других бенчмарках для агентных систем.

Самое впечатляющее - активируется всего 3.3B параметров на токен.
Microsoft открыла исходники MarkItDown - универсального Python-инструмента для конвертации файлов в Markdown

—> Он конвертирует PDF, Word, Excel, PPT, HTML, JSON, XML, EPUB, изображения (OCR), аудио (ASR), ZIP, YouTube — идеально для LLM

Советую заценить, если хочешь быстро превращать любые файлы в Markdown
Gemini Tip:

Есть модели Gemini Pro и Flash для Text-to-Speech (TTS), которые умеют генерировать речь в 30 разных голосах и понимают подсказки про стиль, тон, акцент и темп.

Вот как это сделать (Flash TTS доступен даже на бесплатном тарифе):

from google import genai
import wave

client = genai.Client()

response = client.models.generate_content(
model="gemini-2.5-flash-preview-tts",
contents="Say cheerfully: Good morning to all vibe coders!",
config={
"response_modalities": ["AUDIO"],
"speech_config": {
"voice_config": {
"prebuilt_voice_config": {
"voice_name": "Kore", # 30 voice options
}
}
}
}
)

data = response.candidates[0].content.parts[0].inline_data.data

with wave.open("output.wav", "wb") as wf:
wf.setnchannels(1)
wf.setsampwidth(2)
wf.setframerate(24000)
wf.writeframes(data)


доки по созданию речи: клик
This media is not supported in your browser
VIEW IN TELEGRAM
Разработчик выложил в open source более 90 проектов по AI-инженерии

Инженер под ником patchy631 поделился внушительной коллекцией из более чем 90 open source-проектов, связанных с AI-агентами, RAG, MCP и контекстной инженерией.

По словам автора, лучший способ освоить создание AI-агентов:

не читать блоги и не смотреть видео, а писать код и собирать всё с нуля.


Проекты уже собрали свыше 18 тысяч звёзд на GitHub.
5 практических советов по Context Engineering (применимо к Google DeepMind Gemini):

1. Порядок контекста имеет значение: старайтесь использовать «append-only» контекст, тоесть добавлять новую информацию в конец. Это увеличивает попадания в кэш и снижает стоимость (в ~4 раза) и задержки.

2. Управляйте инструментами статично: не меняйте порядок или доступность инструментов в процессе задачи без необходимости. Это может сломать кэширование контекста и запутать модель, если в истории есть вызовы инструментов, которые больше не определены.

3. Используйте внешнюю память: явно или неявно записывайте контекст/цели во внешнее хранилище, чтобы избежать потери информации. Типичная задача в Manus требует примерно 50 вызовов инструментов в среднем.

4. Повторяйте цели, чтобы не потеряться: периодически заставляйте модель проговаривать свои цели, чтобы основная задача оставалась в её недавнем окне внимания.

5. Принимайте ошибки: сохраняйте сообщения об ошибках в контексте. Это даёт модели возможность учиться на ошибках и не повторять их.
У Microsoft с open source прямо любовь 😎

Выпустили Agent Lightning для оптимизации multi-agent систем.

Работает с популярными фреймворками для агентов. Почти ничего переписывать не нужно.

Поддерживает разные штуки: RL, автоматическую оптимизацию промптов, supervised fine-tuning и другое.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Google выкатил Pomelli. Новый маркетинговый AI-агент на Google Labs. Он может проанализировать твой бренд и сгенерировать готовую маркетинговую кампанию.

Сейчас доступен в США, Канаде, Австралии и Новой Зеландии.

Вообще штука выглядит круто. Я прям рад. Нужно запускать рекламу, а времени разбираться с этим добром вовсе нет. Буду плотно тестить.
Codex pro tip:

Добавь это правило в AGENTS.md, когда он начинает путаться с командами в песочнице, чтобы заставить его спрашивать разрешение.

(Я устал разбираться, почему он не может добавить или закоммитить файлы 🚑)

---
Если команда в шелле падает с ошибкой failed in sandbox, используй инструмент запроса разрешения (with_escalated_permissions), чтобы сначала спросить у пользователя одобрения, а потом пробовать снова.
Please open Telegram to view this post
VIEW IN TELEGRAM
Cursor получил большой апдейт до версии 2.0 — теперь он с собственной моделью Composer.

Composer называют лучшей моделью, которая выполняет задачи всего за 30 секунд. А еще Cursor 2.0 позволяет запускать множество агентов параллельно, что очень удобно. Плюс обновили интерфейс, добавили встроенный браузер для тестирования и голосовой режим 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Jules теперь доступен как расширение для Gemini CLI! 🐙

Можно спокойно скидывать удалённые задачи по коду на Jules прямо из Gemini CLI, не блокируя терминал.

Примеры:
/jules добавь кнопку логина на главную
/jules обнови все зависимости до последних версий
/jules глянь статус моей последней задачи

анонс с подробностями
Please open Telegram to view this post
VIEW IN TELEGRAM
Новичкам в Claude Code бывает тяжело разобраться, с чего начать и какие команды реально нужны. Для этого есть Claude Code Cheat Sheet, это типа краткий, но толковый справочник с чёткой дорожкой обучения от простого к сложному.

10 уровней: установка, работа с командами, автоматизация, CI/CD, безопасность, использование в продакшне. Примеры, лучшие практики и ответы на частые вопросы. 🙂

Если хочешь быстро въехать в инструмент, то шпаргалка определенно пригодится.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Черт возьми, Hugging Face снова навалила золота 👍

Они выкатили бесплатный блог (практически КНИГУ), где без воды разбирают реальность разработки SOTA-моделей. Я не видел, чтобы какие-то лаборатории или исследователи так честно рассказывали о реальных решениях и нюансах в LLM-разработке. Это прямо сокровище.

Внутри более 200 страниц про предобучение, постобучение и необходимую инфраструктуру.

Пробежал взглядом по этому блогу, он чертовски подробный, как и их ultrascale playbook.

Читать тут:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Делитесь сессиями Claude Code одной командой

Выпущена версия v1.26.1 claude-code-templates, потому что часто нужно передавать работу прямо посреди сессии.

Команда:
npx claude-code-templates@latest --chats


- Все ваши сессии сгруппированы по чатам
- Можно скачать любую переписку

Как поделиться сессией:
- Передайте файл и добавьте его в проект
- Затем выполните:
claude "read @ chat-file.md and continue"


Или если вы в одном аккаунте, нажмите «Resume» —
там будет команда:
claude --resume session_id


Фича сделана, чтобы команда могла работать с общим контекстом, не теряя темп.
Media is too big
VIEW IN TELEGRAM
Разработчики нашли способ сделать работу с Claude Code в терминале куда удобнее. Появился опенсорсный тул под названием Claude Code Enhanced Statusline. Он выводит в строку статуса всё, что раньше приходилось выискивать вручную: стоимость запросов, состояние MCP-серверов, инфу по Git и тд

Фишка в том, что статус-бар полностью настраивается. Можно собрать из 18 модулей свой набор. С темами тоже порядок, три готовые и возможность сделать свою.

Разработчики хвастаются приростом скорости до 90 процентов благодаря кэшированию. Всё работает на macOS, Linux и Windows. Ставится одной кнопкой, так что попробовать просто.

Код и инструкции лежат на GitHub: github.com/rz1989s/claude-code-statusline
This media is not supported in your browser
VIEW IN TELEGRAM
Освой GitHub MCP Server меньше чем за 90 секунд

Вчера наткнулся на GitHub MCP Server прямо в VS Code и честно, офигел.

Можно создавать репозитории, управлять задачами, делать pull-request’ы и многое другое… не выходя из редактора.

На видео короткое демо, чтобы показать, как MCP Server от github может зарядить твой VS Code 🧠

VS Code реально выходит на новый уровень с этими MCP-серверами от разных инструментов и компаний :)
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Лайфхак для Cursor

Это прямо штука, которая меняет игру

Когда контекст подбирается к ~50%, просто напиши команду /summarize.

Экономит деньги и держит ответы модели чёткими.
LangChain показал Deep Agents CLI с памятью инструкций

Команда LangChain представила пример консольного инструмента Deep Agents CLI, построенного на их пакете deepagents. Это демонстрация того, как можно сделать разработческое приложение поверх нового фреймворка.

Главная фишка - память. CLI запоминает указания и советы, которые пользователь давал раньше, и может опираться на этот контекст дальше. По сути, это более «осознанный» помощник для разработки.

Проект пока небольшой, но хорошо показывает, как deepagents можно интегрировать в реальные сценарии: помощь с кодом, автоматизация рутинных задач, адаптация к стилю конкретного разработчика.

Видео и подробнее в блоге:
blog.langchain.com/introducing-deepagents-cli/
youtu.be/IrnacLa9PJc
AI снова лезет в трейдинг.

На GitHub открыли проект NOFX — это open source версия нашумевшей системы NOF1 для автоматической квантовой торговли. Под капотом большие модели вроде DeepSeek и Qwen. Они анализируют графики, ищут точки входа, открывают и закрывают сделки и потом сами разбирают свои ошибки.

Есть нормальный интерфейс с графиком доходности, позициями и объяснениями решений прямо в реальном времени. Работает с Binance, Hyperliquid и Aster DEX. Развернуть можно одной кнопкой через Docker.

Кому хочется поиграться с AI-трейдингом и посмотреть, как модели ведут себя на реальном рынке, можно заценить:

github.com/tinkle-community/nofx
This media is not supported in your browser
VIEW IN TELEGRAM
Все почему-то игнорят новую OCR-модель

Chandra от Datalab заняла топ в независимых бенчмарках и обогнала прежнего лидера dots-ocr.

Поддержка 40+ языков

Нормально тянет текст, таблицы, формулы

Я прогнал её на рукописном письме Рамануджана 1913 года.

Полностью open source
Во время разработки нам часто приходится постоянно дергать базу. Писать SQL вручную не особо удобно, а в сложных запросах с несколькими JOIN легко накосячить.

Мне случайно попался Conar, это опенсорсный инструмент для управления базами, который с помощью AI генерирует и оптимизирует SQL-запросы. Существенно ускоряет работу с базой.

Это десктопное приложение на Electron с простой и понятной UI. Можно подключить свои модели вроде Claude, ChatGPT или Gemini.

Сейчас поддерживается PostgreSQL, позже добавят MySQL и MongoDB. Данные подключения к базе можно шифровать и хранить в облаке, чтобы безопасно подключаться откуда угодно.

Есть готовые инсталляторы под Windows, macOS и Linux. Разработчики также могут собрать и дорабатывать проект локально.