Вайб-кодинг – Telegram
Вайб-кодинг
13.6K subscribers
1.46K photos
474 videos
30 files
631 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Forwarded from Айти мемы
🎧🎧🎧
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Режим Plan в Claude Code долго недооценивали, а теперь он стал ещё лучше.

Он заметно повышает шанс получить нужный результат с первого раза. Меньше итераций, меньше микроменеджмента, итого итоговый результат лучше.

Попробуй: Shift + Tab дважды.

Теперь Plan Mode поднимает сразу несколько саб-агентов, которые параллельно изучают кодовую базу и генерируют планы с разных точек зрения. После этого он задаёт уточняющие вопросы, прежде чем выбрать стратегию.

Итог — более продуманный и полный план ещё до того, как Claude напишет хоть одну строку кода.

Пример: когда автор разрабатывал UX для multi-subagent режима (который ты видишь в видео), Claude создал два плана - один быстрый и хакающий проблему, второй более чистый и архитектурный. Главный агент совместил оба подхода, учитывая запрос, и выдал реально хорошее решение.

Вот в такие моменты Plan Mode раскрывается лучше всего.

Теперь Claude сохраняет plan-файлы в файловой системе, и ты можешь редактировать их через /plan open. Все изменения автоматически синхронизируются с контекстом Claude, так что если план не идеален, то можешь дотюнить его под себя.

Совет: можно включить Plan Mode по умолчанию через /config. 😐

Подробнее: тык
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Серьезный прорыв.

Кто-то наконец пофиксил почти все главные проблемы Jupyter Notebook.

Формат .ipynb застрял в 2014 году. Он создавался для другого времени, т.е. без облачной совместной работы, без AI-агентов и без нормальных командных процессов.

Меняешь одну ячейку и в git diff улетает 50+ строк бесполезного JSON-мусора. Код-ревью превращается в клоунаду. 😬

Хочешь расшарить одно подключение к базе между ноутбуками? Настраивай отдельно в каждом. Нужны комментарии или права доступа? Удачи.

Jupyter ок для соло-аналитики, но разваливается, когда команда строит продакшн-системы с AI.

Deepnote только что открыл исходники решения (Apache 2.0).

Они сделали новый стандарт ноутбуков, который реально подходит современным рабочим процессам:

→ Читаемый YAML. В diff отображаются реальные изменения, а не тонны JSON. Нормальные код-ревью наконец возможны.
→ Проектная структура. Несколько ноутбуков могут делить интеграции, секреты и настройки окружения. Один раз настроил = везде работает.
→ 23 новых блока. SQL, интерактивные инпуты, графики и KPI как полноценные элементы. Можно строить дата-приложения, а не просто аналитические ноутбуки.
→ Поддержка нескольких языков. Python и SQL в одном ноутбуке. Современная работа с данными давно не в одном языке.
→ Полная обратная совместимость. Любой Jupyter ноутбук можно сконвертировать в Deepnote и обратно одной командой:

npx @deepnote/convert notebook.ipynb


После этого можно открыть его в VS Code, Cursor, WindSurf или Antigravity. Миграция занимает секунды.

Облачная версия добавляет совместное редактирование в реальном времени, комментарии, права доступа и лайв-коллаб.

И это полностью open-source
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft. Google. AWS.

Все пытаются решить одну и ту же задачу для AI-агентов:

Как построить графовые базы знаний, достаточно быстрые для LLM-приложений в реальном времени?

FalkorDB это open-source графовая база данных, которая решает эту задачу, переосмыслив принцип работы графов. Она использует разреженные матрицы и линейную алгебру вместо классической обходной модели.

Разберем, почему она такая быстрая.

Обычные графовые базы данных хранят связи как связанные узлы и обходят граф по одному шагу.

Но тут возникает проблема.

Когда ты выполняешь запрос на поиск связей, база данных проходит через узлы и ребра примерно как по карте. В огромных графах знаний, используемых AI-агентами, это создает серьезное узкое место по производительности.

А что если представить весь граф как математическую структуру?

Здесь появляются разреженные матрицы.

Разреженная матрица хранит только существующие связи. Никаких лишних данных, никаких пустых ячеек. Только реальные отношения между объектами.

И вот ключевой момент:

Когда граф представлен как разреженная матрица, запросы можно выполнять через линейную алгебру вместо обхода. Запрос превращается в математическую операцию, а не в пошаговый проход узлов.

Математика быстрее обхода. Намного быстрее.

Плюс разреженные матрицы делают хранение невероятно эффективным. Ты хранишь только то, что существует, поэтому огромные графы знаний можно держать в памяти, не сжигая ресурсы.

Почему бы тогда просто не использовать Vector Search?

Vector Search действительно быстрый, но он работает только с наивным сходством. Он находит похожие объекты, но теряет структуру.

Графы фиксируют сложные связи между сущностями. Это дает AI-агенту контекст, который точнее и релевантнее, а не просто похож по смыслу.

Что дает FalkorDB:

↳ Очень быстрая многопользовательская графовая база
↳ Эффективное хранение через sparse matrix
↳ Совместимость с OpenCypher (тот же синтаксис, что у Neo4j)
↳ Спроектирована специально под LLM-приложения и память агентов
↳ Работает поверх Redis, упрощая деплой

Старт занимает одну Docker-команду. Я протестировал Python-клиент и разница в производительности чувствуется сразу.

Если ты делаешь AI-агентов, которым нужен доступ к связанным данным в реальном времени, стоит обратить внимание.

И что особенно приятно она полностью open-source.
Разработчики раскопали свежий репозиторий, который обещает превращать обычных кодеров в полноценных AI-инженеров.

Внутри собраны лучшие научные статьи, блоги и визуальные схемы по ключевым темам: архитектуры моделей, токенизация, RAG, MCP и еще куча того, что многие слышали, но руки так и не дошли изучить. 🖥
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Это от Apple. Модель с открытым доступом, которая в реальном времени описывает то, что видит.

Она называется FastVLM. Работает полностью локально прямо в браузере.

Зацени демо и офигеешь 😐😐

Демо: https://huggingface.co/spaces/apple/fastvlm-webgpu

Github: https://github.com/apple/ml-fastvlm
Please open Telegram to view this post
VIEW IN TELEGRAM
На GitHub есть опенсорсный инструмент под названием Continuous Claude, который позволяет запускать Claude Code в цикле для одной и той же задачи, и можно указать сколько раз он должен выполниться.

Если гонять Claude в цикле, он может автоматически создавать ветки, коммитить изменения, открывать PR, ждать пока все проверки пройдут, и потом мержить. Весь процесс идет без ручного участия.

Кроме того, инструмент использует общий Markdown-файл для сохранения контекста, так что каждая итерация понимает, что было сделано до этого.

Установить и запустить его можно через простые команды в терминале. Хороший вариант, если нужно обрабатывать большое количество повторяющихся задач в разработке. 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Разрабатывать приложения под Windows и добавлять туда AI-функции вроде распознавания изображений, генерации текста и прочего бывает долго и муторно, если настраивать модели и писать всё с нуля.

Поэтому Microsoft выложила в открытый доступ инструмент AI Dev Gallery. Он сделан специально для Windows-разработчиков и помогает быстро подключать модели и интегрировать разные AI-возможности.

Там есть больше 25 интерактивных примеров, которые покрывают работу с изображениями, текстом, голосом и другими задачами. Модели можно сразу просматривать и скачивать с Hugging Face и GitHub.

Каждый пример включает полный исходник на C#, и его можно экспортировать в самостоятельный проект Visual Studio одним кликом, чтобы дальше спокойно дорабатывать.

Установить можно через Microsoft Store или клонировать репозиторий и собрать проект в Visual Studio 2022 или новеe
This media is not supported in your browser
VIEW IN TELEGRAM
Этот open-source интерфейс для чатов переносит фичи ChatGPT и Claude.ai в любой LLM.

Можно использовать любую модель вместе с RAG, веб-поиском, MCP, deep research, code interpreter, кастомными командами и многим другим в одном месте.

Поддерживается self-hosting и развёртывание в изолированных средах.

Полностью открытый исходный код.
При работе с Claude Code иногда можно столкнуться с нестабильными API вызовами или лимитами, из-за чего генерация кода обрывается. Потом приходится вручную переключать API-ключи и перезапускать CC, что довольно утомляет.

Поэтому один разработчик выложил на GitHub open-source инструмент для умного ротационного прокси для Claude Code — ccNexus.

У него удобный визуальный интерфейс для управления конфигурацией. Можно добавить несколько API-ключей и форматов (Claude, OpenAI, Gemini и другие.)

Если API-вызов в Claude Code падает, инструмент может автоматически переключиться на следующий ключ без перезапуска CC.

Также доступна статистика в реальном времени: количество запросов, ошибки, расход токенов - всё показывается наглядно в интерфейсе.

Достаточно просто скачать исполняемый файл под свою систему и запустить. Никаких зависимостей ставить не нужно, все данные хранятся локально. 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
1
В разработке появился новый полезный инструмент для навигации по большим кодовым базам. Open-source проект mgrep предлагает более умный способ искать логику в проекте = вместо точных ключевых слов можно использовать обычный человеческий запрос.

Инструмент понимает смысл поиска с помощью семантической модели и способен находить нужные фрагменты не только в коде, но и в PDF, изображениях и других файлах. mgrep также умеет индексировать проект в фоновом режиме и интегрируется с AI-инструментами вроде Claude Code и Codex, при этом уменьшая расход токенов. 🤓

Установить его можно через npm, а команда mgrep watch запускает индексацию проекта.
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вдруг пропустил: в начале недели Anthropic пофиксили одну из самых бесящих проблем на Claude.ai — упирание в лимит контекста посреди диалога. 😡

Теперь Claude сам умно сжимает ранние сообщения, когда ты начинаешь подходить к лимиту, так что диалог не обрывается и можно спокойно продолжать чат.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Claude Scientific Skills.

Сделай из Claude полноценного AI-ассистента для исследований, который умеет выполнять сложные многошаговые научные процессы — от математики до биологии, химии, медицины и других областей.

Полностью open source. Уже доступно больше 123 навыков. 🌟

https://github.com/K-Dense-AI/claude-scientific-skills
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже, Anthropic нашли что-то, что позволило Claude Opus сильно прокачаться. 🚬

Он не просто работает заметно лучше, чем Sonnet 4.5, но ещё и стоит в два раза дешевле. Почти парадокс, но Anthropic явно сделали серьёзный рывок внутри компании.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Ещё Anthropic завезли продвинутый tool-use для Claude. Теперь Claude может:

Находить нужные инструменты по запросу
Запускать их через Python-код
Учиться на примерах использования


Это довольно серьёзный шаг для построения масштабируемых AI-агентов.

https://anthropic.com/engineering/advanced-tool-use
Когда используешь ИИ для разработки, самая сложная часть обычно не в том, чтобы писать код, а в том, чтобы заставить ИИ строго соблюдать существующие инженерные стандарты команды, а не генерировать что попало каждый раз.

Недавно наткнулся на open-source проект Compounding Engineering Plugin. Он предлагает довольно жёсткий рабочий цикл Plan-Work-Review, который помогает делать так, чтобы каждая итерация разработки с участием ИИ улучшала качество кода, а не плодила техдолг.

Это не просто память или сохранение контекста. На этапе Plan плагин глубоко анализирует кодовую базу, выявляет паттерны и генерирует подробный issue. Дальше разработка происходит в изолированной среде (worktree), а затем результат проходит ревью сразу более чем у 10 специализированных агентов.

Самая интересная часть.. это механизм Review. Там есть такие агенты, как security-sentinel (безопасность) и performance-oracle (производительность). Они ведут себя как опытные инженеры и буквально устраивают полноценную проверку кода. 🤙
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Gemini (слева) vs ChatGPT vs Claude (справа)

Промпт:

Создай интерактивную симуляцию на HTML, CSS и JavaScript спутниковой системы, которая передает сигналы на наземные приёмники.

Симуляция должна показывать спутник, вращающийся вокруг Земли и периодически отправляющий сигналы, которые принимаются несколькими наземными станциями.

Учти реалистичные факторы: задержка сигнала в зависимости от расстояния, периодические потери сигнала из-за помех или препятствий и визуализацию траектории сигнала в виде линий или волн.

Позиция спутника должна обновляться с использованием упрощённой орбитальной механики, а наземные приёмники должны отображать уровень принятого сигнала и таймстемпы.
OpenAI планирует скоро начать тестировать рекламу в ChatGPT — в последней сборке для Android появились строки, связанные с рекламой.

Скорее всего, это будет ограничено только поисковой рекламой. Есть большая вероятность, что всё будет работать на той же инфраструктуре, что и Bing Ads. 🚬
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Perplexity Comet реально крутая штука, если попасть в нужный сценарий. Я использую её для разных задач, и одна из них — попросить Comet прогнать тесты API через Postman после разработки.

Дашь ей достаточно контекста про payload и остальную инфу, дальше она всё делает сама.

Что она сделала:

- сгенерировала несколько payload-вариантов под разные тесты
- после полного прогона выдала финальный отчет

Очень круто. Арвинд, респект.

https://www.perplexity.ai/comet
Телеграм запустил Cocoon — децентрализованную вычислительную сеть для будущих AI-инструментов.

Похоже, скоро в Telegram появятся AI-фичи 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM