Вайб-кодинг – Telegram
Вайб-кодинг
26.9K subscribers
1.54K photos
535 videos
30 files
744 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://news.1rj.ru/str/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Знакомься: PDF-Extract-Kit 1.0. Возможно, твой новый лучший друг 😂

Это ONNX-модель, заточенная превращать кривые PDF в чистые, пригодные к использованию данные.

Что с этим можно делать? Автоматизировать обработку инвойсов, вытаскивать данные исследований из статей, загонять контракты в базы, или собирать поисковики по документам. Это специализированная модель для экстракшена, которая умеет работать с кривыми лэйаутами и форматированием

Формат ONNX позволяет деплоить где угодно, а safetensors дает безопасную загрузку модели
Please open Telegram to view this post
VIEW IN TELEGRAM
1
VulnLLM-R-7B: это первая reasoning-LLM, которую делали специально под поиск багов как у пентестера.

Специализированная reasoning-модель, натренированная отслеживать data/control flow и объяснять уязвимости простым языком.

VulnLLM-R-7B находит уязвимости, прогоняя рассуждение по data и control flow, а не просто по сигнатурам и паттернам.

Обгоняет CodeQL на бенчмарках, коммерческие LLM и классические сканеры.

Пошаговый анализ:

▪️глубокое рассуждение на уязвимостях
▪️объясняет, ПОЧЕМУ код рискованный

Обходит большие коммерческие модели и статические инструменты.

SOTA-результаты на PrimeVul, Juliet.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Появился постоянный контекст-слой поверх кодинг-агента: OneContext

Этот OneContext дает агенту самому управлять своим контекстом. Под капотом это файловая система + Git + граф. Такая схема позволяет даже “модели второго эшелона” напрямую обгонять GPT/Claude. Подробности в опубликованных работах:

- Agentic Reasoning: читать
- Git Context Controller: читать

Этот контекст можно бесшовно подгружать в разные сессии, на разные устройства, между разными Codex / Claude Code. Фокус именно на контексте, а не на рабочей директории или конкретной модели.

Как пользоваться:

1. В OneContext как обычно запускаешь Claude Code или Codex, он автоматически собирает историю и контекст в постоянно живущий context layer.
2. В рамках того же контекста поднимаешь нового агента, и он сразу читает всю прошлую историю.
3. Шаришь этот контекст ссылкой другому человеку, и он может продолжить работу в абсолютно таком же контексте.

Установка:

npm i -g onecontext-ai
This media is not supported in your browser
VIEW IN TELEGRAM
Новый пасхальный прикол в Claude, лол.

Если случайно набрать --dangerously-skip-persimmons вместо --dangerously-skip-permissions, происходит вот это 🍊
Please open Telegram to view this post
VIEW IN TELEGRAM
Monty: безопасный Python-рантайм вместо контейнеров

Pydantic выкатили Monty. Это интерпретатор Python, написанный на Rust, который позволяет агентам безопасно выполнять код за микросекунды.

Никаких контейнеров. никаких sandbox-ов. никакой задержки.

100% open source. 👏
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
AgentCraft теперь поддерживает Agent Teams от Сlaude

Внутрянку еще допиливают, но v1 релизнется на этой неделе 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
3
gpt 5.3 codex
gpt 5.3 codex low
gpt 5.3 codex low fast
gpt 5.3 codex mini
gpt 5.3 codex max high
gpt 5.3 codex max low
gpt 5.3 codex max extra high
gpt 5.3 codex max medium fast
gpt 5.3 codex max high fast
gpt 5.3 codex max low fast
gpt 5.3 codex max extra high fast
Как не дать Claude Code запускать опасные git-команды? 😎

Секрет простой: hooks.

Поэтому, Matt Pocock (автор Total TypeScript, AI Hero; ex-Vercel), собрал skill, который гарантированно не даёт Claude Code выполнять опасные git-команды. Добавляется через npx skills add:

npx skills add mattpocock/skills/git-guardrails-claude-code


Claude проведёт тебя по настройке: выберешь, ставить его только для текущего проекта или глобально для всех проектов, а потом настроишь, какие git-команды нужно блокировать.

По умолчанию skill блокирует такие опасные паттерны:

git push (все варианты, включая --force)
git reset --hard
git clean -f / git clean -fd
git branch -D
git checkout . / git restore


Забрать можно тут
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Плагин Firecrawl теперь доступен в официальном маркетплейсе Anthropic 🔌

Можно скрейпить отдельные страницы, обходить целые сайты, строить карту структуры и искать по сети. Встроены автоподгрузка/рендеринг JavaScript, обход антибота и ротация прокси.

В плагин также входит AI-агент для автономного сбора данных из нескольких источников. Просто опиши, какие данные нужны, обычным текстом, и агент сам найдёт, перейдёт и извлечёт информацию с разных сайтов. URL указывать не обязательно
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Всё, что ты делаешь в Obsidian, теперь можно делать из командной строки.

Obsidian 1.12 получил CLI (ранний доступ)

Obsidian CLI это интерфейс командной строки, который позволяет управлять Obsidian из терминала для скриптов, автоматизации и интеграции с внешними инструментами

Плюс там есть девелоперские команды: открыть devtools, инспектить элементы, делать скриншоты, перезагружать плагины и многое другое. CLI открывает доступ для OpenClaw, OpenCode, Claude Code, Codex и любых других AI-агентов
1
Claude умеет кодить, но сможет ли он проверять исполняемые бинарники? 💚

Парни дали AI-агентам доступ к Ghidra (декомпилятор от NSA) и поставили задачу искать скрытые бэкдоры в серверах, работая только с бинарниками, без какого-либо доступа к исходникам.

AI-агенты действительно способны находить некоторые спрятанные бэкдоры в бинарях. Но до прода этот подход пока не дотягивает. Даже лучшая модель, Claude Opus 4.6, находила относительно очевидные бэкдоры в небольших и средних бинарниках только в 49% случаев. Хуже того, у большинства моделей высокий false positive rate: они помечали чистые бинарники как зараженные.

В этом посте разбираются несколько недавних историй из безопасности, что такое бинарный анализ и как строят бенчмарк для AI-агентов. Посмотрим, где они справляются, а где проваливаются.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
я, наблюдающий, как Claude Code запускает рой агентов, чтобы написать код за меня
13
This media is not supported in your browser
VIEW IN TELEGRAM
В Gemini CLI представили настройки для расширений

Теперь расширения Gemini CLI могут объявлять настройки (API keys, base URL, project ID и т.д.), которые пользователь будет вводить прямо при установке, чтобы расширение получало ровно то, что ему нужно, и работало сразу после установки.
Представили GLM-5

GLM-5 заточен под инженерку сложных систем и агентные задачи с длинным горизонтом. По сравнению с GLM-4.5 он масштабируется с 355B параметров (32B активных) до 744B (40B активных), а объем pre-training данных вырос с 23T до 28.5T токенов.

По их внутреннему набору оценок CC-Bench-V2, GLM-5 заметно обгоняет GLM-4.7 в задачах по фронтенду, бэкенду и long-horizon сценариях, сокращая разрыв с Claude Opus 4.5.

На Vending Bench 2 GLM-5 занимает №1 среди open-source моделей, завершив прогон с итоговым балансом аккаунта $4,432. По качеству он подбирается к Claude Opus 4.5, показывая сильное долгосрочное планирование и управление ресурсами.

- Max-план: GLM-5 можно включить уже сейчас, просто обновите имя модели на "GLM-5" (например, в ~/.claude/settings.json для Claude Code).
- Остальные тарифы: поддержка будет добавляться поэтапно по мере расширения роллаута.
-- По квоте: запросы к GLM-5 съедают больше лимита плана, чем GLM-4.7.

Веса доступны на ModelScope
3
This media is not supported in your browser
VIEW IN TELEGRAM
Управляй агентами как в RTS: AgentCraft v1 уже вышел

Пока ранняя версия. Сырая. Но юзабельна.

▪️все твои агенты в одном месте (начиная с Claude Code). Видишь, как они работают, запускаешь новых и управляешь их жизненным циклом.
▪️интерфейс, который позволял управлять 200 юнитами, теперь готов для AI. RTS-мышечная память
▪️подсказки квестов помогают фокусироваться на конкретно важном

Простая установка автоматически интегрируется с твоими агентами, где бы они ни были.

npx @idosal/agentcraft


Сейчас AgentCraft оркестрирует агентов от Сlaude. В планах добавить поддержку Opencode
Please open Telegram to view this post
VIEW IN TELEGRAM
Теперь можно гонять модель на 16B параметров на дефолт железе

LLaDA 2.1-mini использует здоровенную Mixture-of-Experts (MoE) архитектуру, но на каждом шаге активирует только 1.4B параметров.

В итоге получаете вычислительную мощность большой модели со скоростью и объемом VRAM маленькой модели.

→ 16B всего параметров (большая база знаний)
→ 1.4B активных параметров (очень быстрый инференс)
→ 32k контекст (жирный апгрейд для длинных документов)

Высокая производительность. Низкие затраты на вычисления.

100% open source, huggingface
This media is not supported in your browser
VIEW IN TELEGRAM
Сделали CLI, который перед отправкой в App Store прогоняет твоё iOS-приложение по всем гайдлайнам App Store.

Он проверяет:

» соответствие правилам по платежам и IAP
» privacy manifests и декларации использования данных
» обязательные флоу логина и управления аккаунтом
» “готовность” приложения и качество метаданных
» валидацию бинарника и ennoscriptment-ов

Упаковали это как skill для Claude Code, чтобы он сам правил все найденные косяки. Сканируешь, фиксишь, повторяешь, пока не начнёт проходить.

Полностью открытый исходный код, форкните, добавьте в избранное, дополняйте 🙈
Please open Telegram to view this post
VIEW IN TELEGRAM
4
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI релизнули GPT-5.3-Codex-Spark, это их сверхбыстрая модель, заточенная под real-time кодинг.

Они выкатили её как research preview для пользователей ChatGPT Pro в Codex app, Codex CLI и IDE-расширении.

GPT-5.3-Codex-Spark это первая веха в их партнёрстве с Сerebras.

Она даёт более быстрый tier на том же продовом стеке, что и остальные их модели, дополняя GPU для задач, где критична низкая задержка.

Codex будет становиться ещё быстрее.

Они улучшили стриминг ответов, ускорили инициализацию сессий и переписали ключевые части inference-стека.

Эти улучшения раскатятся на все модели в Codex в ближайшие несколько недель.

Сейчас Codex-Spark только текстовый и с контекстным окном 128k.

Они добавят больше возможностей, включая более крупные модели, более длинный контекст и мультимодальный ввод, по мере того как будут учиться на первом продовом деплое low-latency инфраструктуры и железа.
Также у MiniMax вышел M2.5:

▪️SOTA по кодингу (SWE-Bench Verified 80.2%), поиску (BrowseComp 76.3%), agentic tool-calling (BFCL 76.8%) и офисным задачам.
▪️на сложных задачах работает на 37% быстрее.
▪️При цене $1 в час и скорости 100 tps становится экономически “бесконечно” масштабировать long-horizon агентов.

MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
Please open Telegram to view this post
VIEW IN TELEGRAM