Только что откопал годный инструмент: Gemini Design MCP. Это MCP-модуль,. Можно прикрутить куда угодно, где есть поддержка MCP, например Claude Code, чтобы прокачать дизайн.
Сценарий простой: пока Claude Code работает над логикой, он поднимает фоновый агент, который дергает этот MCP и улучшает фронт.
Глянуть можно тут✌️
Сценарий простой: пока Claude Code работает над логикой, он поднимает фоновый агент, который дергает этот MCP и улучшает фронт.
Глянуть можно тут
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Большой момент для тех, кто строит агентные системы.
В софте регулярно повторяется один и тот же паттерн.
Сначала все фокусируются на проблеме “как построить”.
Появляются фреймворки, они созревают и становятся реально хорошими. Потом вдруг бутылочным горлышком становится деплой.
Мы уже видели это с нейросетями.
PyTorch, TensorFlow и Caffe были отличны для сборки моделей. Но их деплой требовал возни с разными форматами и рантаймами.
ONNX позволил разработчикам собирать модель в любом фреймворке, экспортировать в стандартный формат и деплоить куда угодно.
Сейчас тот же паттерн разворачивается вокруг агентов.
Фреймворки вроде LangGraph, CrewAI, Agno и Strands уже достаточно зрелые, чтобы сборка агента перестала быть самой сложной частью.
Теперь самое сложное — то, что идет после: деплой, стриминг, управление памятью, наблюдаемость и авто-скейлинг.
Это уже не проблемы агента, а инфраструктуры. И прямо сейчас каждую из них команды решают вручную.
xpander берет подход ONNX для этой задачи, и это правильная ментальная модель.
Идея простая: привозишь своего агента (собранного на любом фреймворке), деплоишь через xpander и получаешь всю прод-инфраструктуру.
Что в комплекте:
• serverless деплой за ~2 минуты
• SSE стриминг для UX реального времени
• память на уровне сессии/пользователя
• 2000+ коннекторов (Slack, GitHub и другие)
• единый API для вызова любого агента, независимо от фреймворка
Unified API, вероятно, самая интересная часть.
По сути, любой задеплоенный агент (независимо от фреймворка) получает один и тот же endpoint для вызова, одну и ту же структуру payload, стриминг-формат и схему авторизации.
Фронтенду больше не нужно знать, на чем агент собран — на LangGraph, CrewAI или кастоме. Он просто бьет по endpoint и получает ответ.
Это важно, потому что во многих организациях разные команды собирают агентов на разных фреймворках — по предпочтениям и под задачи.
Без унифицированного слоя командам приходится поддерживать несколько паттернов интеграции и стримингов.
xpander же дает один API-контракт поверх каждого агента, так что потребляющее приложение не обязано знать, на чем агент собран.
Видео показывает unified API xpander в работе.
Можно расширить стандартный формат endpoint на любого агента, независимо от фреймворка, и получить одинаковый стриминг, память, наблюдаемость и скейлинг, не меняя ни строки интеграционного кода.
Сборка остается отделена от деплоя - так и должно быть.
100% исходный код👍
В софте регулярно повторяется один и тот же паттерн.
Сначала все фокусируются на проблеме “как построить”.
Появляются фреймворки, они созревают и становятся реально хорошими. Потом вдруг бутылочным горлышком становится деплой.
Мы уже видели это с нейросетями.
PyTorch, TensorFlow и Caffe были отличны для сборки моделей. Но их деплой требовал возни с разными форматами и рантаймами.
ONNX позволил разработчикам собирать модель в любом фреймворке, экспортировать в стандартный формат и деплоить куда угодно.
Сейчас тот же паттерн разворачивается вокруг агентов.
Фреймворки вроде LangGraph, CrewAI, Agno и Strands уже достаточно зрелые, чтобы сборка агента перестала быть самой сложной частью.
Теперь самое сложное — то, что идет после: деплой, стриминг, управление памятью, наблюдаемость и авто-скейлинг.
Это уже не проблемы агента, а инфраструктуры. И прямо сейчас каждую из них команды решают вручную.
xpander берет подход ONNX для этой задачи, и это правильная ментальная модель.
Идея простая: привозишь своего агента (собранного на любом фреймворке), деплоишь через xpander и получаешь всю прод-инфраструктуру.
Что в комплекте:
• serverless деплой за ~2 минуты
• SSE стриминг для UX реального времени
• память на уровне сессии/пользователя
• 2000+ коннекторов (Slack, GitHub и другие)
• единый API для вызова любого агента, независимо от фреймворка
Unified API, вероятно, самая интересная часть.
По сути, любой задеплоенный агент (независимо от фреймворка) получает один и тот же endpoint для вызова, одну и ту же структуру payload, стриминг-формат и схему авторизации.
Фронтенду больше не нужно знать, на чем агент собран — на LangGraph, CrewAI или кастоме. Он просто бьет по endpoint и получает ответ.
Это важно, потому что во многих организациях разные команды собирают агентов на разных фреймворках — по предпочтениям и под задачи.
Без унифицированного слоя командам приходится поддерживать несколько паттернов интеграции и стримингов.
xpander же дает один API-контракт поверх каждого агента, так что потребляющее приложение не обязано знать, на чем агент собран.
Видео показывает unified API xpander в работе.
Можно расширить стандартный формат endpoint на любого агента, независимо от фреймворка, и получить одинаковый стриминг, память, наблюдаемость и скейлинг, не меняя ни строки интеграционного кода.
Сборка остается отделена от деплоя - так и должно быть.
100% исходный код
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Воу, вышел Claude Delegator 😳
Плагин для Claude Code, который позволяет использовать подпроцессы на GPT 5.2 прямо внутри Claude Code.
Через GPT 5.2 (через codex) можно поручить архитектуру проекта, аудит безопасности или любые другие изменения в кодовой базе.
Инструкция по установке:
· Добавить маркетплейс
· Установить плагин
· Запустить настройку
GitHub: тут
Плагин для Claude Code, который позволяет использовать подпроцессы на GPT 5.2 прямо внутри Claude Code.
Через GPT 5.2 (через codex) можно поручить архитектуру проекта, аудит безопасности или любые другие изменения в кодовой базе.
Инструкция по установке:
· Добавить маркетплейс
/plugin marketplace add jarrodwatts/claude-delegator
· Установить плагин
/plugin install claude-delegator
· Запустить настройку
/claude-delegator:setup
GitHub: тут
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Линус Торвальдс, создатель Linux и Git, использовал Antigravity от Google для создания визуализатора с помощью вайбкодинга
😁 😁 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Google Gemini выкатила новый режим Guided Learning.
Теперь через него можно учиться чему угодно, по шагам, как с личным тьютором.
Как включить Guided Learning:
→ Открываешь Google Gemini в браузере
→ Создаёшь новый диалог
→ В списке режимов выбираешь Guided learning
→ Спрашиваешь тему или загружаешь документ для изучения
Готово. Никакой настройки, никаких плагинов.
Чем Guided Learning отличается. Gemini ведёт по теме шаг за шагом и следит, что ты понимаешь материал, а не просто пролистываешь.
Что внутри:
• Структурированные уроки с нормальными объяснениями
• Медиа-контент: картинки, видео, интерактив
• Кастомные квизы на проверку понимания
• Подстраивается под твой прогресс
Это прямой конкурент Study Mode у ChatGPT.
Но фишка Gemini скорее в структуре и гайдировании, а не просто в ответах.
Эра AI-тьюторов уже началась.😋
Теперь через него можно учиться чему угодно, по шагам, как с личным тьютором.
Как включить Guided Learning:
→ Открываешь Google Gemini в браузере
→ Создаёшь новый диалог
→ В списке режимов выбираешь Guided learning
→ Спрашиваешь тему или загружаешь документ для изучения
Готово. Никакой настройки, никаких плагинов.
Чем Guided Learning отличается. Gemini ведёт по теме шаг за шагом и следит, что ты понимаешь материал, а не просто пролистываешь.
Что внутри:
• Структурированные уроки с нормальными объяснениями
• Медиа-контент: картинки, видео, интерактив
• Кастомные квизы на проверку понимания
• Подстраивается под твой прогресс
Это прямой конкурент Study Mode у ChatGPT.
Но фишка Gemini скорее в структуре и гайдировании, а не просто в ответах.
Эра AI-тьюторов уже началась.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Media is too big
VIEW IN TELEGRAM
Antigravity крутой инструмент
Но большинство вообще не понимают, как им пользоваться.
За эти 33 минуты ты разберёшь всё, что нужно знать про Antigravity.👍
Но большинство вообще не понимают, как им пользоваться.
За эти 33 минуты ты разберёшь всё, что нужно знать про Antigravity.
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Opus 4.5 + three.js + mediapipe = Absolute Cinema
6
This media is not supported in your browser
VIEW IN TELEGRAM
AI-агенты в ближайшем будущем станут важной частью того, как мы шопимся.
Чтобы подготовить почву, Google объединились с Shopify, Etsy, Wayfair, Target и Walmart и сделали Universal Commerce Protocol — новый открытый стандарт, позволяющий агентам и системам общаться между собой на всех этапах покупки.
И скоро UCP будет поддерживать нативный checkout, так что покупать можно будет прямо в AI Mode и в Gemini App.😎
UCP уже поддержан более чем 20 компаниями из индустрии, совместим с A2A и доступен с сегодняшнего дня. Больше деталей про UCP и остальные анонсы можно почитать на NRF Big Show
Чтобы подготовить почву, Google объединились с Shopify, Etsy, Wayfair, Target и Walmart и сделали Universal Commerce Protocol — новый открытый стандарт, позволяющий агентам и системам общаться между собой на всех этапах покупки.
И скоро UCP будет поддерживать нативный checkout, так что покупать можно будет прямо в AI Mode и в Gemini App.
UCP уже поддержан более чем 20 компаниями из индустрии, совместим с A2A и доступен с сегодняшнего дня. Больше деталей про UCP и остальные анонсы можно почитать на NRF Big Show
Please open Telegram to view this post
VIEW IN TELEGRAM
2
В сети завирусился Antigravity Tools: профессиональная система управления AI-аккаунтами и проксирования
Оно сочетает в себе мульти-аккаунт менеджмент, конвертацию протоколов и умную маршрутизацию запросов, превращая ПК в стабильную, быструю и недорогую локальную AI-ретрансляционную станцию.
С помощью приложения можно преобразовывать обычные Web-сессии (Google/Anthropic) в стандартизированные API-интерфейсы, полностью устраняя протокольный разрыв между провайдерами.
Совместим с OpenAI. С приоритетом на приватность.
Поехали😌
Оно сочетает в себе мульти-аккаунт менеджмент, конвертацию протоколов и умную маршрутизацию запросов, превращая ПК в стабильную, быструю и недорогую локальную AI-ретрансляционную станцию.
С помощью приложения можно преобразовывать обычные Web-сессии (Google/Anthropic) в стандартизированные API-интерфейсы, полностью устраняя протокольный разрыв между провайдерами.
Совместим с OpenAI. С приоритетом на приватность.
Поехали
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Все обсуждают новый плагин для автоматизации ресерча по AI-публикациям: ralph-research
Он использует ralph-loop — цикл, в котором LLM не только пишет код по научным статьям, но и запускает эксперименты, анализирует ошибки и пробует новые решения.🤩
Весь плагин был сгенерен за один проход в Claude Code, и при этом он уже умеет кодить концепты из AI-пейперов и гонять эксперименты в самосовершенствующемся цикле.
Заметки автора:
Больше подробностей ожидаем позже
Он использует ralph-loop — цикл, в котором LLM не только пишет код по научным статьям, но и запускает эксперименты, анализирует ошибки и пробует новые решения.
Весь плагин был сгенерен за один проход в Claude Code, и при этом он уже умеет кодить концепты из AI-пейперов и гонять эксперименты в самосовершенствующемся цикле.
Заметки автора:
• Реализация статьи ReAct заняла около 40 минут без пауз.
• Были проблемы, но он сам разобрался по ходу. В этом сила ralph-loop — он может исследовать пространство решений и учиться на ошибках. Я бы сказал, что ресерч вообще более подходящий use-case для ralph, потому что там куча экспериментальной работы.
• Автор прогонял плагин на других свежих статьях — справился неплохо, это дает надежду, что можно довести систему до более стабильного состояния.
• Как видно на видео — и как в целом бывает с LLM-powered штуками - ему тяжело использовать новые модели, даже если дать инструкции и API. Но это легко фиксится грамотным промптингом.
• Это не идеальный плагин и пока в основном для внутреннего тестирования. Много чего еще надо допилить перед релизом, включая зависимости от других плагинов.
Больше подробностей ожидаем позже
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini проверяет Gemini: он смог в стиле Pictionary угадать рисунок, который нарисовал сам же (автоматически двигая курсор в браузере через Antigravity).
Reasoning + Action =🤯
Reasoning + Action =
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Prompt: Создать симуляцию пиратского корабля, плывущего по открытому океану. Использовать HTML/CSS/JS в одном HTML-файле.
Output:
- 974 строк HTML (gpt-5.2-extended-thinking)
- 427 строк HTML (gemini-3-pro)
- 189 строк HTML (grok-4.1-thinking)
- 770 строк HTML (opus-4.5-thinking-32k)
Детали модели:
- gpt-5.2-extended-thinking: Оценка 8.8/10. Время рассуждения: 25 с, общее время ответа: 230 с, всего слов в рассуждениях: 214
- gemini-3-pro: Оценка 9.0/10. Время рассуждения: 12 с, общее время ответа: 51 с, всего слов в рассуждениях: 194
- 4.1-thinking: Оценка 8.5/10. Время рассуждения: 69 с, общее время ответа: 82 с, всего слов в рассуждениях: 282
- opus-4.5-thinking-32k: Оценка 9.0/10. Время рассуждения: 14 с, общее время ответа: 123 с, всего слов в рассуждениях: 333
*Во всех экспериментах используется самый первый, «сырой» вывод модели, без ретраев и дополнительного тюнинга промпта.
Code: GitHub с оригинальным кодом и дополнительной статистикой
*У ни одной модели нет кастомных инструкций, «личность» chatgpt стоит в значении default
*Время на рассуждение замерялось вручную, начиная с момента нажатия Enter. На скриншотах таймер стартует только когда модель начинает инференс, и между этими событиями есть небольшая задержка. Поэтому значения могут немного не совпадать.
Output:
- 974 строк HTML (gpt-5.2-extended-thinking)
- 427 строк HTML (gemini-3-pro)
- 189 строк HTML (grok-4.1-thinking)
- 770 строк HTML (opus-4.5-thinking-32k)
Детали модели:
- gpt-5.2-extended-thinking: Оценка 8.8/10. Время рассуждения: 25 с, общее время ответа: 230 с, всего слов в рассуждениях: 214
- gemini-3-pro: Оценка 9.0/10. Время рассуждения: 12 с, общее время ответа: 51 с, всего слов в рассуждениях: 194
- 4.1-thinking: Оценка 8.5/10. Время рассуждения: 69 с, общее время ответа: 82 с, всего слов в рассуждениях: 282
- opus-4.5-thinking-32k: Оценка 9.0/10. Время рассуждения: 14 с, общее время ответа: 123 с, всего слов в рассуждениях: 333
*Во всех экспериментах используется самый первый, «сырой» вывод модели, без ретраев и дополнительного тюнинга промпта.
Code: GitHub с оригинальным кодом и дополнительной статистикой
*У ни одной модели нет кастомных инструкций, «личность» chatgpt стоит в значении default
*Время на рассуждение замерялось вручную, начиная с момента нажатия Enter. На скриншотах таймер стартует только когда модель начинает инференс, и между этими событиями есть небольшая задержка. Поэтому значения могут немного не совпадать.
Выкатили adversarial-spec: плагин для Claude Code, который помогает писать крепкие продуктовые спеки.
Проблема: пишешь PRD или техспеку, даёшь Claude посмотреть, чутка правишь и отправляешь дальше. Один модельный ревьюер пропустит кучу нюансов. Он сгладит пробелы, проглотит расплывчатые требования и не поднимет вопросы по углам и ошибкам.
Решение: заставить несколько моделей спорить между собой.
adversarial-spec отправляет документ в GPT, Gemini, Grok или любую комбинацию моделей. Они параллельно критикуют документ. Потом Claude собирает обратную связь, добавляет свою критику и переписывает текст. Цикл повторяется, пока все модели не согласятся, что спека железная.
Что происходит на практике: требования, которые казались очевидными, начинают оспариваться. Пропущенная обработка ошибок всплывает. Появляются вопросы по безопасности. Находится раздувшийся скоуп. Одна модель говорит: а что с X? другая: API-контракт не закрыт, а Claude добавляет: вы не описали, что делать если Y падает.
Когда все модели приходят к согласию, спека прошла настоящую адверсариальную проверку с разных углов.
Фичи:
• Interview mode - глубокое Q&A перед началом, чтобы собрать требования заранее
• Early agreement checks - если модель слишком быстро соглашается, её заставляют доказать, что она реально прочитала документ
• User review period - после консенсуса можно внести правки или запустить ещё один цикл
• PRD-to-tech-spec flow - закончил PRD, сразу продолжаешь в техспеку
• Telegram-интеграция - пуши на телефон и возможность кидать фидбэк откуда угодно
Работает с OpenAI, Google, xAI, Mistral, Groq, Deepseek. Чем больше моделей в связке — тем жёстче итоговое согласование.
Если ты и так пишешь спеки — это делает их просто лучше.
Глянь и скажи, что думаешь.
Проблема: пишешь PRD или техспеку, даёшь Claude посмотреть, чутка правишь и отправляешь дальше. Один модельный ревьюер пропустит кучу нюансов. Он сгладит пробелы, проглотит расплывчатые требования и не поднимет вопросы по углам и ошибкам.
Решение: заставить несколько моделей спорить между собой.
adversarial-spec отправляет документ в GPT, Gemini, Grok или любую комбинацию моделей. Они параллельно критикуют документ. Потом Claude собирает обратную связь, добавляет свою критику и переписывает текст. Цикл повторяется, пока все модели не согласятся, что спека железная.
Что происходит на практике: требования, которые казались очевидными, начинают оспариваться. Пропущенная обработка ошибок всплывает. Появляются вопросы по безопасности. Находится раздувшийся скоуп. Одна модель говорит: а что с X? другая: API-контракт не закрыт, а Claude добавляет: вы не описали, что делать если Y падает.
Когда все модели приходят к согласию, спека прошла настоящую адверсариальную проверку с разных углов.
Фичи:
• Interview mode - глубокое Q&A перед началом, чтобы собрать требования заранее
• Early agreement checks - если модель слишком быстро соглашается, её заставляют доказать, что она реально прочитала документ
• User review period - после консенсуса можно внести правки или запустить ещё один цикл
• PRD-to-tech-spec flow - закончил PRD, сразу продолжаешь в техспеку
• Telegram-интеграция - пуши на телефон и возможность кидать фидбэк откуда угодно
Работает с OpenAI, Google, xAI, Mistral, Groq, Deepseek. Чем больше моделей в связке — тем жёстче итоговое согласование.
Если ты и так пишешь спеки — это делает их просто лучше.
Глянь и скажи, что думаешь.
GitHub
GitHub - zscole/adversarial-spec: A Claude Code plugin that iteratively refines product specifications by debating between multiple…
A Claude Code plugin that iteratively refines product specifications by debating between multiple LLMs until all models reach consensus. - zscole/adversarial-spec
1
Новый скилл для Claude
Определяет и вычищает AI-слоп из текста.
Проблема понятная: когда пишешь вместе с LLM, стиль часто выдает машинность. Этот скилл помогает зачистить и привести текст к нормальному человеческому виду.
Тут посмотреть: hvpandya.com/stop-slop
Исходный код🤩
Определяет и вычищает AI-слоп из текста.
Проблема понятная: когда пишешь вместе с LLM, стиль часто выдает машинность. Этот скилл помогает зачистить и привести текст к нормальному человеческому виду.
Тут посмотреть: hvpandya.com/stop-slop
Исходный код
Please open Telegram to view this post
VIEW IN TELEGRAM
7