This media is not supported in your browser
VIEW IN TELEGRAM
Вот это да: представили json-render
UI, который генерит ИИ. Выход детерминированный.
1. Определяешь каталог компонентов
2. ИИ стримит JSON
3. Рендеришь интерактивный UI
Пользователь может по промпту собирать дашборды, виджеты и целые мини-приложения, но в пределах тех компонентов и экшенов, которые ты заранее разрешил.
К этому шли 10 лет.
И это вышло в опенсорс.👍
UI, который генерит ИИ. Выход детерминированный.
1. Определяешь каталог компонентов
2. ИИ стримит JSON
3. Рендеришь интерактивный UI
Пользователь может по промпту собирать дашборды, виджеты и целые мини-приложения, но в пределах тех компонентов и экшенов, которые ты заранее разрешил.
К этому шли 10 лет.
И это вышло в опенсорс.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Анонс Personal Intelligence: более персонализированный Gemini, построенный под тебя.
Как это работает:
• с твоего разрешения модель использует контекст из Gmail, YouTube, Google Photos и поиска, чтобы выдавать максимально релевантные и контекстные ответы
• если включить, ты сам выбираешь какие сервисы Google подключать. По умолчанию всё выключено
• от планов поездок на основе фотографий до рекомендаций по тренировкам исходя из целей, которые ты уже описывал в Gemini — ассистент подстраивается под твой реальный мир
Бета выкатывается для подписчиков Google AI Pro и AI Ultra в США. Позже добавят бесплатный тариф, больше стран и AI Mode в поиске.
В ролике показан персонализированный режим
Как это работает:
• с твоего разрешения модель использует контекст из Gmail, YouTube, Google Photos и поиска, чтобы выдавать максимально релевантные и контекстные ответы
• если включить, ты сам выбираешь какие сервисы Google подключать. По умолчанию всё выключено
• от планов поездок на основе фотографий до рекомендаций по тренировкам исходя из целей, которые ты уже описывал в Gemini — ассистент подстраивается под твой реальный мир
Бета выкатывается для подписчиков Google AI Pro и AI Ultra в США. Позже добавят бесплатный тариф, больше стран и AI Mode в поиске.
В ролике показан персонализированный режим
GPT-5.2-Codex от OpenAI начинают выкатывать в GitHub Copilot.
Модель хорошо справляется с крупными правками кода вроде рефакторингов и миграций, плюс подтянули работу в Windows-средах. Уже можно попробовать в VS Code.
Также GPT-5.2-Codex теперь работает и в Windsurf😁
Для кодинга это апгрейд по сравнению с GPT-5.1-Codex-Max и GPT-5.2.
Доступен всем пользователям, старт от 0.5x кредов (временная скидка).
Модель хорошо справляется с крупными правками кода вроде рефакторингов и миграций, плюс подтянули работу в Windows-средах. Уже можно попробовать в VS Code.
Также GPT-5.2-Codex теперь работает и в Windsurf
Для кодинга это апгрейд по сравнению с GPT-5.1-Codex-Max и GPT-5.2.
Доступен всем пользователям, старт от 0.5x кредов (временная скидка).
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Manus запустили первый дата-партнёрский интеграционный релиз с Similarweb.
Теперь можно:
➡️ смотреть до 12 месяцев истории веб-трафика
➡️ мгновенно сравнивать конкурентов
➡️ анализировать каналы маркетинга и источники трафика
➡️ смотреть распределение трафика по регионам
Вся аналитика идёт на данных Similarweb.
Доступно для всех пользователей Manus Pro.
Теперь можно:
Вся аналитика идёт на данных Similarweb.
Доступно для всех пользователей Manus Pro.
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft выпустила FrogMini на Hugging Face.
Модель построена на базе Qwen3-14B и показывает лучшие на данный момент результаты на SWE-Bench Verified (Pass@1: 45,0%).
Для обучения использовали супервизорное дообучение (SFT) на успешных траекториях отладки, сгенерированных сильной teacher-моделью (например, Claude), полученных из смеси реальных и искусственно сгенерированных датасетов с багами.
Модель построена на базе Qwen3-14B и показывает лучшие на данный момент результаты на SWE-Bench Verified (Pass@1: 45,0%).
Для обучения использовали супервизорное дообучение (SFT) на успешных траекториях отладки, сгенерированных сильной teacher-моделью (например, Claude), полученных из смеси реальных и искусственно сгенерированных датасетов с багами.
huggingface.co
microsoft/FrogMini-14B-2510 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
This media is not supported in your browser
VIEW IN TELEGRAM
Представь: ты запускаешь “новую катку”, только вместо юнитов у тебя агенты.
Автор с ником Ido Salomon выкатил тизер AgentCraft: оркестрация AI-агентов через интерфейс в стиле RTS. Типа StarCraft/Warcraft, но вместо “строим барак” ты запускаешь таски, спавнишь сабагентов и следишь за их прогрессом прямо на карте.🍖
Автор с ником Ido Salomon выкатил тизер AgentCraft: оркестрация AI-агентов через интерфейс в стиле RTS. Типа StarCraft/Warcraft, но вместо “строим барак” ты запускаешь таски, спавнишь сабагентов и следишь за их прогрессом прямо на карте.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Команда Cursor выложила блог-пост про бест-практик разработки с агентами. Разница между рабочим кодом и нечитабельной мешаниной часто сводится к довольно простым принципам:
1. сначала план, потом код
2. если модель запуталась — начни новую сессию
3. дай агенту самому собрать контекст, не нужно тэгать всё подряд
4. откатывай и уточняй инструкции вместо попыток спасать безнадёжный код
5. добавляй правила для повторяющихся ошибок
6. пиши тесты заранее чтобы агент мог по ним делать итерации
7. прогоняй несколько моделей и выбирай лучший результат
8. для хардкор багов включай debug mode
9. чем конкретнее промпт — тем лучше результат
10. давай линтеры и тесты чтобы валидировать вывод
Блог тут: почитать
1. сначала план, потом код
2. если модель запуталась — начни новую сессию
3. дай агенту самому собрать контекст, не нужно тэгать всё подряд
4. откатывай и уточняй инструкции вместо попыток спасать безнадёжный код
5. добавляй правила для повторяющихся ошибок
6. пиши тесты заранее чтобы агент мог по ним делать итерации
7. прогоняй несколько моделей и выбирай лучший результат
8. для хардкор багов включай debug mode
9. чем конкретнее промпт — тем лучше результат
10. давай линтеры и тесты чтобы валидировать вывод
Блог тут: почитать
Google представил MedGemma 1.5: новую открытую мультимодальную модель для медицинских задач.
Обновление заметно расширило спектр данных, которые система умеет понимать и анализировать. Речь идёт не только о классических изображениях, но и о высокоразмерной визуализации, данных EHR, а также анатомической локализации с использованием bounding box.
Фактически модель закрывает сразу несколько болевых точек медтеха: интерпретацию сложных снимков, связанную текстовую информацию и структурирование клинических данных.
Подробнее
Обновление заметно расширило спектр данных, которые система умеет понимать и анализировать. Речь идёт не только о классических изображениях, но и о высокоразмерной визуализации, данных EHR, а также анатомической локализации с использованием bounding box.
Фактически модель закрывает сразу несколько болевых точек медтеха: интерпретацию сложных снимков, связанную текстовую информацию и структурирование клинических данных.
Подробнее
This media is not supported in your browser
VIEW IN TELEGRAM
claude --dangerously-skip-permissions
2
This media is not supported in your browser
VIEW IN TELEGRAM
Залип на новую фичу от Google Antigravity: они сделали Artifacts, чтобы тебе не приходилось гадать, что сейчас делает агент.
Artifacts это динамические промежуточные артефакты, общий источник правды между тобой и агентом. Не только финальный ответ, а весь процесс: шаги, что проверил, что нажал, что заскринил, какие выводы.
В итоге меньше угадываний, проще дебажить и повторять задачи как нормальный чеклист/тест-кейс.🎁
Artifacts это динамические промежуточные артефакты, общий источник правды между тобой и агентом. Не только финальный ответ, а весь процесс: шаги, что проверил, что нажал, что заскринил, какие выводы.
В итоге меньше угадываний, проще дебажить и повторять задачи как нормальный чеклист/тест-кейс.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Google выпускает TranslateGemma, новое семейство открытых моделей для перевода с поддержкой 55 языков.
Доступны размеры на 4B, 12B и 27B параметров, упор на эффективность без просадки по качеству.
Сделано на базе Gemma 3: TranslateGemma обучали на данных, сгенерированных Gemini, по сути перенося его интеллект в более компактный формат.
Это значит, что разработчики могут делать низколатентные переводчики, которые полностью крутятся на устройстве, без облака.
Попробовать можно на huggingface и Kaggle🛌
Доступны размеры на 4B, 12B и 27B параметров, упор на эффективность без просадки по качеству.
Сделано на базе Gemma 3: TranslateGemma обучали на данных, сгенерированных Gemini, по сути перенося его интеллект в более компактный формат.
Это значит, что разработчики могут делать низколатентные переводчики, которые полностью крутятся на устройстве, без облака.
Попробовать можно на huggingface и Kaggle
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenCode теперь официально можно использовать с подпиской GitHub Copilot.
С подпиской Pro+ вы получаете доступ к лучшим моделям для кодинга.
Классно видеть, что они так поддерживают опенсорс и дают пользователям свободу выбора инструментов.
С подпиской Pro+ вы получаете доступ к лучшим моделям для кодинга.
Классно видеть, что они так поддерживают опенсорс и дают пользователям свободу выбора инструментов.
1
This media is not supported in your browser
VIEW IN TELEGRAM
Как сделать так, чтобы агент не отлетал на антиботе.
Ситуация знакомая: YouTube, Instagram, Amazon и куча других сайтов агрессивно режут любые автоматические запросы. Итог один из двух: агент фейлится или начинает “додумывать” ответ, потому что данных не получил.
Это вылезает везде:
▪️ ресерч-агенты тянут новости и статьи
▪️ sales-агенты скрейпят LinkedIn на лиды
▪️ e-commerce-агенты мониторят цены конкурентов
▪️ соцмедиа-агенты анализируют тренды
На видео показан быстрый тест в действии.
- слева: попросил Claude вытащить данные с YouTube. Без спец. тулов он попытался через yt-dlp и упал
- справа: подключил MCP-сервер Bright Data и получил то же самое одним вызовом инструмента
Самое интересное под капотом: Bright Data берет на себя прокси-ротацию, капчи и антибот-обход, а для агента это выглядит как “обычный вызов инструмента”.
MCP-сервер опенсорсный и есть фри-тира на 5000 запросов в месяц, можно спокойно потыкать на своих кейсах.
Ситуация знакомая: YouTube, Instagram, Amazon и куча других сайтов агрессивно режут любые автоматические запросы. Итог один из двух: агент фейлится или начинает “додумывать” ответ, потому что данных не получил.
Это вылезает везде:
На видео показан быстрый тест в действии.
- слева: попросил Claude вытащить данные с YouTube. Без спец. тулов он попытался через yt-dlp и упал
- справа: подключил MCP-сервер Bright Data и получил то же самое одним вызовом инструмента
Самое интересное под капотом: Bright Data берет на себя прокси-ротацию, капчи и антибот-обход, а для агента это выглядит как “обычный вызов инструмента”.
MCP-сервер опенсорсный и есть фри-тира на 5000 запросов в месяц, можно спокойно потыкать на своих кейсах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Новое в Claude Code в вебе и на десктопе: просмотр diff.
Смотрите точные изменения, которые внёс Claude, не выходя из приложения.
Раньше для нормального ревью приходилось переключаться на GitHub или в IDE.
Теперь можно открыть полный diff и оставлять инлайн-комменты, чтобы итеративно работать с Claude, всё в одном месте.
Смотрите точные изменения, которые внёс Claude, не выходя из приложения.
Раньше для нормального ревью приходилось переключаться на GitHub или в IDE.
Теперь можно открыть полный diff и оставлять инлайн-комменты, чтобы итеративно работать с Claude, всё в одном месте.
1
Наткнулся на занятный кейс: разработчики собрали браузер с помощью GPT-5.2 прямо в Cursor и дали ему работать без остановки целую неделю.
По масштабу это не “поигрались вечером”, а прям проект: 3M+ строк кода, тысячи файлов. Самое вкусное, что рендер-движок они написали с нуля на Rust. Там полный пайплайн : HTML parsing, CSS cascade, layout, text shaping, paint, плюс свой кастомный JS VM.
И да, оно “как бы работает”. До паритета с WebKit/Chromium еще очень далеко, багов хватает, сложные сайты наверняка ломаются. Но авторы сами удивились, что простые сайты рендерятся быстро и в целом выглядят правильно. На скрине, например, Google грузится вполне прилично.
Дальше они собираются стресс-тестить границы такого подхода и делиться наблюдениями.
Код выложили в репо❤️
По масштабу это не “поигрались вечером”, а прям проект: 3M+ строк кода, тысячи файлов. Самое вкусное, что рендер-движок они написали с нуля на Rust. Там полный пайплайн : HTML parsing, CSS cascade, layout, text shaping, paint, плюс свой кастомный JS VM.
И да, оно “как бы работает”. До паритета с WebKit/Chromium еще очень далеко, багов хватает, сложные сайты наверняка ломаются. Но авторы сами удивились, что простые сайты рендерятся быстро и в целом выглядят правильно. На скрине, например, Google грузится вполне прилично.
Дальше они собираются стресс-тестить границы такого подхода и делиться наблюдениями.
Код выложили в репо
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Vercel выкатили подробный гайд по оптимизации производительности React и Next.js в виде Skill, который можно юзать в Claude Code.
Ставится одной командой:
Готово✅
Дальше просто пишешь
Продолжай кодить… или продолжай смотреть, как Claude кодит за тебя😄
Ставится одной командой:
npx claude-code-templates@latest --skill=web-development/react-best-practices --yes
Готово
Дальше просто пишешь
/react-best-practices, и Skill запускается прямо внутри твоего проекта.Продолжай кодить… или продолжай смотреть, как Claude кодит за тебя
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Мега-подборка Agent Skills чтобы прокачать твою ИИ-сборку
✓ больше 60 000 skills
✓ работает с Claude Code, Visual Studio Code, Antigravity.
🤩 🤩 🤩
✓ больше 60 000 skills
✓ работает с Claude Code, Visual Studio Code, Antigravity.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Представили Claude Speech-to-text
Плагин для Claude Code, который позволяет писать промпты голосом.
Он использует Whisper, чтобы локально на твоей машине транскрибировать голос в текст, прямо внутри Claude Code.
Ниже простой гайд по установке ↓
· Добавь marketplace
· Установи плагин
· Запусти настройку
GitHub😈
Плагин для Claude Code, который позволяет писать промпты голосом.
Он использует Whisper, чтобы локально на твоей машине транскрибировать голос в текст, прямо внутри Claude Code.
Ниже простой гайд по установке ↓
· Добавь marketplace
/plugin marketplace add jarrodwatts/claude-stt
· Установи плагин
/plugin install claude-stt
· Запусти настройку
/claude-stt:setup
GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Этот MCP-плагин коннектит Cursor с Figma, так что он может читать реальные данные из дизайна, смотреть компоненты и даже помогать менять лэйауты и компоненты, а не гадать по скринам
Исходный код здесь🙂
Исходный код здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Новость: теперь Roo Code умеет использовать вашу подписку ChatGPT Plus/Pro прямо внутри своего рабочего цикла, без костылей и без API-ключей.
Под капотом это нормальный OAuth-логин в OpenAI Codex: вы логинитесь, выбираете модель и работаете как обычно в IDE.
Плюс в том, что расход идет в лимиты подписки ChatGPT, а не в отдельно оплачиваемый OpenAI API.
На видео показано как настроить это в вашей VSCode
Под капотом это нормальный OAuth-логин в OpenAI Codex: вы логинитесь, выбираете модель и работаете как обычно в IDE.
Плюс в том, что расход идет в лимиты подписки ChatGPT, а не в отдельно оплачиваемый OpenAI API.
На видео показано как настроить это в вашей VSCode
2