Microsoft готовит инвестиции до 10 млрд долларов, а Nvidia — до 5 млрд в Anthropic.
В итоге Claude станет доступен сразу на трех крупных облаках: Microsoft, Google и Amazon.
По условиям сделки Anthropic закупит у Microsoft вычислительных мощностей на 30 млрд.
По оценкам Insider, компания теперь стоит примерно 350 млрд долларов — почти вдвое больше, чем в сентябре.
Подробности — в The Batch: https://hubs.la/Q03Wyr1N0
В итоге Claude станет доступен сразу на трех крупных облаках: Microsoft, Google и Amazon.
По условиям сделки Anthropic закупит у Microsoft вычислительных мощностей на 30 млрд.
По оценкам Insider, компания теперь стоит примерно 350 млрд долларов — почти вдвое больше, чем в сентябре.
Подробности — в The Batch: https://hubs.la/Q03Wyr1N0
This media is not supported in your browser
VIEW IN TELEGRAM
Двойное Esc для отката
Хочешь попробовать подход «а что если мы…»?
Развлекайся как хочешь → если всё ушло в кривой лес → жми
Можно откатывать переписку, код или сразу всё вместе.
Хочешь попробовать подход «а что если мы…»?
Развлекайся как хочешь → если всё ушло в кривой лес → жми
Esc Esc, чтобы откатиться к чистой точке и переделать.Можно откатывать переписку, код или сразу всё вместе.
This media is not supported in your browser
VIEW IN TELEGRAM
Это буквально самый простой способ собрать AI-агента.
Ноль кода. Нужно выполнить всего пару команд.
ADK для меня это лучший способ делать агентов «код-фёрст».
Что нужно сделать:
1. Открой терминал и создай пустую папку.
2. Внутри папки запусти uv init (если у тебя нет uv — ты многое пропускаешь!).
3. Установи библиотеку google-adk командой:
4. Теперь можно создать агента одной командой:
Она задаст пару вопросов, включая GEMINI_API_KEY (можно создать онлайн).
Команда выше создаст файл my_agent/root_agent.yaml.
5. Открой его и добавь в конец две строки, чтобы агент мог пользоваться Google-поиском:
6. Всё готово. Запускай веб-интерфейс ADK и начинай играться с агентом:
Вот и всё!
Действительно ноль кода. Агент полностью работает через YAML-конфигурацию.
Ноль кода. Нужно выполнить всего пару команд.
ADK для меня это лучший способ делать агентов «код-фёрст».
Что нужно сделать:
1. Открой терминал и создай пустую папку.
2. Внутри папки запусти uv init (если у тебя нет uv — ты многое пропускаешь!).
3. Установи библиотеку google-adk командой:
uv add google-adk
4. Теперь можно создать агента одной командой:
uv run adk create --type=config my_agent
Она задаст пару вопросов, включая GEMINI_API_KEY (можно создать онлайн).
Команда выше создаст файл my_agent/root_agent.yaml.
5. Открой его и добавь в конец две строки, чтобы агент мог пользоваться Google-поиском:
tools:
- name: google_search
6. Всё готово. Запускай веб-интерфейс ADK и начинай играться с агентом:
uv run adk web
Вот и всё!
Действительно ноль кода. Агент полностью работает через YAML-конфигурацию.
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Большая новость для комьюнити Colab!
Теперь Colab работает не только в VS Code, но и в Antigravity, Cursor и Windsurf через Open VSX Registry. Подключайте Colab прямо в любимый AI-редактор кода и начинайте работать.
https://open-vsx.org/extension/Google/colab
Теперь Colab работает не только в VS Code, но и в Antigravity, Cursor и Windsurf через Open VSX Registry. Подключайте Colab прямо в любимый AI-редактор кода и начинайте работать.
https://open-vsx.org/extension/Google/colab
Media is too big
VIEW IN TELEGRAM
MCP теперь поддерживает аутентификацию через OAuth2.
Это большое обновление!
Хочу поделиться полноценным примером (с кодом), чтобы можно было быстро разобраться как этим пользоваться.
Суть в следующем:
Не стоит строить агентные приложения, которые получают доступ к ресурсам без нормальных ограничений.
С аутентификацией вы можете:
• вызывать сторонние API от имени пользователя
• выполнять действия, которые должны быть отслеживаемыми
• применять разные разрешения для разных ролей
Вот демо интернет-магазина на MCP, собранное с WorkOS AuthKit и nextjs.
В этом примере можно:
• подключиться к MCP-серверу
• пройти аутентификацию через AuthKit
• заказать футболку с помощью MCP-инструментов
• посмотреть детали заказа, если у вас роль администратора
Весь необходимый код лежит в репозитории:
https://fandf.co/4psHKyo
Это большое обновление!
Хочу поделиться полноценным примером (с кодом), чтобы можно было быстро разобраться как этим пользоваться.
Суть в следующем:
Не стоит строить агентные приложения, которые получают доступ к ресурсам без нормальных ограничений.
С аутентификацией вы можете:
• вызывать сторонние API от имени пользователя
• выполнять действия, которые должны быть отслеживаемыми
• применять разные разрешения для разных ролей
Вот демо интернет-магазина на MCP, собранное с WorkOS AuthKit и nextjs.
В этом примере можно:
• подключиться к MCP-серверу
• пройти аутентификацию через AuthKit
• заказать футболку с помощью MCP-инструментов
• посмотреть детали заказа, если у вас роль администратора
Весь необходимый код лежит в репозитории:
https://fandf.co/4psHKyo
Media is too big
VIEW IN TELEGRAM
Ох ты… так вообще не должно работать.
Собрать полноценное мобильное приложение за 493 секунды.
- Фронтенд
- Бэкенд с базой данных
- Интеграция с ИИ (NanoBanana Pro)
- Подключение платежей (RevenueCat)
- Отправка в App Store на ревью
Ни строчки кода. Весь процесс показан тут.
00:00 Вводная
00:35 Первый промт для vibecodeapp
01:47 Добавляем Nano Banana
02:25 Подключаем бэкенд и базу
02:58 Тестируем Nano Banana и базу
03:58 Чиним ошибку
04:56 Подключаем платежи
05:56 Генерируем ассеты для paywall
06:54 Тестируем paywall
Собрать полноценное мобильное приложение за 493 секунды.
- Фронтенд
- Бэкенд с базой данных
- Интеграция с ИИ (NanoBanana Pro)
- Подключение платежей (RevenueCat)
- Отправка в App Store на ревью
Ни строчки кода. Весь процесс показан тут.
00:00 Вводная
00:35 Первый промт для vibecodeapp
01:47 Добавляем Nano Banana
02:25 Подключаем бэкенд и базу
02:58 Тестируем Nano Banana и базу
03:58 Чиним ошибку
04:56 Подключаем платежи
05:56 Генерируем ассеты для paywall
06:54 Тестируем paywall
1
GOOGLE ANTIGRAVITY РАЗДАЛ БЕСПЛАТНЫЙ OPUS 4.5 THINKING
В Antigravity сейчас реально жарко после добавления Opus 4.5. Пакет стал выглядеть максимально мощно.
Вопрос открыт: OpenAI все? Посмотрим на следующей неделе, но пока они заметно отстают.
Также провели прямое сравнение GPT-5.1-Codex-Max и Opus 4.5 на одной и той же задаче. Opus 4.5 оказался сильно впереди. Если так пойдет дальше, причин пользоваться продуктами OpenAI почти не остается.
В Antigravity сейчас реально жарко после добавления Opus 4.5. Пакет стал выглядеть максимально мощно.
Вопрос открыт: OpenAI все? Посмотрим на следующей неделе, но пока они заметно отстают.
Также провели прямое сравнение GPT-5.1-Codex-Max и Opus 4.5 на одной и той же задаче. Opus 4.5 оказался сильно впереди. Если так пойдет дальше, причин пользоваться продуктами OpenAI почти не остается.
This media is not supported in your browser
VIEW IN TELEGRAM
Расширенное мышление
Хочешь, чтобы Claude реально думал перед ответом, когда ты работаешь через API?
Просто добавь:
Claude будет показывать пошаговое рассуждение в thinking-блоках перед финальным ответом.
Хочешь, чтобы Claude реально думал перед ответом, когда ты работаешь через API?
Просто добавь:
thinking: { type: "enabled", budget_tokens: 5000 }Claude будет показывать пошаговое рассуждение в thinking-блоках перед финальным ответом.
This media is not supported in your browser
VIEW IN TELEGRAM
Этот GitHub-репозиторий просто топ.
Там собрано 500+ валидных Nano Banana промптов в одном месте для генерации любых визуалов через модель Nano от Google: портреты, персонажи, логотипы, продукты, обои. Закрыто вообще всё.
Забираем, кому пригодится
Там собрано 500+ валидных Nano Banana промптов в одном месте для генерации любых визуалов через модель Nano от Google: портреты, персонажи, логотипы, продукты, обои. Закрыто вообще всё.
Забираем, кому пригодится
Команда показала, как использовать Claude Code для обучения open-source LLM под ключ. Они подключили навыки Hugging Face к Claude Code, и агент смог запускать полный цикл обучения моделей end-to-end. Самое интересное, это работает не только с Claude, но и с Codex, Cursor и Gemini CLI.
Как это выглядит на практике:
- ты даешь агенту задачу дообучить модель на датасете, можно указать свой или поручить агенту найти его самому
- агент сам подбирает железо под размер модели и проверяет датасет
- обучение запускается на облачных GPU, в режиме теста или полноценного прогона
- прогресс в реальном времени отображается через дашборд Trackio
- чекпоинты автоматически пушатся в Hugging Face
Уже можно попробовать в своем любимом кодинг-агенте.
Как это выглядит на практике:
- ты даешь агенту задачу дообучить модель на датасете, можно указать свой или поручить агенту найти его самому
- агент сам подбирает железо под размер модели и проверяет датасет
- обучение запускается на облачных GPU, в режиме теста или полноценного прогона
- прогресс в реальном времени отображается через дашборд Trackio
- чекпоинты автоматически пушатся в Hugging Face
Уже можно попробовать в своем любимом кодинг-агенте.
❤1🤯1
Breaking 🚨 : Google работает над функцией «живого перевода» для Gemini в веб-версии
В интерфейсе обнаружена опция «Поделиться экраном для онлайн-перевода». Похоже, Gemini сможет переводить происходящее на экране в реальном времени.
Gemini 3 Pro Native Audio & Video model скоро?👀
В интерфейсе обнаружена опция «Поделиться экраном для онлайн-перевода». Похоже, Gemini сможет переводить происходящее на экране в реальном времени.
Gemini 3 Pro Native Audio & Video model скоро?
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Мэнг записал 50-минутный гайд по созданию высококачественных целевых страниц с помощью Gemini 3.
Автор показал, какие промпты и компоненты использовал при работе с aura.build. В качестве примеров шаблонов упомянуты:
aura-financial.aura.build
roar-ai.aura.build
Также он поделился списком ресурсов для вдохновения и рефов по дизайну и интерфейсам:
supahero.io
bentogrids.com
cta.gallery
mobbin.com
dribbble.com
И по многочисленным просьбам выложен remix-линк на WebGL-фон из Unicorn Studio:
https://unicorn.studio/remix/AlkJLTvJC9q6Zw8oRD4g
Автор показал, какие промпты и компоненты использовал при работе с aura.build. В качестве примеров шаблонов упомянуты:
aura-financial.aura.build
roar-ai.aura.build
Также он поделился списком ресурсов для вдохновения и рефов по дизайну и интерфейсам:
supahero.io
bentogrids.com
cta.gallery
mobbin.com
dribbble.com
И по многочисленным просьбам выложен remix-линк на WebGL-фон из Unicorn Studio:
https://unicorn.studio/remix/AlkJLTvJC9q6Zw8oRD4g
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпускает GPT-5.1-Codex-Max в публичный превью GitHub Copilot.
По первым тестам GPT-5.1-Codex-Max показывает себя так:
- отлично справляется со сложными рефакторингами
- надежнее работает как напарник на Windows
Можно попробовать самому в Visual Studio Code.
Ссылка: тык
По первым тестам GPT-5.1-Codex-Max показывает себя так:
- отлично справляется со сложными рефакторингами
- надежнее работает как напарник на Windows
Можно попробовать самому в Visual Studio Code.
Ссылка: тык
This media is not supported in your browser
VIEW IN TELEGRAM
Хочешь сохранить что-то в память Claude без открытия файла?
Просто начни сообщение с #, например:
Claude спросит, куда это сохранить. Память обновлена. Можно дальше писать код.
Просто начни сообщение с #, например:
# Always use bun instead of npm
Claude спросит, куда это сохранить. Память обновлена. Можно дальше писать код.
❤1
Вайбкодеры, забираем халяву: Cursor открыл безлимитный доступ к одной из лучших моделей для кодинга – GPT 5.1 Codex Max
Акция продлится до 11 декабря✌️
Акция продлится до 11 декабря
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
До сих пор не верю, что Gemini 3 умеет такое. 😨
Он может сгенерить целую 3D-интерактивную систему управления зданием на Three.js. Без кода, просто по текстовому промпту.
Он анализирует и симулирует данные в реальном времени, чтобы находить потенциальные проблемы.
Туториал и промпты слишком длинные, чтобы вставлять их сюда.
Забрать бесплатно можно здесь
Он может сгенерить целую 3D-интерактивную систему управления зданием на Three.js. Без кода, просто по текстовому промпту.
Он анализирует и симулирует данные в реальном времени, чтобы находить потенциальные проблемы.
Туториал и промпты слишком длинные, чтобы вставлять их сюда.
Забрать бесплатно можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👀3
В GitHub появился проект InkSight от Google Research - система, которая умеет превращать фотографии рукописных заметок не просто в текст, а в векторный цифровой почерк с сохранением траектории письма. В отличие от обычного OCR, здесь сохраняется сама логика и форма написания, а результат можно редактировать и искать по нему.
Проект построен на связке ViT + mT5 (encoder–decoder) и обучается в двух режимах - «чтение» и «письмо». Это позволяет модели одновременно понимать рукописный текст и восстанавливать процесс его написания.
InkSight поддерживает несколько языков, разные фоны и стили письма, а также два режима работы - по словам и по всей странице. Выходные данные - векторные штрихи, которые можно импортировать в заметочные приложения.
Проект уже доступен на GitHub, есть онлайн-демо на Hugging Face, полный датасет и Jupyter-примеры для локального запуска.
Проект построен на связке ViT + mT5 (encoder–decoder) и обучается в двух режимах - «чтение» и «письмо». Это позволяет модели одновременно понимать рукописный текст и восстанавливать процесс его написания.
InkSight поддерживает несколько языков, разные фоны и стили письма, а также два режима работы - по словам и по всей странице. Выходные данные - векторные штрихи, которые можно импортировать в заметочные приложения.
Проект уже доступен на GitHub, есть онлайн-демо на Hugging Face, полный датасет и Jupyter-примеры для локального запуска.
❤3
Пользуешься Cursor или TRAE и всё ещё завидуешь Skills из Claude Code?
Кто-то уже вынес всю систему Skills в универсальный open-source инструмент:
- без Claude Code
- можно напрямую подключать те же Skills в Cursor, TRAE и других IDE
- установка официального репозитория skills от Anthropic в один клик
Skills от Claude теперь работают во всех AI-IDE.🤝
Кто-то уже вынес всю систему Skills в универсальный open-source инструмент:
- без Claude Code
- можно напрямую подключать те же Skills в Cursor, TRAE и других IDE
- установка официального репозитория skills от Anthropic в один клик
npm i -g openskills
openskills install anthropics/skills
openskills sync
Skills от Claude теперь работают во всех AI-IDE.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - numman-ali/openskills: Universal skills loader for AI coding agents - npm i -g openskills
Universal skills loader for AI coding agents - npm i -g openskills - numman-ali/openskills
Microsoft выкатили open-source инструмент для запуска AI-моделей локально
Без облака, подписок и авторизации.
Все на 100% приватно.
И при этом он без проблем встраивается в приложения через OpenAI-совместимый API.
Просто вбиваешь в терминале:
→ winget install Microsoft(dot)FoundryLocal (Windows)
→ brew install microsoft/foundrylocal/foundrylocal (macOS)
Вот официальный веб-сайт со всей документацией и доступными моделями: https://foundrylocal.ai
И репозиторий GitHub: https://github.com/microsoft/foundry-local
Без облака, подписок и авторизации.
Все на 100% приватно.
И при этом он без проблем встраивается в приложения через OpenAI-совместимый API.
Просто вбиваешь в терминале:
→ winget install Microsoft(dot)FoundryLocal (Windows)
→ brew install microsoft/foundrylocal/foundrylocal (macOS)
Вот официальный веб-сайт со всей документацией и доступными моделями: https://foundrylocal.ai
И репозиторий GitHub: https://github.com/microsoft/foundry-local