Машинное обучение digest – Telegram
Машинное обучение digest
40 subscribers
1.29K photos
181 videos
649 links
Download Telegram
🧠 Бесплатный курс от Hugging Face: Model Context Protocol (MCP)

Hugging Face запустили обучающий курс по Model Context Protocol (MCP) — это современный стандарт для взаимодействия между ИИ-моделями, внешними API, пользовательским вводом и контекстом. Курс идеально подойдёт разработчикам, ML-инженерам и всем, кто хочет строить мощные, интерактивные LLM-приложения.

🔍 Что ты узнаешь:
🧩 Как работает архитектура MCP
🧰 Как использовать официальные MCP SDK на Python и TypeScript
🛠 Как собрать своё MCP-приложение с Gradio и Hugging Face Spaces
🎯 Как пройти сертификацию и получить подтверждение своих навыков

📚 Содержание курса:
1. Введение в MCP и структуру курса
2. Архитектура и ключевые компоненты MCP
3. Создание первого MCP-приложения
4. Продвинутые фичи и интеграции
5. Бонусы: дополнительные примеры, кейсы, best practices

💡 Что нужно для старта:
• Опыт с Python или TypeScript
• Понимание API, LLM и разработки
• Аккаунт на Hugging Face
• Желание строить умные и гибкие AI-интерфейсы

👥 Комьюнити:
Присоединяйся к Discord-серверу Hugging Face, чтобы общаться с разработчиками и проходить курс в компании других участников.

➡️ Перейти к курсу
В ElevenLabs запустили бесплатные пробные периоды для популярных инструментов — от озвучки текста до генерации картинок.

Что вы получите:
– Доступ в ElevenLabs на 3 месяца;
– Freepik с кредитами на $50;
– Mistral AI с кредитами на $25;
– Notion AI на полгода.

Получаем доступ по ссылке.
📌Илья Суцкевер: "Мы обязательно построим бункер, прежде чем выпустим AGI."

Соучредитель OpenAI Илья Суцкевер предлагал построить бункер Судного дня, который мог бы защитить ведущих ресерчеров компании в случае «конца света», вызванного выпуском AGI.

Об этом рассказывает Карен Хао в своей книге "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI".

Илья Суцкевер, долгое время считающийся мозгом ChatGPT, сделал комментарий во время встречи с ключевыми учеными компании в 2023 году:

«Как только мы все попадем в бункер...», — сказал г-н Суцкевер, но его перебил сбитый с толку коллега: «Простите, в бункер?»

На что он ответил: «Мы обязательно построим бункер, прежде чем выпустим AGI».


Согласно отрывкам из книги, опубликованным в The Atlantic , это был не первый и не единственный раз, когда Илья затронул эту тему. Два других источника ранее также сообщали Карен Хао, что он регулярно ссылался на бункер во внутренних обсуждениях.

🔜 Книга доступна к покупке на bookshop.com и у нее, кстати, довольно высокий рейтинг - 4.9 из 5.0 по 21 тысячам отзывов.

@ai_machinelearning_big_data

#ai #ml #news
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ Обновился API Grok: доступ к данным в реальном времени.

xAI дополнила свой Grok API новой функцией Live Search, которая позволяет искусственному интеллекту получать доступ к данным в режиме реального времени из соцсети X (бывший Twitter), интернета и актуальных новостей.

API Live Search доступен бесплатно в бета-версии до 5 июня 2025 года. xAI заверяет, что это обновление существенное улучшает способности Grok к рассуждениям и поиску данных.
docs.x.ai

✔️ BAGEL: открытая мультимодальная модель от ByteDance.

ByteDance-Seed выпустили BAGEL — универсальную мультимодальную модель с 7 млрд. активных и 14 млрд. общих параметров, которая сочетает генерацию, редактирование и анализ текста, изображений и видео.

BAGEL может создавать фотореалистичные изображения, предсказывать кадры, менять стили и даже «мыслить» перед генерацией, улучшая детализацию и логику выводов. Архитектура на основе Mixture-of-Transformer-Experts (MoT) разделяет обработку визуальных и семантических данных, что повышает точность редактирования — например, сохранение идентичности объектов при сложных правках.

В тестах BAGEL обходит многие открытые модели: 2388 баллов в MME (визуальное понимание) и 0.88 в GenEval (генерация изображений). При этом «интеллектуальное» редактирование с CoT почти догоняет Gemini 2.0.
Веса - на HuggingFace, техотчет - на Arxiv, код - на Github, попробовать в демо можно тут.
bagel-ai.org

✔️ NVIDIA планирует выпустить RTX 5080 Super.

По данным утечек от известного инсайдера Kopite, NVIDIA готовит к производству видеокарту RTX 5080 Super. Модель получит 24 ГБ памяти GDDR7 — на 50% больше, чем у базового RTX 5080, благодаря 3 ГБ модулям. Несмотря на тот же 256-битный интерфейс и 10 752 CUDA-ядра, пропускная способность памяти вырастет до 1 ТБ/с (+6,6%), а TGP в районе 400 Вт.

Цена RTX 5080 Super, по оценкам, составит $1000–1500. Пока неясно, повторит ли NVIDIA стратегию RTX 4080 Super со снижением цены, но в текущих рыночных условиях на это рассчитывать сложно.
tomshardware.com

✔️ Stability AI обновила модель Stable Video 4D до версии 2.0.

Stability AI выпустила обновление своей модели — Stable Video 4D, версию 2.0 (SV4D 2.0), которая упрощает создание динамических 4D-ассетов для игр, кино и виртуальных миров. Новая модель генерирует более четкие и согласованные объекты в движении, используя всего одно объектно-ориентированное видео — без сложных мультикамерных сетапов или предобработки.

В 2.0 переработали архитектуру, теперь она включает 3D-внимание для анализа пространства и времени, что снижает артефакты даже в динамичных сценах. Модель обучалась поэтапно: сначала на статике, потом — на движении. По тестам, SV4D 2.0 лидирует в бенчмарках LPIPS, FVD и FV4D, обгоняя DreamGaussian4D и SV3D по согласованности ракурсов и плавности анимации.
Модель доступна под лицензией Stability AI Community License на HuggingFace, код - на Github.
stability.ai

✔️ AIOZ Network запустила децентрализованный маркетплейс AIOZ AI на базе DePIN.

AIOZ AI — децентрализованная платформа для торговли моделями ИИ и наборами данных, работающая на инфраструктуре DePIN. Она позволяет разработчикам и компаниям загружать, монетизировать и использовать ресурсы в распределенной сети, сохраняя контроль над своими активами.

Платформа разделена на этапы: уже доступны базовые функции маркетплейса, а в будущем добавят поддержку крупных файлов, API-интеграции и возможность обучения моделей в сети DePIN. Участники смогут получать вознаграждения за использование их ресурсов, а токенизация активов станет следующим шагом.
inferencegrid.ai

✔️ OpenAI покупает стартап Джони Айва — LoveFrom/io — за $6,5 миллиарда в виде доли в капитале.

Айв займётся разработкой нового поколения аппаратных продуктов на базе ИИ внутри OpenAI.

Компания собирается конкурировать с всеми крупнейшими технологическими гигантами.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Anthropic представила Claude 4 Opus и Sonnet 4

На мероприятии Code /w Claude CEO Anthropic презентовал Claude 4 Opus и Claude Sonnet 4.

✔️ Opus 4 Anthropic называет лучшей моделью для кодинга, она справляется с многошаговыми задачами, работая часами без потери эффективности — например, сохраняет контекст игры в Pokémon, записывая ключевые данные в локальные файлы.

✔️Sonnet 4, доступная даже бесплатным пользователям, стал серьезным апгрейдом предыдущей версии: точнее выполняет инструкции и сократил ошибки в навигации по коду с 20% до нуля.

Обе модели поддерживают расширенное мышление: чередуют анализ и использование инструментов веб-поиска, а также выполняют задачи параллельно.

Для разработчиков появилась интеграция с VS Code, JetBrains и GitHub Actions — правки от Claude теперь отображаются прямо в редакторе. В бета-режиме можно подключать SDK для создания собственных агентов.

По словам партнеров: GitHub и Replit, Opus 4 понимает сложные кодбазы, а Sonnet 4 идеален для повседневных задач. Например, в GitHub Copilot его уже тестируют как основу для нового агента.

В тарифные планы Pro, Max, Team и Enterprise Claude включены обе модели и расширенное мышление, а Sonnet 4 также доступен для бесплатных пользователей.

Обе модели доступны в Anthropic API, Amazon Bedrock и Google Cloud's Vertex AI. Ценообразование остается неизменным по сравнению с предыдущими моделями Opus и Sonnet: Opus 4 - $15/$75 за миллион токенов (ввод/вывод), Sonnet 4 - $3/$15.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ Google представила Gemma 3n — лёгкую и быструю AI-модель для работы на девайсах

Google выпустила Gemma 3n — это новая версия модели, которая запускается локально на мобильных устройствах.

Gemma 3n может работа локально на устройстве с 2 ГБ оперативной памяти!

➡️ Особенности:

• Работает в 1.5 раза быстрее, чем предыдущая Gemma 3 4B
• Поддерживает работу без интернета — всё локально и безопасно
• Умеет понимать текст, речь и изображения
• Можно использовать даже на устройствах с 2–3 ГБ RAM
• Поддерживает мгожетсво языков,

💡 Gemma 3n использует гибкую архитектуру (MatFormer), которая может "переключаться" между лёгким и полным режимом (2B и 4B параметров) — модель подстраивается под задачу, не перегружая устройство.

🔧 Как начать пользоваться:

• Через Google AI Studio — работает прямо в браузере
• Или через SDK Google AI Edge — интеграция на Android, Chromebook и другие устройства

📊 Где это применимо:

• Голосовые ассистенты
• Приложения с ИИ, которые работают без интернета
• Переводчики, чат-боты, анализ изображений на телефоне

➡️Релиз: https://developers.googleblog.com/en/introducing-gemma-3n/
➡️ Документация: https://ai.google.dev/gemma/docs/gemma-3n#parameters

#Gemma #Google #mobile #МультимодальныйИИ #МобильныйИИ #edgedevices
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️PyRoki (Python Robot Kinematics Toolkit) от Berkeley

PyRoki — это open-source библиотека на Python для задач управления движением роботов. Она решает одну из главных задач в робототехнике — инверсную кинематику (IK), то есть определяет, как двигаться суставам робота, чтобы достичь нужной точки.

▶️ Что умеет PyRoki:
▪️ Инверсная кинематика
▪️ Оптимизация траектории
▪️ Перенос движений между разными роботами (motion retargeting)

🚀 Установка


git clone https://github.com/chungmin99/pyroki.git
cd pyroki
pip install -e .


Чем хороша:
Быстрее на 1.7× по сравнению с cuRobo
Работает на CPU, GPU и даже TPU
Написана полностью на Python — легко внедряется, не требует C++
Подходит для промышленных роботов, симуляторов, гуманоидов

Подходит для:
— инженеров робототехники
— разработчиков симуляций
— ML-исследователей в motion planning

▪️ Репозиторий: https://github.com/chungmin99/pyroki
▪️ Сайт: http://pyroki-toolkit.github.io
▪️ Статья: https://arxiv.org/abs/2505.03728

@ai_machinelearning_big_data


#ai #ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 OpenAI и ОАЭ предоставляют бесплатный доступ к ChatGPT Plus для всех жителей страны

Стоит поучиться у ОАЭ — они уже сделали популяризацию ИИ реальностью.

27 мая 2025 года было объявлено, что Объединённые Арабские Эмираты (ОАЭ) станут первой страной в мире, предоставившей всем своим жителям бесплатный доступ к ChatGPT Plus — расширенной версии популярного ИИ-инструмента от OpenAI. Этот шаг стал результатом стратегического партнёрства между OpenAI и правительством ОАЭ, направленного на продвижение искусственного интеллекта среди широких масс населения.

🔧 Проект "Stargate UAE"
Ключевым элементом сотрудничества является строительство крупного центра обработки данных под названием "Stargate UAE" в Абу-Даби. Планируется создание вычислительного кластера мощностью 1 гигаватт, первая фаза которого (около 200 мегаватт) должна быть введена в эксплуатацию в следующем году. Этот проект является частью глобальной стратегии OpenAI "OpenAI for Nations", целью которой является помощь странам в создании автономных ИИ-систем и инструментов.


🌍 Глобальное значение
В рамках соглашения ОАЭ обязались сопоставить свои внутренние расходы на ИИ с инвестициями в американские ИИ-проекты, что может привести к общим инвестициям в размере до 20 миллиардов долларов, совместно с США. Этот шаг подчеркивает стремление обеих сторон к долгосрочному сотрудничеству в области искусственного интеллекта.

OpenAI также планирует расширить свою инициативу "OpenAI for Nations" на другие страны, начиная с региона Азиатско-Тихоокеанского региона, с целью помочь большему количеству стран в создании собственных автономных ИИ-систем.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 HunyuanPortrait: код и веса.

Спустя чуть больше двух месяцев, Tencent опубликовала веса и код инференса проекта HunyuanPortrait - системы на основе диффузионных моделей для создания реалистичных анимированных портретов.

На вход подается видео, с которого движения переносятся на целевое изображение для "оживления". Режима "тext-to-motion", судя по всему - нет.

Под капотом - набор моделей на основе SVD, DiNOv2, Arc2Face и YoloFace.

Разработчики уверяют, что инференс заводится на 24 Гб VRAM и их метод лучше контролирует анимацию и делает более плавные переходы между кадрами, чем существующие аналоги.

⚠️ WebUI нет, адаптации под ComfyUI - пока тоже нет.


▶️Локальный инференс:

# Clone repo
git clone https://github.com/Tencent-Hunyuan/HunyuanPortrait

# Install requirements
pip3 install torch torchvision torchaudio
pip3 install -r requirements.txt

# Run
video_path="your_video.mp4"
image_path="your_image.png"

python inference.py \
--config config/hunyuan-portrait.yaml \
--video_path $video_path \
--image_path $image_path



🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #HunyuanPortrait
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 fubea dot cloud —самый мощный агент для глубоких исследований.

💥 Бесплатно. Без ограничений. Анонимно. С открытым исходным кодом.

А ещё умеет:
- программировать
- делать презентации
- запускать веб-приложения
- и многое другое.

👉 Попробовать: https://fubea.cloud
🌟 V-Triune от MiniMax: RL для VLM.

V-Triune - фреймворк с новым методом обучения VL-моделей, через единый алгоритм подкрепления.

В отличие от традиционных методов трейна VLM, сосредоточенных на отдельных задачах вроде решения математических задач или обнаружения объектов, V-Triune обучает модели одновременно работать с рассуждениями и восприятием. RL в V-Triune действует как механизм «настройки» уже заложенных в модель возможностей, а не добавляет новые навыки.

Это достигается за счет 3 ключевых компонентов: форматирования данных на уровне выборок, вычисления наград через специализированные верификаторы и мониторинга метрик по источникам данных.

Например, динамическая награда IoU адаптирует пороги точности для обнаружения объектов — сначала стимулируя базовое понимание, а затем требуя высокой точности.


Тестирование проводилось на бенчмарке MEGA-Bench из440 задач — от анализа графиков до OCR. Экспериментальные модели Orsta (7B и 32B параметров), обученные с V-Triune, показали прирост производительности до +14,1% по сравнению с базовыми версиями.

На задачах восприятия (обнаружение объектов в COCO), улучшения достигли +12,17% для mAP@50. Для математических задач (MathVista) результаты выросли на 5%, а в OCR — на 1-2%. При этом система стабильно работала даже при обучении на смешанных данных, что косвенно подтвердило ее универсальность.

Minimax открыли (но пока не загрузили его в репозиторий) код V-Triune и модели Orsta:

🟢Orsta-32B-0326 - стабильная версия на более поздней QwenVL-2.5-32B;
🟠Orsta-32B-0321 - версия с замороженным ViT на базе QwenVL-2.5-32B-0321;
🟢Orsta-7B - на базе Qwen2.5-VL-7B-Instruct.

⚠️ В версии 0321 попытки совместного обновления визуального и языкового модулей приводили к взрыву градиентов, поэтому ViT пришлось заморозить. В 0326, благодаря исправлениям в архитектуре, RL-тренинг стал стабильнее. 0326 рекомендуется для задач, где критична точность и надежность форматов ответов.


📌Лицензирование: MIT License.


🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VLM #RL #Framework #MiniMax
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💧 Знаешь ли ты, что каждый сеанс с ChatGPT "сжигает" пол-литра воды?

Каждое сообщение, которое ты отправляешь в ChatGPT, несёт скрытую цену — ресурсы, о которых никто не думает.

📨 Например, генерация одного e-mail из 100 слов тратит:
🔸 ~519 мл воды — больше, чем бутылка, вылитая на землю
🔸 0.3 ватт-часа электричества — в 10 раз больше, чем обычный Google-запрос
🔸 Энергии, эквивалентной 20 минутам работы LED-лампы

И это только одно сообщение...

🌍 Масштаб:

Если 10% трудоспособных американцев отправляют один e-mail через ChatGPT в неделю —
📊 это 435 млн литров воды в год.
🛑 Как вся вода, потребляемая Род-Айлендом за 1.5 дня.

Сегодня ChatGPT обрабатывает ~200 млн запросов в день.
Это ≈ 621 мегаватт-часов электроэнергии ежедневно.

Что можно сделать?

1. ✏️ Пиши чёткие и конкретные запросы
2. 🔄 Объединяй похожие вопросы в один
3. ⚙️ Используй упрощённые модели, если не нужен глубокий reasoning
4. 🧘 Не пиши LLM «спасибо» — он не обидится 😉

📉 Проблема не в тебе. Проблема — в масштабе.
🛠 Настоящее решение требует системных изменений:
технологические компании должны уделять устойчивости столько же внимания, сколько и возможностям.

ИИ меняет мир. Но климат меняется быстрее.

#AI #Sustainability #ClimateCrisis #ChatGPT #TechEthics
This media is not supported in your browser
VIEW IN TELEGRAM
🌀 Opera Neon — браузер-агент нового поколения

Opera представила Neon — браузер со встроенным ИИ-агентом, который продолжает выполнять задачи даже тогда, когда пользователь спит.

🌐 Что умеет Opera Neon?

🔹 Понимает намерения пользователя
🔹 Помогает с задачами — от поиска до бронирования
🔹 Самостоятельно действует: анализирует, предлагает и выполняет
🔹 Работает как агент, а не просто интерфейс

Это инфраструктура для агентного интернета, где ИИ помогает тебе в реальном времени.

🚀 Доступ только по инвайтам. Сейчас Opera открывает доступ первым участникам сообщества, чтобы сформировать будущее вместе.

Подать заявку: https://www.operaneon.com/

@ai_machinelearning_big_data

#OperaNeon #AgenticWeb #AI #БраузерБудущего