Машинное обучение digest – Telegram
Машинное обучение digest
40 subscribers
1.29K photos
181 videos
651 links
Download Telegram
🔥 AlphaEvolve — агент нового поколения для открытия новых алгоритмов на базе Gemini

Google DeepMind представили AlphaEvolve — агент на базе Gemini, способный автоматически генерировать новые алгоритмы и находить оптимальные решения сложных задач.

🔥 Что умеет AlphaEvolve:

🔘 Генерирует быстрые алгоритмы умножения матриц
🔘 Находит новые решения математических задач
🔘 Оптимизирует работу дата-центров, чипов и обучения ИИ модель за счёт сгенерированный алгоритмов

✔️ Как он работает:
1) Генерация идей с помощью LLMs: Модель Gemini анализирует существующие подходы к решению задачи и предлагает новые алгоритмические идеи, используя свой широкий контекст и знания.

2) Автоматическая оценка: Каждый предложенный алгоритм проходит через систему автоматической оценки, которая измеряет его эффективность, точность и другие ключевые метрики, позволяя объективно сравнивать различные решения.

3) Эволюционное улучшение: AlphaEvolve применяет эволюционные методы, такие как мутация и рекомбинация, чтобы постепенно улучшать алгоритмы, объединяя лучшие элементы из различных решений и отбрасывая менее эффективные варианты.

Этот подход уже продемонстрировал свою эффективность: AlphaEvolve смог обнаружить новые, более эффективные алгоритмы умножения матриц, превосходящие предыдущие достижения, такие как AlphaTensor. Это открывает возможности для оптимизации вычислений в дата-центрах, проектировании чипов и обучении ИИ-моделей.
Google также применили AlphaEvolve к более чем 50 открытым задачам в области:

✍️ математического анализа,
📐 геометрии,
комбинаторики и
🔂 теории чисел — включая задачу о числе поцелуев (kissing number problem).

🔵 В 75% случаев агент открыл лучшее из известных решений.
🔵 В 20% случаев он улучшил ранее известные решения, тем самым сделав новые открытия.

Доступ пока не дают, но выглядит очень интересно.

@ai_machinelearning_big_data


📎 Подробнее

#google #DeepMind
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI представляет Codex — облачного агента для генерации кода, способного выполнять множество задач параллельно.

В основе — модель codex-1.


🧠 Ключевые особенности:

• Codex работает прямо в браузере
• Поддерживает многозадачность: можно одновременно проверять код, задавать вопросы и переключаться между задачами
• Построен на **новой модели Codex-1** — самой мощной модели для кодинга от OpenAI
• Интеграция с GitHub — можно подключить свой аккаунт, и агент будет работать с вашими репозиториями

🚀 Codex — это шаг в сторону полуавтоматизированной разработки, где ИИ способен выполнять рутинную и аналитическую работу без постоянного контроля со стороны разработчика.

📅 Запуск ожидается уже сегодня.

https://openai.com/index/introducing-codex/


@ai_machinelearning_big_data

#OpenAI #Codex #AI #CodeAutomation #DevTools
This media is not supported in your browser
VIEW IN TELEGRAM
Ночное-полезное: Oh My God Git — прикольная игра с открытым исходным кодом, которая с помощью карточек поможет понять логику работы GIT и научит с ним работать.

Можно залипнуть на сайте или поставить себе локально с GitHub.
This media is not supported in your browser
VIEW IN TELEGRAM
🎭 "Клуни" обманул на миллион: дипфейк актёра развёл фанатку из Аргентины

Аргентинская женщина стала жертвой мошенников, которые в течение шести недель выдавали себя за Джорджа Клуни. Используя дипфейк-ролики, они вели с ней переписку, убеждая, что это настоящий актёр.

💬 "Клуни" якобы собирался разводиться и обещал устроить её на работу — но сначала попросил денег. Обещания продолжались, а переводы не прекращались.

💸 Когда женщина поняла, что её обманывают, было уже поздно: она потеряла более 10 000 фунтов (около 1 млн рублей).

🧠 Напоминание: в эпоху нейросетей и дипфейков не всё, что выглядит реалистично — настоящее.
No money — no honey.

#ai #news
🧠 Бесплатный курс от Hugging Face: Model Context Protocol (MCP)

Hugging Face запустили обучающий курс по Model Context Protocol (MCP) — это современный стандарт для взаимодействия между ИИ-моделями, внешними API, пользовательским вводом и контекстом. Курс идеально подойдёт разработчикам, ML-инженерам и всем, кто хочет строить мощные, интерактивные LLM-приложения.

🔍 Что ты узнаешь:
🧩 Как работает архитектура MCP
🧰 Как использовать официальные MCP SDK на Python и TypeScript
🛠 Как собрать своё MCP-приложение с Gradio и Hugging Face Spaces
🎯 Как пройти сертификацию и получить подтверждение своих навыков

📚 Содержание курса:
1. Введение в MCP и структуру курса
2. Архитектура и ключевые компоненты MCP
3. Создание первого MCP-приложения
4. Продвинутые фичи и интеграции
5. Бонусы: дополнительные примеры, кейсы, best practices

💡 Что нужно для старта:
• Опыт с Python или TypeScript
• Понимание API, LLM и разработки
• Аккаунт на Hugging Face
• Желание строить умные и гибкие AI-интерфейсы

👥 Комьюнити:
Присоединяйся к Discord-серверу Hugging Face, чтобы общаться с разработчиками и проходить курс в компании других участников.

➡️ Перейти к курсу
В ElevenLabs запустили бесплатные пробные периоды для популярных инструментов — от озвучки текста до генерации картинок.

Что вы получите:
– Доступ в ElevenLabs на 3 месяца;
– Freepik с кредитами на $50;
– Mistral AI с кредитами на $25;
– Notion AI на полгода.

Получаем доступ по ссылке.
📌Илья Суцкевер: "Мы обязательно построим бункер, прежде чем выпустим AGI."

Соучредитель OpenAI Илья Суцкевер предлагал построить бункер Судного дня, который мог бы защитить ведущих ресерчеров компании в случае «конца света», вызванного выпуском AGI.

Об этом рассказывает Карен Хао в своей книге "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI".

Илья Суцкевер, долгое время считающийся мозгом ChatGPT, сделал комментарий во время встречи с ключевыми учеными компании в 2023 году:

«Как только мы все попадем в бункер...», — сказал г-н Суцкевер, но его перебил сбитый с толку коллега: «Простите, в бункер?»

На что он ответил: «Мы обязательно построим бункер, прежде чем выпустим AGI».


Согласно отрывкам из книги, опубликованным в The Atlantic , это был не первый и не единственный раз, когда Илья затронул эту тему. Два других источника ранее также сообщали Карен Хао, что он регулярно ссылался на бункер во внутренних обсуждениях.

🔜 Книга доступна к покупке на bookshop.com и у нее, кстати, довольно высокий рейтинг - 4.9 из 5.0 по 21 тысячам отзывов.

@ai_machinelearning_big_data

#ai #ml #news
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ Обновился API Grok: доступ к данным в реальном времени.

xAI дополнила свой Grok API новой функцией Live Search, которая позволяет искусственному интеллекту получать доступ к данным в режиме реального времени из соцсети X (бывший Twitter), интернета и актуальных новостей.

API Live Search доступен бесплатно в бета-версии до 5 июня 2025 года. xAI заверяет, что это обновление существенное улучшает способности Grok к рассуждениям и поиску данных.
docs.x.ai

✔️ BAGEL: открытая мультимодальная модель от ByteDance.

ByteDance-Seed выпустили BAGEL — универсальную мультимодальную модель с 7 млрд. активных и 14 млрд. общих параметров, которая сочетает генерацию, редактирование и анализ текста, изображений и видео.

BAGEL может создавать фотореалистичные изображения, предсказывать кадры, менять стили и даже «мыслить» перед генерацией, улучшая детализацию и логику выводов. Архитектура на основе Mixture-of-Transformer-Experts (MoT) разделяет обработку визуальных и семантических данных, что повышает точность редактирования — например, сохранение идентичности объектов при сложных правках.

В тестах BAGEL обходит многие открытые модели: 2388 баллов в MME (визуальное понимание) и 0.88 в GenEval (генерация изображений). При этом «интеллектуальное» редактирование с CoT почти догоняет Gemini 2.0.
Веса - на HuggingFace, техотчет - на Arxiv, код - на Github, попробовать в демо можно тут.
bagel-ai.org

✔️ NVIDIA планирует выпустить RTX 5080 Super.

По данным утечек от известного инсайдера Kopite, NVIDIA готовит к производству видеокарту RTX 5080 Super. Модель получит 24 ГБ памяти GDDR7 — на 50% больше, чем у базового RTX 5080, благодаря 3 ГБ модулям. Несмотря на тот же 256-битный интерфейс и 10 752 CUDA-ядра, пропускная способность памяти вырастет до 1 ТБ/с (+6,6%), а TGP в районе 400 Вт.

Цена RTX 5080 Super, по оценкам, составит $1000–1500. Пока неясно, повторит ли NVIDIA стратегию RTX 4080 Super со снижением цены, но в текущих рыночных условиях на это рассчитывать сложно.
tomshardware.com

✔️ Stability AI обновила модель Stable Video 4D до версии 2.0.

Stability AI выпустила обновление своей модели — Stable Video 4D, версию 2.0 (SV4D 2.0), которая упрощает создание динамических 4D-ассетов для игр, кино и виртуальных миров. Новая модель генерирует более четкие и согласованные объекты в движении, используя всего одно объектно-ориентированное видео — без сложных мультикамерных сетапов или предобработки.

В 2.0 переработали архитектуру, теперь она включает 3D-внимание для анализа пространства и времени, что снижает артефакты даже в динамичных сценах. Модель обучалась поэтапно: сначала на статике, потом — на движении. По тестам, SV4D 2.0 лидирует в бенчмарках LPIPS, FVD и FV4D, обгоняя DreamGaussian4D и SV3D по согласованности ракурсов и плавности анимации.
Модель доступна под лицензией Stability AI Community License на HuggingFace, код - на Github.
stability.ai

✔️ AIOZ Network запустила децентрализованный маркетплейс AIOZ AI на базе DePIN.

AIOZ AI — децентрализованная платформа для торговли моделями ИИ и наборами данных, работающая на инфраструктуре DePIN. Она позволяет разработчикам и компаниям загружать, монетизировать и использовать ресурсы в распределенной сети, сохраняя контроль над своими активами.

Платформа разделена на этапы: уже доступны базовые функции маркетплейса, а в будущем добавят поддержку крупных файлов, API-интеграции и возможность обучения моделей в сети DePIN. Участники смогут получать вознаграждения за использование их ресурсов, а токенизация активов станет следующим шагом.
inferencegrid.ai

✔️ OpenAI покупает стартап Джони Айва — LoveFrom/io — за $6,5 миллиарда в виде доли в капитале.

Айв займётся разработкой нового поколения аппаратных продуктов на базе ИИ внутри OpenAI.

Компания собирается конкурировать с всеми крупнейшими технологическими гигантами.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Anthropic представила Claude 4 Opus и Sonnet 4

На мероприятии Code /w Claude CEO Anthropic презентовал Claude 4 Opus и Claude Sonnet 4.

✔️ Opus 4 Anthropic называет лучшей моделью для кодинга, она справляется с многошаговыми задачами, работая часами без потери эффективности — например, сохраняет контекст игры в Pokémon, записывая ключевые данные в локальные файлы.

✔️Sonnet 4, доступная даже бесплатным пользователям, стал серьезным апгрейдом предыдущей версии: точнее выполняет инструкции и сократил ошибки в навигации по коду с 20% до нуля.

Обе модели поддерживают расширенное мышление: чередуют анализ и использование инструментов веб-поиска, а также выполняют задачи параллельно.

Для разработчиков появилась интеграция с VS Code, JetBrains и GitHub Actions — правки от Claude теперь отображаются прямо в редакторе. В бета-режиме можно подключать SDK для создания собственных агентов.

По словам партнеров: GitHub и Replit, Opus 4 понимает сложные кодбазы, а Sonnet 4 идеален для повседневных задач. Например, в GitHub Copilot его уже тестируют как основу для нового агента.

В тарифные планы Pro, Max, Team и Enterprise Claude включены обе модели и расширенное мышление, а Sonnet 4 также доступен для бесплатных пользователей.

Обе модели доступны в Anthropic API, Amazon Bedrock и Google Cloud's Vertex AI. Ценообразование остается неизменным по сравнению с предыдущими моделями Opus и Sonnet: Opus 4 - $15/$75 за миллион токенов (ввод/вывод), Sonnet 4 - $3/$15.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ Google представила Gemma 3n — лёгкую и быструю AI-модель для работы на девайсах

Google выпустила Gemma 3n — это новая версия модели, которая запускается локально на мобильных устройствах.

Gemma 3n может работа локально на устройстве с 2 ГБ оперативной памяти!

➡️ Особенности:

• Работает в 1.5 раза быстрее, чем предыдущая Gemma 3 4B
• Поддерживает работу без интернета — всё локально и безопасно
• Умеет понимать текст, речь и изображения
• Можно использовать даже на устройствах с 2–3 ГБ RAM
• Поддерживает мгожетсво языков,

💡 Gemma 3n использует гибкую архитектуру (MatFormer), которая может "переключаться" между лёгким и полным режимом (2B и 4B параметров) — модель подстраивается под задачу, не перегружая устройство.

🔧 Как начать пользоваться:

• Через Google AI Studio — работает прямо в браузере
• Или через SDK Google AI Edge — интеграция на Android, Chromebook и другие устройства

📊 Где это применимо:

• Голосовые ассистенты
• Приложения с ИИ, которые работают без интернета
• Переводчики, чат-боты, анализ изображений на телефоне

➡️Релиз: https://developers.googleblog.com/en/introducing-gemma-3n/
➡️ Документация: https://ai.google.dev/gemma/docs/gemma-3n#parameters

#Gemma #Google #mobile #МультимодальныйИИ #МобильныйИИ #edgedevices
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️PyRoki (Python Robot Kinematics Toolkit) от Berkeley

PyRoki — это open-source библиотека на Python для задач управления движением роботов. Она решает одну из главных задач в робототехнике — инверсную кинематику (IK), то есть определяет, как двигаться суставам робота, чтобы достичь нужной точки.

▶️ Что умеет PyRoki:
▪️ Инверсная кинематика
▪️ Оптимизация траектории
▪️ Перенос движений между разными роботами (motion retargeting)

🚀 Установка


git clone https://github.com/chungmin99/pyroki.git
cd pyroki
pip install -e .


Чем хороша:
Быстрее на 1.7× по сравнению с cuRobo
Работает на CPU, GPU и даже TPU
Написана полностью на Python — легко внедряется, не требует C++
Подходит для промышленных роботов, симуляторов, гуманоидов

Подходит для:
— инженеров робототехники
— разработчиков симуляций
— ML-исследователей в motion planning

▪️ Репозиторий: https://github.com/chungmin99/pyroki
▪️ Сайт: http://pyroki-toolkit.github.io
▪️ Статья: https://arxiv.org/abs/2505.03728

@ai_machinelearning_big_data


#ai #ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 OpenAI и ОАЭ предоставляют бесплатный доступ к ChatGPT Plus для всех жителей страны

Стоит поучиться у ОАЭ — они уже сделали популяризацию ИИ реальностью.

27 мая 2025 года было объявлено, что Объединённые Арабские Эмираты (ОАЭ) станут первой страной в мире, предоставившей всем своим жителям бесплатный доступ к ChatGPT Plus — расширенной версии популярного ИИ-инструмента от OpenAI. Этот шаг стал результатом стратегического партнёрства между OpenAI и правительством ОАЭ, направленного на продвижение искусственного интеллекта среди широких масс населения.

🔧 Проект "Stargate UAE"
Ключевым элементом сотрудничества является строительство крупного центра обработки данных под названием "Stargate UAE" в Абу-Даби. Планируется создание вычислительного кластера мощностью 1 гигаватт, первая фаза которого (около 200 мегаватт) должна быть введена в эксплуатацию в следующем году. Этот проект является частью глобальной стратегии OpenAI "OpenAI for Nations", целью которой является помощь странам в создании автономных ИИ-систем и инструментов.


🌍 Глобальное значение
В рамках соглашения ОАЭ обязались сопоставить свои внутренние расходы на ИИ с инвестициями в американские ИИ-проекты, что может привести к общим инвестициям в размере до 20 миллиардов долларов, совместно с США. Этот шаг подчеркивает стремление обеих сторон к долгосрочному сотрудничеству в области искусственного интеллекта.

OpenAI также планирует расширить свою инициативу "OpenAI for Nations" на другие страны, начиная с региона Азиатско-Тихоокеанского региона, с целью помочь большему количеству стран в создании собственных автономных ИИ-систем.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 HunyuanPortrait: код и веса.

Спустя чуть больше двух месяцев, Tencent опубликовала веса и код инференса проекта HunyuanPortrait - системы на основе диффузионных моделей для создания реалистичных анимированных портретов.

На вход подается видео, с которого движения переносятся на целевое изображение для "оживления". Режима "тext-to-motion", судя по всему - нет.

Под капотом - набор моделей на основе SVD, DiNOv2, Arc2Face и YoloFace.

Разработчики уверяют, что инференс заводится на 24 Гб VRAM и их метод лучше контролирует анимацию и делает более плавные переходы между кадрами, чем существующие аналоги.

⚠️ WebUI нет, адаптации под ComfyUI - пока тоже нет.


▶️Локальный инференс:

# Clone repo
git clone https://github.com/Tencent-Hunyuan/HunyuanPortrait

# Install requirements
pip3 install torch torchvision torchaudio
pip3 install -r requirements.txt

# Run
video_path="your_video.mp4"
image_path="your_image.png"

python inference.py \
--config config/hunyuan-portrait.yaml \
--video_path $video_path \
--image_path $image_path



🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #HunyuanPortrait
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM