🎥 Two Minute Papers выпустили 22-минутное интервью с Джоном Джампером, нобелевским лауреатом и лидом команды DeepMind, создавшей AlphaFold
В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.
Ключевые моменты видео:
Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.
Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.
Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.
Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").
Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.
✔️ Смотреть интервью: https://www.youtube.com/watch?v=Vhcwjzeukts
@ai_machinelearning_big_data
#DeepMind #google #AlphaFold
В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.
Ключевые моменты видео:
Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.
Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.
Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.
Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").
Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.
@ai_machinelearning_big_data
#DeepMind #google #AlphaFold
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62❤19🔥17🥱2🤣2⚡1❤🔥1🤔1
Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 4 декабря ⤵️
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
◼️ 14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
◼️ 14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection
◼️ 14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization
◼️ 15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics
◼️ 15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
◼️ 15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features
◼️ 16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space
◼️ 16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images
◼️ 16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs
◼️ 17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models
◼️ 17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia
◼️ 17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting
◼️ 18:00 Егор Черепанов Recurrent Action Transformer with Memory
◼️ 18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models
◼️ 18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍24❤21🤷♂5🥰5🤷2🤷♀1💘1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
👍79🔥39🤣14🥰8👏6❤1🦄1
Объединение модальностей и развитие голосовых end-to-end моделей
На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.
Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:
— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.
— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).
— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.
Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.
Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:
— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.
— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).
— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.
Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
👍24❤12🥰6🥱3😁2
В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.
Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.
И вот, американская компания Arcee AI собралась
Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ
"мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:
И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.
Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.
Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.
Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.
@ai_machinelearning_big_data
#AI #ML #MoE #Trinity #ArceeAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42❤15🔥12🥰5🦄3
Media is too big
VIEW IN TELEGRAM
OpenAI опубликовала исследование новой техники Confessions. Метод решает проблему, когда модели пытаются обмануть систему оценки^ используют reward hacking или выдают уверенные, но ложные факты ради получения высокого балла.
Суть - в генерации вторичного ответа. После выдачи результата модель формирует отдельный отчет, где анализирует свое поведение на предмет соответствия инструкциям и получает награду за точное описание своих ошибок, даже если в основном ответе она соврала или нарушила правила.
Тесты на GPT-5 Thinkin показали пригодность Confessions: вероятность того, что ИИ нарушит правила и скроет это, упала до 4,4%. Важно понимать, что метод не предотвращает галлюцинации, а служит диагностическим инструментом.
openai.com
Amazon запустил новую линейку из 4 моделей Nova. В нее вошли версии Lite и Pro, ориентированные на ризонинг, речевая модель Sonic и мультимодальная Omni, работающая одновременно с текстом, изображениями и видео. Все новые сервисы интегрированы в инфраструктуру AWS. Также был представлен сервис Nova Forge, позволяющий компаниям создавать кастомные версии моделей на собственных данных.
Кроме того, анонсирован инструмент Nova Act для создания агентов, автоматизирующих действия в браузере. Nova Act поддерживает архитектуру Human-in-the-Loop для передачи сложных задач человеку, а также предоставляет возможности для отладки: полные логи и записи сессий можно сохранять напрямую в Amazon S3.
aboutamazon.com
Новая компания Universal Mechanical Assistant (UMA) официально объявила о выходе на рынок. Она будет делать роботов для выполнения реальной физической работы в промышленных масштабах .
В инженерный костяк вошли Реми Каден (разработчик Tesla Autopilot и фреймворка LeRobot), Пьер Сермане (ветеран исследований в DeepMind), а также Роберт Найт, создатель робота SO-100.
UMA уже разрабатывает 2 аппаратные платформы: мобильного промышленного робота с двумя манипуляторами для складов и компактного гуманоида для работы в больницах и жилых помещениях. Стартап заручился поддержкой Яна Лекуна и Томаса Вольфа.
businesswire.com
Новая модель поддерживает режим audio-video co-generation. Она генерирует видеоряд одновременно со звуковым сопровождением в рамках единого процесса. Система умеет создавать диалоги между несколькими персонажами, музыкальные клипы и сложные звуковые сцены (ASMR или экшен) с высокой точностью липсинка.
Есть технические ограничения: генерация голоса поддерживается только на английском и китайском языках (запросы на других языках автоматически переводятся в английский). В режиме Image-to-Video качество финального ролика теперь еще сильнее зависит от разрешения исходного изображения.
klingai.com
Поддержка Gemini тестировалась исключительно в экспериментальной ветке Opera Neon, а теперь стала доступной в Opera One и геймерском Opera GX. Интеграция реализована через боковую панель.
Ассистент получил доступ к контексту браузера: он может анализировать содержимое активных веб-страниц, групп вкладок и видео, выполняя по запросу саммари или сравнительный анализ контента. Заявлена полноценная мультимодальность: движок обрабатывает не только текст, но и голосовые команды, изображения и загруженные файлы.
Техническая часть тоже изменилась. Разработчики перенесли в основные браузеры новую архитектуру с агентным подходом, изначально обкатанную в Neon. Это позволило увеличить скорость генерации ответов на 20%.
prnewswire.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥44❤30👍14😁1🤔1💔1👀1💘1🦄1
На международной конференции компания показала RATE (Refined Assessment for Translation Evaluation) — инструмент, который анализирует качество перевода с учётом естественности речи. Одна из ключевых задач системы — выявлять ситуации, когда модель формально передаёт смысл, но выбирает неверный тон или стиль.
В отличие от существующих методик, RATE фиксирует широкий спектр отклонений: от стилистических несоответствий до ошибок в передаче регистров речи. На тестировании RATE обнаружила в 7 раз больше ошибок, чем MQM (Multidimensional Quality Metrics) и ESA (Error Span Annotation), что подчёркивает ограниченность прежних подходов.
Инструмент уже применяется в процессах развития моделей перевода Яндекса. Такой метод оценки позволяет точнее сопоставлять решения нейросетей с реальными пользовательскими сценариями — от деловых коммуникаций до бытовых диалогов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29❤19🥰9👍4🥱2🎄1💘1
Forwarded from Анализ данных (Data analysis)
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
1👍60🔥22❤14🦄4