Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 4 декабря ⤵️
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
◼️ 14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
◼️ 14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection
◼️ 14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization
◼️ 15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics
◼️ 15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
◼️ 15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features
◼️ 16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space
◼️ 16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images
◼️ 16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs
◼️ 17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models
◼️ 17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia
◼️ 17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting
◼️ 18:00 Егор Черепанов Recurrent Action Transformer with Memory
◼️ 18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models
◼️ 18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍24❤21🤷♂5🥰5🤷2🤷♀1💘1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
👍80🔥39🤣14🥰8👏6❤2🦄1
Объединение модальностей и развитие голосовых end-to-end моделей
На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.
Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:
— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.
— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).
— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.
Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.
Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:
— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.
— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).
— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.
Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.
👍24❤12🥰6🥱3😁2
В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.
Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.
И вот, американская компания Arcee AI собралась
Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ
"мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:
И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.
Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.
Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.
Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.
@ai_machinelearning_big_data
#AI #ML #MoE #Trinity #ArceeAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42❤16🔥12🥰5🦄3
Media is too big
VIEW IN TELEGRAM
OpenAI опубликовала исследование новой техники Confessions. Метод решает проблему, когда модели пытаются обмануть систему оценки^ используют reward hacking или выдают уверенные, но ложные факты ради получения высокого балла.
Суть - в генерации вторичного ответа. После выдачи результата модель формирует отдельный отчет, где анализирует свое поведение на предмет соответствия инструкциям и получает награду за точное описание своих ошибок, даже если в основном ответе она соврала или нарушила правила.
Тесты на GPT-5 Thinkin показали пригодность Confessions: вероятность того, что ИИ нарушит правила и скроет это, упала до 4,4%. Важно понимать, что метод не предотвращает галлюцинации, а служит диагностическим инструментом.
openai.com
Amazon запустил новую линейку из 4 моделей Nova. В нее вошли версии Lite и Pro, ориентированные на ризонинг, речевая модель Sonic и мультимодальная Omni, работающая одновременно с текстом, изображениями и видео. Все новые сервисы интегрированы в инфраструктуру AWS. Также был представлен сервис Nova Forge, позволяющий компаниям создавать кастомные версии моделей на собственных данных.
Кроме того, анонсирован инструмент Nova Act для создания агентов, автоматизирующих действия в браузере. Nova Act поддерживает архитектуру Human-in-the-Loop для передачи сложных задач человеку, а также предоставляет возможности для отладки: полные логи и записи сессий можно сохранять напрямую в Amazon S3.
aboutamazon.com
Новая компания Universal Mechanical Assistant (UMA) официально объявила о выходе на рынок. Она будет делать роботов для выполнения реальной физической работы в промышленных масштабах .
В инженерный костяк вошли Реми Каден (разработчик Tesla Autopilot и фреймворка LeRobot), Пьер Сермане (ветеран исследований в DeepMind), а также Роберт Найт, создатель робота SO-100.
UMA уже разрабатывает 2 аппаратные платформы: мобильного промышленного робота с двумя манипуляторами для складов и компактного гуманоида для работы в больницах и жилых помещениях. Стартап заручился поддержкой Яна Лекуна и Томаса Вольфа.
businesswire.com
Новая модель поддерживает режим audio-video co-generation. Она генерирует видеоряд одновременно со звуковым сопровождением в рамках единого процесса. Система умеет создавать диалоги между несколькими персонажами, музыкальные клипы и сложные звуковые сцены (ASMR или экшен) с высокой точностью липсинка.
Есть технические ограничения: генерация голоса поддерживается только на английском и китайском языках (запросы на других языках автоматически переводятся в английский). В режиме Image-to-Video качество финального ролика теперь еще сильнее зависит от разрешения исходного изображения.
klingai.com
Поддержка Gemini тестировалась исключительно в экспериментальной ветке Opera Neon, а теперь стала доступной в Opera One и геймерском Opera GX. Интеграция реализована через боковую панель.
Ассистент получил доступ к контексту браузера: он может анализировать содержимое активных веб-страниц, групп вкладок и видео, выполняя по запросу саммари или сравнительный анализ контента. Заявлена полноценная мультимодальность: движок обрабатывает не только текст, но и голосовые команды, изображения и загруженные файлы.
Техническая часть тоже изменилась. Разработчики перенесли в основные браузеры новую архитектуру с агентным подходом, изначально обкатанную в Neon. Это позволило увеличить скорость генерации ответов на 20%.
prnewswire.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥44❤31👍14😁1🤔1💔1👀1💘1🦄1
На международной конференции компания показала RATE (Refined Assessment for Translation Evaluation) — инструмент, который анализирует качество перевода с учётом естественности речи. Одна из ключевых задач системы — выявлять ситуации, когда модель формально передаёт смысл, но выбирает неверный тон или стиль.
В отличие от существующих методик, RATE фиксирует широкий спектр отклонений: от стилистических несоответствий до ошибок в передаче регистров речи. На тестировании RATE обнаружила в 7 раз больше ошибок, чем MQM (Multidimensional Quality Metrics) и ESA (Error Span Annotation), что подчёркивает ограниченность прежних подходов.
Инструмент уже применяется в процессах развития моделей перевода Яндекса. Такой метод оценки позволяет точнее сопоставлять решения нейросетей с реальными пользовательскими сценариями — от деловых коммуникаций до бытовых диалогов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29❤19🥰9👍4🥱2🎄1💘1
Forwarded from Анализ данных (Data analysis)
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
1👍60🔥22❤15🦄4
This media is not supported in your browser
VIEW IN TELEGRAM
Представьте, что вы проснулись в недалёком будущем. Как бигтех работает с контентом?
Мультимодальные и рекомендательные системы нового поколения — это то, что уже сейчас определяет мир, в котором мы скоро будем жить.
Сотрудники VK рассказали, над чем работает их группа R&D и другие команды. Заходите по ссылке — смотрите ролики и знакомьтесь с нашей внутренней кухней.
Мультимодальные и рекомендательные системы нового поколения — это то, что уже сейчас определяет мир, в котором мы скоро будем жить.
Сотрудники VK рассказали, над чем работает их группа R&D и другие команды. Заходите по ссылке — смотрите ролики и знакомьтесь с нашей внутренней кухней.
1🥱22❤8👍6🔥5🤣2🙊1
Лонгрид материала от Main Street Autonomy, о том, как лидары видят мир, почему они прожигают камеры смартфонов и где маркетологи нас обманывают.
В отличие от обычной камеры, которая фиксирует интенсивность света, лидар - это активный сенсор. Он отправляет свет и ловит его отражение. Его цель - измерить расстояние и направление.
В результате получается облако точек, где каждая точка - это точное положение объекта в пространстве. Камеры дают разрешение и цвет, а лидары - точную геометрию.
Самый популярный - Direct time of flight. Лидар посылает лазерный импульс и засекает время, за которое он вернется. Зная скорость света, можно посчитать расстояние. Но чтобы это работало, нужны невероятно быстрые детекторы.
APD - это лавинные фотодиоды. Они надежны, работают в линейном режиме, но требуют сложной аналоговой электроники.
А вот SPAD - однофотонные лавинные диоды, это настоящий бриллиант. Они настолько чувствительны, что реагируют на единственный фотон, работая в режиме счетчика Гейгера.
Главный плюс SPAD в том, что они совместимы с CMOS-процессом. Это значит, что их можно делать на тех же кремниевых пластинах, что и процессоры, создавая огромные массивы - их называют SPAD macropixels. Это путь компаний Ouster и Sony.
Но есть и другой путь - FMCW, или частотно-модулированный лидар. Здесь лазер светит постоянно, меняя частоту, а расстояние вычисляется по сдвигу фазы вернувшегося сигнала.
С FMCW можно измерять не только дальность, но и мгновенную скорость объекта через эффект Доплера. Звучит круто, но требует дорогих лазеров.
Исторически, первым решением было просто вращать весь лидар. Старые модели на крышах машин - те самые «ведра», которые крутятся на 360 градусов. Это надежно, дает полный обзор, но механически сложно и дорого.
Современный тренд - уход от вращения всей «головы» к более хитрым методам.
MEMS mirror. Это крошечные зеркала на чипе, которые вибрируют и отклоняют луч.
Risley prisms. Две вращающиеся призмы, преломляющие луч так, что он рисует сложный узор, похожий на цветок.
Есть совсем футуристичный Baraja SpectrumScan. Они вообще отказались от движущихся зеркал в одной из плоскостей. Они меняют длину волны лазера, пропуская свет через призму. Разные цвета преломляются под разным углом и луч сканирует пространство просто за счет изменения цвета. Гениально, но требует очень качественного источника света.
Большинство лидаров работают на длине волны 905 nm. Но есть проблема: человеческий глаз фокусирует этот свет на сетчатке. Если поднять мощность, можно буквально выжечь человеку глаз. Поэтому мощность таких лидаров жестко ограничена.
1550 nm. Этот свет поглощается жидкостью в глазу и не доходит до сетчатки. И мощность можно поднимать в тысячи раз, что дает огромную дальность обнаружения.
Но для детекторов на этой частоте нужен дорогой сплав InGaAs, а в качестве источника часто используют волоконные лазеры.
И тут есть нюанс: мощный лазер 1550 nm безопасен для сетчатки, но может повредить роговицу нагревом. Более того, такие мощные лидары сжигают матрицы обычных камер и смартфонов, если те окажутся на "линии огня".
Многие лидары врут. Одна из частых проблем - рассинхрон углов лучей. Даже в знаменитом датасете KITTI находили ошибки калибровки, из-за чего плоские стены становились кривыми.
Еще одна беда - «блюминг». Если лазер попадает в дорожный знак или катафот, отраженный сигнал настолько силен, что засвечивает соседние пиксели. Лидар видит призрачные объекты там, где их нет.
Есть такой термин - "Solid State LiDAR". Производители любят называть так свои устройства, чтобы подчеркнуть надежность.
Но часто это не так. Они выглядят как цельные коробки, но внутри у них есть движущиеся части: зеркала или призмы.
Настоящий Solid State - это когда вообще ничего не движется, даже внутри. Это то, к чему стремится индустрия. Но пока механика все еще с нами.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54👍35🔥8🥰5🤔4👀2🦄2👾2🤬1😇1💘1