Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 4 декабря ⤵️
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
◼️ 14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
◼️ 14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection
◼️ 14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization
◼️ 15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics
◼️ 15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
◼️ 15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features
◼️ 16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space
◼️ 16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images
◼️ 16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs
◼️ 17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models
◼️ 17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia
◼️ 17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting
◼️ 18:00 Егор Черепанов Recurrent Action Transformer with Memory
◼️ 18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models
◼️ 18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.
Ведущий ИИшницы — Артур Кадурин, AIRI.
YouTube | ВК
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Forwarded from Embodied AI Reading Club
Всем привет!🔥
📆 Завтра (05.12) в 17:00 Даниил Зелезецкий расскажет про
Подходы к повышению визуальной обобщаемости в задаче обучения с подкреплением
Обучаясь на тренировочных средах, вместе с выработкой релевантных навыков агент может запоминать нерелевантную информацию о среде, неожиданное изменение которой спровоцирует падение перфоманса агента. На встрече мы обсудим задачу визуальной обобщаемости, когда нерелевантной информацией может являться фон сцены, освещение, цвета и формы предметов, внешний вид агента и внезапное появление сторонних объектов
Статьи:
1. Reinforcement Learning with Augmented Data
2. Decoupling Value and Policy for Generalization in Reinforcement Learning
3. Learning Invariant Representations for Reinforcement Learning Without Reconstruction
🍿 Ссылка на подключение
Подписаться⤵️
Embodied AI Reading Club
Подходы к повышению визуальной обобщаемости в задаче обучения с подкреплением
Обучаясь на тренировочных средах, вместе с выработкой релевантных навыков агент может запоминать нерелевантную информацию о среде, неожиданное изменение которой спровоцирует падение перфоманса агента. На встрече мы обсудим задачу визуальной обобщаемости, когда нерелевантной информацией может являться фон сцены, освещение, цвета и формы предметов, внешний вид агента и внезапное появление сторонних объектов
Статьи:
1. Reinforcement Learning with Augmented Data
2. Decoupling Value and Policy for Generalization in Reinforcement Learning
3. Learning Invariant Representations for Reinforcement Learning Without Reconstruction
Подписаться
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👏1
Forwarded from E
Всем привет!
VLA научились неплохо решать простые задачи с полной наблюдаемостью, но с long-horizon задачами с частичной наблюдаемостью, требующими наличия памяти (например, если нужно снять вазу с полки, протереть ее от пыли, и затем поставить на исходное место) остаются большие проблемы.
Направление VLA с памятью пока что относительно новое и малоизученное, решили сделать список с подборкой статей, чтобы быть в курсе последних новинок в области.
Если вам интересно - можете ознакомиться с работами по теме тут: https://github.com/avanturist322/awesome-memory-vla, а также добавить статьи, которые мы упустили.
VLA научились неплохо решать простые задачи с полной наблюдаемостью, но с long-horizon задачами с частичной наблюдаемостью, требующими наличия памяти (например, если нужно снять вазу с полки, протереть ее от пыли, и затем поставить на исходное место) остаются большие проблемы.
Направление VLA с памятью пока что относительно новое и малоизученное, решили сделать список с подборкой статей, чтобы быть в курсе последних новинок в области.
Если вам интересно - можете ознакомиться с работами по теме тут: https://github.com/avanturist322/awesome-memory-vla, а также добавить статьи, которые мы упустили.
GitHub
GitHub - avanturist322/awesome-memory-vla: Awesome Memory-VLA: A curated list of Visual-Language-Action models with memory
Awesome Memory-VLA: A curated list of Visual-Language-Action models with memory - avanturist322/awesome-memory-vla
🔥13👏1
Редко пишу о чём-то очень личном. Сегодня захотел.
Дочке исполнилось три года. И я действительно начал понимать «как быстро летит время». Еще недавно она училась ходить и говорить, а сейчас уже болтает во всю и сегодня первый раз пошли на каток. Очень быстро.
Дочке исполнилось три года. И я действительно начал понимать «как быстро летит время». Еще недавно она училась ходить и говорить, а сейчас уже болтает во всю и сегодня первый раз пошли на каток. Очень быстро.
❤49🥰23👏10🔥5🙏3🎉1
Forwarded from Институт AIRI
Приглашаем на традиционный новогодний огонёк #AIRI_Seminars🎄
17 декабря в 17:00 встречаемся в нашем офисе и онлайн, чтобы вместе с экспертами в области искусственного интеллекта подвести итоги научного 2025 года.
В программе — обсуждение главных достижений: разберём самые яркие публикации и поделимся прогнозами о том, какие открытия нас ждут в ближайшем будущем. И, конечно же, оливье, мандарины, праздничное настроение и живое общение!
Регистрируйтесь на офлайн-участие по ссылке или смотрите трансляцию на YouTube и ВКонтакте.
До встречи на заключительном семинаре 2025 года!😊
17 декабря в 17:00 встречаемся в нашем офисе и онлайн, чтобы вместе с экспертами в области искусственного интеллекта подвести итоги научного 2025 года.
В программе — обсуждение главных достижений: разберём самые яркие публикации и поделимся прогнозами о том, какие открытия нас ждут в ближайшем будущем. И, конечно же, оливье, мандарины, праздничное настроение и живое общение!
Регистрируйтесь на офлайн-участие по ссылке или смотрите трансляцию на YouTube и ВКонтакте.
До встречи на заключительном семинаре 2025 года!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍1👏1
Forwarded from Ivan Oseledets’ Channel
Вчера завершилась наша традиционная четырёхдневная научная отчётная сессия AIRI. Это важное событие, где все — от младших сотрудников до руководителей лабораторий — поделились итогами года и планами на будущее. За это время прошло 53 устных доклада и представлено 198 постеров.
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
🔥9👍4👏1
Forwarded from Embodied AI Reading Club
Всем привет!🔥
📆 Завтра (19.12) в 17:00 Никита Качаев расскажет о двух новых статьях physical intelligence:
⚫️ Про метод RECAP [1] для дообучения VLA-моделей при помощи RL на демонстрациях, on-policy траекториях с разряженным сигналом и коррекциях от человека. Разберём извлечение улучшенной стратегии через advantage-conditioning и почему такой метод позволяет заметно повысить качество VLA на long-horizon задачах
⚫️ Про перенос навыков от людей на роботов Human-to-Robot [2]. Разберем, можно ли научить робота новым задачам, почти не собирая данных на самом роботе, а используя эгоцентрические видео, записанное человеком. Обсудим, почему такой перенос начинает работать только после достаточного разнообразного претрейна
Статьи:
1. pi06: a VLA That Learns From Experience
2. Emergence of Human to Robot Transfer in Vision-Language-Action Models
🍿 Ссылка на подключение
Подписаться⤵️
Embodied AI Reading Club
Статьи:
1. pi06: a VLA That Learns From Experience
2. Emergence of Human to Robot Transfer in Vision-Language-Action Models
Подписаться
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10
🔥Хорошие новости перед Новым Годом!🔥
Две наши статьи приняли на AAMAS — A* конференцию по автономным агентам 🥳
Про Don’t Blind Your VLA я уже рассказывал
Вторая статья «Memory Retention Is Not Enough to Master Memory Tasks in Reinforcement Learning» затрагивает проблему перезаписи памяти в RL агентах. Про неё расскажу, когда выложим на архив
Примечательно, что обе статьи прошли с первого раза 🦾
Первый автор Memory Retention Олег Щендригин пришёл к нам на стажировку только в конце мая и уже в начале октября засабмитил свою первую статью!
Миша Колосов, тоже наш стажер и второй автор Don’t Blind Your VLA, присоединился к проекту всего лишь в середине августа 🦾
Две наши статьи приняли на AAMAS — A* конференцию по автономным агентам 🥳
Про Don’t Blind Your VLA я уже рассказывал
Вторая статья «Memory Retention Is Not Enough to Master Memory Tasks in Reinforcement Learning» затрагивает проблему перезаписи памяти в RL агентах. Про неё расскажу, когда выложим на архив
Примечательно, что обе статьи прошли с первого раза 🦾
Первый автор Memory Retention Олег Щендригин пришёл к нам на стажировку только в конце мая и уже в начале октября засабмитил свою первую статью!
Миша Колосов, тоже наш стажер и второй автор Don’t Blind Your VLA, присоединился к проекту всего лишь в середине августа 🦾
🔥15❤7👏2
Forwarded from Embodied AI Reading Club
Всем привет!🔥
📆 В эту пятницу (26.12) в 17:00 Егор Черепанов расскажет про новые статьи по VLA с памятью:
⚫️ MemoryVLA — VLA-модель для настольной манипуляции, которая явно запоминает прошлые шаги, потому что многие задачи манипуляции немарковские и «по одному кадру» не решаются. Модель хранит историю в специальной памяти из двух частей: низкоуровневые визуальные детали и высокоуровневое смысловое резюме, извлекает из неё нужный контекст, объединяет его с текущим наблюдением и на основе этого с помощью диффузионного эксперта предсказывает последовательность действий. За счёт этого MemoryVLA заметно лучше справляется с long-horizon и задачами с временными зависимостями и стабильно превосходит CogACT и pi0 в симуляции и на реальных роботах
⚫️ EchoVLA — VLA-модель для long-horizon мобильной манипуляции, которая добавляет явную память и тем самым выходит за пределы марковских стратегий. Она использует две памяти: scene memory (персистентная 3D карта сцены) для пространственного контекста и episodic memory (короткая история мультимодальных состояний) для прогресса задачи; обе извлекаются через coarse-to-fine attention и обуславливают diffusion policy для базы и манипулятора. На предложенном авторами новом бенчмарке MoMani модель стабильно превосходит сильные бейзлайны на long-horizon задачах, показывая, что явная пространственная и эпизодическая память существенно улучшает координацию и успех в mobile manipulation
Статьи:
1. MemoryVLA: Perceptual-Cognitive Memory in Vision-Language-Action Models for Robotic Manipulation
2. EchoVLA: Robotic Vision-Language-Action Model with Synergistic Declarative Memory for Mobile Manipulation
🍿 Ссылка на подключение
Подписаться⤵️
Embodied AI Reading Club
Статьи:
1. MemoryVLA: Perceptual-Cognitive Memory in Vision-Language-Action Models for Robotic Manipulation
2. EchoVLA: Robotic Vision-Language-Action Model with Synergistic Declarative Memory for Mobile Manipulation
Подписаться
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥2🥰1
Forwarded from Неискусственный интеллект (Илья Склюев)
Топовый российский open source по итогам 2025 года
2025 год стал годом "открытого" ИИ во всём мире. Индустрию захлестнула волна open source решений — от готовых моделей до различных инструментов и фреймворков. И отечественные разработчики здесь наконец-то догнали общий поезд хайпа.
Особенно отличились ребята из AIRI, которые весь год радовали нас топовыми проектами. Вот, что хочется вспомнить из того, что уже вышло в open source:
▪️ Maestro — фреймворк для создания интеллектуальных ИИ-агентов. Платформа обеспечивает полный технологический стандарт: от авторизации и хранения контекста до оркестрации агентов и модерации контента.
▪️ GigaEvo — платформа для автоматизации научных экспериментов по ИИ. Автоматизирует подбор архитектур, оптимизацию гиперпараметров и тестирование моделей, интегрируется с AutoML и MLOps
▪️ MAPF-GPT — первая фундаментальная модель для многоагентного обучения с подкреплением в задаче планирования путей, показан новый SOTA в этом классе.
▪️ CADrille — модель для для 3D-реконструкции промышленных деталей. Принимает на вход облака точек, изображения и текстовые описания деталей, а на выходе генерирует код на языке Python для создания CAD-файла.
▪️ Wikontic — пайплайн для извлечения графов знаний из текстов. Использует в 20 раз меньше выходных токенов для извлечения графов, чем популярный GraphRAG от Microsoft.
▪️ Vintix — SOTA action-модель для роботов и индустриальных процессов, умеющая имитировать ход обучения с подкреплением. Анализирует в 3 раза больше информации по сравнению с аналогами: JAT HugginFace и GATO Google DeepMind.
▪️ VLA_Arena — платформа для оценки и сравнения моделей управления роботами. Позволяет запускать роботов в виртуальной среде с визуализацией, а также подключать реальные устройства. Также содержит чистые датасеты для LeRobot, размеченные и переведённые на русский язык.
▪️ DiMA — универсальная компактная модель для генерации белковых молекул на латентной диффузии.
Ну и куда без документального сопровождения всех этих разработок. В этом году у авторов из AIRI были опубликованы и приняты к публикации 364 научные статьи! Если читать по тексту в день, то останется время выдохнуть и пожить без искусственного интеллекта только 31 декабря.
Конечно, решает не количество, а качество. С этим тоже полный порядок: 97 материалов приняли к публикации на конференциях уровня А*, а ещё 34 статьи были представлены в рамках А. Надеемся, что дальше — только больше!
@anti_agi
2025 год стал годом "открытого" ИИ во всём мире. Индустрию захлестнула волна open source решений — от готовых моделей до различных инструментов и фреймворков. И отечественные разработчики здесь наконец-то догнали общий поезд хайпа.
Особенно отличились ребята из AIRI, которые весь год радовали нас топовыми проектами. Вот, что хочется вспомнить из того, что уже вышло в open source:
Ну и куда без документального сопровождения всех этих разработок. В этом году у авторов из AIRI были опубликованы и приняты к публикации 364 научные статьи! Если читать по тексту в день, то останется время выдохнуть и пожить без искусственного интеллекта только 31 декабря.
Конечно, решает не количество, а качество. С этим тоже полный порядок: 97 материалов приняли к публикации на конференциях уровня А*, а ещё 34 статьи были представлены в рамках А. Надеемся, что дальше — только больше!
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
vla-arena.airi.net
VLA Arena
Открытая платформа оценки ИИ для управления роботами
❤7👍3🔥2🥰1