BaseLine – Telegram
BaseLine
507 subscribers
281 photos
25 videos
1 file
184 links
Канал Алексей Ковалёва – PhD, тимлид команды Embodied agents в AIRI, доцент ЦКМ МФТИ. Занимаюсь Embodied AI 🤖, LLM Planning, RL

Моё хобби – читать научпоп лекции по ИИ

Здесь делюсь событиями, мыслями, новостями
Download Telegram
В этом году у нас приняли-отклонили две статьи на NeurIPS 🤷‍♂

MIKASA — наш бэнч для робототехнических задач с памятью — должен был быть спотлайтом на D&B трэке

Подключайтесь к Иишнице — Никита Качаев и Егор Черепанов про них расскажут!
😢4👍1
Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 4 декабря ⤵️

Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.

◼️14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning

◼️14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection

◼️14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization

◼️15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics

◼️15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning

◼️15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features

◼️16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space

◼️16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images

◼️16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs

◼️17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models

◼️17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia

◼️17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting

◼️18:00 Егор Черепанов Recurrent Action Transformer with Memory

◼️18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models

◼️18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation

Ведущий ИИшницы — Артур Кадурин, AIRI.

YouTube | ВК

До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Forwarded from Embodied AI Reading Club
Всем привет!🔥

📆 Завтра (05.12) в 17:00 Даниил Зелезецкий расскажет про

Подходы к повышению визуальной обобщаемости в задаче обучения с подкреплением

Обучаясь на тренировочных средах, вместе с выработкой релевантных навыков агент может запоминать нерелевантную информацию о среде, неожиданное изменение которой спровоцирует падение перфоманса агента. На встрече мы обсудим задачу визуальной обобщаемости, когда нерелевантной информацией может являться фон сцены, освещение, цвета и формы предметов, внешний вид агента и внезапное появление сторонних объектов

Статьи:
1. Reinforcement Learning with Augmented Data
2. Decoupling Value and Policy for Generalization in Reinforcement Learning
3. Learning Invariant Representations for Reinforcement Learning Without Reconstruction

🍿Ссылка на подключение

Подписаться⤵️
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👏1
Ну что, дожили до платных сабмитов на конференции...

IJCAI-ECAI 2026 — первая ласточка 🦅

100$ за вторую и каждую следующую статью
😁7🤯5
Егор начал классную инициативу 🔥
🔥3🥴1
Forwarded from E
Всем привет!

VLA научились неплохо решать простые задачи с полной наблюдаемостью, но с long-horizon задачами с частичной наблюдаемостью, требующими наличия памяти (например, если нужно снять вазу с полки, протереть ее от пыли, и затем поставить на исходное место) остаются большие проблемы.

Направление VLA с памятью пока что относительно новое и малоизученное, решили сделать список с подборкой статей, чтобы быть в курсе последних новинок в области.

Если вам интересно - можете ознакомиться с работами по теме тут: https://github.com/avanturist322/awesome-memory-vla, а также добавить статьи, которые мы упустили.
🔥13👏1
Редко пишу о чём-то очень личном. Сегодня захотел.

Дочке исполнилось три года. И я действительно начал понимать «как быстро летит время». Еще недавно она училась ходить и говорить, а сейчас уже болтает во всю и сегодня первый раз пошли на каток. Очень быстро.
49🥰23👏10🔥5🙏3🎉1
Forwarded from Институт AIRI
Приглашаем на традиционный новогодний огонёк #AIRI_Seminars🎄

17 декабря в 17:00 встречаемся в нашем офисе и онлайн, чтобы вместе с экспертами в области искусственного интеллекта подвести итоги научного 2025 года.

В программе — обсуждение главных достижений: разберём самые яркие публикации и поделимся прогнозами о том, какие открытия нас ждут в ближайшем будущем. И, конечно же, оливье, мандарины, праздничное настроение и живое общение!

Регистрируйтесь на офлайн-участие по ссылке или смотрите трансляцию на YouTube и ВКонтакте.

До встречи на заключительном семинаре 2025 года!😊
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍1👏1
Вчера завершилась наша традиционная четырёхдневная научная отчётная сессия AIRI. Это важное событие, где все — от младших сотрудников до руководителей лабораторий — поделились итогами года и планами на будущее. За это время прошло 53 устных доклада и представлено 198 постеров.

Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.

Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.

Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.

Спасибо всем за активное участие и вклад в общее дело!
🔥9👍4👏1
Forwarded from Embodied AI Reading Club
Всем привет!🔥

📆 Завтра (19.12) в 17:00 Никита Качаев расскажет о двух новых статьях physical intelligence:

⚫️Про метод RECAP [1] для дообучения VLA-моделей при помощи RL на демонстрациях, on-policy траекториях с разряженным сигналом и коррекциях от человека. Разберём извлечение улучшенной стратегии через advantage-conditioning и почему такой метод позволяет заметно повысить качество VLA на long-horizon задачах

⚫️Про перенос навыков от людей на роботов Human-to-Robot [2]. Разберем, можно ли научить робота новым задачам, почти не собирая данных на самом роботе, а используя эгоцентрические видео, записанное человеком. Обсудим, почему такой перенос начинает работать только после достаточного разнообразного претрейна

Статьи:
1. pi06: a VLA That Learns From Experience
2. Emergence of Human to Robot Transfer in Vision-Language-Action Models

🍿Ссылка на подключение

Подписаться⤵️
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10
🔥Хорошие новости перед Новым Годом!🔥

Две наши статьи приняли на AAMAS — A* конференцию по автономным агентам 🥳

Про Don’t Blind Your VLA я уже рассказывал

Вторая статья «Memory Retention Is Not Enough to Master Memory Tasks in Reinforcement Learning» затрагивает проблему перезаписи памяти в RL агентах. Про неё расскажу, когда выложим на архив

Примечательно, что обе статьи прошли с первого раза 🦾

Первый автор Memory Retention Олег Щендригин пришёл к нам на стажировку только в конце мая и уже в начале октября засабмитил свою первую статью!

Миша Колосов, тоже наш стажер и второй автор Don’t Blind Your VLA, присоединился к проекту всего лишь в середине августа 🦾
🔥157👏2
Маскировка на новогоднем🎄 утреннике дочки😅
😁25🎅5🔥2
Forwarded from Embodied AI Reading Club
Всем привет!🔥

📆 В эту пятницу (26.12) в 17:00 Егор Черепанов расскажет про новые статьи по VLA с памятью:

⚫️MemoryVLA — VLA-модель для настольной манипуляции, которая явно запоминает прошлые шаги, потому что многие задачи манипуляции немарковские и «по одному кадру» не решаются. Модель хранит историю в специальной памяти из двух частей: низкоуровневые визуальные детали и высокоуровневое смысловое резюме, извлекает из неё нужный контекст, объединяет его с текущим наблюдением и на основе этого с помощью диффузионного эксперта предсказывает последовательность действий. За счёт этого MemoryVLA заметно лучше справляется с long-horizon и задачами с временными зависимостями и стабильно превосходит CogACT и pi0 в симуляции и на реальных роботах

⚫️EchoVLA — VLA-модель для long-horizon мобильной манипуляции, которая добавляет явную память и тем самым выходит за пределы марковских стратегий. Она использует две памяти: scene memory (персистентная 3D карта сцены) для пространственного контекста и episodic memory (короткая история мультимодальных состояний) для прогресса задачи; обе извлекаются через coarse-to-fine attention и обуславливают diffusion policy для базы и манипулятора. На предложенном авторами новом бенчмарке MoMani модель стабильно превосходит сильные бейзлайны на long-horizon задачах, показывая, что явная пространственная и эпизодическая память существенно улучшает координацию и успех в mobile manipulation

Статьи:
1. MemoryVLA: Perceptual-Cognitive Memory in Vision-Language-Action Models for Robotic Manipulation
2. EchoVLA: Robotic Vision-Language-Action Model with Synergistic Declarative Memory for Mobile Manipulation

🍿Ссылка на подключение

Подписаться⤵️
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥2🥰1