Forwarded from Embodied AI Reading Club
Всем привет!🔥
📆 В эту пятницу (26.12) в 17:00 Егор Черепанов расскажет про новые статьи по VLA с памятью:
⚫️ MemoryVLA — VLA-модель для настольной манипуляции, которая явно запоминает прошлые шаги, потому что многие задачи манипуляции немарковские и «по одному кадру» не решаются. Модель хранит историю в специальной памяти из двух частей: низкоуровневые визуальные детали и высокоуровневое смысловое резюме, извлекает из неё нужный контекст, объединяет его с текущим наблюдением и на основе этого с помощью диффузионного эксперта предсказывает последовательность действий. За счёт этого MemoryVLA заметно лучше справляется с long-horizon и задачами с временными зависимостями и стабильно превосходит CogACT и pi0 в симуляции и на реальных роботах
⚫️ EchoVLA — VLA-модель для long-horizon мобильной манипуляции, которая добавляет явную память и тем самым выходит за пределы марковских стратегий. Она использует две памяти: scene memory (персистентная 3D карта сцены) для пространственного контекста и episodic memory (короткая история мультимодальных состояний) для прогресса задачи; обе извлекаются через coarse-to-fine attention и обуславливают diffusion policy для базы и манипулятора. На предложенном авторами новом бенчмарке MoMani модель стабильно превосходит сильные бейзлайны на long-horizon задачах, показывая, что явная пространственная и эпизодическая память существенно улучшает координацию и успех в mobile manipulation
Статьи:
1. MemoryVLA: Perceptual-Cognitive Memory in Vision-Language-Action Models for Robotic Manipulation
2. EchoVLA: Robotic Vision-Language-Action Model with Synergistic Declarative Memory for Mobile Manipulation
🍿 Ссылка на подключение
Подписаться⤵️
Embodied AI Reading Club
Статьи:
1. MemoryVLA: Perceptual-Cognitive Memory in Vision-Language-Action Models for Robotic Manipulation
2. EchoVLA: Robotic Vision-Language-Action Model with Synergistic Declarative Memory for Mobile Manipulation
Подписаться
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥2🥰1
Forwarded from Неискусственный интеллект (Илья Склюев)
Топовый российский open source по итогам 2025 года
2025 год стал годом "открытого" ИИ во всём мире. Индустрию захлестнула волна open source решений — от готовых моделей до различных инструментов и фреймворков. И отечественные разработчики здесь наконец-то догнали общий поезд хайпа.
Особенно отличились ребята из AIRI, которые весь год радовали нас топовыми проектами. Вот, что хочется вспомнить из того, что уже вышло в open source:
▪️ Maestro — фреймворк для создания интеллектуальных ИИ-агентов. Платформа обеспечивает полный технологический стандарт: от авторизации и хранения контекста до оркестрации агентов и модерации контента.
▪️ GigaEvo — платформа для автоматизации научных экспериментов по ИИ. Автоматизирует подбор архитектур, оптимизацию гиперпараметров и тестирование моделей, интегрируется с AutoML и MLOps
▪️ MAPF-GPT — первая фундаментальная модель для многоагентного обучения с подкреплением в задаче планирования путей, показан новый SOTA в этом классе.
▪️ CADrille — модель для для 3D-реконструкции промышленных деталей. Принимает на вход облака точек, изображения и текстовые описания деталей, а на выходе генерирует код на языке Python для создания CAD-файла.
▪️ Wikontic — пайплайн для извлечения графов знаний из текстов. Использует в 20 раз меньше выходных токенов для извлечения графов, чем популярный GraphRAG от Microsoft.
▪️ Vintix — SOTA action-модель для роботов и индустриальных процессов, умеющая имитировать ход обучения с подкреплением. Анализирует в 3 раза больше информации по сравнению с аналогами: JAT HugginFace и GATO Google DeepMind.
▪️ VLA_Arena — платформа для оценки и сравнения моделей управления роботами. Позволяет запускать роботов в виртуальной среде с визуализацией, а также подключать реальные устройства. Также содержит чистые датасеты для LeRobot, размеченные и переведённые на русский язык.
▪️ DiMA — универсальная компактная модель для генерации белковых молекул на латентной диффузии.
Ну и куда без документального сопровождения всех этих разработок. В этом году у авторов из AIRI были опубликованы и приняты к публикации 364 научные статьи! Если читать по тексту в день, то останется время выдохнуть и пожить без искусственного интеллекта только 31 декабря.
Конечно, решает не количество, а качество. С этим тоже полный порядок: 97 материалов приняли к публикации на конференциях уровня А*, а ещё 34 статьи были представлены в рамках А. Надеемся, что дальше — только больше!
@anti_agi
2025 год стал годом "открытого" ИИ во всём мире. Индустрию захлестнула волна open source решений — от готовых моделей до различных инструментов и фреймворков. И отечественные разработчики здесь наконец-то догнали общий поезд хайпа.
Особенно отличились ребята из AIRI, которые весь год радовали нас топовыми проектами. Вот, что хочется вспомнить из того, что уже вышло в open source:
Ну и куда без документального сопровождения всех этих разработок. В этом году у авторов из AIRI были опубликованы и приняты к публикации 364 научные статьи! Если читать по тексту в день, то останется время выдохнуть и пожить без искусственного интеллекта только 31 декабря.
Конечно, решает не количество, а качество. С этим тоже полный порядок: 97 материалов приняли к публикации на конференциях уровня А*, а ещё 34 статьи были представлены в рамках А. Надеемся, что дальше — только больше!
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
vla-arena.airi.net
VLA Arena
Открытая платформа оценки ИИ для управления роботами
❤7👍3🔥2🥰1
Forwarded from iNeuro Lab IABS
На прошлой неделе прошел Новогодний огонек в институте AIRI. Там были не только мандарины и оливье, но и интересные дискуссии о трендах в ИИ и не только! Спикером от Лаборатории выступил Никита Поспелов.
Каждый из гостей представил две статьи уходящего 2025 года, наиболее интересные для него. Успели обсудить мечтающих роботов, роботов-каратистов (пока что это разные роботы), возможные пути к созданию самообучающихся машин, био-подобные решения для улучшения обобщающей способности ИИ и многое другое.
Спикеры поделились планами и прогнозами на будущее, обсудили законы масштабирования текущих моделей и новые перспективные архитектуры, а Антон Кузнецов рассказал про критерии сознания у животных и машин.
Ведущим был Александр Панов, который задавал гостям каверзные вопросы, например, как правильно писать статьи с помощью больших языковых моделей? А что ответили спикерыи в какой лаборатории учат студентов правильно использовать LLM при создании статей можно посмотреть в записи трансляции: ВКонтакте и YouTube 🎄
Каждый из гостей представил две статьи уходящего 2025 года, наиболее интересные для него. Успели обсудить мечтающих роботов, роботов-каратистов (пока что это разные роботы), возможные пути к созданию самообучающихся машин, био-подобные решения для улучшения обобщающей способности ИИ и многое другое.
Спикеры поделились планами и прогнозами на будущее, обсудили законы масштабирования текущих моделей и новые перспективные архитектуры, а Антон Кузнецов рассказал про критерии сознания у животных и машин.
Ведущим был Александр Панов, который задавал гостям каверзные вопросы, например, как правильно писать статьи с помощью больших языковых моделей? А что ответили спикеры
❤8
Forwarded from Embodied AI Reading Club
Всем привет!🔥
📆 Сегодня (30.01) в 17:00 Татьяна Земскова и Алексей Староверов проведут:
Разбор решений BEHAVIOR-1K Challenge
Vision-language-action (VLA) модели показали перспективные результаты в решении базовых задач планирования действий: манипуляции и навигации. Но отдельных робототехнических навыков недостаточно для решения высокоуровневых бытовых задач, требующих последовательного выполнения отдельных подзадач для достижения цели. На этой встрече мы поговорим о соревновании BEHAVIOR-1K Challenge (NeurIPS 2025) — одном из ключевых соревнований в области Embodied AI. BEHAVIOR-1K — это бенчмарк из 1000 бытовых задач в реалистичной симуляции, где агенту нужно планировать длинные цепочки действий, ориентироваться в среде и физически взаимодействовать с миром.
Мы рассмотрим сам бенчмарк и соревнование BEHAVIOR-1K Challenge, а также обсудим две работы, которые были представлены к дедлайну соревнования, но будем обсуждать их последние post-challenge версии, где авторам удалось улучшить метрики.
⚫️ Сначала коротко рассмотрим решение победителей челленджа, фокусирующееся на адаптации vision-language-action модели под задачи BEHAVIOR-1K и дающее существенный прирост качества за счёт архитектурных и inference-трюков.
⚫️ Вторая работа — альтернативный подход от команды Openpi Comet, также показавший высокий результат. Авторы этого подхода сделали упор на исследование влияния различных входных модальностей и метода обучения модели с использованием новых данных демонстраций из симулятора.
Статьи:
1. BEHAVIOR-1K: A Human-Centered, Embodied AI Benchmark with 1,000 Everyday Activities and Realistic Simulation
2. Сайт BEHAVIOR
3. Task adaptation of Vision-Language-Action model: 1st Place Solution for the 2025 BEHAVIOR Challenge
4. Openpi Comet: Competition Solution For 2025 BEHAVIOR Challenge
🍿 Ссылка на подключение
Подписаться⤵️
Embodied AI Reading Club
Разбор решений BEHAVIOR-1K Challenge
Vision-language-action (VLA) модели показали перспективные результаты в решении базовых задач планирования действий: манипуляции и навигации. Но отдельных робототехнических навыков недостаточно для решения высокоуровневых бытовых задач, требующих последовательного выполнения отдельных подзадач для достижения цели. На этой встрече мы поговорим о соревновании BEHAVIOR-1K Challenge (NeurIPS 2025) — одном из ключевых соревнований в области Embodied AI. BEHAVIOR-1K — это бенчмарк из 1000 бытовых задач в реалистичной симуляции, где агенту нужно планировать длинные цепочки действий, ориентироваться в среде и физически взаимодействовать с миром.
Мы рассмотрим сам бенчмарк и соревнование BEHAVIOR-1K Challenge, а также обсудим две работы, которые были представлены к дедлайну соревнования, но будем обсуждать их последние post-challenge версии, где авторам удалось улучшить метрики.
Статьи:
1. BEHAVIOR-1K: A Human-Centered, Embodied AI Benchmark with 1,000 Everyday Activities and Realistic Simulation
2. Сайт BEHAVIOR
3. Task adaptation of Vision-Language-Action model: 1st Place Solution for the 2025 BEHAVIOR Challenge
4. Openpi Comet: Competition Solution For 2025 BEHAVIOR Challenge
Подписаться
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥2👍1
Forwarded from Embodied AI Reading Club
Всем привет!🔥
📆 В эту пятницу (06.02) в 17:00 Илья Ларченко и Глеб Зарин, победители BEHAVIOR Challenge, разберут своё решение🔥
Задачей в BEHAVIOR Challenge было обучить робота выполнять 50 повседневных задач (от 1 до 15 минут) в реалистичной симуляции используя датасет из 1200 часов ручного управления роботом.
Илья и Глеб рассакажут про:
⚫️ Безлайн на основе PI0.5
⚫️ Изменения в архитектуре модели (System 2, correlation awareness, mixed trainable attention)
⚫️ Оптимизацию обучения
⚫️ Ускорение и улучшения во время инференса
Они также покажут примеры успешного выполнения задач, разберут основные паттерны ошибок, продемонстрируют примеры эмерджентного поведения модели при обучении на множестве задач одновременно.
Ссылки:
1. Код решения
2. Статья с детальным описанием решения
3. Пост с примерами
4. Видео разбор решения
🍿 Ссылка на подключение
Подписаться⤵️
Embodied AI Reading Club
Задачей в BEHAVIOR Challenge было обучить робота выполнять 50 повседневных задач (от 1 до 15 минут) в реалистичной симуляции используя датасет из 1200 часов ручного управления роботом.
Илья и Глеб рассакажут про:
Они также покажут примеры успешного выполнения задач, разберут основные паттерны ошибок, продемонстрируют примеры эмерджентного поведения модели при обучении на множестве задач одновременно.
Ссылки:
1. Код решения
2. Статья с детальным описанием решения
3. Пост с примерами
4. Видео разбор решения
Подписаться
Embodied AI Reading Club
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Forwarded from Институт AIRI
Приглашаем на следующий #AIRI_Seminars, который пройдёт 11 февраля в 17:00 ⤵️
Тема: «Структурированный RAG: от GraphRAG к Wikontic».
Докладчик: Алла Чепурова, научный сотрудник группы «Модели с памятью» Института AIRI
Оппонент: Юлия Беликова, аспирант Сколтеха, лидер направления Детекции галлюцинаций LLM, Sber AI Lab
Подробное описание и регистрация на офлайн-формат на сайте.
YouTube | VK Видео
Тема: «Структурированный RAG: от GraphRAG к Wikontic».
Докладчик: Алла Чепурова, научный сотрудник группы «Модели с памятью» Института AIRI
Оппонент: Юлия Беликова, аспирант Сколтеха, лидер направления Детекции галлюцинаций LLM, Sber AI Lab
Подробное описание и регистрация на офлайн-формат на сайте.
YouTube | VK Видео
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8⚡1🥰1
Forwarded from ROS russian channel
🚀 Приглашение на научную секцию в рамках конференции ROS Meetup 2026 🧠
Robot Operating System Research Meetup впервые состоится в 2026 году в рамках научного трека ежегодного ROS Meetup. Это международный научный форум, посвящённый обсуждению методов искусственного интеллекта в робототехнике.
📢 Внимание, ученые и исследователи!
🌍 Регистрация на подачу научных статей уже ОТКРЫТА! Статьи можно подавать в рамках научной секции ROSRM 2026, которая посвящена методам искусственного интеллекта в робототехнике и проходит в рамках конференции ROS Meetup 20-22 марта 2026 года. Не упустите шанс представить свою работу и получить публикацию в журнале с индексом Scopus!
🦾Темы статей: Интеллектуальная робототехника, алгоритмы роботов, глубокое обучение, обучение с подкреплением, агенты в робототехнике, компьютерное зрение, навигация и управление.
📝 Порядок подачи:
- Подача абстракта или статьи целиком до конференции ROS Meetup.
- Если ваш абстракт принят — выступаете на конференции с докладом в научной секции, слушаете обратную связь и получаете рекомендации для улучшения. Адрес: МФТИ, Долгопрудный, Россия или удаленно по видеосвязи.
- После конференции дорабатываете статью с учетом полученных замечаний и подаете её повторно.
- Получаете публикацию своей статьи в журнале Optical Memory and Neural Networks (индексируется в Scopus, WoS, Q3 и входит в Белый список журналов)!
🔗 Подача статей:
Подача статей осуществляется через сервис OpenReview. Подробности по подготовке материалов и размер регистрационного взноса будут опубликованы на сайте конференции: rosmeetup.ru/science-eng
📚 Принятые статьи будут опубликованы в журнале Optical Memory and Neural Networks, индексируемом в Scopus, что обеспечит видимость вашей работы на международной арене! Публикации также засчитываются в магистратуре и аспирантуре.
❓ Есть вопросы? Задавайте их @yuddim.
🔥 Не упустите шанс продвинуть свою научную карьеру и получить публикацию в международном журнале! Подавайте статью и присоединяйтесь к важному событию в мире науки!
🔧 Также вы можете указать ссылку на исходный код вашего пакета на ROS2 (это не обязательно), таким образом мы поддерживаем open source и идеи ROS по переиспользованию программных компонентов на разных роботах!
⏰ВАЖНЫЕ ДАТЫ
9 марта 2026 — дедлайн регистрации аннотаций
16 марта 2026 — решение программного комитета о принятии докладов
19 марта 2026 — регистрация участников
21–22 марта 2026 — проведение конференции
20 апреля 2026 — дедлайн подачи полной версии статьи
25 мая 2026 — уведомление о принятии статьи
📝Заполните форму для подачи на OpenReview достаточно сейчас написать только абстракт!🚀🤖
Robot Operating System Research Meetup впервые состоится в 2026 году в рамках научного трека ежегодного ROS Meetup. Это международный научный форум, посвящённый обсуждению методов искусственного интеллекта в робототехнике.
📢 Внимание, ученые и исследователи!
🌍 Регистрация на подачу научных статей уже ОТКРЫТА! Статьи можно подавать в рамках научной секции ROSRM 2026, которая посвящена методам искусственного интеллекта в робототехнике и проходит в рамках конференции ROS Meetup 20-22 марта 2026 года. Не упустите шанс представить свою работу и получить публикацию в журнале с индексом Scopus!
🦾Темы статей: Интеллектуальная робототехника, алгоритмы роботов, глубокое обучение, обучение с подкреплением, агенты в робототехнике, компьютерное зрение, навигация и управление.
📝 Порядок подачи:
- Подача абстракта или статьи целиком до конференции ROS Meetup.
- Если ваш абстракт принят — выступаете на конференции с докладом в научной секции, слушаете обратную связь и получаете рекомендации для улучшения. Адрес: МФТИ, Долгопрудный, Россия или удаленно по видеосвязи.
- После конференции дорабатываете статью с учетом полученных замечаний и подаете её повторно.
- Получаете публикацию своей статьи в журнале Optical Memory and Neural Networks (индексируется в Scopus, WoS, Q3 и входит в Белый список журналов)!
🔗 Подача статей:
Подача статей осуществляется через сервис OpenReview. Подробности по подготовке материалов и размер регистрационного взноса будут опубликованы на сайте конференции: rosmeetup.ru/science-eng
📚 Принятые статьи будут опубликованы в журнале Optical Memory and Neural Networks, индексируемом в Scopus, что обеспечит видимость вашей работы на международной арене! Публикации также засчитываются в магистратуре и аспирантуре.
❓ Есть вопросы? Задавайте их @yuddim.
🔥 Не упустите шанс продвинуть свою научную карьеру и получить публикацию в международном журнале! Подавайте статью и присоединяйтесь к важному событию в мире науки!
🔧 Также вы можете указать ссылку на исходный код вашего пакета на ROS2 (это не обязательно), таким образом мы поддерживаем open source и идеи ROS по переиспользованию программных компонентов на разных роботах!
⏰ВАЖНЫЕ ДАТЫ
9 марта 2026 — дедлайн регистрации аннотаций
16 марта 2026 — решение программного комитета о принятии докладов
19 марта 2026 — регистрация участников
21–22 марта 2026 — проведение конференции
20 апреля 2026 — дедлайн подачи полной версии статьи
25 мая 2026 — уведомление о принятии статьи
📝Заполните форму для подачи на OpenReview достаточно сейчас написать только абстракт!🚀🤖
SpringerLink
Optical Memory and Neural Networks
Optical Memory and Neural Networks is a peer-reviewed journal focusing on the storage of information using optical technology.
Pays particular attention to ...
Pays particular attention to ...
Forwarded from Институт AIRI
Сегодня — День российской науки!
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты🚀
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях⤵️
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Подведение итогов — в пятницу, 13 февраля.
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7