Forwarded from ROS russian channel
🚀 Приглашение на научную секцию в рамках конференции ROS Meetup 2026 🧠
Robot Operating System Research Meetup впервые состоится в 2026 году в рамках научного трека ежегодного ROS Meetup. Это международный научный форум, посвящённый обсуждению методов искусственного интеллекта в робототехнике.
📢 Внимание, ученые и исследователи!
🌍 Регистрация на подачу научных статей уже ОТКРЫТА! Статьи можно подавать в рамках научной секции ROSRM 2026, которая посвящена методам искусственного интеллекта в робототехнике и проходит в рамках конференции ROS Meetup 20-22 марта 2026 года. Не упустите шанс представить свою работу и получить публикацию в журнале с индексом Scopus!
🦾Темы статей: Интеллектуальная робототехника, алгоритмы роботов, глубокое обучение, обучение с подкреплением, агенты в робототехнике, компьютерное зрение, навигация и управление.
📝 Порядок подачи:
- Подача абстракта или статьи целиком до конференции ROS Meetup.
- Если ваш абстракт принят — выступаете на конференции с докладом в научной секции, слушаете обратную связь и получаете рекомендации для улучшения. Адрес: МФТИ, Долгопрудный, Россия или удаленно по видеосвязи.
- После конференции дорабатываете статью с учетом полученных замечаний и подаете её повторно.
- Получаете публикацию своей статьи в журнале Optical Memory and Neural Networks (индексируется в Scopus, WoS, Q3 и входит в Белый список журналов)!
🔗 Подача статей:
Подача статей осуществляется через сервис OpenReview. Подробности по подготовке материалов и размер регистрационного взноса будут опубликованы на сайте конференции: rosmeetup.ru/science-eng
📚 Принятые статьи будут опубликованы в журнале Optical Memory and Neural Networks, индексируемом в Scopus, что обеспечит видимость вашей работы на международной арене! Публикации также засчитываются в магистратуре и аспирантуре.
❓ Есть вопросы? Задавайте их @yuddim.
🔥 Не упустите шанс продвинуть свою научную карьеру и получить публикацию в международном журнале! Подавайте статью и присоединяйтесь к важному событию в мире науки!
🔧 Также вы можете указать ссылку на исходный код вашего пакета на ROS2 (это не обязательно), таким образом мы поддерживаем open source и идеи ROS по переиспользованию программных компонентов на разных роботах!
⏰ВАЖНЫЕ ДАТЫ
9 марта 2026 — дедлайн регистрации аннотаций
16 марта 2026 — решение программного комитета о принятии докладов
19 марта 2026 — регистрация участников
21–22 марта 2026 — проведение конференции
20 апреля 2026 — дедлайн подачи полной версии статьи
25 мая 2026 — уведомление о принятии статьи
📝Заполните форму для подачи на OpenReview достаточно сейчас написать только абстракт!🚀🤖
Robot Operating System Research Meetup впервые состоится в 2026 году в рамках научного трека ежегодного ROS Meetup. Это международный научный форум, посвящённый обсуждению методов искусственного интеллекта в робототехнике.
📢 Внимание, ученые и исследователи!
🌍 Регистрация на подачу научных статей уже ОТКРЫТА! Статьи можно подавать в рамках научной секции ROSRM 2026, которая посвящена методам искусственного интеллекта в робототехнике и проходит в рамках конференции ROS Meetup 20-22 марта 2026 года. Не упустите шанс представить свою работу и получить публикацию в журнале с индексом Scopus!
🦾Темы статей: Интеллектуальная робототехника, алгоритмы роботов, глубокое обучение, обучение с подкреплением, агенты в робототехнике, компьютерное зрение, навигация и управление.
📝 Порядок подачи:
- Подача абстракта или статьи целиком до конференции ROS Meetup.
- Если ваш абстракт принят — выступаете на конференции с докладом в научной секции, слушаете обратную связь и получаете рекомендации для улучшения. Адрес: МФТИ, Долгопрудный, Россия или удаленно по видеосвязи.
- После конференции дорабатываете статью с учетом полученных замечаний и подаете её повторно.
- Получаете публикацию своей статьи в журнале Optical Memory and Neural Networks (индексируется в Scopus, WoS, Q3 и входит в Белый список журналов)!
🔗 Подача статей:
Подача статей осуществляется через сервис OpenReview. Подробности по подготовке материалов и размер регистрационного взноса будут опубликованы на сайте конференции: rosmeetup.ru/science-eng
📚 Принятые статьи будут опубликованы в журнале Optical Memory and Neural Networks, индексируемом в Scopus, что обеспечит видимость вашей работы на международной арене! Публикации также засчитываются в магистратуре и аспирантуре.
❓ Есть вопросы? Задавайте их @yuddim.
🔥 Не упустите шанс продвинуть свою научную карьеру и получить публикацию в международном журнале! Подавайте статью и присоединяйтесь к важному событию в мире науки!
🔧 Также вы можете указать ссылку на исходный код вашего пакета на ROS2 (это не обязательно), таким образом мы поддерживаем open source и идеи ROS по переиспользованию программных компонентов на разных роботах!
⏰ВАЖНЫЕ ДАТЫ
9 марта 2026 — дедлайн регистрации аннотаций
16 марта 2026 — решение программного комитета о принятии докладов
19 марта 2026 — регистрация участников
21–22 марта 2026 — проведение конференции
20 апреля 2026 — дедлайн подачи полной версии статьи
25 мая 2026 — уведомление о принятии статьи
📝Заполните форму для подачи на OpenReview достаточно сейчас написать только абстракт!🚀🤖
SpringerLink
Optical Memory and Neural Networks
Optical Memory and Neural Networks is a peer-reviewed journal focusing on the storage of information using optical technology.
Pays particular attention to ...
Pays particular attention to ...
🔥1
Выступил сегодня в Зарядье в Заповедном посольстве - приятная площадка!
Видео здесь (начало в 5:14:00): https://vkvideo.ru/video/playlist/-152260072_50
#Activities
Видео здесь (начало в 5:14:00): https://vkvideo.ru/video/playlist/-152260072_50
#Activities
👍13
Поздравляю всех с Днём Российской науки! 🎓 Желаю всем новых наукоемких проектов и открытий!
И давайте немного покреативим в посте от AIRI ниже:
И давайте немного покреативим в посте от AIRI ниже:
Forwarded from Институт AIRI
Сегодня — День российской науки!
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты🚀
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях⤵️
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Подведение итогов — в пятницу, 13 февраля.
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Добавлю в ленту технологических новостей. В январе-феврале 2026 заметен прогресс в развитии технологий генерации видео для различных физических сред, которые могут быть использованы как источник данных для обучения самых разных алгоритмов - от распознавания редких событий, генерации графов сцен, до управления роботами и беспилотными автомобилями.
Google DeepMind выкатила в конце января Project Genie (попробовать его можно тут), который объединил в себе возможности Genie 3, Nano Banana Pro and Gemini. Вот здесь можно посмотреть подробности: (блог)
Робототехнический стартап из Китая Robbyant, входящий в Ant Group (дочерняя компания Alibaba) выпустил в открытый доступ "модель мира" LingBot-World (проект) (код) (модель). Подробности можно также посмотреть в статье "Advancing Open-source World Models" (arxiv)
Вообще, Robbyant сделала релиз целой экосистемы полезных открытых инструментов и моделей для "физического ИИ", в которую вошли LingBot-Depth (фундаментальная модель для генерации высококачественных карт глубин по видео и разреженным облакам точек с сенсоров при 3D-восприятии пространства), LingBot-VA (модель генерации видео с действиями для управления роботами - авторы назвали это casual video-action world model), и собственно LingBot-VLA - "прагматическую" фундаментальную визуально-языковую модель генерации действий для 9 различных типов роботов.
#References
Google DeepMind выкатила в конце января Project Genie (попробовать его можно тут), который объединил в себе возможности Genie 3, Nano Banana Pro and Gemini. Вот здесь можно посмотреть подробности: (блог)
Робототехнический стартап из Китая Robbyant, входящий в Ant Group (дочерняя компания Alibaba) выпустил в открытый доступ "модель мира" LingBot-World (проект) (код) (модель). Подробности можно также посмотреть в статье "Advancing Open-source World Models" (arxiv)
Вообще, Robbyant сделала релиз целой экосистемы полезных открытых инструментов и моделей для "физического ИИ", в которую вошли LingBot-Depth (фундаментальная модель для генерации высококачественных карт глубин по видео и разреженным облакам точек с сенсоров при 3D-восприятии пространства), LingBot-VA (модель генерации видео с действиями для управления роботами - авторы назвали это casual video-action world model), и собственно LingBot-VLA - "прагматическую" фундаментальную визуально-языковую модель генерации действий для 9 различных типов роботов.
#References
🔥3
Есть новости и у нашей команды, связанные с публикацией результатов применения графов 3D-сцен для планирования действий и управления роботами.
В конце января стало известно, что работа "Knowledge-Guided Manipulation Using Multi-Task Reinforcement Learning", в написании которой участвовала наша команда, была принята на A* конференцию ICRA'2026 в Вене. В марте планируем выложить ее на arxiv и сделаю про нее отдельный пост.
Ко Дню науки у нас приняли статью в хороший Q1-журнал Engineering Applications of Artificial Intelligence, которая называется "Scene graph-driven reasoning for action planning of humanoid robot". Она уже опубликована и смотреть ее можно тут.
#Papers #ICRA #EAAI
В конце января стало известно, что работа "Knowledge-Guided Manipulation Using Multi-Task Reinforcement Learning", в написании которой участвовала наша команда, была принята на A* конференцию ICRA'2026 в Вене. В марте планируем выложить ее на arxiv и сделаю про нее отдельный пост.
Ко Дню науки у нас приняли статью в хороший Q1-журнал Engineering Applications of Artificial Intelligence, которая называется "Scene graph-driven reasoning for action planning of humanoid robot". Она уже опубликована и смотреть ее можно тут.
#Papers #ICRA #EAAI
🔥6