Выступил сегодня в Зарядье в Заповедном посольстве - приятная площадка!
Видео здесь (начало в 5:14:00): https://vkvideo.ru/video/playlist/-152260072_50
#Activities
Видео здесь (начало в 5:14:00): https://vkvideo.ru/video/playlist/-152260072_50
#Activities
👍13
Поздравляю всех с Днём Российской науки! 🎓 Желаю всем новых наукоемких проектов и открытий!
И давайте немного покреативим в посте от AIRI ниже:
И давайте немного покреативим в посте от AIRI ниже:
Forwarded from Институт AIRI
Сегодня — День российской науки!
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты🚀
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях⤵️
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Подведение итогов — в пятницу, 13 февраля.
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Добавлю в ленту технологических новостей. В январе-феврале 2026 заметен прогресс в развитии технологий генерации видео для различных физических сред, которые могут быть использованы как источник данных для обучения самых разных алгоритмов - от распознавания редких событий, генерации графов сцен, до управления роботами и беспилотными автомобилями.
Google DeepMind выкатила в конце января Project Genie (попробовать его можно тут), который объединил в себе возможности Genie 3, Nano Banana Pro and Gemini. Вот здесь можно посмотреть подробности: (блог)
Робототехнический стартап из Китая Robbyant, входящий в Ant Group (дочерняя компания Alibaba) выпустил в открытый доступ "модель мира" LingBot-World (проект) (код) (модель). Подробности можно также посмотреть в статье "Advancing Open-source World Models" (arxiv)
Вообще, Robbyant сделала релиз целой экосистемы полезных открытых инструментов и моделей для "физического ИИ", в которую вошли LingBot-Depth (фундаментальная модель для генерации высококачественных карт глубин по видео и разреженным облакам точек с сенсоров при 3D-восприятии пространства), LingBot-VA (модель генерации видео с действиями для управления роботами - авторы назвали это casual video-action world model), и собственно LingBot-VLA - "прагматическую" фундаментальную визуально-языковую модель генерации действий для 9 различных типов роботов.
#References
Google DeepMind выкатила в конце января Project Genie (попробовать его можно тут), который объединил в себе возможности Genie 3, Nano Banana Pro and Gemini. Вот здесь можно посмотреть подробности: (блог)
Робототехнический стартап из Китая Robbyant, входящий в Ant Group (дочерняя компания Alibaba) выпустил в открытый доступ "модель мира" LingBot-World (проект) (код) (модель). Подробности можно также посмотреть в статье "Advancing Open-source World Models" (arxiv)
Вообще, Robbyant сделала релиз целой экосистемы полезных открытых инструментов и моделей для "физического ИИ", в которую вошли LingBot-Depth (фундаментальная модель для генерации высококачественных карт глубин по видео и разреженным облакам точек с сенсоров при 3D-восприятии пространства), LingBot-VA (модель генерации видео с действиями для управления роботами - авторы назвали это casual video-action world model), и собственно LingBot-VLA - "прагматическую" фундаментальную визуально-языковую модель генерации действий для 9 различных типов роботов.
#References
🔥3
Есть новости и у нашей команды, связанные с публикацией результатов применения графов 3D-сцен для планирования действий и управления роботами.
В конце января стало известно, что работа "Knowledge-Guided Manipulation Using Multi-Task Reinforcement Learning", в написании которой участвовала наша команда, была принята на A* конференцию ICRA'2026 в Вене. В марте планируем выложить ее на arxiv и сделаю про нее отдельный пост.
Ко Дню науки у нас приняли статью в хороший Q1-журнал Engineering Applications of Artificial Intelligence, которая называется "Scene graph-driven reasoning for action planning of humanoid robot". Она уже опубликована и смотреть ее можно тут.
#Papers #ICRA #EAAI
В конце января стало известно, что работа "Knowledge-Guided Manipulation Using Multi-Task Reinforcement Learning", в написании которой участвовала наша команда, была принята на A* конференцию ICRA'2026 в Вене. В марте планируем выложить ее на arxiv и сделаю про нее отдельный пост.
Ко Дню науки у нас приняли статью в хороший Q1-журнал Engineering Applications of Artificial Intelligence, которая называется "Scene graph-driven reasoning for action planning of humanoid robot". Она уже опубликована и смотреть ее можно тут.
#Papers #ICRA #EAAI
🔥6