Forwarded from Center for Cognitive Modeling
HAIS — международная конференция, посвящённая гибридным системам ИИ. В этом году она проводилась в Саламанке — городе с молодым населением и старейшим университетом в Европе.
Василий Юрьев, наш сотрудник, студент бакалавриата МФТИ выступал с докладом "MapFM: Foundation Model-Driven HD Mapping with Multi-Task Contextual Learning".
В работе представлена модель MapFM для онлайн-генерации векторных HD-карт в беспилотном вождении. Метод использует мощные фундаментальные модели для кодирования изображений с камер, что повышает качество признаков. Для улучшения понимания сцены применяется многозадачное обучение с дополнительными сегментационными головами. Этот подход обогащает контекстную информацию, что приводит к более точным и качественным векторным HD-картам.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Поучаствовал вместе с Егором Ершовым в круглом столе “Peking University International Roundtable Dialogue on AI Governance” на Пекинском Форуме.
В нем также участвовали компания Baidu AI Cloud, которая поддерживает фреймворк для беспилотного вождения Apollo и разрабатывает собственные GPU, Bytedance, которые продвигают различные образовательные инициативы, а не только Tik-Tok, Concordia AI, которая разрабатывает платформу AI Governance и активно внедряет ее в Китае.
Были нешуточные баталии про конкуренцию в сфере ИИ между США и Китаем, что Китаю запрещают Nvidia GPU и отказывают в визах. И нескольким гостям форума из США, в целом нечего было сказать, кроме «давайте жить дружно» 😊
#Activities
В нем также участвовали компания Baidu AI Cloud, которая поддерживает фреймворк для беспилотного вождения Apollo и разрабатывает собственные GPU, Bytedance, которые продвигают различные образовательные инициативы, а не только Tik-Tok, Concordia AI, которая разрабатывает платформу AI Governance и активно внедряет ее в Китае.
Были нешуточные баталии про конкуренцию в сфере ИИ между США и Китаем, что Китаю запрещают Nvidia GPU и отказывают в визах. И нескольким гостям форума из США, в целом нечего было сказать, кроме «давайте жить дружно» 😊
#Activities
🔥2
Forwarded from Center for Cognitive Modeling
Ни для кого не секрет —
На выбор предоставляется 20 проектов, которые включают:
Два шага для подачи заявки:
Стажировку можно совмещать с написанием диплома, но не с другой работой. После успешного окончания возможно трудоустройство в лаборатории Центра, продолжение работы в компаниях-партнерах.
Прием заявок до 24 ноября 2025 включительно!
Вопросы можно задать в сообщениях @fissun.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Подсвечу характерный тренд в 3D-компьютерном зрении - активно появляются трансформерные методы реконструкции трехмерной карты с одновременной оценкой позы камеры и, в последнее время, с генерацией параметров гауссиан. Из наиболее характерных работ: в начале года появилась и впечатлила всех модель VGGT (University of Oxford, Meta AI), затем разработали более быструю модель Pi3 (Shanghai AI Lab), в прошлом месяце вышла модель HunyuanWorld-Mirror (Tencent).
На днях ByteDance представила модель Depth Anything 3 (статья)(проект)(код). Depth Anything 3 может предсказывать пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Эта модель обучена на 27 датасетах и демонстрирует state-of-the-art показатели качества, можете сами попробовать - ссылка на демо
Модель имеет трансформерную архитектуру с набором специализированных голов для генерации карт глубин, ray map, поз камеры. Одна модель решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.
Отмечу разнообразие предобученных версий моделей, например, DA3-Small имеет 30 миллионов параметров и работает почти в пять раз быстрее чем популярная модель VGGT.
#References
На днях ByteDance представила модель Depth Anything 3 (статья)(проект)(код). Depth Anything 3 может предсказывать пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Эта модель обучена на 27 датасетах и демонстрирует state-of-the-art показатели качества, можете сами попробовать - ссылка на демо
Модель имеет трансформерную архитектуру с набором специализированных голов для генерации карт глубин, ray map, поз камеры. Одна модель решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.
Отмечу разнообразие предобученных версий моделей, например, DA3-Small имеет 30 миллионов параметров и работает почти в пять раз быстрее чем популярная модель VGGT.
#References
🔥5⚡1
Forwarded from Институт AIRI
Завтра стартует международная конференция по искусственному интеллекту AI Journey 2025 🚀
Событие пройдёт с 19 по 21 ноября и будет включать три тематических блока: общество, бизнес и наука. В этом году Институт AIRI представит 25 докладов, 15 постеров и 6 стендов.
Подробная программа и трансляция на сайте. До встречи в онлайне!
Событие пройдёт с 19 по 21 ноября и будет включать три тематических блока: общество, бизнес и наука. В этом году Институт AIRI представит 25 докладов, 15 постеров и 6 стендов.
Подробная программа и трансляция на сайте. До встречи в онлайне!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчера прошел большой релиз фундаментальных моделей для компьютерного зрения от SuperIntelligence Labs:
Были выпущены:
1) SAM3 (код)(статья), который в отличие от SAM2 получил возможность сегментировать и отслеживать объекты по текстовым запросам
2) SAM 3D Body Model, 3DB (код)(статья) для реконструкции 3D модели тела человека по изображениям
3) SAM 3D Objects (код)(статья) для реконструкции 3D моделей произвольных объектов по изображениям и (опционально) облакам точек
#References
Были выпущены:
1) SAM3 (код)(статья), который в отличие от SAM2 получил возможность сегментировать и отслеживать объекты по текстовым запросам
2) SAM 3D Body Model, 3DB (код)(статья) для реконструкции 3D модели тела человека по изображениям
3) SAM 3D Objects (код)(статья) для реконструкции 3D моделей произвольных объектов по изображениям и (опционально) облакам точек
#References
🔥2