3D ML – Telegram
651 subscribers
243 photos
74 videos
5 files
265 links
Работа с 3D-данными с помощью машинного обучения

Обо всем, что на стыке машинного обучения, компьютерной графики и компьютерного зрения, с красивым визуалом и долей иронии от компании PHYGITALISM.

Автор: @olegyusupov
https://linktr.ee/phygitalism
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, друзья исследователи!

Не знаю как вас, а меня больше всего в области пересечения 3D и ML вдохновляют приложения в физических моделях. Поскольку пример с быстрым рендерингом облаков уже набил оскомину, вот вам два свежих примера того, как 3D ML улучшает (= ускоряет) сложные физические симуляции (в игровых движках и не только).

1. Learning Mesh-Based Simulation with Graph Networks (статья + видео, github TF, github PT) — очень интересный подход к симуляции самых разных объектов в которых как-то присутствует геометрия поверхности и она моделируется полигональным мешем (предсказание того, как ткань будет развиваться на ветру).
Почему круто:
- быстрее чем аналог честной симуляции методом частиц или сеточными методами;
- присутствует адаптивная сетка для увеличения количества полигонов меша в окрестности регионов с большим числом нюансов.
Zibra_Liquids_Unity3D_Water_Simulation_HDRP_Demo.gif
17 MB
2. ZibraAI и ее Zibra Liquid (medium paper, free Unity 3D demo, video with HDRP example) — движок физических симуляций жидкостей в реальном времени, совместимый с Unity 3D. Под капотом лежит представление жидкости как SDF + использование Moving Least Squares Material Point Method.
Почему круто:
- уже есть готовый плагин для Unity 3D;
имеется поддержка HDRP;
- схожим методом можно закрыть вопрос симуляции не только жидкостей, но и аморфных тел вроде пластилина или меда.

Оба примера выглядят вдохновляюще и закрывают два направления в real-time physics в игровых движках. А знаете ли вы еще примеры на схожую тематику? Делитесь в комментариях =)
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, друзья исследователи!

Тут исследовательница из FAIR Georgia Gkioxari добавила новую утилиту в PyTorch3D - Intersection Over Union of Oriented 3D Boxes: A New Algorithm. По сути - быстрый (CUDA / torch / C++) расчет IoU метрики для ориентированных ограничивающих 3D параллелепипедов. Данная метрика часто встречается в 3D ML задачах, например в задаче 3D Object Detection.

Кажется что это что-то незначительное, однако мы в этом видим признак того, что 3D ML выходит на передовой уровень разработок и исследований внутри самого ML, потому что когда исследователи начинают оптимизировать самые низкоуровневые операции так, чтобы их можно было удобно использовать в повседневных экспериментах и при вычислениях на серьезных кластерах - это значит что происходит максимальное погружение разработчиков на самых разных уровнях. Это еще не говоря о количестве статей и работ по совместным тегам 3D+ML на топовых конференциях.

А что вас может убедить в том, что 3D ML рвется ввысь? Предлагайте варианты в комментариях=)
Здоровенькі були, друзі дослідники!

Мы уже писали несколько постов (раз, два, три) о том, как исследователи совмещают CLIP и какую-либо технику генерации 3D контента. Долго ждать не пришлось, вот и еще один вариант подоспел.

Исследователь Eric Chu из MIT Media Lab предложил весьма простой и элегантный способ генерации 3D контента по тексту - Evolving Evocative 2D Views of Generated 3D Objects.

Красота работы в простоте генератора (всего 6 параметров в аналитической формуле + параметры поворота камеры) и в интересном пайплайне (используется генетический алгоритм: автор пишет, что делает это в связи с недефферинцируемым рендерингом - ну тут явно есть шанс улучшить модель за счет использования дифференциального рендеринга).
Интересный момент про связь науки и искусства. В статье, авторы отмечают, что одним из вдохновителей работы, послужил Ричард Серра с его серий скульптур, в которой форма скульптуры определяется глаголом (см. пр. To Lift). В качестве своеобразного теста для разрабатываемых генеративных моделей, авторы предлагают сравнивать скульптуры Серра с результатом работы генеративных моделей на основе одного и того же текста.

Что тут сказать, искусство важный вдохновитель науки: Серра, например, совмещал CLIP с 3D GAN, когда еще и компьютеров то толком не было.
Для удобства, собрали 4 варианта совмещения CLIP с 3D генерацией в одну картинку. А куда еще, по-вашему, можно воткнуть CLIP чтобы получить интересный результат? Ждем ваши варианты в комментариях =)
Привет всем любителям нейронного рендеринга!

Опубликован препринт самой свежей сборной аналитической статьи (State-of-the-art-report/STAR) про нейронный рендеринг Advances in Neural Rendering - must see для любого 3D ML исследователя.

Статья вышла очень подробной, освещены разные аспекты технологии, а также присутствуют ссылки на реализации почти всех упомянутых архитектур. Отдельно стоит отметить, что по каждому направлению в нейронном рендеринге, авторы составили таблицы архитектур со ссылками и удобной классификацией различных архитектур и входных данных.
Статья будет полезна всем, кто хочет познакомиться с современным нейронным рендерингом, для этого в ней есть все необходимое:
1. Введение с историческим экскурсом в нейронный рендеринг и объяснением основных концепций;
2 - 3. Объяснение фундаментальных концепций, которые стоят сегодня за SOTA архитектурами.
4. Области приложения нейронного рендеринга со сводными табличками и фреймворками для реализации архитектур и процессов обучения;
5. Открытые проблемы и вопросы: обозначения горизонтов дальнейшего развития технологии и областей применения;
6 - 7. Влияние нейронного рендеринга на индустрию и пользователей + заключение и море ссылок.

Кому мало самой статьи, есть запись доклада на SIGGRAPH 2021 с разбором основных моментов. Если вы уже ознакомились с отчетом, делитесь в комментариях, какие моменты показались вам наиболее интересными и что вы думаете о будущем нейронного рендеринга.
Привет, коллеги!

В минувшее воскресенье все авторы данного канала выступали с докладом про 3D ML (запись встречи, презентация) у наших друзей из ARhub. Говорили о том, что из себя представляет наука и область 3D ML, разбирали примеры индустриальных и наших кейсов, обсуждали влияние 3D ML на CG и немного рассказали о том, как этому слиянию поможет наш продукт =)

Надеемся, что эта лекция и презентация будет полезна всем начинающим исследователям как входная точка в область.
Привет, коллеги!

Сегодняшние посты посвящены платформе NVIDIA Metropolis, которая является базой большой программы AI City, способствующей развитию умных городов.

Вкратце, NVIDIA Metropolis предлагает инструменты видеоаналитики для широкого спектра индустриальных задач, таких как обеспечение бескассовых покупок в супермаркетах, путем отслеживания перемещения товаров, или же контролирование промышленных роботов жестами, посредством real-time оценки позы и мгновенной 3D реконструкции окружения на основе NeRF — последнее демонстрируется в этом ролике.
Особенности платформы:
— Весь цикл разработки в рамках единой экосистемы NVIDIA Metropolis
— Вычислительно оптимизированные решения благодаря TensorRT
— Упрощенная масштабируемость решений благодаря Triton Inference Server
— Удобная настройка real-time аналитики потокового видео с edge-устройств благодаря DeepStream SDK
— Богатый зоопарк архитектур, насчитывающий свыше сотни предобученных моделей, а также возможность конструировать собственные нейросети благодаря TAO Toolkit

Если вам было бы интересно увидеть такие же обзорные посты про остальные платформы, фреймворки и библиотеки экосистемы NVIDIA, то обязательно дайте нам знать в комментариях!
Привет всем любителям neural inverse rendering'a — этот пост для вас!

Сегодня вспомним о царь-моделе всего нейронного рендеринга — о NeRF'e (да-да, о том самом девятислойном перцептроне, который переобучается на наборе разноракурсных фотографий трёхмерной сцены, тем самым кодируя её объёмное представление в своих весах). Точнее говоря, разберём одну из его недавних модификаций от Google Research со слегка кэрролловским названием SNeRG (Sparse Neural Radiance Grid).

SNeRG — это один из вариантов кэширования предобученного NeRF'a, заключающийся в размещении внутри разреженного воксельного объема предсказаний цвета и плотности 3D точек. Такой заблаговременный инференс NeRF'a позволяет на этапе отрисовки нового ракурса свести определение цвета пикселя лишь к одному запросу крохотного двухслойного перцептрона, который авторам даже удалось запихнуть в GLSL шейдер. В результате, SNeRG способен обеспечивать рил-тайм рендеринг небольших объектов в разрешении 800х800 точек, например, на 2019-ом MacBook Pro.
This media is not supported in your browser
VIEW IN TELEGRAM
Стоит отметить, что такого рода кэширование нейронного представления сцены является вполне валидным примером известного в 3D графике процесса запекания (консолидации характеристик 3D сцены в 2D текстуре или отдельном кэше). Однако, в отличие от классического раздельного запекания таких смоделированных характеристик, как глобальное затенение (ambient occlusion), карты нормалей (normal maps) или же карты освещения (lightmaps) здесь целиком кэшируется объемное представление реальной сцены, то есть как текстура, так и геометрия.

В общем, неудивительно, что NeRF — главное 3D ML событие прошлого года — привело к настоящему буму разнообразных NeRF-подобных архитектур, которым удалось не только значительно повысить скорости обучения и инференса оригинала, но и добиться новых возможностей, как обучение на динамических сценах и переосвещение объектов на инференсе.

Если вас так же, как и нас будоражит новая веха нейронных подходов к решению inverse rendering'a, то не стесняйтесь делиться мыслями в комментариях!
video_9_slice_visualization.gif
25.9 MB
Привет всем любителям генеративного искусства и коллегам исследователям!


Уже несколько месяцев исследователи по всему миру экспериментируют с 3-ей версией StyleGAN. Результаты получаются очень интересные, но что самое важное с качественной и плавной интерполяцией без размытия!

Мы пока не видели хорошего разбора работы этой архитектуры — если знаете такой кидайте в комментариях, а если хотите чтобы мы сами сделали такой разбор тоже пишите в комментариях =). Однако, если внимательно присмотреться к деталям архитектуры, то можно обнаружить, что главной идеей при создании архитектуры стало использование операторов и архитектур инвариантных к сдвигу и повороту - основному качеству евклидовых данных (смотри доклады и книжки на geometricaldeeplearning.com).

То есть использование подходов (что фундаментальных, что конкретных операторов) из 3D ML позволяет улучшить подходы в обычном ML!

А какие случаи, когда 3D улучшило 2D знаете вы?
211122_StyleGAN3_Complexity_Graphics_0101_180frames.gif
34.3 MB
Кстати, можете оценить результаты наших экспериментов с этой архитектурой =)
Привет, 3D машин лёрнеры! В сегодняшнем воскресном посте осветим облачную платформу NVIDIA Omniverse!

В двух словах, эта платформа служит для разработки собственных 3D инструментов и приложений, в том числе на базе технологий NVIDIA AI, PhysX и RTX Rendering. Помимо этого, Omniverse предоставляет возможности совместного рил-тайм редактирования 3D сцен и бесшовной интеграции широкого спектра уже существующих продуктов, например, экосистем Adobe и Autodesk.

Среди уже реализованных приложений с привкусом 3D ML сейчас отметим лишь Omniverse Machinima, которое позволяет анимировать в рил-тайме не только тела персонажей путем оценки позы человека по видео, но и лица персонажей исключительно по голосу человека.
Особенности платформы:
— Совместное создание и хранение в облаке виртуальных миров благодаря Omniverse Nucleus
— Синхронизация инструментов создания цифрового контента, а также конвертация 3D ассетов в формат USD благодаря Omniverse Connectors
— Планирование запуска в облаке таких задач как генерация синтетических данных, физическая симуляция и рендеринг сцен благодаря Omniverse Farm
— Разработка Python расширений с возможностью кастомизации дефолтного редактора сцен OmniUI, а также создание микросервисов для автоматизации задач благодаря Omniverse Kit
— Cоздание физических симуляций для тестирования как виртуальных реплик роботов, так и цифровых двойников целых фабрик благодаря Omniverse Simulation

А какое Omniverse приложение хотели бы увидеть вы? Делитесь идеями в комментариях, а мы пока продолжим обозревать экосистему NVIDIA!