3D ML – Telegram
652 subscribers
243 photos
74 videos
5 files
265 links
Работа с 3D-данными с помощью машинного обучения

Обо всем, что на стыке машинного обучения, компьютерной графики и компьютерного зрения, с красивым визуалом и долей иронии от компании PHYGITALISM.

Автор: @olegyusupov
https://linktr.ee/phygitalism
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, друзья исследователи!

Тут исследовательница из FAIR Georgia Gkioxari добавила новую утилиту в PyTorch3D - Intersection Over Union of Oriented 3D Boxes: A New Algorithm. По сути - быстрый (CUDA / torch / C++) расчет IoU метрики для ориентированных ограничивающих 3D параллелепипедов. Данная метрика часто встречается в 3D ML задачах, например в задаче 3D Object Detection.

Кажется что это что-то незначительное, однако мы в этом видим признак того, что 3D ML выходит на передовой уровень разработок и исследований внутри самого ML, потому что когда исследователи начинают оптимизировать самые низкоуровневые операции так, чтобы их можно было удобно использовать в повседневных экспериментах и при вычислениях на серьезных кластерах - это значит что происходит максимальное погружение разработчиков на самых разных уровнях. Это еще не говоря о количестве статей и работ по совместным тегам 3D+ML на топовых конференциях.

А что вас может убедить в том, что 3D ML рвется ввысь? Предлагайте варианты в комментариях=)
Здоровенькі були, друзі дослідники!

Мы уже писали несколько постов (раз, два, три) о том, как исследователи совмещают CLIP и какую-либо технику генерации 3D контента. Долго ждать не пришлось, вот и еще один вариант подоспел.

Исследователь Eric Chu из MIT Media Lab предложил весьма простой и элегантный способ генерации 3D контента по тексту - Evolving Evocative 2D Views of Generated 3D Objects.

Красота работы в простоте генератора (всего 6 параметров в аналитической формуле + параметры поворота камеры) и в интересном пайплайне (используется генетический алгоритм: автор пишет, что делает это в связи с недефферинцируемым рендерингом - ну тут явно есть шанс улучшить модель за счет использования дифференциального рендеринга).
Интересный момент про связь науки и искусства. В статье, авторы отмечают, что одним из вдохновителей работы, послужил Ричард Серра с его серий скульптур, в которой форма скульптуры определяется глаголом (см. пр. To Lift). В качестве своеобразного теста для разрабатываемых генеративных моделей, авторы предлагают сравнивать скульптуры Серра с результатом работы генеративных моделей на основе одного и того же текста.

Что тут сказать, искусство важный вдохновитель науки: Серра, например, совмещал CLIP с 3D GAN, когда еще и компьютеров то толком не было.
Для удобства, собрали 4 варианта совмещения CLIP с 3D генерацией в одну картинку. А куда еще, по-вашему, можно воткнуть CLIP чтобы получить интересный результат? Ждем ваши варианты в комментариях =)
Привет всем любителям нейронного рендеринга!

Опубликован препринт самой свежей сборной аналитической статьи (State-of-the-art-report/STAR) про нейронный рендеринг Advances in Neural Rendering - must see для любого 3D ML исследователя.

Статья вышла очень подробной, освещены разные аспекты технологии, а также присутствуют ссылки на реализации почти всех упомянутых архитектур. Отдельно стоит отметить, что по каждому направлению в нейронном рендеринге, авторы составили таблицы архитектур со ссылками и удобной классификацией различных архитектур и входных данных.
Статья будет полезна всем, кто хочет познакомиться с современным нейронным рендерингом, для этого в ней есть все необходимое:
1. Введение с историческим экскурсом в нейронный рендеринг и объяснением основных концепций;
2 - 3. Объяснение фундаментальных концепций, которые стоят сегодня за SOTA архитектурами.
4. Области приложения нейронного рендеринга со сводными табличками и фреймворками для реализации архитектур и процессов обучения;
5. Открытые проблемы и вопросы: обозначения горизонтов дальнейшего развития технологии и областей применения;
6 - 7. Влияние нейронного рендеринга на индустрию и пользователей + заключение и море ссылок.

Кому мало самой статьи, есть запись доклада на SIGGRAPH 2021 с разбором основных моментов. Если вы уже ознакомились с отчетом, делитесь в комментариях, какие моменты показались вам наиболее интересными и что вы думаете о будущем нейронного рендеринга.
Привет, коллеги!

В минувшее воскресенье все авторы данного канала выступали с докладом про 3D ML (запись встречи, презентация) у наших друзей из ARhub. Говорили о том, что из себя представляет наука и область 3D ML, разбирали примеры индустриальных и наших кейсов, обсуждали влияние 3D ML на CG и немного рассказали о том, как этому слиянию поможет наш продукт =)

Надеемся, что эта лекция и презентация будет полезна всем начинающим исследователям как входная точка в область.
Привет, коллеги!

Сегодняшние посты посвящены платформе NVIDIA Metropolis, которая является базой большой программы AI City, способствующей развитию умных городов.

Вкратце, NVIDIA Metropolis предлагает инструменты видеоаналитики для широкого спектра индустриальных задач, таких как обеспечение бескассовых покупок в супермаркетах, путем отслеживания перемещения товаров, или же контролирование промышленных роботов жестами, посредством real-time оценки позы и мгновенной 3D реконструкции окружения на основе NeRF — последнее демонстрируется в этом ролике.
Особенности платформы:
— Весь цикл разработки в рамках единой экосистемы NVIDIA Metropolis
— Вычислительно оптимизированные решения благодаря TensorRT
— Упрощенная масштабируемость решений благодаря Triton Inference Server
— Удобная настройка real-time аналитики потокового видео с edge-устройств благодаря DeepStream SDK
— Богатый зоопарк архитектур, насчитывающий свыше сотни предобученных моделей, а также возможность конструировать собственные нейросети благодаря TAO Toolkit

Если вам было бы интересно увидеть такие же обзорные посты про остальные платформы, фреймворки и библиотеки экосистемы NVIDIA, то обязательно дайте нам знать в комментариях!
Привет всем любителям neural inverse rendering'a — этот пост для вас!

Сегодня вспомним о царь-моделе всего нейронного рендеринга — о NeRF'e (да-да, о том самом девятислойном перцептроне, который переобучается на наборе разноракурсных фотографий трёхмерной сцены, тем самым кодируя её объёмное представление в своих весах). Точнее говоря, разберём одну из его недавних модификаций от Google Research со слегка кэрролловским названием SNeRG (Sparse Neural Radiance Grid).

SNeRG — это один из вариантов кэширования предобученного NeRF'a, заключающийся в размещении внутри разреженного воксельного объема предсказаний цвета и плотности 3D точек. Такой заблаговременный инференс NeRF'a позволяет на этапе отрисовки нового ракурса свести определение цвета пикселя лишь к одному запросу крохотного двухслойного перцептрона, который авторам даже удалось запихнуть в GLSL шейдер. В результате, SNeRG способен обеспечивать рил-тайм рендеринг небольших объектов в разрешении 800х800 точек, например, на 2019-ом MacBook Pro.
This media is not supported in your browser
VIEW IN TELEGRAM
Стоит отметить, что такого рода кэширование нейронного представления сцены является вполне валидным примером известного в 3D графике процесса запекания (консолидации характеристик 3D сцены в 2D текстуре или отдельном кэше). Однако, в отличие от классического раздельного запекания таких смоделированных характеристик, как глобальное затенение (ambient occlusion), карты нормалей (normal maps) или же карты освещения (lightmaps) здесь целиком кэшируется объемное представление реальной сцены, то есть как текстура, так и геометрия.

В общем, неудивительно, что NeRF — главное 3D ML событие прошлого года — привело к настоящему буму разнообразных NeRF-подобных архитектур, которым удалось не только значительно повысить скорости обучения и инференса оригинала, но и добиться новых возможностей, как обучение на динамических сценах и переосвещение объектов на инференсе.

Если вас так же, как и нас будоражит новая веха нейронных подходов к решению inverse rendering'a, то не стесняйтесь делиться мыслями в комментариях!
video_9_slice_visualization.gif
25.9 MB
Привет всем любителям генеративного искусства и коллегам исследователям!


Уже несколько месяцев исследователи по всему миру экспериментируют с 3-ей версией StyleGAN. Результаты получаются очень интересные, но что самое важное с качественной и плавной интерполяцией без размытия!

Мы пока не видели хорошего разбора работы этой архитектуры — если знаете такой кидайте в комментариях, а если хотите чтобы мы сами сделали такой разбор тоже пишите в комментариях =). Однако, если внимательно присмотреться к деталям архитектуры, то можно обнаружить, что главной идеей при создании архитектуры стало использование операторов и архитектур инвариантных к сдвигу и повороту - основному качеству евклидовых данных (смотри доклады и книжки на geometricaldeeplearning.com).

То есть использование подходов (что фундаментальных, что конкретных операторов) из 3D ML позволяет улучшить подходы в обычном ML!

А какие случаи, когда 3D улучшило 2D знаете вы?
211122_StyleGAN3_Complexity_Graphics_0101_180frames.gif
34.3 MB
Кстати, можете оценить результаты наших экспериментов с этой архитектурой =)
Привет, 3D машин лёрнеры! В сегодняшнем воскресном посте осветим облачную платформу NVIDIA Omniverse!

В двух словах, эта платформа служит для разработки собственных 3D инструментов и приложений, в том числе на базе технологий NVIDIA AI, PhysX и RTX Rendering. Помимо этого, Omniverse предоставляет возможности совместного рил-тайм редактирования 3D сцен и бесшовной интеграции широкого спектра уже существующих продуктов, например, экосистем Adobe и Autodesk.

Среди уже реализованных приложений с привкусом 3D ML сейчас отметим лишь Omniverse Machinima, которое позволяет анимировать в рил-тайме не только тела персонажей путем оценки позы человека по видео, но и лица персонажей исключительно по голосу человека.
Особенности платформы:
— Совместное создание и хранение в облаке виртуальных миров благодаря Omniverse Nucleus
— Синхронизация инструментов создания цифрового контента, а также конвертация 3D ассетов в формат USD благодаря Omniverse Connectors
— Планирование запуска в облаке таких задач как генерация синтетических данных, физическая симуляция и рендеринг сцен благодаря Omniverse Farm
— Разработка Python расширений с возможностью кастомизации дефолтного редактора сцен OmniUI, а также создание микросервисов для автоматизации задач благодаря Omniverse Kit
— Cоздание физических симуляций для тестирования как виртуальных реплик роботов, так и цифровых двойников целых фабрик благодаря Omniverse Simulation

А какое Omniverse приложение хотели бы увидеть вы? Делитесь идеями в комментариях, а мы пока продолжим обозревать экосистему NVIDIA!
This media is not supported in your browser
VIEW IN TELEGRAM
Привет будущим метаверсерам!)

Помните мы писали как исследователь из Google Ajay Jain экспериментирует с совмещением CLIP и NeRF? Так вот, у него с коллегами вышла статья “Zero-Shot Text-Guided Object Generation with Dream Fields” в которой они оформили свои эксперименты в виде окончательной архитектуры.

Что делает архитектура? >>> Генерирует 3D модель (в виде radience field, не зависящей от позиции камеры) по тексту.

Если совсем кратко что тут происходит? >>> CLIP + NeRF + DALLE

Есть код? >>> пока нет

С точки зрения качества, можете оценить видео на странице проекта и обалдеть от разнообразия генерируемых моделей. Для будущего METAVERSE и развития XR эта модель важный шаг, так как она позволяет генерировать качественный 3D контент из текстового описания.

Авторы оценили создания одной модели на Google Cloud в 3$ и 1 час. А как вы думаете, когда мы достигнем Real-time генерации 3D контента?)
👍1
Привет, коллеги!

Про 2D style transfer на картинках слышали все, а вот в области 3D style transfer на сегодняшний день не очень много заметных работ. Самой свежей в этом направлении является StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions.

Как работает? >> на вход принимает RGB-D скан помещения + картинку с желаемым стилем, на выходе текстура для первоначального скана. Выигрывает у конкурентов за счет хитрых функций потерь и приемов из проективной геометрии.

Есть код? >> пока нет 😢

По сравнению с предыдущими работами, в данной нет временных и пространственных шумов, а также текстуры лучше ложатся на сложные поверхности, хотя Stylizing 3D Scene via Implicit Representation and HyperNetwork может составить конкуренцию (тоже нет кода 😢). Определенно, если код появится в открытом доступе, можно будет забабахать классное арт приложение для iOS устройств с глубинными камерами.

А знаете ли вы удачные примеры 3D Style transfer? Делитесь в комментариях =)
👍1