3D ML – Telegram
651 subscribers
243 photos
74 videos
5 files
265 links
Работа с 3D-данными с помощью машинного обучения

Обо всем, что на стыке машинного обучения, компьютерной графики и компьютерного зрения, с красивым визуалом и долей иронии от компании PHYGITALISM.

Автор: @olegyusupov
https://linktr.ee/phygitalism
Download Telegram
Статья будет полезна всем, кто хочет познакомиться с современным нейронным рендерингом, для этого в ней есть все необходимое:
1. Введение с историческим экскурсом в нейронный рендеринг и объяснением основных концепций;
2 - 3. Объяснение фундаментальных концепций, которые стоят сегодня за SOTA архитектурами.
4. Области приложения нейронного рендеринга со сводными табличками и фреймворками для реализации архитектур и процессов обучения;
5. Открытые проблемы и вопросы: обозначения горизонтов дальнейшего развития технологии и областей применения;
6 - 7. Влияние нейронного рендеринга на индустрию и пользователей + заключение и море ссылок.

Кому мало самой статьи, есть запись доклада на SIGGRAPH 2021 с разбором основных моментов. Если вы уже ознакомились с отчетом, делитесь в комментариях, какие моменты показались вам наиболее интересными и что вы думаете о будущем нейронного рендеринга.
Привет, коллеги!

В минувшее воскресенье все авторы данного канала выступали с докладом про 3D ML (запись встречи, презентация) у наших друзей из ARhub. Говорили о том, что из себя представляет наука и область 3D ML, разбирали примеры индустриальных и наших кейсов, обсуждали влияние 3D ML на CG и немного рассказали о том, как этому слиянию поможет наш продукт =)

Надеемся, что эта лекция и презентация будет полезна всем начинающим исследователям как входная точка в область.
Привет, коллеги!

Сегодняшние посты посвящены платформе NVIDIA Metropolis, которая является базой большой программы AI City, способствующей развитию умных городов.

Вкратце, NVIDIA Metropolis предлагает инструменты видеоаналитики для широкого спектра индустриальных задач, таких как обеспечение бескассовых покупок в супермаркетах, путем отслеживания перемещения товаров, или же контролирование промышленных роботов жестами, посредством real-time оценки позы и мгновенной 3D реконструкции окружения на основе NeRF — последнее демонстрируется в этом ролике.
Особенности платформы:
— Весь цикл разработки в рамках единой экосистемы NVIDIA Metropolis
— Вычислительно оптимизированные решения благодаря TensorRT
— Упрощенная масштабируемость решений благодаря Triton Inference Server
— Удобная настройка real-time аналитики потокового видео с edge-устройств благодаря DeepStream SDK
— Богатый зоопарк архитектур, насчитывающий свыше сотни предобученных моделей, а также возможность конструировать собственные нейросети благодаря TAO Toolkit

Если вам было бы интересно увидеть такие же обзорные посты про остальные платформы, фреймворки и библиотеки экосистемы NVIDIA, то обязательно дайте нам знать в комментариях!
Привет всем любителям neural inverse rendering'a — этот пост для вас!

Сегодня вспомним о царь-моделе всего нейронного рендеринга — о NeRF'e (да-да, о том самом девятислойном перцептроне, который переобучается на наборе разноракурсных фотографий трёхмерной сцены, тем самым кодируя её объёмное представление в своих весах). Точнее говоря, разберём одну из его недавних модификаций от Google Research со слегка кэрролловским названием SNeRG (Sparse Neural Radiance Grid).

SNeRG — это один из вариантов кэширования предобученного NeRF'a, заключающийся в размещении внутри разреженного воксельного объема предсказаний цвета и плотности 3D точек. Такой заблаговременный инференс NeRF'a позволяет на этапе отрисовки нового ракурса свести определение цвета пикселя лишь к одному запросу крохотного двухслойного перцептрона, который авторам даже удалось запихнуть в GLSL шейдер. В результате, SNeRG способен обеспечивать рил-тайм рендеринг небольших объектов в разрешении 800х800 точек, например, на 2019-ом MacBook Pro.
This media is not supported in your browser
VIEW IN TELEGRAM
Стоит отметить, что такого рода кэширование нейронного представления сцены является вполне валидным примером известного в 3D графике процесса запекания (консолидации характеристик 3D сцены в 2D текстуре или отдельном кэше). Однако, в отличие от классического раздельного запекания таких смоделированных характеристик, как глобальное затенение (ambient occlusion), карты нормалей (normal maps) или же карты освещения (lightmaps) здесь целиком кэшируется объемное представление реальной сцены, то есть как текстура, так и геометрия.

В общем, неудивительно, что NeRF — главное 3D ML событие прошлого года — привело к настоящему буму разнообразных NeRF-подобных архитектур, которым удалось не только значительно повысить скорости обучения и инференса оригинала, но и добиться новых возможностей, как обучение на динамических сценах и переосвещение объектов на инференсе.

Если вас так же, как и нас будоражит новая веха нейронных подходов к решению inverse rendering'a, то не стесняйтесь делиться мыслями в комментариях!
video_9_slice_visualization.gif
25.9 MB
Привет всем любителям генеративного искусства и коллегам исследователям!


Уже несколько месяцев исследователи по всему миру экспериментируют с 3-ей версией StyleGAN. Результаты получаются очень интересные, но что самое важное с качественной и плавной интерполяцией без размытия!

Мы пока не видели хорошего разбора работы этой архитектуры — если знаете такой кидайте в комментариях, а если хотите чтобы мы сами сделали такой разбор тоже пишите в комментариях =). Однако, если внимательно присмотреться к деталям архитектуры, то можно обнаружить, что главной идеей при создании архитектуры стало использование операторов и архитектур инвариантных к сдвигу и повороту - основному качеству евклидовых данных (смотри доклады и книжки на geometricaldeeplearning.com).

То есть использование подходов (что фундаментальных, что конкретных операторов) из 3D ML позволяет улучшить подходы в обычном ML!

А какие случаи, когда 3D улучшило 2D знаете вы?
211122_StyleGAN3_Complexity_Graphics_0101_180frames.gif
34.3 MB
Кстати, можете оценить результаты наших экспериментов с этой архитектурой =)
Привет, 3D машин лёрнеры! В сегодняшнем воскресном посте осветим облачную платформу NVIDIA Omniverse!

В двух словах, эта платформа служит для разработки собственных 3D инструментов и приложений, в том числе на базе технологий NVIDIA AI, PhysX и RTX Rendering. Помимо этого, Omniverse предоставляет возможности совместного рил-тайм редактирования 3D сцен и бесшовной интеграции широкого спектра уже существующих продуктов, например, экосистем Adobe и Autodesk.

Среди уже реализованных приложений с привкусом 3D ML сейчас отметим лишь Omniverse Machinima, которое позволяет анимировать в рил-тайме не только тела персонажей путем оценки позы человека по видео, но и лица персонажей исключительно по голосу человека.
Особенности платформы:
— Совместное создание и хранение в облаке виртуальных миров благодаря Omniverse Nucleus
— Синхронизация инструментов создания цифрового контента, а также конвертация 3D ассетов в формат USD благодаря Omniverse Connectors
— Планирование запуска в облаке таких задач как генерация синтетических данных, физическая симуляция и рендеринг сцен благодаря Omniverse Farm
— Разработка Python расширений с возможностью кастомизации дефолтного редактора сцен OmniUI, а также создание микросервисов для автоматизации задач благодаря Omniverse Kit
— Cоздание физических симуляций для тестирования как виртуальных реплик роботов, так и цифровых двойников целых фабрик благодаря Omniverse Simulation

А какое Omniverse приложение хотели бы увидеть вы? Делитесь идеями в комментариях, а мы пока продолжим обозревать экосистему NVIDIA!
This media is not supported in your browser
VIEW IN TELEGRAM
Привет будущим метаверсерам!)

Помните мы писали как исследователь из Google Ajay Jain экспериментирует с совмещением CLIP и NeRF? Так вот, у него с коллегами вышла статья “Zero-Shot Text-Guided Object Generation with Dream Fields” в которой они оформили свои эксперименты в виде окончательной архитектуры.

Что делает архитектура? >>> Генерирует 3D модель (в виде radience field, не зависящей от позиции камеры) по тексту.

Если совсем кратко что тут происходит? >>> CLIP + NeRF + DALLE

Есть код? >>> пока нет

С точки зрения качества, можете оценить видео на странице проекта и обалдеть от разнообразия генерируемых моделей. Для будущего METAVERSE и развития XR эта модель важный шаг, так как она позволяет генерировать качественный 3D контент из текстового описания.

Авторы оценили создания одной модели на Google Cloud в 3$ и 1 час. А как вы думаете, когда мы достигнем Real-time генерации 3D контента?)
👍1
Привет, коллеги!

Про 2D style transfer на картинках слышали все, а вот в области 3D style transfer на сегодняшний день не очень много заметных работ. Самой свежей в этом направлении является StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions.

Как работает? >> на вход принимает RGB-D скан помещения + картинку с желаемым стилем, на выходе текстура для первоначального скана. Выигрывает у конкурентов за счет хитрых функций потерь и приемов из проективной геометрии.

Есть код? >> пока нет 😢

По сравнению с предыдущими работами, в данной нет временных и пространственных шумов, а также текстуры лучше ложатся на сложные поверхности, хотя Stylizing 3D Scene via Implicit Representation and HyperNetwork может составить конкуренцию (тоже нет кода 😢). Определенно, если код появится в открытом доступе, можно будет забабахать классное арт приложение для iOS устройств с глубинными камерами.

А знаете ли вы удачные примеры 3D Style transfer? Делитесь в комментариях =)
👍1
Привет, коллеги!

Наткнулись тут на этот пост про style transfer на скриншотах из майнкрафт. Больше примеров можно найти в Twitter аккаунте автора. Денис предположил, что это NVIDIA GauGAN-2 и мы с ним в полной мере согласны =)


На это указывает пример генерации изображений по скриншотам, на которых были элементы игрового интерфейса (на стилизованных изображениях он виден), а это значит, что нейронка для стилизации на вход принимает изображение и каждому цвету пикселя ставит в соответствие цвет маски класса объекта (Если бы это был gancraft, то мы бы скорее всего любовались на гифки, а не на картинки и не наблюдали бы влияние интерфейса).

По поводу того как это сделано: скорее всего сначала цвету каждого пикселя ставится в соответствие цвет маски класса (несложное хеширование), а уже из получившейся маски, генерируется стилизованное изображение.
351212133337713.61bb40b9b7f79.gif
48.1 MB
Кстати, упомянутый выше Twitter - хороший пример цифрового искусства, в котором нейронные сети сегодня играют не последнюю роль. У нас на эту тему сегодня вышел кейс на Behance: “Abstract art & artificial intelligence”, в котором наши CG художники с помощью нашего же продукта Phygital+ экспериментировали с творчеством на основе глубоких моделей, обученных на картинах художницы Татьяны Плаховой (Complexity Graphics).

Вот такая сегодня смесь reverse engineering и neural art 😁 Делитесь в комментариях вашими историями про reverse engineering в машинном обучении или про то, что вы думаете про будущее криэйторов, которые будут творить совместно с нейронными сетями и другими проявлениями ИИ.
Привет, коллеги!

Надеемся ваши праздники прошли хорошо. Начало года - не только время запуска новых проектов, но и повод подвести итоги ушедшего года. Собрали для вас несколько сборных заметок и видео с итогами в разных областях науки.

1. Итоги года науки от журнала Quanta Magazine.
1.1 Математика и компьютерные науки - здесь вас точно покорит нейронная сеть бесконечной ширины 😱
1.2 Физика - суперкомпьютеры помогли понять что стандартная модель не совсем верна 😳
1.3 Нейробиология и биология - развитие новой парадигмы устройства мозга, отходящей от традиционной “карты регионов”

2. Научные итоги года от Медузы - итоги журналов Nature и Science + выбор научного редактора Медузы.

3. Итоги года от TJournal - здесь вам и про майнеров и про метавселенную и про VR, как мы любим)

4. Ну и совсем для ̶л̶е̶н̶и̶в̶ы̶х̶ торопящихся - топ 10 инноваций года в одном Тик Ток клипе.

Хотели бы отдельно увидеть топ достижений в 3D ML в 2021 году? 😉

P.S. пишите в комментариях какой научный прорыв впечатлил вас.
🔥7👍3
Привет, друзья исследователи метаверс эпохи!

Каждый день выходят сотни статей, постов, репозиториев с новыми моделями, фреймворками и пр. Иногда хочется остановить этот бешеный темп и прочитать/послушать/потыкать во что-то фундаментальное/вечное/доброе (желательно не китайские статьи).

В таком случае, самое время послушать отца основателя машинного обучения, лауреата премии Тьюринга, изобретателя сверточных нейронных сетей и со-изобретателя 3D ML - Яна Лекуна.

На канале Лекса Фридмана недавно вышел второй большой подкаст с Лекуном (первый подкаст), в котором были затронуты очень много интересных и актуальных топиков: Self-supervised learning, почему изображения и 3D сложнее текста для глубоких сетей, три вызова в ИИ, советы начинающим исследователям и многое другое.

Если вы не любитель длинных видео, то хотим посоветовать вам тик-ток аккаунт @artembondar03 - крутые и глубокие инсайды из мира глубокого обучения (и кеки про повседневность дата саентистов).

Делитесь вашими любимыми интервью в комментах
🔥8👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, коллеги!

Тема творчества с помощью методов машинного обучения в последние годы стала очень актуальной. Любой уважающий себя creative coder имеет набор из минимум 10 нейронок, обернутых в коллаб (кстати про наш продукт, который ускорит процесс creative coding) с которыми непрерывно экспериментируют (здесь примеры наших экспериментов, а здесь целый канал про это направление).

Одной из самых красивых генеративных глубоких моделей последнего времени является Disco Diffusion (если вам интересна теоретическая подоплека диффузионных моделей, есть вот такая статья). Сообщество активно добавляет новый функционал к данной модели. Текущая версия - 4.1. способна выдавать анимации с псевдо-пролетом камеры сквозь сцену (пролет имитируется за счет кропов и сдвигов каждого кадра, который является основой для генерации дальнейшего кадра).
🔥4👍1