PHYGITAL+CREATIVE
10 декабря с 8:30 до 14:30 пройдет первый Unity AI Summit! Это бесплатный однодневный форум для разработчиков, исследователей и практиков. На мероприятии можно будет узнать о технологических инновациях в Unity и их реальных применениях в области машинного…
Посмотрела немного рекламный саммит Unity по AI. Главные векторы были обозначены такие:
1. Генерация синтетических данных с помощью фотореалистичного рендера. Здесь у меня возникает много вопросов, один из них — откуда брать 3д модели чтобы эти рендеры получать? Но на этой благодатной почве уже взошли стартапы. Кажется, что это имеет много смысла для генерации 3д данных, с 2д я думаю лучше ганы справятся в большинстве кейсов, 🤷🏻♀️ но я могу ошибаться. Cегментация облаков точек, симуляция данных с лидаров, а также depth estimation были среди показанных примеров.
2. Reinforcement learning.
Unity это изначально игровой движок, поэтому грех не лезть в RL и в создание окружений для ml-агентов. Проект ml-agents уже не первый год в разработке и ориентирован как на rl-рисечеров, так и на разработчиков игр, готовых добавить умных npc.
В тему развития npc также можно упомянуть о желании разработчиков юнити прикрутить последние наработки из nlp к генерации диалогов. Кроме прочего,
3. Robotic simulations.
1. Генерация синтетических данных с помощью фотореалистичного рендера. Здесь у меня возникает много вопросов, один из них — откуда брать 3д модели чтобы эти рендеры получать? Но на этой благодатной почве уже взошли стартапы. Кажется, что это имеет много смысла для генерации 3д данных, с 2д я думаю лучше ганы справятся в большинстве кейсов, 🤷🏻♀️ но я могу ошибаться. Cегментация облаков точек, симуляция данных с лидаров, а также depth estimation были среди показанных примеров.
2. Reinforcement learning.
Unity это изначально игровой движок, поэтому грех не лезть в RL и в создание окружений для ml-агентов. Проект ml-agents уже не первый год в разработке и ориентирован как на rl-рисечеров, так и на разработчиков игр, готовых добавить умных npc.
В тему развития npc также можно упомянуть о желании разработчиков юнити прикрутить последние наработки из nlp к генерации диалогов. Кроме прочего,
3. Robotic simulations.
* project page
* paper
* paper
We introduce DefTet as a particular parameterization that utilizes volumetric tetrahedral meshes for the reconstruction problem. Unlike existing volumetric approaches, DefTet optimizes for both vertex placement and occupancy, and is differentiable with respect to standard 3D reconstruction loss functions. We show that it can represent arbitrary, complex topology, is both memory and computationally efficient, and can produce high-fidelity reconstructions with a significantly smaller grid size than alternative volumetric approaches. The predicted surfaces are also inherently defined as tetrahedral meshes, thus do not require post-processing. We demonstrate that DefTet matches or exceeds both the quality of the previous best approaches and the performance of the fastest ones. Our approach obtains high-quality tetrahedral meshes computed directly from noisy point clouds, and is the first to showcase high-quality 3D tet-mesh results using only a single image as input.
#single_image #3dForwarded from Лаборатория ИИ (UnrealNeural)
This media is not supported in your browser
VIEW IN TELEGRAM
Learning Deformable Tetrahedral Meshes for 3D Reconstruction
DECA: Detailed Expression Capture and Animation
* github
* paper
DECA reconstructs a 3D head model with detailed facial geometry from a single input image. The resulting 3D head model can be easily animated. Please refer to the arXiv paper for more details.
The main features:
Reconstruction: produces head pose, shape, detailed face geometry, and lighting information from a single image.
Animation: animate the face with realistic wrinkle deformations.
Robustness: tested on facial images in unconstrained conditions. Our method is robust to various poses, illuminations and occlusions.
Accurate: state-of-the-art 3D face shape reconstruction on the NoW Challenge benchmark dataset.
#face_reconstruction #single_image
* github
* paper
DECA reconstructs a 3D head model with detailed facial geometry from a single input image. The resulting 3D head model can be easily animated. Please refer to the arXiv paper for more details.
The main features:
Reconstruction: produces head pose, shape, detailed face geometry, and lighting information from a single image.
Animation: animate the face with realistic wrinkle deformations.
Robustness: tested on facial images in unconstrained conditions. Our method is robust to various poses, illuminations and occlusions.
Accurate: state-of-the-art 3D face shape reconstruction on the NoW Challenge benchmark dataset.
#face_reconstruction #single_image
GitHub
GitHub - yfeng95/DECA: DECA: Detailed Expression Capture and Animation (SIGGRAPH 2021)
DECA: Detailed Expression Capture and Animation (SIGGRAPH 2021) - yfeng95/DECA
FaceMagic: Real-Time Facial Detail Effects on Mobile
[Disney Research, ACM SIGGRAPH Asia 2020]
* project page
* youtube
#face_reconstruction #real_time
[Disney Research, ACM SIGGRAPH Asia 2020]
* project page
* youtube
We present a novel real-time face detail reconstruction method capable of recovering high quality geometry on consumer mobile devices.
Our system firstly uses a morphable model and semantic segmentation of facial parts to achieve robust self-calibration. We then capture fine-scale surface details using a patch-based Shape from Shading (SfS) approach. We pre-compute the patch-wise constant Moore–Penrose inverse matrix of the resulting linear system to achieve real-time performance.
У Disney research есть другая довольна давняя работа про sfs, не реал тайм с впечатляющими картинками.#face_reconstruction #real_time
Forwarded from Берлога Зануды
Лекция[0] профессора из MIT Била Фримана, посвященная его долгосрочному исследовательскому проекту по использованию Луны для создания снимка Земли по отраженному свету. Попутно его группа научилась использовать как камеры (часто их называют "случайными камерами") множество других объектов, таких как пол, что позволило смотреть за углы [1], или Wi-Fi сигнал что позволяет определять положение и позу[2,3] людей сквозь стены. Лично меня, как исследователя, это очень вдохновило, и потихоньку приводило к концепции холистического машинного восприятия. Уверен, в будущем мы увидим у роботов и других автоматических систем сенсорные способности, которые заставят нас чувствовать дискомфорт. Как в скетчах про персонажей аниме[4] ))
[0] https://www.youtube.com/watch?v=Ytkkl917paM
[1] https://www.youtube.com/watch?v=7NhQ7WkbHms
[2] https://patents.google.com/patent/US20170220718A1/en
[3] https://news.mit.edu/2018/artificial-intelligence-senses-people-through-walls-0612
[4] https://www.youtube.com/watch?v=0JI9LmB1FZY
[0] https://www.youtube.com/watch?v=Ytkkl917paM
[1] https://www.youtube.com/watch?v=7NhQ7WkbHms
[2] https://patents.google.com/patent/US20170220718A1/en
[3] https://news.mit.edu/2018/artificial-intelligence-senses-people-through-walls-0612
[4] https://www.youtube.com/watch?v=0JI9LmB1FZY
YouTube
TUM AI Lecture Series - The Moon Camera (Bill Freeman)
https://crossminds.ai/
Кажется тут появляются видосы с конференций типа CVPR, также есть всякие теги к видосам.
Sci-hub для видосов?
Кажется тут появляются видосы с конференций типа CVPR, также есть всякие теги к видосам.
Sci-hub для видосов?
Implicit Geometric Regularization for Learning Shapes
* video (highly recommended)
* code (pyTorch)
* demo by Alex Mordvintsev in colab (TF)
* paper
* video (highly recommended)
* code (pyTorch)
* demo by Alex Mordvintsev in colab (TF)
* paper
In this paper we offer a new paradigm for computing high fidelity implicit neural representations directly from raw data (i.e., point clouds, with or without normal information). We observe that a rather simple loss function, encouraging the neural network to vanish on the input point cloud and to have a unit norm gradient, possesses an implicit geometric regularization property that favors smooth and natural zero level set surfaces, avoiding bad zero-loss solutions.
#implicit_geometryЧерез 30 минут будет лекция Алексея Артёмова, Сколтех.
"Нейросетевые модели на основе Лапласовых пирамид в латентном пространстве для обучения облаками точек".
(думаю на английском название звучало бы менее ужасающе)
* project page
зарегистрироваться тут
"Нейросетевые модели на основе Лапласовых пирамид в латентном пространстве для обучения облаками точек".
(думаю на английском название звучало бы менее ужасающе)
* project page
зарегистрироваться тут
Построение высококачественных генеративных моделей для трехмерных форм — фундаментальная задача компьютерного зрения с различными приложениями в обработке геометрии, инженерии и дизайне. Несмотря на недавний прогресс в глубоком генеративном моделировании, синтез с нуля детализированных трехмерных поверхностей, таких как облака точек с высоким разрешением, с помощью существующих подходов еще не был продемонстрирован. В этой работе мы предлагаем использовать представление лапласовской пирамиды скрытого пространства в иерархической генеративной модели для трехмерных облаков точек. Мы объединяем недавно предложенные архитектуры GAN со скрытым пространством и лапласианские архитектуры GAN, чтобы сформировать многомасштабную модель, способную генерировать трехмерные облака точек с повышенным уровнем детализации. Наша оценка показывает, что наша модель превосходит базовые существующие генеративные модели для трехмерных облаков точек.adase.group
Latent-Space Laplacian Pyramids for Adversarial Representation Learning with 3D Point Clouds
The Advanced Data Analytics in Science and Engineering Group is a research organisation focused on the development of novel machine learning methods
https://dellaert.github.io/NeRF/
Очень хороший пост чтобы вкатиться в понимание что же там такое в nerf, deepSDF и implicit differentiable renderer. Пост охватывает и связывает последние работы, которые в том числе появлялись в этом канале.
Также оригинальный тред автора в твитторе 😌
https://twitter.com/fdellaert/status/1339236843263569922
* Alex Mordvintsev's tutorial for implicit sdf in colab
#nerf #implicit_geometry #sdf
Очень хороший пост чтобы вкатиться в понимание что же там такое в nerf, deepSDF и implicit differentiable renderer. Пост охватывает и связывает последние работы, которые в том числе появлялись в этом канале.
Также оригинальный тред автора в твитторе 😌
https://twitter.com/fdellaert/status/1339236843263569922
* Alex Mordvintsev's tutorial for implicit sdf in colab
#nerf #implicit_geometry #sdf
Forwarded from Savva
#singan #one_shot_learning #gan #coordinate #cppn #implicit_neural_representations
https://arxiv.org/pdf/2012.05217.pdf
https://www.youtube.com/watch?v=n6B01YqC1ng&feature=emb_logo
https://nbei.github.io/gan-pos-encoding.html
https://arxiv.org/pdf/2012.05217.pdf
https://www.youtube.com/watch?v=n6B01YqC1ng&feature=emb_logo
https://nbei.github.io/gan-pos-encoding.html
YouTube
Supplementary video for our paper: Positional Encoding as Spatial Inductive Bias in GANs
Forwarded from Just links
Exploring Data Efficient 3D Scene Understandingwith Contrastive Scene Contexts https://sekunde.github.io/project_efficient/