Deformed Implicit Field: Modeling 3D Shapes with Learned Dense Correspondence
* paper
* github (пока пустой)
* paper
* github (пока пустой)
1) we propose DIF, a novel implicit field based 3D shape representation modeling shape deformations across an object category; 2) we propose DIF-Net, the first method devoted to 3D shape modeling with dense correspondences learned in an unsupervised fashion for objects with structure variation; 3) we show that our method can achieve high-quality dense correspondences and compelling texture transfer and shape editing results that can not be achieved by previous methods. We believe our method can be applied in a wide range of 3D shape analysis and manipulation tasks.
#implicit_geometryForwarded from Machinelearning
pixelNeRF: Neural Radiance Fields from One or Few Images.
Github: https://github.com/sxyu/pixel-nerf
Paper: http://arxiv.org/abs/2012.02190
@ai_machinelearning_big_data
Github: https://github.com/sxyu/pixel-nerf
Paper: http://arxiv.org/abs/2012.02190
@ai_machinelearning_big_data
https://martinheinz.dev/blog/36
Build Your Next Project with Wolfram Alpha API and Python
Build Your Next Project with Wolfram Alpha API and Python
Anybody who at some point struggled with math knows Wolfram Alpha and was probably saved by its ability to solve any equation, plot any function or visualize logic circuits. Wolfram Alpha can; however, do much more than that, including chemistry, linguistics or history and most importantly - it can give you all the answers using its public API. So, in this article we will explore how you can use it to answer simple questions, solve mathematical problems, render plots or even describe DNA sequences!martinheinz.dev
Build Your Next Project with Wolfram Alpha API and Python
<p>
Anybody who at some point struggled with math knows Wolfram Alpha and was probably saved by its ability to solve any equation, plot any function or vis...
Anybody who at some point struggled with math knows Wolfram Alpha and was probably saved by its ability to solve any equation, plot any function or vis...
https://videogame.balenciaga.com/en/grid/
Демо коллекции Balenciaga, где все модели получены фотограмметрией. Я не поклонник брендов, но сканы моделей выглядят здорово.
Демо коллекции Balenciaga, где все модели получены фотограмметрией. Я не поклонник брендов, но сканы моделей выглядят здорово.
Balenciaga
Balenciaga | Fall 21 | Looks
Afterworld : The Age of Tomorrow
Forwarded from PHYGITAL+ART (Tanya Samoshkina)
Всем привет!
Мы организовываем мероприятия Phygital Days - серию вебинаров о разработке phygital решений с использованием AR\VR и 3DML технологий!
Совместно с партнерами из Open Cascade, Skoltech и МАИ мы подготовили интересную программу о компьютерной графике, машинном обучении и нейронном рендеринге.
В программе три вебинара и практический воркшоп по основам нейронного рендеринга. Подробные описания каждого из вебинаров появятся на нашей страничке в Facebook, а также в каналах PHYGITAL ART и PHYGITAL GRAPHICS.
Бесплатно зарегистрироваться на вебинары можно по ссылке.
Мы организовываем мероприятия Phygital Days - серию вебинаров о разработке phygital решений с использованием AR\VR и 3DML технологий!
Совместно с партнерами из Open Cascade, Skoltech и МАИ мы подготовили интересную программу о компьютерной графике, машинном обучении и нейронном рендеринге.
В программе три вебинара и практический воркшоп по основам нейронного рендеринга. Подробные описания каждого из вебинаров появятся на нашей страничке в Facebook, а также в каналах PHYGITAL ART и PHYGITAL GRAPHICS.
Бесплатно зарегистрироваться на вебинары можно по ссылке.
Forwarded from PHYGITAL+CREATIVE
10 декабря с 8:30 до 14:30 пройдет первый Unity AI Summit!
Это бесплатный однодневный форум для разработчиков, исследователей и практиков. На мероприятии можно будет узнать о технологических инновациях в Unity и их реальных применениях в области машинного обучения и компьютерного зрения.
Программа состоит из презентаций, панельных дискуссий и семинаров по пространственному моделированию, синтетическим данным, игровому тестированию, робототехнике, ML-агентам и многому другому.
Обратите внимание, на каждое мероприятие нужно регистрироваться отдельно!
Это бесплатный однодневный форум для разработчиков, исследователей и практиков. На мероприятии можно будет узнать о технологических инновациях в Unity и их реальных применениях в области машинного обучения и компьютерного зрения.
Программа состоит из презентаций, панельных дискуссий и семинаров по пространственному моделированию, синтетическим данным, игровому тестированию, робототехнике, ML-агентам и многому другому.
Обратите внимание, на каждое мероприятие нужно регистрироваться отдельно!
Набрала случайную последовательность символов в гугле и вот что вышло.
Но в тему еще датасетов, есть вот такой вот:
https://github.com/pterhoer/MAAD-Face
#dataset
Но в тему еще датасетов, есть вот такой вот:
https://github.com/pterhoer/MAAD-Face
#dataset
PHYGITAL+CREATIVE
10 декабря с 8:30 до 14:30 пройдет первый Unity AI Summit! Это бесплатный однодневный форум для разработчиков, исследователей и практиков. На мероприятии можно будет узнать о технологических инновациях в Unity и их реальных применениях в области машинного…
Посмотрела немного рекламный саммит Unity по AI. Главные векторы были обозначены такие:
1. Генерация синтетических данных с помощью фотореалистичного рендера. Здесь у меня возникает много вопросов, один из них — откуда брать 3д модели чтобы эти рендеры получать? Но на этой благодатной почве уже взошли стартапы. Кажется, что это имеет много смысла для генерации 3д данных, с 2д я думаю лучше ганы справятся в большинстве кейсов, 🤷🏻♀️ но я могу ошибаться. Cегментация облаков точек, симуляция данных с лидаров, а также depth estimation были среди показанных примеров.
2. Reinforcement learning.
Unity это изначально игровой движок, поэтому грех не лезть в RL и в создание окружений для ml-агентов. Проект ml-agents уже не первый год в разработке и ориентирован как на rl-рисечеров, так и на разработчиков игр, готовых добавить умных npc.
В тему развития npc также можно упомянуть о желании разработчиков юнити прикрутить последние наработки из nlp к генерации диалогов. Кроме прочего,
3. Robotic simulations.
1. Генерация синтетических данных с помощью фотореалистичного рендера. Здесь у меня возникает много вопросов, один из них — откуда брать 3д модели чтобы эти рендеры получать? Но на этой благодатной почве уже взошли стартапы. Кажется, что это имеет много смысла для генерации 3д данных, с 2д я думаю лучше ганы справятся в большинстве кейсов, 🤷🏻♀️ но я могу ошибаться. Cегментация облаков точек, симуляция данных с лидаров, а также depth estimation были среди показанных примеров.
2. Reinforcement learning.
Unity это изначально игровой движок, поэтому грех не лезть в RL и в создание окружений для ml-агентов. Проект ml-agents уже не первый год в разработке и ориентирован как на rl-рисечеров, так и на разработчиков игр, готовых добавить умных npc.
В тему развития npc также можно упомянуть о желании разработчиков юнити прикрутить последние наработки из nlp к генерации диалогов. Кроме прочего,
3. Robotic simulations.
* project page
* paper
* paper
We introduce DefTet as a particular parameterization that utilizes volumetric tetrahedral meshes for the reconstruction problem. Unlike existing volumetric approaches, DefTet optimizes for both vertex placement and occupancy, and is differentiable with respect to standard 3D reconstruction loss functions. We show that it can represent arbitrary, complex topology, is both memory and computationally efficient, and can produce high-fidelity reconstructions with a significantly smaller grid size than alternative volumetric approaches. The predicted surfaces are also inherently defined as tetrahedral meshes, thus do not require post-processing. We demonstrate that DefTet matches or exceeds both the quality of the previous best approaches and the performance of the fastest ones. Our approach obtains high-quality tetrahedral meshes computed directly from noisy point clouds, and is the first to showcase high-quality 3D tet-mesh results using only a single image as input.
#single_image #3dForwarded from Лаборатория ИИ (UnrealNeural)
This media is not supported in your browser
VIEW IN TELEGRAM
Learning Deformable Tetrahedral Meshes for 3D Reconstruction
DECA: Detailed Expression Capture and Animation
* github
* paper
DECA reconstructs a 3D head model with detailed facial geometry from a single input image. The resulting 3D head model can be easily animated. Please refer to the arXiv paper for more details.
The main features:
Reconstruction: produces head pose, shape, detailed face geometry, and lighting information from a single image.
Animation: animate the face with realistic wrinkle deformations.
Robustness: tested on facial images in unconstrained conditions. Our method is robust to various poses, illuminations and occlusions.
Accurate: state-of-the-art 3D face shape reconstruction on the NoW Challenge benchmark dataset.
#face_reconstruction #single_image
* github
* paper
DECA reconstructs a 3D head model with detailed facial geometry from a single input image. The resulting 3D head model can be easily animated. Please refer to the arXiv paper for more details.
The main features:
Reconstruction: produces head pose, shape, detailed face geometry, and lighting information from a single image.
Animation: animate the face with realistic wrinkle deformations.
Robustness: tested on facial images in unconstrained conditions. Our method is robust to various poses, illuminations and occlusions.
Accurate: state-of-the-art 3D face shape reconstruction on the NoW Challenge benchmark dataset.
#face_reconstruction #single_image
GitHub
GitHub - yfeng95/DECA: DECA: Detailed Expression Capture and Animation (SIGGRAPH 2021)
DECA: Detailed Expression Capture and Animation (SIGGRAPH 2021) - yfeng95/DECA
FaceMagic: Real-Time Facial Detail Effects on Mobile
[Disney Research, ACM SIGGRAPH Asia 2020]
* project page
* youtube
#face_reconstruction #real_time
[Disney Research, ACM SIGGRAPH Asia 2020]
* project page
* youtube
We present a novel real-time face detail reconstruction method capable of recovering high quality geometry on consumer mobile devices.
Our system firstly uses a morphable model and semantic segmentation of facial parts to achieve robust self-calibration. We then capture fine-scale surface details using a patch-based Shape from Shading (SfS) approach. We pre-compute the patch-wise constant Moore–Penrose inverse matrix of the resulting linear system to achieve real-time performance.
У Disney research есть другая довольна давняя работа про sfs, не реал тайм с впечатляющими картинками.#face_reconstruction #real_time
Forwarded from Берлога Зануды
Лекция[0] профессора из MIT Била Фримана, посвященная его долгосрочному исследовательскому проекту по использованию Луны для создания снимка Земли по отраженному свету. Попутно его группа научилась использовать как камеры (часто их называют "случайными камерами") множество других объектов, таких как пол, что позволило смотреть за углы [1], или Wi-Fi сигнал что позволяет определять положение и позу[2,3] людей сквозь стены. Лично меня, как исследователя, это очень вдохновило, и потихоньку приводило к концепции холистического машинного восприятия. Уверен, в будущем мы увидим у роботов и других автоматических систем сенсорные способности, которые заставят нас чувствовать дискомфорт. Как в скетчах про персонажей аниме[4] ))
[0] https://www.youtube.com/watch?v=Ytkkl917paM
[1] https://www.youtube.com/watch?v=7NhQ7WkbHms
[2] https://patents.google.com/patent/US20170220718A1/en
[3] https://news.mit.edu/2018/artificial-intelligence-senses-people-through-walls-0612
[4] https://www.youtube.com/watch?v=0JI9LmB1FZY
[0] https://www.youtube.com/watch?v=Ytkkl917paM
[1] https://www.youtube.com/watch?v=7NhQ7WkbHms
[2] https://patents.google.com/patent/US20170220718A1/en
[3] https://news.mit.edu/2018/artificial-intelligence-senses-people-through-walls-0612
[4] https://www.youtube.com/watch?v=0JI9LmB1FZY
YouTube
TUM AI Lecture Series - The Moon Camera (Bill Freeman)
https://crossminds.ai/
Кажется тут появляются видосы с конференций типа CVPR, также есть всякие теги к видосам.
Sci-hub для видосов?
Кажется тут появляются видосы с конференций типа CVPR, также есть всякие теги к видосам.
Sci-hub для видосов?