Learning to Dress 3D People in Generative Clothing
Выглядит весьма сыро, но все же это первые попытки генерировать 3д одежду на моделях людей типа SMPL.
* project_page
* colab
* github
* paper in 1 min video
Tensorflow (1.13) implementation of the CAPE model, a Mesh-CVAE with a mesh patch discriminator, for dressing SMPL bodies with pose-dependent clothing, introduced in the CVPR 2020 paper.
Выглядит весьма сыро, но все же это первые попытки генерировать 3д одежду на моделях людей типа SMPL.
* project_page
* colab
* github
* paper in 1 min video
Tensorflow (1.13) implementation of the CAPE model, a Mesh-CVAE with a mesh patch discriminator, for dressing SMPL bodies with pose-dependent clothing, introduced in the CVPR 2020 paper.
One sentence highlight for every SIGGRAPH-2020 Paper
Here is the list of all SIGGRAPH 2020 (Special Interest Group on Computer Graphics and Interactive Techniques) papers, and one sentence highlight for each of them. SIGGRAPH2020 is held online from Aug 17.
https://www.paperdigest.org/2020/08/siggraph-2020-highlights/
Here is the list of all SIGGRAPH 2020 (Special Interest Group on Computer Graphics and Interactive Techniques) papers, and one sentence highlight for each of them. SIGGRAPH2020 is held online from Aug 17.
https://www.paperdigest.org/2020/08/siggraph-2020-highlights/
This media is not supported in your browser
VIEW IN TELEGRAM
Иногда лампа моргает, если чувстует присутствие человека рядом.
За идею интерактивности спасибо @al42and
За идею интерактивности спасибо @al42and
* project page
* code
Есть код для генерации датасета (тени синтетические), нет кода для обучения модели, как и самой модели. Но уже что-то.
#face #single_image
* code
Есть код для генерации датасета (тени синтетические), нет кода для обучения модели, как и самой модели. Но уже что-то.
#face #single_image
Learning Gradient Fields for Shape Generation
* github
* paper
In this work, we propose a novel technique to generate shapes from point cloud data. A point cloud can be viewed as samples from a distribution of 3D points whose density is concentrated near the surface of the shape. Point cloud generation thus amounts to moving randomly sampled points to high-density areas. We generate point clouds by performing stochastic gradient ascent on an unnormalized probability density, thereby moving sampled points toward the high-likelihood regions. Our model directly predicts the gradient of the log density field and can be trained with a simple objective adapted from score-based generative models. We show that our method can reach state-of-the-art performance for point cloud auto-encoding and generation, while also allowing for extraction of a high-quality implicit surface.
#3d #generative
* github
* paper
In this work, we propose a novel technique to generate shapes from point cloud data. A point cloud can be viewed as samples from a distribution of 3D points whose density is concentrated near the surface of the shape. Point cloud generation thus amounts to moving randomly sampled points to high-density areas. We generate point clouds by performing stochastic gradient ascent on an unnormalized probability density, thereby moving sampled points toward the high-likelihood regions. Our model directly predicts the gradient of the log density field and can be trained with a simple objective adapted from score-based generative models. We show that our method can reach state-of-the-art performance for point cloud auto-encoding and generation, while also allowing for extraction of a high-quality implicit surface.
#3d #generative
GitHub
GitHub - RuojinCai/ShapeGF: Learning Gradient Fields for Shape Generation
Learning Gradient Fields for Shape Generation. Contribute to RuojinCai/ShapeGF development by creating an account on GitHub.
https://www.youtube.com/watch?v=DVvmgjBL74w
Презентация Neuralink от Илона Маска, где все в масках, кроме Илона.
Будущее уже здесь — можно вживлять электроды в мозг с помощью робота и это не занимает много времени, а также не требует общей анестезии. Устройство позволяет считывать сигналы мозга и предсказывать по ним положение конечностей с неплохой точностью (не идеальной, конечно).
Презентация прошла с live демонстрацией на свиньях.
Однако пока что у меня не возникло желания быть среди первых пользователей устройства.
Может быть Илон и его команда научатся стимулировать активность нейронов так, что научиться играть на фортепьяно станет возможным за 5 минут.
Но как Илон подчеркнул, цель данной презентации во многом в том, чтобы найти людей, способных внести вклад в разработку продукта.
Презентация Neuralink от Илона Маска, где все в масках, кроме Илона.
Будущее уже здесь — можно вживлять электроды в мозг с помощью робота и это не занимает много времени, а также не требует общей анестезии. Устройство позволяет считывать сигналы мозга и предсказывать по ним положение конечностей с неплохой точностью (не идеальной, конечно).
Презентация прошла с live демонстрацией на свиньях.
Однако пока что у меня не возникло желания быть среди первых пользователей устройства.
Может быть Илон и его команда научатся стимулировать активность нейронов так, что научиться играть на фортепьяно станет возможным за 5 минут.
Но как Илон подчеркнул, цель данной презентации во многом в том, чтобы найти людей, способных внести вклад в разработку продукта.
YouTube
Neuralink Progress Update, Summer 2020
The latest from the forefront of neural engineering.
Facebook’s Prototype Photoreal Avatars No Longer Require Face Tracking
https://youtu.be/OK_BIQPiCEk
https://uploadvr.com/frl-codec-avatars-without-face-tracking/
Training the model requires a multi-camera 3D capture setup with 45 minutes of unique data for each test user. When first shown in 2018, Codec Avatars were described by Facebook as “years away”. While this new research makes the hardware needed to drive avatars more practical, it still doesn’t solve the core issues of generating the avatar in the first place.
#avatars
https://youtu.be/OK_BIQPiCEk
https://uploadvr.com/frl-codec-avatars-without-face-tracking/
Training the model requires a multi-camera 3D capture setup with 45 minutes of unique data for each test user. When first shown in 2018, Codec Avatars were described by Facebook as “years away”. While this new research makes the hardware needed to drive avatars more practical, it still doesn’t solve the core issues of generating the avatar in the first place.
#avatars
YouTube
Facebook's Prototype Photoreal Avatars No Longer Need Face Tracking Cameras
Facebook's photorealistic avatars have come a long way.
Subscribe for the latest VR trailers & clips: https://www.youtube.com/c/VRTrailersClips?sub_confirmation=1
Subscribe for the latest VR trailers & clips: https://www.youtube.com/c/VRTrailersClips?sub_confirmation=1