Через 30 минут будет лекция Алексея Артёмова, Сколтех.
"Нейросетевые модели на основе Лапласовых пирамид в латентном пространстве для обучения облаками точек".
(думаю на английском название звучало бы менее ужасающе)
* project page
зарегистрироваться тут
"Нейросетевые модели на основе Лапласовых пирамид в латентном пространстве для обучения облаками точек".
(думаю на английском название звучало бы менее ужасающе)
* project page
зарегистрироваться тут
Построение высококачественных генеративных моделей для трехмерных форм — фундаментальная задача компьютерного зрения с различными приложениями в обработке геометрии, инженерии и дизайне. Несмотря на недавний прогресс в глубоком генеративном моделировании, синтез с нуля детализированных трехмерных поверхностей, таких как облака точек с высоким разрешением, с помощью существующих подходов еще не был продемонстрирован. В этой работе мы предлагаем использовать представление лапласовской пирамиды скрытого пространства в иерархической генеративной модели для трехмерных облаков точек. Мы объединяем недавно предложенные архитектуры GAN со скрытым пространством и лапласианские архитектуры GAN, чтобы сформировать многомасштабную модель, способную генерировать трехмерные облака точек с повышенным уровнем детализации. Наша оценка показывает, что наша модель превосходит базовые существующие генеративные модели для трехмерных облаков точек.adase.group
Latent-Space Laplacian Pyramids for Adversarial Representation Learning with 3D Point Clouds
The Advanced Data Analytics in Science and Engineering Group is a research organisation focused on the development of novel machine learning methods
https://dellaert.github.io/NeRF/
Очень хороший пост чтобы вкатиться в понимание что же там такое в nerf, deepSDF и implicit differentiable renderer. Пост охватывает и связывает последние работы, которые в том числе появлялись в этом канале.
Также оригинальный тред автора в твитторе 😌
https://twitter.com/fdellaert/status/1339236843263569922
* Alex Mordvintsev's tutorial for implicit sdf in colab
#nerf #implicit_geometry #sdf
Очень хороший пост чтобы вкатиться в понимание что же там такое в nerf, deepSDF и implicit differentiable renderer. Пост охватывает и связывает последние работы, которые в том числе появлялись в этом канале.
Также оригинальный тред автора в твитторе 😌
https://twitter.com/fdellaert/status/1339236843263569922
* Alex Mordvintsev's tutorial for implicit sdf in colab
#nerf #implicit_geometry #sdf
Forwarded from Savva
#singan #one_shot_learning #gan #coordinate #cppn #implicit_neural_representations
https://arxiv.org/pdf/2012.05217.pdf
https://www.youtube.com/watch?v=n6B01YqC1ng&feature=emb_logo
https://nbei.github.io/gan-pos-encoding.html
https://arxiv.org/pdf/2012.05217.pdf
https://www.youtube.com/watch?v=n6B01YqC1ng&feature=emb_logo
https://nbei.github.io/gan-pos-encoding.html
YouTube
Supplementary video for our paper: Positional Encoding as Spatial Inductive Bias in GANs
Forwarded from Just links
Exploring Data Efficient 3D Scene Understandingwith Contrastive Scene Contexts https://sekunde.github.io/project_efficient/
Forwarded from Лаборатория ИИ (UnrealNeural)
2.gif
20 MB
Learning to Recover 3D Scene Shape from a Single Image
Learning to Recover 3D Scene Shape from a Single Image
https://yvanyin.github.io/LearnShape.github.io/
https://yvanyin.github.io/LearnShape.github.io/
Despite significant progress in monocular depth estimation in the wild, recent state-of-the-art methods cannot be used to recover accurate 3D scene shape due to an unknown depth shift induced by shift-invariant reconstruction losses used in mixed-data depth prediction training, and possible unknown camera focal length. We investigate this problem in detail, and propose a two-stage framework that first predicts depth up to an unknown scale and shift from a single monocular image, and then use 3D point cloud encoders to predict the missing depth shift and focal length that allow us to recover a realistic 3D scene shape. In addition, we propose an image-level normalized regression loss and a normal-based geometry loss to enhance depth prediction models trained on mixed datasets. We test our depth model on nine unseen datasets and achieve state-of-the-art performance on zero-shot dataset generalization.#single_image #depth #scene_reconstruction
Forwarded from Karim Iskakov - канал (Karim Iskakov)
Media is too big
VIEW IN TELEGRAM
New method to create relightable 3D selfies from Samsung AI (Moscow). You have: single smartphone video of a head with blinking flash. You get: sharp renderings under any lighting and from any viewpoint.
🌐 saic-violet.github.io/relightable-portrait
📝 arxiv.org/abs/2012.09963
📉 @loss_function_porn
🌐 saic-violet.github.io/relightable-portrait
📝 arxiv.org/abs/2012.09963
📉 @loss_function_porn
Forwarded from Savva
#GAN #unsupervised_learning #interpretability #meta_learning #image_editing
Navigating the GAN Parameter Space for Semantic Image Editing
https://arxiv.org/pdf/2011.13786.pdf
Navigating the GAN Parameter Space for Semantic Image Editing
https://arxiv.org/pdf/2011.13786.pdf
https://github.com/vinits5/learning3d
Learning3D is an open-source library that supports the development of deep learning algorithms that deal with 3D data. The Learning3D exposes a set of state of art deep neural networks in python. A modular code has been provided for further development. We welcome contributions from the open-source community.
#tools
Learning3D is an open-source library that supports the development of deep learning algorithms that deal with 3D data. The Learning3D exposes a set of state of art deep neural networks in python. A modular code has been provided for further development. We welcome contributions from the open-source community.
#tools
У Google Colab есть также режим локального рантайма — вы запускаете jupyter локально и получаете возможность подключиться к своему jupyter удалённо с любой другой машины. В целом, этот вопрос я чаще всего решала через прокидывание портов по ssh (если есть возможность настроить ssh) или через ngrok. Но может быть, если надо прям много (потому что free ngrok поддерживает только один адрес форварда) независимых jupyter ноутбуков открывать удаленно на своем железе, к которому нет доступа по ssh, тогда это возможно хорошее решение. Ноутбук сам будет автоматически сохраняться на гугл драйв.
UPD: читатели подсказывают, что еще можно ssh к колабу настроить через ngrok в колабе.
#tools
UPD: читатели подсказывают, что еще можно ssh к колабу настроить через ngrok в колабе.
#tools
Coloring With Limited Data: Few-Shot Colorization via Memory-Augmented Networks [CVPR 2019]
* paper
* code [pyTorch, unofficial]
Abstract
И все это также похоже на вот это:
https://github.com/eladrich/pixel2style2pixel
#colorization
* paper
* code [pyTorch, unofficial]
Abstract
Despite recent advancements in deep learning-based automatic colorization, they are still limited when it comes to few-shot learning. Existing models require a significant amount of training data. To tackle this issue, we present a novel memory-augmented colorization model MemoPainter that can produce high-quality colorization with limited data. In particular, our model is able to capture rare instances and successfully colorize them. We also propose a novel threshold triplet loss that enables unsupervised training of memory networks without the need of class labels. Experiments show that our model has superior quality in both few-shot and one-shot colorization tasks
Стили для колоризации.И все это также похоже на вот это:
https://github.com/eladrich/pixel2style2pixel
#colorization