echoinside – Telegram
echoinside
107 subscribers
834 photos
65 videos
41 files
933 links
ML in computer graphics and random stuff.
Any feedback: @fogside
Download Telegram
echoinside
Найдено у CG_Vines. Оригинальная линка на реддит. https://ebsynth.com/ Если получится поиграть с приложением на макоси, дам знать. Саму идею мы уже видели, а вот приложение еще нет. Tutorial: https://youtu.be/0RLtHuu5jV4
This media is not supported in your browser
VIEW IN TELEGRAM
Попробовала сделать короткий видос с одним кейфреймом. Из важных особенностей — контуры на обрисованном видео и исходном видео должны совпадать. Нельзя пририсовать рожки, если их не было на видео или сделать нож из шаурмы.
картинка
Python 3.9 has been released.
Cat Papers

https://www.cs.cmu.edu/~junyanz/cat/cat_papers.html

Cat Paper Collection is an academic paper collection that includes computer graphics, computer vision, and machine learning papers that produce experimental results related to cats.
Forwarded from Binary Tree
Awesome Podcasts.

List of podcasts which are helpful for software engineers/programmers.

For ones who don't know where to start.

#podcasts, #awesome, #list
Some quite interesting artists were featured on the GTC ai art gallery.
I especially like Scott Eaton's work with GAN body brush.
And Sofia Crespo's work with generated bugs (3d model + texture).
#art
​​StyleGAN2 with adaptive discriminator augmentation (ADA)

Github: https://github.com/NVlabs/stylegan2-ada
ArXiV: https://arxiv.org/abs/2006.06676

#StyleGAN #GAN #DL #CV
What do you think is the plural of "moose"?
Anonymous Poll
11%
Mooses
44%
Moose
33%
Meese
11%
Mice
Синтез аватаров без 3д промежуточного представления звучит славно. Думаю что уникальную мимику каждого человека будет намного проще перенести на аватара с помощью нейронного рендера.
Forwarded from CGIT_Vines (CGIT_Vines)
This media is not supported in your browser
VIEW IN TELEGRAM
Та самая Nvidia Maxine, которая стриминговая платформа с кучей ml и ai наворотов, позволит с модулем трекинга лица делать такие вещи ещё проще и, самое главное, точнее, чем у конкурентов, по крайней мере, я на это очень надеюсь.

https://twitter.com/nvidia/status/1313939032188104705?s=20
This media is not supported in your browser
VIEW IN TELEGRAM
Face Tracking просто шествует по планете.
Вот уже и ЗД софты подтягиваются (но не все).
Notch бахнул новость про поддержку фейстрекинга на основе нового движка Nvidia Broadcast.
https://medium.com/notchblog/nvidia-broadcast-engine-coming-to-notch-317bde64b696
Все очень по-взрослому: Using a 3D morphable model to create a 3D mesh representation of a human face with over 6000 polygons and a full 6 degrees of freedom head pose — all in real-time of course.
6 тыщ полигонов, 6 степеней свободы для башки, все в реалтайме.
GPU-accelerated, AI-based - все как мы любим.
Детектирование человеческих лиц, выделение и трекинг черт лица, включая контур, форму лица, губы, глаза и веки, используя до 126(!) ключевых точек.
Оп. И тут намечается любопытное противостояние, между AR Kit от Эппле и Nvidia Broadcast, куда входит AR SDK. Они заходят немного с разных сторон, но в итоге встречаются на поляне Face and Landmark Tracking. Причем чаще всего в реалтайме.
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
RF: Learning a General Radiance Field for 3D Scene Representation and Rendering

Powerful implicit neural function that can represent and render arbitrarily complex 3D scenes in a single network only from 2D observations.

Github: https://github.com/alextrevithick/GRF

Paper: https://arxiv.org/abs/2010.04595v1

@ai_machinelearning_big_data
https://www.youtube.com/playlist?list=PLqFaTIg4myu8Iz-n8nGZzfsa4ykvjXnR-

Kaggle winners' interview.
Now only twitter sentiment is there.
Hope to see more.
https://youtu.be/RFqPwH7QFEI

Neural Sparse Voxel Fields

* project page
* github
* paper
* data

Abstract
In this work, we introduce Neural Sparse Voxel Fields (NSVF), a new neural scene representation for fast and high-quality free-viewpoint rendering. NSVF defines a set of voxel-bounded implicit fields organized in a sparse voxel octree to model local properties in each cell. We progressively learn the underlying voxel structures with a diffentiable ray-marching operation from only a set of posed RGB images. With the sparse voxel octree structure, rendering novel views can be accelerated by skipping the voxels containing no relevant scene content.

Our method is over 10 times faster than the state-of-the-art (namely, NeRF (Mildenhall et al., 2020)) at inference time while achieving higher quality results. Furthermore, by utilizing an explicit sparse voxel representation, our method can easily be applied to scene editing and scene composition. We also demonstrate several challenging tasks, including multi-scene learning, free-viewpoint rendering of a moving human, and large-scale scene rendering.
#nerf