https://github.com/danistefanovic/build-your-own-x
Такая сборка туториалов поясняющая логику работу x.
Не совсем про графику, но и это там тоже есть.
- tiny 3D render/modeller на 500 строк python кода
- AR на python с OpenCV
Такая сборка туториалов поясняющая логику работу x.
Не совсем про графику, но и это там тоже есть.
- tiny 3D render/modeller на 500 строк python кода
- AR на python с OpenCV
GitHub
GitHub - codecrafters-io/build-your-own-x: Master programming by recreating your favorite technologies from scratch.
Master programming by recreating your favorite technologies from scratch. - codecrafters-io/build-your-own-x
Forwarded from iggisv9t channel
Нейрооккультизм. Увидел вот этот пост и подумал, что отличная штука для генерации. Если разделить на элементы и подходить к этому в духе generative art то получится более трушно и красиво, но нейронкой как-то душевнее, будто безумец рисовал.
Ещё сразу после этого идея пришла — набрать где-то сканов гримуаров, обучить GAN и сделать НЕЙРОНОМИКОН. Можно вызвать нейросатану.
Ещё сразу после этого идея пришла — набрать где-то сканов гримуаров, обучить GAN и сделать НЕЙРОНОМИКОН. Можно вызвать нейросатану.
Ну вот, NVlabs релизнули pytorch версию stylegan2-ada. Я таки сделала порт с тф версии на pytorch версию от rosinality своих обученных на тф моделек.
Но у rosinality у меня не получалось тренить модельку на слабенькой гпу с 8гб оперативы, с чем отлично справлялся официальный код на тф с half-precision.
Очевидно что хорошей реализации на pytorch не хватало — были работы использующие rosinality версию, lucidrains как обычно запилил свою версию.
Но вот теперь есть и официально от Нвидии.
https://github.com/NVlabs/stylegan2-ada-pytorch
#gan
Но у rosinality у меня не получалось тренить модельку на слабенькой гпу с 8гб оперативы, с чем отлично справлялся официальный код на тф с half-precision.
Очевидно что хорошей реализации на pytorch не хватало — были работы использующие rosinality версию, lucidrains как обычно запилил свою версию.
Но вот теперь есть и официально от Нвидии.
https://github.com/NVlabs/stylegan2-ada-pytorch
#gan
Forwarded from Being Danil Krivoruchko
https://vimeo.com/507126722
Если кто помнит, был у меня лет 5 назад проект со шмотками https://vimeo.com/150124407 с тех пор я все хотел попробовать перенести это на реальных людей - то есть чтобы шмотки виртуальные, а модель живая. Из-за завала по "Ложной слепоте" и коммерческих проектов все это шло крайне неторопливо, но вот наконец-то есть какие-то результаты, которые не стыдно показывать.
Так как мокап на улице был мне не по карману с моим обычным $0 бюджетом, то пришлось импровизировать. Технически тут съемка с трех камер, потом треккинг положения суставов для каждой из них нейронкой OpenPose. Но она дает относительно нормальный трекинг только в 2d, в пространстве кадра, этого недостаточно ни для стабильного восстановления движения в 3д, не тем более для симуляции взаимодействия тела и одежды. Так что потом у меня работает сетап из примерно бесконечного количества нод в Houdini, который делает триангуляцию всего уже в 3д, чистит результат и привязывает риг. Сами шмотки пока в Marvelous, но я сейчас в процессе создания более веселых вещей на vellum. Забавно, что еще одну нейронную штуку получилось использовать - маски персонажа в композе генерятся вот этой штукой - https://github.com/ZHKKKe/MODNet
Model: Jasmine LaRae
DP: Tatiana Stolpovskaya
Если кто помнит, был у меня лет 5 назад проект со шмотками https://vimeo.com/150124407 с тех пор я все хотел попробовать перенести это на реальных людей - то есть чтобы шмотки виртуальные, а модель живая. Из-за завала по "Ложной слепоте" и коммерческих проектов все это шло крайне неторопливо, но вот наконец-то есть какие-то результаты, которые не стыдно показывать.
Так как мокап на улице был мне не по карману с моим обычным $0 бюджетом, то пришлось импровизировать. Технически тут съемка с трех камер, потом треккинг положения суставов для каждой из них нейронкой OpenPose. Но она дает относительно нормальный трекинг только в 2d, в пространстве кадра, этого недостаточно ни для стабильного восстановления движения в 3д, не тем более для симуляции взаимодействия тела и одежды. Так что потом у меня работает сетап из примерно бесконечного количества нод в Houdini, который делает триангуляцию всего уже в 3д, чистит результат и привязывает риг. Сами шмотки пока в Marvelous, но я сейчас в процессе создания более веселых вещей на vellum. Забавно, что еще одну нейронную штуку получилось использовать - маски персонажа в композе генерятся вот этой штукой - https://github.com/ZHKKKe/MODNet
Model: Jasmine LaRae
DP: Tatiana Stolpovskaya
Vimeo
F31 | Marker-less tracking
It is the current progress I have so far on the marker-less tracking setup I've been playing with for almost a year. No markers, no mocap cameras, no suit,…
https://arxiv.org/pdf/1909.01815.pdf
Обзорная статья про морфологические модели лица — т.е. параметрические 3д модели лица с возможностью морфить в 3д одно лицо в другое.
Такие модели наиболее успешно используются для создания 3д аватаров и реалистичного фейс трекинга.
Обычно это не только 3д меш, но также параметрическая модель текстур и освещения. Подробнее про применения и современное состояние этого подхода можно посмотреть в статье.
#review #survey #morphable_model #face_reconstruction
Обзорная статья про морфологические модели лица — т.е. параметрические 3д модели лица с возможностью морфить в 3д одно лицо в другое.
Такие модели наиболее успешно используются для создания 3д аватаров и реалистичного фейс трекинга.
Обычно это не только 3д меш, но также параметрическая модель текстур и освещения. Подробнее про применения и современное состояние этого подхода можно посмотреть в статье.
#review #survey #morphable_model #face_reconstruction
Сорян, это совсем вообще не в тему, но почему-то когда я увидела эту новость, то нарисовалось.
Forwarded from Neural Shit
И еще один годный репозиторий для переноса стиля с одного изображения на другое: https://github.com/crowsonkb/style-transfer-pytorch
На изображениях — пример генерации.
Завтра поиграюсь еще и запощу результаты
На изображениях — пример генерации.
Завтра поиграюсь еще и запощу результаты
https://www.paperswithcode.com/datasets
Крутая новость — paperswithcode теперь с удобным поиском по датасетам.
Надеюсь настанет день и для sci-hub-torrent для датасетов. 😭
#dataset
Крутая новость — paperswithcode теперь с удобным поиском по датасетам.
Надеюсь настанет день и для sci-hub-torrent для датасетов. 😭
#dataset
Forwarded from PHYGITAL BUSINESS
Media is too big
VIEW IN TELEGRAM
В Японии уже давно появился первый в мире вид техно-спорт, которым занимается более 2,1 млн человек!
HADO - это соревновательный командный вид спорта в дополненной реальности, который был основан в 2014 году. Прикрепляя специальные устройство к голове и рукам, спортсмены стреляют друг в друга “энергетическими шарами” и защищаются с помощью цифровых “щитов” в течение 80 секунд. Раньше мы могли видеть подобное только в комиксах, кино и мультфильмах!)
Что важно, несмотря на то, что спорт цифровой, вам понадобится хорошая физическая подготовка для успешной игры. Для этого даже предусмотрены специальные занятия с тренером, которые вы можете забронировать на сайте.
HADO - это соревновательный командный вид спорта в дополненной реальности, который был основан в 2014 году. Прикрепляя специальные устройство к голове и рукам, спортсмены стреляют друг в друга “энергетическими шарами” и защищаются с помощью цифровых “щитов” в течение 80 секунд. Раньше мы могли видеть подобное только в комиксах, кино и мультфильмах!)
Что важно, несмотря на то, что спорт цифровой, вам понадобится хорошая физическая подготовка для успешной игры. Для этого даже предусмотрены специальные занятия с тренером, которые вы можете забронировать на сайте.
Deep Learning Theory Summer School at Princeton (Online)
July 27 - August 4, 2021
Apply here
July 27 - August 4, 2021
Apply here
About
The school will run remotely from July 27 to August 4, 2021 and is aimed at graduate students interested in the theory of deep learning. The primary goal is to showcase, through three main courses and a variety of short talks, a range of exciting developments. An important secondary goal is to connect young researchers and foster a closer community within theoretical machine learning.
#coursesThis media is not supported in your browser
VIEW IN TELEGRAM
Wav2Lip: Accurately Lip-syncing Videos In The Wild
https://github.com/Rudrabha/Wav2Lip
Highlights
- Lip-sync videos to any target speech with high accuracy 🔥.
- Works for any identity, voice, and language. Also works for CGI faces and synthetic voices.
- Complete training code, inference code, and pretrained models are available
- Or, quick-start with the Google Colab Notebook: Link. Checkpoints and samples are available in a Google Drive folder as well. There is also a tutorial video on this, courtesy of What Make Art. Also, thanks to Eyal Gruss, there is a more accessible Google Colab notebook with more useful features.
#video #lipsync
https://github.com/Rudrabha/Wav2Lip
Highlights
- Lip-sync videos to any target speech with high accuracy 🔥.
- Works for any identity, voice, and language. Also works for CGI faces and synthetic voices.
- Complete training code, inference code, and pretrained models are available
- Or, quick-start with the Google Colab Notebook: Link. Checkpoints and samples are available in a Google Drive folder as well. There is also a tutorial video on this, courtesy of What Make Art. Also, thanks to Eyal Gruss, there is a more accessible Google Colab notebook with more useful features.
#video #lipsync
Forwarded from Machinelearning
MeInGame: Create a Game Character Face from a Single Portrait
Github : https://github.com/FuxiCV/MeInGame
Paper: https://arxiv.org/abs/2102.02371v1
Demo: https://www.youtube.com/watch?v=597cvKOegfE&feature=youtu.be&ab_channel=EdwardLin
@ai_machinelearning_big_data
Github : https://github.com/FuxiCV/MeInGame
Paper: https://arxiv.org/abs/2102.02371v1
Demo: https://www.youtube.com/watch?v=597cvKOegfE&feature=youtu.be&ab_channel=EdwardLin
@ai_machinelearning_big_data
https://same.energy/
— поиск по картинкам от Jacob Jackson очень похожий на Pinterest. Интересная идея использовать CLIP для поиска по картинкам, однако автор не упоминает что использовал сам CLIP для этого. На русском найти картинки не получилось.
— поиск по картинкам от Jacob Jackson очень похожий на Pinterest. Интересная идея использовать CLIP для поиска по картинкам, однако автор не упоминает что использовал сам CLIP для этого. На русском найти картинки не получилось.
How does it work?
Same Energy's core search uses deep learning. The most similar published work is CLIP by OpenAI.
The default feeds available on the home page are algorithmically curated: a seed of 5-20 images are selected by hand, then our system builds the feed by scanning millions of images in our index to find good matches for the seed images. You can create feeds in just the same way: save images to create a collection of seed images, then look at the recommended images.
#clip #tools