Coloring With Limited Data: Few-Shot Colorization via Memory-Augmented Networks [CVPR 2019]
* paper
* code [pyTorch, unofficial]
Abstract
И все это также похоже на вот это:
https://github.com/eladrich/pixel2style2pixel
#colorization
* paper
* code [pyTorch, unofficial]
Abstract
Despite recent advancements in deep learning-based automatic colorization, they are still limited when it comes to few-shot learning. Existing models require a significant amount of training data. To tackle this issue, we present a novel memory-augmented colorization model MemoPainter that can produce high-quality colorization with limited data. In particular, our model is able to capture rare instances and successfully colorize them. We also propose a novel threshold triplet loss that enables unsupervised training of memory networks without the need of class labels. Experiments show that our model has superior quality in both few-shot and one-shot colorization tasks
Стили для колоризации.И все это также похоже на вот это:
https://github.com/eladrich/pixel2style2pixel
#colorization
avatar-new-bezier-1.gif
11.4 MB
Animated bezier curves controlled by PoseNet and FaceMesh output
* blogpost
* github
* demo
Красивый пример оживления 2D аватаров в вебе. Есть также более амбициозные проекты (вроде RiggingJs), для иморта моделей mixamo и ретаргетинг анимации с камеры.
Но почему-то не видно всего этого пока что в широком использовании в вебе, поправьте меня, если я что-то упускаю.
Тем временем зарелизился MediaPipe Holistic совмещающий возможность использовать модели трекинга лица, пальцев рук и позы одновременно на js и python, но перфоманс пока что ~15-20 fps в зависимости от девайса. С лицами все намного лучше. MediaPipe face mesh дает около ~ 30fps на моем телефоне, что ощущается как вполне риалтайм. Есть и другие риалтайм решения 3DDFA_V2, HyperPose, но они пока не портированы на js.
#mediapipe
* blogpost
* github
* demo
Красивый пример оживления 2D аватаров в вебе. Есть также более амбициозные проекты (вроде RiggingJs), для иморта моделей mixamo и ретаргетинг анимации с камеры.
Но почему-то не видно всего этого пока что в широком использовании в вебе, поправьте меня, если я что-то упускаю.
Тем временем зарелизился MediaPipe Holistic совмещающий возможность использовать модели трекинга лица, пальцев рук и позы одновременно на js и python, но перфоманс пока что ~15-20 fps в зависимости от девайса. С лицами все намного лучше. MediaPipe face mesh дает около ~ 30fps на моем телефоне, что ощущается как вполне риалтайм. Есть и другие риалтайм решения 3DDFA_V2, HyperPose, но они пока не портированы на js.
#mediapipe
Forwarded from CGIT_Vines (CGIT_Vines)
This media is not supported in your browser
VIEW IN TELEGRAM
Разработчики хвалятся быстрой системой нейронного рендеринга, в отличие от других систем. В итоге применяться может при создании анимаций и аватаров, не для продакшена, конечно, а сервисов типа инстаграма, снэпчата, ну и для AR в том числе (к примеру, для оклюжена)
https://anr-avatars.github.io/
https://anr-avatars.github.io/
This media is not supported in your browser
VIEW IN TELEGRAM
Поздравляю всех с отступающим 2020!
Это был крутой год на работы в области графики и машинного обучения (которые можно еще долго изучать в наступающем году).
Уходящий год зажёг новую искру в AR/VR и в том как мы представляем себе будущее удалённой работы.
Изменилось что-то фундаментальное в том как мир привык функционировать и абсолютно точно нас ждёт еще больше интересного.
Спасибо всем кто оказался здесь в этом маленьком канале и следил за публикациями.
Stay tuned.
Это был крутой год на работы в области графики и машинного обучения (которые можно еще долго изучать в наступающем году).
Уходящий год зажёг новую искру в AR/VR и в том как мы представляем себе будущее удалённой работы.
Изменилось что-то фундаментальное в том как мир привык функционировать и абсолютно точно нас ждёт еще больше интересного.
Спасибо всем кто оказался здесь в этом маленьком канале и следил за публикациями.
Stay tuned.
Краткая предыстория почему это классная работа.
Думаю, что многие помнят про Ebsynth и возможно даже запускали. В ebsynth можно подать видео и ключевой кадр со "стилем" и стилизовать всё видео под этот ключевой кадр. Где-то тут я делала очень короткую демку с одним ключевым кадром, а тут с дипдримом и несколькими кадрами. Но проблемы начинаются когда есть несколько ключевых кадров со стилем, а это происходит, если в кадре появляется невиданный ранее объект или деталь. В таком случае приходится генерировать перекрытие между несколькими кадрами дважды обрабатывая большой кусок видео (с одним фреймом и другим, чтобы сделать плавный переход между ними). Возможно по этой причине ebsynth все еще в бете (кроме того эта бета не в опенсорсе).
Но данная работа позволяет накладывать стиль на все кадры независимо и одновременно, при этом лучше работает со стилями с чёткими границами объектов.
* github
* project page
#stylization
Думаю, что многие помнят про Ebsynth и возможно даже запускали. В ebsynth можно подать видео и ключевой кадр со "стилем" и стилизовать всё видео под этот ключевой кадр. Где-то тут я делала очень короткую демку с одним ключевым кадром, а тут с дипдримом и несколькими кадрами. Но проблемы начинаются когда есть несколько ключевых кадров со стилем, а это происходит, если в кадре появляется невиданный ранее объект или деталь. В таком случае приходится генерировать перекрытие между несколькими кадрами дважды обрабатывая большой кусок видео (с одним фреймом и другим, чтобы сделать плавный переход между ними). Возможно по этой причине ebsynth все еще в бете (кроме того эта бета не в опенсорсе).
Но данная работа позволяет накладывать стиль на все кадры независимо и одновременно, при этом лучше работает со стилями с чёткими границами объектов.
* github
* project page
#stylization
Forwarded from SEXY DESIGN¹⁸⁺
This media is not supported in your browser
VIEW IN TELEGRAM
Технология Monster Mash стала доступный для всех! Для тех кто пропустил Monster Mash — это инструмент для кэжуал-моделлинга или упрощенного моделлинга (на основе плоскостного рисунка) и анимации органических форм. Рисуем силуэт, надуваем и анимируем. Еще там хороший Help, где расписаны все фичи и кнопки.
http://monstermash.zone/
http://monstermash.zone/
This media is not supported in your browser
VIEW IN TELEGRAM
С этой штукой можно делать еще вот такие странные анимации
Improved Techniques for Training Single-Image GANs
* github
* blogpost
* paper
Ганы, обучающиеся на одной картинке, могут применяться не только для генерации упоротых зданий, но также для гармонизации коллажей, создания анимаций и редактирования изображений.
#single_image #gan
* github
* blogpost
* paper
Ганы, обучающиеся на одной картинке, могут применяться не только для генерации упоротых зданий, но также для гармонизации коллажей, создания анимаций и редактирования изображений.
#single_image #gan
Forwarded from Метаверсище и ИИще
Pixar Soul
Нет слов.
В последнее время сценаристов пиксар как-то переклинило на экзистенциальных вопросах и теме смерти. Начиная с Up и заканчивая Coco и Forward. Мне, как фанату Истории Игрушек и Тачек, последнии фильмы стали казаться слишком уж сценарно-вычурными. Игра в бисер сюжетных поворотов.
И тут Soul.
И вроде тоже тема смерти, и вроде тоже не слишком детский сценарий.
Но это запредельно круто.
И вот эта анимация пальцев пианиста в самом начале.
И Нью-Йорк в призме пиксаровской картинки.
И музыка.
И какое-то бесконечное количество тонкой иронии (и самоиронии) над всеми когнитивными искажениями кожаных мешков.
В общем я раздавлен. Это запредельно хорошо.
Буду пересматривать.
Даже букв больше нет.
Нет слов.
В последнее время сценаристов пиксар как-то переклинило на экзистенциальных вопросах и теме смерти. Начиная с Up и заканчивая Coco и Forward. Мне, как фанату Истории Игрушек и Тачек, последнии фильмы стали казаться слишком уж сценарно-вычурными. Игра в бисер сюжетных поворотов.
И тут Soul.
И вроде тоже тема смерти, и вроде тоже не слишком детский сценарий.
Но это запредельно круто.
И вот эта анимация пальцев пианиста в самом начале.
И Нью-Йорк в призме пиксаровской картинки.
И музыка.
И какое-то бесконечное количество тонкой иронии (и самоиронии) над всеми когнитивными искажениями кожаных мешков.
В общем я раздавлен. Это запредельно хорошо.
Буду пересматривать.
Даже букв больше нет.
This media is not supported in your browser
VIEW IN TELEGRAM
Learning to Shadow Hand-drawn Sketches
* website
* github
* demo [doesn't really work for me]
* website
* github
* demo [doesn't really work for me]
We present a fully automatic method to generate detailed and accurate artistic shadows from pairs of line drawing sketches and lighting directions. We also contribute a new dataset of one thousand examples of pairs of line drawings and shadows that are tagged with lighting directions. Remarkably, the generated shadows quickly communicate the underlying 3D structure of the sketched scene. Consequently, the shadows generated by our approach can be used directly or as an excellent starting point for artists. We demonstrate that the deep learning network we propose takes a hand-drawn sketch, builds a 3D model in latent space, and renders the resulting shadows. The generated shadows respect the hand-drawn lines and underlying 3D space and contain sophisticated and accurate details, such as self-shadowing effects.Forwarded from karpik.realtime
Не то чтобы прям рисерч, скорее рассказ от Диснея про пайплайн нового мультфильма Souls, в котором куча вольюмных персонажей (на картинке их кастомный шейдер) https://graphics.pixar.com/library/SoulVolumetricChars/paper.pdf