Я выздоровел, держите новых достижений
NerfDiff: Single-image View Synthesis withNeRF-guided Distillation from 3D-aware Diffusion
Генерация #nerf объекта по одному изображению, на основе объемной диффузии
Код обещают позже
#imageto3D #image2nerf
NerfDiff: Single-image View Synthesis withNeRF-guided Distillation from 3D-aware Diffusion
Генерация #nerf объекта по одному изображению, на основе объемной диффузии
Код обещают позже
#imageto3D #image2nerf
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Invertible Neural Skinning (INS)
Позер для 3D моделей одетых человеков
На гифке сравнение с конкурентами.
INS способен сохранять мэппинг атрибутов и текстур.
Код обещают позже
#poser #humanamination #3D2pose
Позер для 3D моделей одетых человеков
На гифке сравнение с конкурентами.
INS способен сохранять мэппинг атрибутов и текстур.
Код обещают позже
#poser #humanamination #3D2pose
Media is too big
VIEW IN TELEGRAM
pix2pix3D. 3D-aware Conditional Image Synthesis
Генерация объемных изображений, управляемая сегментной маской
Код
#maskto3D #imageto3D #image2image
Генерация объемных изображений, управляемая сегментной маской
Код
#maskto3D #imageto3D #image2image
This media is not supported in your browser
VIEW IN TELEGRAM
In-N-Out: Face Video Inversion and Editing with Volumetric Decomposition
Новая модель от Adobe Research, для редактирования видео с поддержкой 3D, позволяет манипулировать объектами в условиях сдвига данных, что бы это ни значило
Код обещают позже
#facialanimation #talkinghead #imageto3D
Новая модель от Adobe Research, для редактирования видео с поддержкой 3D, позволяет манипулировать объектами в условиях сдвига данных, что бы это ни значило
Код обещают позже
#facialanimation #talkinghead #imageto3D
👍2
Что здесь происходит?
Вернее, как именно?
Известно, что это сделано в SD благодаря каким-то экспериментам с #ControlNet. Точнее пока непонятно.
Становится интересно, да?
Ветка на реддите
Вернее, как именно?
Известно, что это сделано в SD благодаря каким-то экспериментам с #ControlNet. Точнее пока непонятно.
Становится интересно, да?
Ветка на реддите
🔥4
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Кому Stable Diffusion для Худини? Налетай.
Теперь полностью локально, с поддержкой AUTOMATIC1111.
https://www.cgchannel.com/2023/02/free-tool-mohsen-tabasis-stablediffusion_houdini-2-0/
Теперь полностью локально, с поддержкой AUTOMATIC1111.
https://www.cgchannel.com/2023/02/free-tool-mohsen-tabasis-stablediffusion_houdini-2-0/
MultiDiffusion - модель, позволяющая создавать любые изображения, используя предварительно обученную модель диффузии текста в изображение, без дополнительного обучения и настройки.
Посмотрите какую он мне сгенерил панораму Нью Нью Йорка из Футурамы
Код
Демо (генерируем панорамы)
Посмотрите какую он мне сгенерил панораму Нью Нью Йорка из Футурамы
Код
Демо (генерируем панорамы)
inpaint.gif
10.1 MB
X-Decoder
Нейросеть от Microsoft похожая на Instruct-Pix2Pix
Умеет распознавать объекты, сегментировать картинку, изменять ее по текстовым указаниям.
Код
Демо - очень капризное, иногда вообще ничего не меняет. Перекрашивать костюм Форреста в черный отказался. А изменить расу самого Форреста - пожалуйста (в следующем посте). Для демо к X-Decoder прикрутили GPT-3 и StableDiffusion
Экспериментируйте, делитесь результатми
#pix2pix #image2image
Нейросеть от Microsoft похожая на Instruct-Pix2Pix
Умеет распознавать объекты, сегментировать картинку, изменять ее по текстовым указаниям.
Код
Демо - очень капризное, иногда вообще ничего не меняет. Перекрашивать костюм Форреста в черный отказался. А изменить расу самого Форреста - пожалуйста (в следующем посте). Для демо к X-Decoder прикрутили GPT-3 и StableDiffusion
Экспериментируйте, делитесь результатми
#pix2pix #image2image
Forwarded from ExMuffin
💠 ComfyUI 🏞
Я тут колаб принес, пользовательский интерфейс которого позволит вам проектировать пайплайн стабильной диффузии, используя интерфейс на основе нод (да да, прям в колабе). Если это кажется сложным, то предлагаю ознакомиться с этими примерами. Может работать асинхронно, куча оптимизаций, поддержка ckpt и safetensors, эмбэды, контролнеты и кучу всего другого.
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/SDNode_v_1_0.ipynb
Я тут колаб принес, пользовательский интерфейс которого позволит вам проектировать пайплайн стабильной диффузии, используя интерфейс на основе нод (да да, прям в колабе). Если это кажется сложным, то предлагаю ознакомиться с этими примерами. Может работать асинхронно, куча оптимизаций, поддержка ckpt и safetensors, эмбэды, контролнеты и кучу всего другого.
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/SDNode_v_1_0.ipynb
👍2
Научно-фантастический журнал Clarkesworld Magazine больше не принимает материалы от читателей — они массово присылают истории, написанные ChatGPT
По правилам журнала, все предложенные тексты должны быть написаны человеком. Год назад количество заблокированных авторов по этой причине составляло всего 20 человек, а в феврале 2023 года достигло 500.
ИИ пишет скучные, однообразные, хотя и технически правильные художественные произведения, это серьезная проблема для создателей журнала.
По правилам журнала, все предложенные тексты должны быть написаны человеком. Год назад количество заблокированных авторов по этой причине составляло всего 20 человек, а в феврале 2023 года достигло 500.
ИИ пишет скучные, однообразные, хотя и технически правильные художественные произведения, это серьезная проблема для создателей журнала.
😁3
В автоматике теперь можно использовать несколько #controlnet сразу. Держите туториал
https://www.youtube.com/watch?v=cNIHZInV3mg
https://www.youtube.com/watch?v=cNIHZInV3mg
YouTube
Multi-ControlNet tutorial.
With the new update of ControlNet in Stable diffusion, Multi-ControlNet has been added and the possibilities are now endless. In this Stable diffusion tutorial we'll go through the new Multi-ControlNet feature.
Support me on Patreon to get access to unique…
Support me on Patreon to get access to unique…
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Vid2Avatar: 3D Avatar Reconstruction from Videos in the Wild via Self-supervised Scene Decomposition
Создает 3D-аватар человека (меш, 3D-модель, карта нормалей) по одному видео. В процессе используется nerf. Далее Vid2Avatar может анимировать полученный аватар.
Судя по презентации, Vid2Avatar дает результаты заметно лучше чем ICON и прочие конкуренты.
Код обещают позже.
#imageto3D #videoto3D #videoavatar #humananimation
Создает 3D-аватар человека (меш, 3D-модель, карта нормалей) по одному видео. В процессе используется nerf. Далее Vid2Avatar может анимировать полученный аватар.
Судя по презентации, Vid2Avatar дает результаты заметно лучше чем ICON и прочие конкуренты.
Код обещают позже.
#imageto3D #videoto3D #videoavatar #humananimation
Forwarded from Denis Sexy IT 🤖
Недавно наткнулся на классный твит, где автор сделал забавный эксперимент:
Все вы видели, что ChatGPT и другие модели умеют генерировать код, и править ошибки кода, так, чтобы скрипт запустился.
Но что если, пользователь бы давал команду нейронке какую задачу он хочет решить, далее нейронка сама, писала бы код и пыталась его запустить, а после этого – если ошибка в коде появится, пыталась бы исправить код так, чтобы он работал, и продолжала бы «программировать» таким образом, пока задача не будет решена.
Короче собрал Colab на базе этого эксперимента, можете сами поиграться.
В итоге пару часов сегодня убил наблюдая как нейронка «программирует», сама «рассуждает» как их решить, дебажит и тп, на картинках пример результатов.
На последней картинке попросил ее почистить жесткий диск от всех файлов и папок, и что вы думаете, она прекрасно справилась и умерла вместе со средой исполнения прямо у меня на глазах☕️
Короче все это прототип Software 2.0, прикольно поковырять и посмотреть, как бы выглядело написание кода через N лет.
P.S. Нужен ключ API от OpenAI чтобы запустить, в конфиге простенькая и дешевая модель сейчас
P.P.S. Спасибо автору канала @seeallochnaya за наводку
Все вы видели, что ChatGPT и другие модели умеют генерировать код, и править ошибки кода, так, чтобы скрипт запустился.
Но что если, пользователь бы давал команду нейронке какую задачу он хочет решить, далее нейронка сама, писала бы код и пыталась его запустить, а после этого – если ошибка в коде появится, пыталась бы исправить код так, чтобы он работал, и продолжала бы «программировать» таким образом, пока задача не будет решена.
Короче собрал Colab на базе этого эксперимента, можете сами поиграться.
В итоге пару часов сегодня убил наблюдая как нейронка «программирует», сама «рассуждает» как их решить, дебажит и тп, на картинках пример результатов.
На последней картинке попросил ее почистить жесткий диск от всех файлов и папок, и что вы думаете, она прекрасно справилась и умерла вместе со средой исполнения прямо у меня на глазах
Короче все это прототип Software 2.0, прикольно поковырять и посмотреть, как бы выглядело написание кода через N лет.
P.S. Нужен ключ API от OpenAI чтобы запустить, в конфиге простенькая и дешевая модель сейчас
P.P.S. Спасибо автору канала @seeallochnaya за наводку
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5