Forwarded from ExMuffin
💠 ComfyUI 🏞
Я тут колаб принес, пользовательский интерфейс которого позволит вам проектировать пайплайн стабильной диффузии, используя интерфейс на основе нод (да да, прям в колабе). Если это кажется сложным, то предлагаю ознакомиться с этими примерами. Может работать асинхронно, куча оптимизаций, поддержка ckpt и safetensors, эмбэды, контролнеты и кучу всего другого.
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/SDNode_v_1_0.ipynb
Я тут колаб принес, пользовательский интерфейс которого позволит вам проектировать пайплайн стабильной диффузии, используя интерфейс на основе нод (да да, прям в колабе). Если это кажется сложным, то предлагаю ознакомиться с этими примерами. Может работать асинхронно, куча оптимизаций, поддержка ckpt и safetensors, эмбэды, контролнеты и кучу всего другого.
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/SDNode_v_1_0.ipynb
👍2
Научно-фантастический журнал Clarkesworld Magazine больше не принимает материалы от читателей — они массово присылают истории, написанные ChatGPT
По правилам журнала, все предложенные тексты должны быть написаны человеком. Год назад количество заблокированных авторов по этой причине составляло всего 20 человек, а в феврале 2023 года достигло 500.
ИИ пишет скучные, однообразные, хотя и технически правильные художественные произведения, это серьезная проблема для создателей журнала.
По правилам журнала, все предложенные тексты должны быть написаны человеком. Год назад количество заблокированных авторов по этой причине составляло всего 20 человек, а в феврале 2023 года достигло 500.
ИИ пишет скучные, однообразные, хотя и технически правильные художественные произведения, это серьезная проблема для создателей журнала.
😁3
В автоматике теперь можно использовать несколько #controlnet сразу. Держите туториал
https://www.youtube.com/watch?v=cNIHZInV3mg
https://www.youtube.com/watch?v=cNIHZInV3mg
YouTube
Multi-ControlNet tutorial.
With the new update of ControlNet in Stable diffusion, Multi-ControlNet has been added and the possibilities are now endless. In this Stable diffusion tutorial we'll go through the new Multi-ControlNet feature.
Support me on Patreon to get access to unique…
Support me on Patreon to get access to unique…
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Vid2Avatar: 3D Avatar Reconstruction from Videos in the Wild via Self-supervised Scene Decomposition
Создает 3D-аватар человека (меш, 3D-модель, карта нормалей) по одному видео. В процессе используется nerf. Далее Vid2Avatar может анимировать полученный аватар.
Судя по презентации, Vid2Avatar дает результаты заметно лучше чем ICON и прочие конкуренты.
Код обещают позже.
#imageto3D #videoto3D #videoavatar #humananimation
Создает 3D-аватар человека (меш, 3D-модель, карта нормалей) по одному видео. В процессе используется nerf. Далее Vid2Avatar может анимировать полученный аватар.
Судя по презентации, Vid2Avatar дает результаты заметно лучше чем ICON и прочие конкуренты.
Код обещают позже.
#imageto3D #videoto3D #videoavatar #humananimation
Forwarded from Denis Sexy IT 🤖
Недавно наткнулся на классный твит, где автор сделал забавный эксперимент:
Все вы видели, что ChatGPT и другие модели умеют генерировать код, и править ошибки кода, так, чтобы скрипт запустился.
Но что если, пользователь бы давал команду нейронке какую задачу он хочет решить, далее нейронка сама, писала бы код и пыталась его запустить, а после этого – если ошибка в коде появится, пыталась бы исправить код так, чтобы он работал, и продолжала бы «программировать» таким образом, пока задача не будет решена.
Короче собрал Colab на базе этого эксперимента, можете сами поиграться.
В итоге пару часов сегодня убил наблюдая как нейронка «программирует», сама «рассуждает» как их решить, дебажит и тп, на картинках пример результатов.
На последней картинке попросил ее почистить жесткий диск от всех файлов и папок, и что вы думаете, она прекрасно справилась и умерла вместе со средой исполнения прямо у меня на глазах☕️
Короче все это прототип Software 2.0, прикольно поковырять и посмотреть, как бы выглядело написание кода через N лет.
P.S. Нужен ключ API от OpenAI чтобы запустить, в конфиге простенькая и дешевая модель сейчас
P.P.S. Спасибо автору канала @seeallochnaya за наводку
Все вы видели, что ChatGPT и другие модели умеют генерировать код, и править ошибки кода, так, чтобы скрипт запустился.
Но что если, пользователь бы давал команду нейронке какую задачу он хочет решить, далее нейронка сама, писала бы код и пыталась его запустить, а после этого – если ошибка в коде появится, пыталась бы исправить код так, чтобы он работал, и продолжала бы «программировать» таким образом, пока задача не будет решена.
Короче собрал Colab на базе этого эксперимента, можете сами поиграться.
В итоге пару часов сегодня убил наблюдая как нейронка «программирует», сама «рассуждает» как их решить, дебажит и тп, на картинках пример результатов.
На последней картинке попросил ее почистить жесткий диск от всех файлов и папок, и что вы думаете, она прекрасно справилась и умерла вместе со средой исполнения прямо у меня на глазах
Короче все это прототип Software 2.0, прикольно поковырять и посмотреть, как бы выглядело написание кода через N лет.
P.S. Нужен ключ API от OpenAI чтобы запустить, в конфиге простенькая и дешевая модель сейчас
P.P.S. Спасибо автору канала @seeallochnaya за наводку
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Если вы записывались в вейтлист Microsoft Designer (это как Canva на нейростероидах), проверьте почту на предмет инвайта. Мне уже пришел
#design
#design
🔥3
Композитинг в automatic1111 с помощью #controlnet
Замена фона, вписывание персонажа в фон, инпейнтинг и прочее!
Держите туториал.
#compositing
https://www.youtube.com/watch?v=MDHC7E6G1RA
Замена фона, вписывание персонажа в фон, инпейнтинг и прочее!
Держите туториал.
#compositing
https://www.youtube.com/watch?v=MDHC7E6G1RA
YouTube
NEXT-GEN MULTI-CONTROLNET INPAINTING! You’ve NEVER SEEN THIS BEFORE!
Recently the ControlNet extension for Stable Diffusion was updated with the ability to use multiple ControlNet models on top of each other, which is fantastic because this brand new neural network structure allows you to combine multiple special ai models…
This media is not supported in your browser
VIEW IN TELEGRAM
DisCO: Portrait Distortion Correction with Perspective-Aware 3D GANs
Интересный проект. Коррекция перспективных искажений портрета. Если знаете чем портрет снятый на 70мм отличается от портрета снятого на 24мм, то объяснения не понадобятся.
Код обещают позже
#image2image #tools
Интересный проект. Коррекция перспективных искажений портрета. Если знаете чем портрет снятый на 70мм отличается от портрета снятого на 24мм, то объяснения не понадобятся.
Код обещают позже
#image2image #tools
🔥2👍1
Composer: Creative and Controllable Image Synthesis with Composable Conditions
Управляемая диффузионная генерация изображений с композицией во главе угла. Управлять можно при помощи текста, палитры, сегментных масок, карты глубины, наброска, гистограммы и чего-то еще.
Короче, этакий конкурент #controlnet
Код обещают позже, репозиторий уже есть
#text2image #image2image
Управляемая диффузионная генерация изображений с композицией во главе угла. Управлять можно при помощи текста, палитры, сегментных масок, карты глубины, наброска, гистограммы и чего-то еще.
Короче, этакий конкурент #controlnet
Код обещают позже, репозиторий уже есть
#text2image #image2image
Media is too big
VIEW IN TELEGRAM
Image to Sound Effect
демо на huggingface, генерирует звуковые эффекты к изображению.
Под капотом свежий генератор звука из текста AudioLDM и старый image2text CoCa Image Captioning
#image2audio #text2audio
демо на huggingface, генерирует звуковые эффекты к изображению.
Под капотом свежий генератор звука из текста AudioLDM и старый image2text CoCa Image Captioning
#image2audio #text2audio
👍1
А анимации по карте глубины как в предыдущем посте - можно делать на Leiapix
Понадобится регистрация на сайте. Заливаете картинку, через 5 секунд получаете анимацию.
Сейчас для генерации карт глубины все (в том числе automatic1111) пользуются MiDaS. Но у Leiapix под капотом штука которая справляется в разы лучше (см картинки):
Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging
Для меня загадка почему эту нейросетку не используют повсеместно вместо MiDaS
Код
#image2depth #image2video #monoculardepth
Понадобится регистрация на сайте. Заливаете картинку, через 5 секунд получаете анимацию.
Сейчас для генерации карт глубины все (в том числе automatic1111) пользуются MiDaS. Но у Leiapix под капотом штука которая справляется в разы лучше (см картинки):
Boosting Monocular Depth Estimation Models to High-Resolution via Content-Adaptive Multi-Resolution Merging
Для меня загадка почему эту нейросетку не используют повсеместно вместо MiDaS
Код
#image2depth #image2video #monoculardepth
❤1👍1
Следующая цель OpenAI - создание сильного ИИ (AGI)
Конечно же, он будет еще более зацензурированный со всех сторон чем ChatGPT, потому что опасность/ответственность/бла-бла-бла
Конечно же, он будет еще более зацензурированный со всех сторон чем ChatGPT, потому что опасность/ответственность/бла-бла-бла
Forwarded from Denis Sexy IT 🤖
Спорим, вы никогда не думали, что литературный жанр «Попаданцы» пострадает от появления GPT-нейронок?
Мне дали доступ к Bing, и хоть там и куча цензуры, использовать Bing как гаджет путешественника во времени уже можно💀
Мне дали доступ к Bing, и хоть там и куча цензуры, использовать Bing как гаджет путешественника во времени уже можно
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6