This media is not supported in your browser
VIEW IN TELEGRAM
в LeiaPix внезапно добавили новую анимацию) если надо быстро и просто задвигать статичную картинку - самое то!
@тоже_моушн
@тоже_моушн
❤64🔥25
У нас было два пакетика Stable Diffusion, семьдесят пять ампул ControlNet, 5 пакетиков t2i style adapter, солонка, наполовину наполненная Ebsynth Utilitie... Не то, чтобы всё это было категорически необходимо в поездке, но если уж начал собирать коллекцию, то к делу надо подходить серьёзно.
а если серьезно - новое видео с моим участием на канале ХС. энджой!
@тоже_моушн
а если серьезно - новое видео с моим участием на канале ХС. энджой!
@тоже_моушн
YouTube
КАК сделать стилизованную анимацию в Stable Diffusion, с помощью ControlNet, Ebsynth
👉 Анимация 3D-персонажа в Blender со скидкой https://clck.ru/39D5V5
Привет, творец. На связи Слава Хохлов. Основатель Хохлов Сабатовский.
Тут ты найдешь всю информацию, что бы научиться создавать киношные видео и построить профессию.
► Переходи в мой…
Привет, творец. На связи Слава Хохлов. Основатель Хохлов Сабатовский.
Тут ты найдешь всю информацию, что бы научиться создавать киношные видео и построить профессию.
► Переходи в мой…
⚡49🔥18❤12
Forwarded from 🥷🏿андрей киселев 🥷🏿 (Andrey Kiselev)
YouTube
ТОЖЕ МОУШН. SOFTporn PODCAST
В этот четверг, (шестого апреля в 20:00 по Мск), пройдет стрим по генерации архитектуры в StableDiffusion (Automatic1111). Мы используем ControlNet и модель dvArch, чтобы создать реалистичные иллюстрации на основе ручных скетчей, макетов и простых архитектурных…
🔥19⚡6❤5
🥷🏿андрей киселев 🥷🏿
Ссылка на стрим
стрим уже через час! не пропустите) разберемся вместе, как SD может пригодиться архитекторам.
обещаю, будет интересно!
пишите ваши вопросы, мысли и промпты
ссылка на стрим
@тоже_моушн
обещаю, будет интересно!
пишите ваши вопросы, мысли и промпты
ссылка на стрим
@тоже_моушн
YouTube
ТОЖЕ МОУШН. SOFTporn PODCAST
В этот четверг, (шестого апреля в 20:00 по Мск), пройдет стрим по генерации архитектуры в StableDiffusion (Automatic1111). Мы используем ControlNet и модель dvArch, чтобы создать реалистичные иллюстрации на основе ручных скетчей, макетов и простых архитектурных…
❤22🔥3⚡1
Forwarded from Dreams and Robots
Если вы работаете над серией, комиксом, раскадровкой (или аккаунтом на онлифанс), то вы наверняка сталкивались с проблемой повторяемости лиц.
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
🔥106❤15⚡10
а хотите завтра вечером на стриме пощупаем убабугу и поболтаем с викуньей? если для вас это не абракадабра, хочу узнать ваше мнение и обсудить возможности использования.
если ничего не понятно - приходите слушать интересности(даешь большие языковые модели в каждый дом!)
ну и нейроновинки пора обсудить, их опять набежало
@тоже_моушн
если ничего не понятно - приходите слушать интересности
@тоже_моушн
⚡24🔥14❤5
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Предварительно сегодня в 20:00 по мск хотим немножко постримить про очень интересный софт для постпродакшена Wonder Studio.
Событие может перенестись на следующий день в связи с горящими жопами участвующих, так что лучше нажать кнопочку "Прислать уведомление" или вообще подписаться на YouTube канал, если ещё этого не сделали. О переносах сообщим)
Подкаст будет онлайн как всегда, только хардкор! Поэтому готовьте свои вопросики по теме софта Wonder Studio прямо тут в комментах.
Подкаст будет тут
Событие может перенестись на следующий день в связи с горящими жопами участвующих, так что лучше нажать кнопочку "Прислать уведомление" или вообще подписаться на YouTube канал, если ещё этого не сделали. О переносах сообщим)
Подкаст будет онлайн как всегда, только хардкор! Поэтому готовьте свои вопросики по теме софта Wonder Studio прямо тут в комментах.
Подкаст будет тут
❤24🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
ого, большой апдейт ControlNet! в новой версии как будто гораздо лучше стали работать препроцессы - качественней просчитывается глубина, нормали стали выглядеть как нормали, сегментация уже не такая дырявая, в опенпоз нормально поддерживаются руки и лица. появилась опция inpaint. а еще добавилась модель shuffle - похожая на t2i style adapter - выдает вариации исходной картинки. ну что, снова вот э тайм ту би элайф?
@тоже_моушн
@тоже_моушн
🔥46❤13⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
прикольное расширение для автоматика - создает бесконечный зум по текстовому запросу. год назад приходилось такое ручками делать а тут наконец то автоматизировано
расширение на github
мой зум-аут в далли
@тоже_моушн
расширение на github
мой зум-аут в далли
@тоже_моушн
🔥67⚡4❤4
Forwarded from Psy Eyes (Andrey Bezryadin)
Простая игра на NeRF (Luma) + UE5
1) Cканируем стол с вещами на нём и создаём NeRF на сайте Luma. Дальше импортируем его в стартовый проект на Unreal Engine 5, инструкции там же.
2) Импортируем шаблон с видом от третьего лица.
3) Используем этот шаблон для перевода проекта в сайд-скроллер
4) Чтобы персонаж не проваливался сквозь вещи используем примитивные объекты (куб и прочие) и на глаз подставляем их в качестве опоры.
5) Выделяем опорные объекты, идём в панель Details и ставим галочку “Actor Hidden in Game”. Так они станут невидимыми, и в кадре будет только стол и вещи на нём.
Автор
1) Cканируем стол с вещами на нём и создаём NeRF на сайте Luma. Дальше импортируем его в стартовый проект на Unreal Engine 5, инструкции там же.
2) Импортируем шаблон с видом от третьего лица.
3) Используем этот шаблон для перевода проекта в сайд-скроллер
4) Чтобы персонаж не проваливался сквозь вещи используем примитивные объекты (куб и прочие) и на глаз подставляем их в качестве опоры.
5) Выделяем опорные объекты, идём в панель Details и ставим галочку “Actor Hidden in Game”. Так они станут невидимыми, и в кадре будет только стол и вещи на нём.
Автор
🔥30❤19
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia дропнула новую модельку
text2video. Качество заметно подросло по сравнению с предыдущими, но это всё ещё не идеальный вариант.
К сожалению, попробовать пока негде, есть только страница проекта с описанием.
Так что пока любуемся Штурмовиком, пылесосящим пляж. В комменты можете кидать удачные примеры использования.
text2video. Качество заметно подросло по сравнению с предыдущими, но это всё ещё не идеальный вариант.
К сожалению, попробовать пока негде, есть только страница проекта с описанием.
Так что пока любуемся Штурмовиком, пылесосящим пляж. В комменты можете кидать удачные примеры использования.
🔥19⚡5
This media is not supported in your browser
VIEW IN TELEGRAM
жара! в дискорде runway наконец то заработал gen-2 - генерация видео по текстовому запросу!
мой промпт до сих пор висит в списке ожидания поэтому вот вам чужие астро-котики
@тоже_моушн
мой промпт до сих пор висит в списке ожидания поэтому вот вам чужие астро-котики
@тоже_моушн
🔥70❤16⚡1
некоторые из вас знают что я веду курс по видео-нейронкам в Пражской медиашколе. сегодня наконец то собрали выставку работ выпускников первого потока, и там есть на что посмотреть! очень горжусь студентами и рад что многие дошли до финала и выразили себя в нейро творчестве. ребята, вы крутаны!
а если вы хотите также, сейчас идет набор на третий поток, который стартует в конце мая.и промокод TOZHE все еще работает
@тоже_моушн
а если вы хотите также, сейчас идет набор на третий поток, который стартует в конце мая.
www.pragueschool.media
Universal Growth — выставка о росте и преобразовании
Проекты выпускников курса "Нейросети для создания видео" Пражской медиашколы
❤36🔥11⚡3
Media is too big
VIEW IN TELEGRAM
плагин для блендера Dream Textures мощно так обновился! он теперь поддерживает контролнет со всеми плюшками, а настройка генерации перекочевала в комфортный нодовый редактор. что это если не хорошая альтернатива автоматику?
p.s. это тот самый плагин который еще и генерацию текстур прямо на 3д объект умеет делать - супер буст для текстурирования не выходя из блендера
скачать плагин
@тоже_моушн
p.s. это тот самый плагин который еще и генерацию текстур прямо на 3д объект умеет делать - супер буст для текстурирования не выходя из блендера
скачать плагин
@тоже_моушн
🔥36❤6⚡2
Forwarded from Dreams and Robots
Итак, свершилось. Я только что выложил мой набор инструментов для работы со Stable Diffusion из Гудини в открытый доступ. Для всех, даром, и пусть никто не уйдёт обиженным. Все, что нужно знать, в видео.
Нагенерируйте мне красоты!
https://www.youtube.com/watch?v=Un_b8cvzxcw
Нагенерируйте мне красоты!
https://www.youtube.com/watch?v=Un_b8cvzxcw
YouTube
Stable Houdini - бесплатные ассеты для работы со Stable Diffusion
Ассеты:
https://github.com/stassius/StableHoudini
Генеративные и нейронные проекты:
https://evr.systems/
https://news.1rj.ru/str/evrdev
Сказать спасибо:
https://www.donationalerts.com/r/houdinirus
English version of the tutorial:
https://youtu.be/jCE1Dx_Q924
Телеграм…
https://github.com/stassius/StableHoudini
Генеративные и нейронные проекты:
https://evr.systems/
https://news.1rj.ru/str/evrdev
Сказать спасибо:
https://www.donationalerts.com/r/houdinirus
English version of the tutorial:
https://youtu.be/jCE1Dx_Q924
Телеграм…
❤73🔥28⚡8
Forwarded from neuroae (Michael Ivanov)
This media is not supported in your browser
VIEW IN TELEGRAM
Короткое промо и демонстрация основных функций первого доступного скрипта для работы со Stable Diffusion под After Effects.
Основные функции
- txt2img с использованием controlnet (покадрово и анимация)
- interrogate
- Препроцессинг изображений (получаем canny и depth прям из Афтера!)
- скрипты для копирования промптов из файлов
Сам скрипт в описании канала.
Основные функции
- txt2img с использованием controlnet (покадрово и анимация)
- interrogate
- Препроцессинг изображений (получаем canny и depth прям из Афтера!)
- скрипты для копирования промптов из файлов
Сам скрипт в описании канала.
🔥53❤3⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
каким то образом мимо меня пролетела инфа про отличное расширение для автоматика SD-CN-Animation. помимо весьма неплохого text2video (почти настоящего) умеет еще и стилизовать видео по текстовому запросу. я довольный как кот-космонавт!
github
за наводку спасибо Psy Eyes
@тоже_моушн
github
за наводку спасибо Psy Eyes
@тоже_моушн
❤31🔥13⚡4
This media is not supported in your browser
VIEW IN TELEGRAM
кому нужны все эти дефорумы, ген-2 и прочие text2video решения если отличный клип можно сделать просто на статичных картинках? смысл же не во внутрикадровом движении а в глубине замысла и харизме автора.
должен признаться, я смотрел клип "Маликов" раз 10 и не могу остановиться! что то он такое задевает внутри, что то глубинное и неясное - глаза горят и смех разливается. а все потому что это образец метаиронии и метамодерна с непредсказуемым финалом.
Олегу Суркову - автору видеоряда - мой респект!
Кирилл Экономов - "Маликов"
@тоже_моушн
должен признаться, я смотрел клип "Маликов" раз 10 и не могу остановиться! что то он такое задевает внутри, что то глубинное и неясное - глаза горят и смех разливается. а все потому что это образец метаиронии и метамодерна с непредсказуемым финалом.
Олегу Суркову - автору видеоряда - мой респект!
Кирилл Экономов - "Маликов"
@тоже_моушн
❤53🔥22