This media is not supported in your browser
VIEW IN TELEGRAM
о, еще один text2video на подходе, да к тому же с поддержкой ControlNet - Text2Video-Zero. а самое приятное - родом из Армении - привет Picsart!
авторы предлагают новый метод генерации видео из текста без использования большого объема видео-данных для обучения. а также редактирование входящего видео с помощью промпта
Text2Video-Zero на github
paper
@тоже_моушн
авторы предлагают новый метод генерации видео из текста без использования большого объема видео-данных для обучения. а также редактирование входящего видео с помощью промпта
Text2Video-Zero на github
paper
@тоже_моушн
❤22⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
а давайте стрим вечером? 22:00 по Еревану
посмотрим что нового выпустили и анонсировали за последнюю неделю - она была богатой на события)
и заодно можем погенерить всратый музыкальный клип в колабе Modelscope!
есть идея - какую музыку взять и что под нее нарисовать? айда в комменты
@тоже_моушн
и заодно можем погенерить всратый музыкальный клип в колабе Modelscope!
есть идея - какую музыку взять и что под нее нарисовать? айда в комменты
@тоже_моушн
🔥28❤8⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
ладно, все таки зря я был скептически настроен к генерации кастомных шрифтов в Firefly от Adobe. посмотрел видео Себастиана Камфа и соглашусь что выглядит весьма недурно. даже захотелось проверить насколько геморно сравнимый результат получить контролнетом
а еще сразу в памяти всплыл мощный антивоенный шрифт от Дэмиена Стокера, сделанный еще в диско диффьюжн
видео на ютуб
p.s. кстати получил письмо от адоби, обещают тоже скоро доступ дать)
upd. неожиданно мне дали доступ. го в комменты!
@тоже_моушн
а еще сразу в памяти всплыл мощный антивоенный шрифт от Дэмиена Стокера, сделанный еще в диско диффьюжн
видео на ютуб
p.s. кстати получил письмо от адоби, обещают тоже скоро доступ дать)
upd. неожиданно мне дали доступ. го в комменты!
@тоже_моушн
🔥36❤5
последний стрим как то незаслуженно мало просмотров набирает. давайте-ка исправлять это недоразумение!
первая часть - про новинки и полезности, вторая - попытки в новый text2video Modelscope
и предыдущий стрим кстати тоже ничего- где вы еще такой казус увидите?
p.s. хочу сделать это еженедельным форматом. если считаете что вечер субботы не подходит - жду ваших предложений в комментах
@тоже_моушн
первая часть - про новинки и полезности, вторая - попытки в новый text2video Modelscope
и предыдущий стрим кстати тоже ничего
@тоже_моушн
YouTube
тоже моушн - спокойный стрим
обсуждаем нейро-новинки, болтаем, генерим
спасибо за донат!
https://www.donationalerts.com/r/too_motion
спасибо за донат!
https://www.donationalerts.com/r/too_motion
❤26🔥5⚡2
с удовольствием посмотрю стрим в
Anonymous Poll
19%
понедельник
18%
вторник
17%
среду
17%
четверг
24%
пятницу
39%
субботу
34%
воскресенье
⚡4❤2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
уже завтра вечером - первая Генеративная Паверпоинт Найт!
вы готовы услышать 11 докладов на самые безумные темы? какая она - любовь в эпоху высоких технологий? как сохранить талант "рукожопа" в эпоху нейросетей? как появление диффузионных моделей влияет на рождаемость? как перестать генерировать если у тебя нейро-зависимость? и это только малая часть!
1 апреля, 20:00 (мск)
экслюзивная трансляция в ютуб канале тоже моушн - приходите слушать и задавать вопросы!
лайк, репост!
@тоже_моушн
вы готовы услышать 11 докладов на самые безумные темы? какая она - любовь в эпоху высоких технологий? как сохранить талант "рукожопа" в эпоху нейросетей? как появление диффузионных моделей влияет на рождаемость? как перестать генерировать если у тебя нейро-зависимость? и это только малая часть!
1 апреля, 20:00 (мск)
экслюзивная трансляция в ютуб канале тоже моушн - приходите слушать и задавать вопросы!
❤61🔥21⚡5
мы все в предвкушении! а вы в предвкушении?
начинаем через два часа!
смотреть ГенППН #1 в ютуб
@тоже_моушн
начинаем через два часа!
смотреть ГенППН #1 в ютуб
@тоже_моушн
YouTube
Генеративная Паверпоинт Найт #1
вечеринка с презентациями про нейросети и генарт
на новые форматы https://www.donationalerts.com/r/too_motion
чтобы мы не потеряли ваши вопросы, пишите их начиная с "ВОПРОС:"
Выступанты:
Валерия Титова
https://news.1rj.ru/str/leraneuralpics
https://instagram.com/lerarussia…
на новые форматы https://www.donationalerts.com/r/too_motion
чтобы мы не потеряли ваши вопросы, пишите их начиная с "ВОПРОС:"
Выступанты:
Валерия Титова
https://news.1rj.ru/str/leraneuralpics
https://instagram.com/lerarussia…
🔥30❤11⚡3
This media is not supported in your browser
VIEW IN TELEGRAM
в LeiaPix внезапно добавили новую анимацию) если надо быстро и просто задвигать статичную картинку - самое то!
@тоже_моушн
@тоже_моушн
❤64🔥25
У нас было два пакетика Stable Diffusion, семьдесят пять ампул ControlNet, 5 пакетиков t2i style adapter, солонка, наполовину наполненная Ebsynth Utilitie... Не то, чтобы всё это было категорически необходимо в поездке, но если уж начал собирать коллекцию, то к делу надо подходить серьёзно.
а если серьезно - новое видео с моим участием на канале ХС. энджой!
@тоже_моушн
а если серьезно - новое видео с моим участием на канале ХС. энджой!
@тоже_моушн
YouTube
КАК сделать стилизованную анимацию в Stable Diffusion, с помощью ControlNet, Ebsynth
👉 Анимация 3D-персонажа в Blender со скидкой https://clck.ru/39D5V5
Привет, творец. На связи Слава Хохлов. Основатель Хохлов Сабатовский.
Тут ты найдешь всю информацию, что бы научиться создавать киношные видео и построить профессию.
► Переходи в мой…
Привет, творец. На связи Слава Хохлов. Основатель Хохлов Сабатовский.
Тут ты найдешь всю информацию, что бы научиться создавать киношные видео и построить профессию.
► Переходи в мой…
⚡49🔥18❤12
Forwarded from 🥷🏿андрей киселев 🥷🏿 (Andrey Kiselev)
YouTube
ТОЖЕ МОУШН. SOFTporn PODCAST
В этот четверг, (шестого апреля в 20:00 по Мск), пройдет стрим по генерации архитектуры в StableDiffusion (Automatic1111). Мы используем ControlNet и модель dvArch, чтобы создать реалистичные иллюстрации на основе ручных скетчей, макетов и простых архитектурных…
🔥19⚡6❤5
🥷🏿андрей киселев 🥷🏿
Ссылка на стрим
стрим уже через час! не пропустите) разберемся вместе, как SD может пригодиться архитекторам.
обещаю, будет интересно!
пишите ваши вопросы, мысли и промпты
ссылка на стрим
@тоже_моушн
обещаю, будет интересно!
пишите ваши вопросы, мысли и промпты
ссылка на стрим
@тоже_моушн
YouTube
ТОЖЕ МОУШН. SOFTporn PODCAST
В этот четверг, (шестого апреля в 20:00 по Мск), пройдет стрим по генерации архитектуры в StableDiffusion (Automatic1111). Мы используем ControlNet и модель dvArch, чтобы создать реалистичные иллюстрации на основе ручных скетчей, макетов и простых архитектурных…
❤22🔥3⚡1
Forwarded from Dreams and Robots
Если вы работаете над серией, комиксом, раскадровкой (или аккаунтом на онлифанс), то вы наверняка сталкивались с проблемой повторяемости лиц.
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
🔥106❤15⚡10
а хотите завтра вечером на стриме пощупаем убабугу и поболтаем с викуньей? если для вас это не абракадабра, хочу узнать ваше мнение и обсудить возможности использования.
если ничего не понятно - приходите слушать интересности(даешь большие языковые модели в каждый дом!)
ну и нейроновинки пора обсудить, их опять набежало
@тоже_моушн
если ничего не понятно - приходите слушать интересности
@тоже_моушн
⚡24🔥14❤5
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Предварительно сегодня в 20:00 по мск хотим немножко постримить про очень интересный софт для постпродакшена Wonder Studio.
Событие может перенестись на следующий день в связи с горящими жопами участвующих, так что лучше нажать кнопочку "Прислать уведомление" или вообще подписаться на YouTube канал, если ещё этого не сделали. О переносах сообщим)
Подкаст будет онлайн как всегда, только хардкор! Поэтому готовьте свои вопросики по теме софта Wonder Studio прямо тут в комментах.
Подкаст будет тут
Событие может перенестись на следующий день в связи с горящими жопами участвующих, так что лучше нажать кнопочку "Прислать уведомление" или вообще подписаться на YouTube канал, если ещё этого не сделали. О переносах сообщим)
Подкаст будет онлайн как всегда, только хардкор! Поэтому готовьте свои вопросики по теме софта Wonder Studio прямо тут в комментах.
Подкаст будет тут
❤24🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
ого, большой апдейт ControlNet! в новой версии как будто гораздо лучше стали работать препроцессы - качественней просчитывается глубина, нормали стали выглядеть как нормали, сегментация уже не такая дырявая, в опенпоз нормально поддерживаются руки и лица. появилась опция inpaint. а еще добавилась модель shuffle - похожая на t2i style adapter - выдает вариации исходной картинки. ну что, снова вот э тайм ту би элайф?
@тоже_моушн
@тоже_моушн
🔥46❤13⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
прикольное расширение для автоматика - создает бесконечный зум по текстовому запросу. год назад приходилось такое ручками делать а тут наконец то автоматизировано
расширение на github
мой зум-аут в далли
@тоже_моушн
расширение на github
мой зум-аут в далли
@тоже_моушн
🔥67⚡4❤4
Forwarded from Psy Eyes (Andrey Bezryadin)
Простая игра на NeRF (Luma) + UE5
1) Cканируем стол с вещами на нём и создаём NeRF на сайте Luma. Дальше импортируем его в стартовый проект на Unreal Engine 5, инструкции там же.
2) Импортируем шаблон с видом от третьего лица.
3) Используем этот шаблон для перевода проекта в сайд-скроллер
4) Чтобы персонаж не проваливался сквозь вещи используем примитивные объекты (куб и прочие) и на глаз подставляем их в качестве опоры.
5) Выделяем опорные объекты, идём в панель Details и ставим галочку “Actor Hidden in Game”. Так они станут невидимыми, и в кадре будет только стол и вещи на нём.
Автор
1) Cканируем стол с вещами на нём и создаём NeRF на сайте Luma. Дальше импортируем его в стартовый проект на Unreal Engine 5, инструкции там же.
2) Импортируем шаблон с видом от третьего лица.
3) Используем этот шаблон для перевода проекта в сайд-скроллер
4) Чтобы персонаж не проваливался сквозь вещи используем примитивные объекты (куб и прочие) и на глаз подставляем их в качестве опоры.
5) Выделяем опорные объекты, идём в панель Details и ставим галочку “Actor Hidden in Game”. Так они станут невидимыми, и в кадре будет только стол и вещи на нём.
Автор
🔥30❤19
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia дропнула новую модельку
text2video. Качество заметно подросло по сравнению с предыдущими, но это всё ещё не идеальный вариант.
К сожалению, попробовать пока негде, есть только страница проекта с описанием.
Так что пока любуемся Штурмовиком, пылесосящим пляж. В комменты можете кидать удачные примеры использования.
text2video. Качество заметно подросло по сравнению с предыдущими, но это всё ещё не идеальный вариант.
К сожалению, попробовать пока негде, есть только страница проекта с описанием.
Так что пока любуемся Штурмовиком, пылесосящим пляж. В комменты можете кидать удачные примеры использования.
🔥19⚡5