тоже моушн – Telegram
тоже моушн
8.92K subscribers
222 photos
247 videos
3 files
408 links
нейромагия + моушн дизайн
тренды, новости, эксперименты

связь с автором @vsewall
Download Telegram
Forwarded from KeenTools
Media is too big
VIEW IN TELEGRAM
KeenTools 2023.2: Встречайте бету GeoTracker for Blender

Друзья, наш 3D трекер объектов теперь в вашем любимом Blender! Нужно добавить 3D эффекты или симуляции в ваше видео? С GeoTracker вы можете быстро отследить движение нужного объекта, получив его координаты в 3D, и сразу же притречить к нему желанный эффект — всё это не покидая Блендера.

Почему GeoTracker:
– Точный трекинг объектов и камеры на основе отслеживания геометрии в кадре
– Возможность разместить объект относительно камеры (и наоборот)
– Проецирование и запекание текстуры на 3D модель прямо из видео
– Идеальный трекинг движений головы при использовании вместе с FaceBuilder
– Результаты трекинга легко экспортируются за пределы Blender

И многое другое!

Скачать GeoTracker for Blender

Сейчас адд-он в бесплатной бете. Делитесь своими работами, мы будем рады добавить их в наши будущие шоурилы.

Но это ещё не всё! Мы также значительно улучшили наши другие продукты. Подробности.

Качайте и пробуйте!
🔥5272
This media is not supported in your browser
VIEW IN TELEGRAM
смотрю это видео в десятый раз и меня впечатляет:

- то как круто ген2 подхватывает атмосферу и стиль картинок из миджорней

- как мощно работают спецэффекты типа дыма и таймлапса облаков

- как удачно двигается камера, динамика в кадре

косяки тоже есть: кривовато выглядит походка персонажей но как будто этот зомби стиль тут даже в тему

хочу узнать ваше мнение, это впечатляет или нет?

и кстати о дыме - вот еще пример очень вкусного видео из ген2 на основе картинок SDXL

оригинальное видео
подробнее о его создании от автора

@тоже_моушн
🔥1542111
вокруг ComfyUI - ажиотаж

для пользователей WarpFusion Дерп Лернинг запилил эксплейнер на комфи с наглядным объяснением процессов аккуратной стилизации видео. и похоже что нас ждет Comfy версия варпа!

если по началу комфи был интересен только кучке нердов то в последнее время он развивается активными шагами, и вот почему:

высокая гибкость инструмента, возможность дописывать свои модули (ноды), лихо соединять все это в едином интерфейсе, мега простой апи. это уже достойная альтернатива автоматику

вот например урок о том как делать бесконечную зум анимацию в комфи да еще и менять промпты прямо в процессе рендера

а DotSimulate на днях выложил на патреоне свой ComfyUI Touchdesigner API Tool Setup

своим изгибающим реальность сетапом я все еще хочу и планирую поделиться. останавливает только то что в эпоху однокнопочных решений предлагать пользователю танцевать с бубнами без четкой инструкции - ну такое себе

ComfyUI
Warp and Consistency explanation
zoom tutorial
ComfyUI TD API by DotSimulate

@тоже_моушн
29🔥91
друзья разрабатывают сервис OHMYSYNT и хотят получить фидбек. 3 дня триала: обучение внешности 5 персонажей + современные плюшки типа инпейнтинга в AI-редакторе с удобным интерфейсом. ну что, поможем парням нагрузить сервера?
🔥3143
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Вы, конечно, можете не впечатлиться результатом, но прогресс внимание на это не обращает.
Но часть из вас, таки, возможно, замечает улучшения в генерации трехмерных объектов.

Модель MVDream выстраивает объект, опираясь на текстовое описание и большое количество ракурсов, используемых для обучения. Авторы не пишут, откуда конкретно они берут данные, но могу предположить, что это Sketchfab или его аналоги.

Кто видел старт диффузионных моделей, тот над многоракурсной диффузией не смеется 🫡

Сорс
59🔥26
This media is not supported in your browser
VIEW IN TELEGRAM
хотели морфинг? дарю рабочий пайплайн)

если взять серию картинок (фоток, генераций sd/mj), сморфить их между собой с помощью FILM или Topaz Video AI, а затем результат прогнать через стилизацию в Deforum - получается очень даже кайфовый гладкий морфинг (по сравнению например с sd_smooth_interpolation)

дефорум учитывая optical flow рисует новые детали и тем самым прекрасно сглаживает артефакты интерполяции в пиксельном пространстве (но не все!). конечно метод несовершенный и нужен текстовый промпт а иногда еще и лора - если морфим персонажа. тем не менее - сам пользуюсь и рекомендую

блокнот FILM
стилизация в Deforum
sd_smooth_interpolation

@тоже_моушн
75🔥298
This media is not supported in your browser
VIEW IN TELEGRAM
уже слышали про 3D Gaussian Splatting? это который как бы нерф но совсем не нерф

сердце поет когда видишь как оно лихо летает с хорошим фпс даже на скромной по нынешним меркам видео карте) чтобы убедиться - с гитхаба качайте viewer и демо файлы моделей (осторожно - 14Гб). если новичок - доставайте бубны и готовьтесь танцевать)

а новость в том что теперь 3D Gaussian Splatting можно запустить в Nerfstudio! и значит доступна связка с блендером и полный контроль камеры. правда работает чуть медленней чем в оригинальном просмотрщике но все равно в разы быстрее чем любые нерфы. мощь!

3DGS для Nerstudio
оригинальный 3D Gaussian Splatting
гайд на ютубе
подробнее про нерфстудио

@тоже_моушн
33🔥15
This media is not supported in your browser
VIEW IN TELEGRAM
окей, генерацией картинок и видео никого уже не удивить. а как насчет реалистичных движений персонажей в 3д с помощью моделей диффузии?

тогда добро пожаловать на бета-тест MoGen от motorica.ai

это бесплатный сервис в котором можно настроить некоторые правила поведения персонажа и затем экспортировать как 3д анимацию скелета.
выбор пресетов движения пока что конечно маловат, но зато можно прикольно смешивать походку "зомби" и "клевого парня".
а еще у них есть плагин для UE

мощная фича - из 3д экспортируем анимацию персонажа по пути. а MoGen уже дорисовывает весьма реалистично как бы этот персонаж на самом деле скакал, бежал и дергал ручками и ножками перемещаясь по заданной траектории. да еще и в выбранном стиле!

вы все еще анимируете вручную? тогда МоГен идет к вам!)

бета-тест MoGen
обзор MoGen
гайд о связке с гудини

@тоже_моушн
44🔥234
Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Только Runway выкатили возможность управлять камерой в генерациях, как Pika тут же выпустили такую же фичу! Чувствуете как атмосфера нагнетается, котаны?

Подробнее о фиче: камера управляется параметром -camera и работает с ОДНИМ из следующих типов движения:

* Zoom: приближаем/удаляем камеру через -camera zoom in/out.

* Панорамирование: двигаем камеру вверх/вниз/влево/вправо с помощью -camera pan up/down/left/right. Можно комбинировать два не конфликтующих направления, например, -camera pan up right.

* Поворот: вертим камеру по часовой стрелке или против часовой через -camera rotate clockwise/counterclockwise/anticlockwise или сокращения cw/ccw/acw.

Интенсивность движения камеры по-прежнему можно регулировать с помощью параметра -motion XX задавая от 1 до 4.

Другие обновления:
* -fps теперь по умолчанию стоит 24.
* Автоматический канал "upvotes" больше не доступен.

PS: anti-clockwise говорят в Британии, а counterclockwise говорят в Америке.... Теперь ты знаешь как генерить, заправляясь чайком.

Дискорд Pika
Пост с остальными параметрами для генерации
34🔥1310
This media is not supported in your browser
VIEW IN TELEGRAM
AnimateDiff это мощь!

Денис Demien Stoker натворил офигенных котов, полную версию смотрите у него в канале

у Нерди Родента вчера вышел обзор новой модели AnimateDiff. запускать можно в автоматике. а в ComfyUI можно анимировать даже с контролнетом!

коты by Demien Stoker
AnimateDiff
гайд от Нерди Родента
экстеншн A1111
версия для ComfyUI

@тоже_моушн
35🔥171
This media is not supported in your browser
VIEW IN TELEGRAM
Новый вид монтажа

🔥 Все что вы видите в этом ролике сгенерировалось за один раз, без склеек, без использования программ для монтажа.

📕 Склейки между кадрами - моя попытка теста QR code ControlNET (который сейчас проживает второй расцвет) в AnimateDiff.

💗 Это успех, теперь приятные эффекты шума, такие важные для некоторых клипов или творческих работ, можно создавать максимально контролируемо.

🐑 То есть AnimateDiff превращается в полноценную продакшн студию у вас в компе, где есть актеры, движения, эффекты, сцены, идеи.

🐈‍⬛ Пока это сложный инструмент, хотя уверен, что вскоре появится сервис, где нужно будет только писать промпт и задавать стили, Лоры и т.д.

Не могу не наиграться с AnimateDiff, например эта работа полностью HD, 1920x1080 генерация, 13 секунд. Это сильно впечатляет, хотя и себестоимость таких 13 секунд вышла в 10$.

AnimateDiff
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥92149
This media is not supported in your browser
VIEW IN TELEGRAM
кто о чем а мне лишь бы погнуть пространство)

кайф в том что наконец то удалось нащупать способ доступный каждому пользователю дефорума в автоматике! без дополнительных заморочек с тачем или гудини

способ чем то похож на стилизацию, но в отличие от нее мы не видим содержания исходного видео а забираем оттуда только само движение через оптикал флоу. а это дает просто бешеный простор для творчества - можно использовать видео с телефона или готовые футажи или самим чего нибудь нагенерить если умеете в моушн. вероятно способ больше подходит для лэндскейпов или абстракции и арта. но зависит от исходника

за настройками айда в комменты, там же видео - источник движения и еще примеры анимации

гнем в гудини
гнем в таче

@тоже_моушн
🔥7622
This media is not supported in your browser
VIEW IN TELEGRAM
как насчет стилизации БЕЗ ПРОМПТА? с новым IP-Adapter - запросто!

про IP-Adapter говорят что это "лора по одной картинке". он прекрасно работает в последней версии автоматика в расширении контролнет, нужно только скачать модели. есть версия для Comfy и в ней даже чуть больше возможностей!

волна хайпа до сих пор незаслуженно обходила IP-Adapter стороной и очень зря, потому что инструмент супер мощный. идеально делает вариации по входящему изображению без промпта. а еще позволяет неплохо смешивать картинки, но про это позже

насчет стилизации видео - сразу скажу, пайплайн еще очень сырой но точно стоит того чтобы хорошенько в нем покопаться. в анимации выше 2 версии, одна на ip2p, другая на temporalnet. в первой лучше держится стиль но сильнее гуляют формы, во второй лучше консистентность но картинка приобретает hdr эффект. моя локальная карточка не вмещает больше 3 слоев контрола за раз, возможно соединение этих двух подходов даст лучший результат

оригинальное видео и референс стиля плюс настройки - все в комментах

IP-Adapter project page и github
модели для автоматика
версия для Comfy

@тоже_моушн
21🔥12
This media is not supported in your browser
VIEW IN TELEGRAM
продолжаю мучать IP-Adapter

киллер фича - возможность смешивать пару изображений. из первого контролнетом забираем карту глубины, из второго ай-пи адаптером получаем стиль. а дальше начинается магия. и я хочу еще раз акцентировать - это генерации без промпта!

две доступные модели для sd15 справляются чуть по разному. стандартная - чуть хуже схватывает стиль, но за счет своей "подвижности" круто накладывает его на карту глубины. модель с плюсом - старается жестче следовать стилю, менее подвижная, из за этого частенько попадает в неприятности, например рисует девушку поверх кота потому что в стиле был портрет.

максимально оценить возможности такого смешивания - можно по двум сравнительным таблицам в комментариях

IP-Adapter
стилизация видео ай-пи адаптером

@тоже_моушн
57🔥235
This media is not supported in your browser
VIEW IN TELEGRAM
а вы в курсе что в AnimateDiff больше нет ограничения по хронометражу?

сначала в ComfyUI а теперь и в A1111 добавили немного костыльное но работающее решение: AD генерит все так же по 16 кадров, а затем еще 16 с небольшим наложением на предыдущие и так сколько душе угодно. если промпт не сильно динамичный, стыков не будет заметно

также AnimateDiff очень неплохо показал себя в задаче стилизации видео (vid2vid)! а с новым контекстным окном обработать можно любой хрон, круто же

еще интересное решение - motion lora - модели движения для AD (совсем как в ген2 и пикалабс), довольно простые но их можно комбинировать для получения более сложного движения

супер полезная к прочтению статья на civitai о том какие крутые штуки теперь можно творить с AnimateDiff в ComfyUI, да еще и сетапы в подарок

animatediff comfyui
ext a1111
motion lora
civitai guide + setup

@тоже_моушн
🔥101181
This media is not supported in your browser
VIEW IN TELEGRAM
помните недавний мой эксперимент с деформацией по optical flow? говорил же что это гибкий пайплайн!

Mickmumpitz использовал в качестве исходника движения стандартные визуализации звука и получил на выходе - нейро-винамп, жаль только не реалтаймовый. по ссылке подробный гайд, где показан весь процесс подготовки, настройки и обработки

кстати у Mickmumpitz на канале масса годного контента из категории "делаем кино самостоятельно на коленке используя все доступные бесплатные методы"

подсмотрено у Psy Eyes

видео на ютуб
пост в Х
мой пост с настройками

@тоже_моушн
🔥3692
ну наконец то! последний месяц я ежедневно проверял не появились ли новые опции в платном аккаунте chatGPT и наконец это свершилось)

неделю назад получил возможность спрашивать что изображено на картинке и по запросу describe this image in details получать довольно подробное и размашистое описание деталей, стилистики итд

а сегодня добавили опцию генерации dalle-3 и chatGPT свое же пространное описание органично упаковывает в небольшой промпт, по которому генерит вполне приличные картинки

сравнивать исходник и результат смысла не вижу так как это разные сетки, разные модели - разное всё. просто чувствую душевный подъем от того что есть теперь такая возможность, этого не хватало

картинки в полном качестве положу в комменты

@тоже_моушн
2919🔥5
продолжаю пребывать в некотором шоке от далли-3

уровень детализации и качество картинки без тюнов, лор, инпейнтов и тд - зашкаливает и завораживает. особенно в сравнении со стейблом

кому интересно, почему так и как новый далли опять всех уделал - вот читабельный саммари от Дмитрий Савостьянов Вещает вчерашней статьи OpenAI

@тоже_моушн
40🔥8
Media is too big
VIEW IN TELEGRAM
🕸🎃 чрезвычайно милая и атмосферная хэллоуинская короткометражка от Алексея Лоткова

сделано на коленке но при этом профессионально, качественно, с юмором и любовью к делу. по словам автора - на создание ушло 2 дня

из инструментов: анимейтдифф для стилизации, стейбл для фонов и окружения, щепотка миксамо и классического композа, синтез голоса в play.ht

Алексей Лотков в IG

@тоже_моушн
🔥73236
This media is not supported in your browser
VIEW IN TELEGRAM
обработка в стейбле потихоньку подбирается к реалтайму. а виной всему LCM, который лихо ускоряет генерацию без потери качества

Олег Чомп записал мега полезный гайд о том как используя ComfyUI и Touchdesigner обрабатывать любой видео сигнал на лету

я и сам сейчас в работе активно использую патч Олега для комфи, так что рекомендую!

оригинальный пост
гайд на ютуб
lora LCM
патч для Тача

@тоже_моушн
🔥5754