Media is too big
VIEW IN TELEGRAM
Создал AI Промо-ролик для бренда одежды
Использовал в платные и бесплатные инструменты и подготовил полноценный тутор. Рассказал про каждый этап:
- Создание 3д сцены для контролирования композиции
- Стилизации в ComfyUI
- Создание разнообразых поз персонажа
- Доработка и исправление деталей и предметов одежды
- Анимация в Kling
Про все процессы рассказано в ВИДЕО на этом кейсе.
Использовал в платные и бесплатные инструменты и подготовил полноценный тутор. Рассказал про каждый этап:
- Создание 3д сцены для контролирования композиции
- Стилизации в ComfyUI
- Создание разнообразых поз персонажа
- Доработка и исправление деталей и предметов одежды
- Анимация в Kling
Про все процессы рассказано в ВИДЕО на этом кейсе.
❤7
Установка ComfyUI.pdf
4.3 MB
СБОРКА COMFYUI
Для быстрого старта в Comfy делимся готовой сборкой, в которой собрали все необходимые библиотеки и модели для работы.
Прикреплен файл с полноценной инструкцией по установке. Краткое описание: Устанавливайте сборку и папку models, эту папку нужно положить в папку ComfyUI с заменой. Далее скачиваем и устанавливаем Git for Windows.
Для быстрого старта в Comfy делимся готовой сборкой, в которой собрали все необходимые библиотеки и модели для работы.
Прикреплен файл с полноценной инструкцией по установке. Краткое описание: Устанавливайте сборку и папку models, эту папку нужно положить в папку ComfyUI с заменой. Далее скачиваем и устанавливаем Git for Windows.
❤5
ТЕПЕРЬ ВИДЕО ПОНИМАЮТ КОНТЕКСТ
Не так давно image-модели научились понимать контекст изображения.
Но оставался вопрос — как дать это же понимание видеогенераторам?
На этот вопрос ответили Kling своей новой моделью — Kling O1.
Сравнить эту модель можно с Nano Banana, но для видео.
То есть она больше не генерирует “кадр → кадр” вслепую, а понимает контекст сцены целиком.
Можно:
Так я добавил на видео с движением камеры группу спецназа из 4 человек, которая корректно вписалась в окружение.
Исходное видео немного изменилось по цвету, видно как люди взаимодействуют со сценой.
И да, появились артефакты на тексте — но это уже мелкие проблемы, которые легко исправить.
Попробовать здесь
Гайд по использованию
Не так давно image-модели научились понимать контекст изображения.
Но оставался вопрос — как дать это же понимание видеогенераторам?
На этот вопрос ответили Kling своей новой моделью — Kling O1.
Сравнить эту модель можно с Nano Banana, но для видео.
То есть она больше не генерирует “кадр → кадр” вслепую, а понимает контекст сцены целиком.
Можно:
Использовать для генерации на основе референсов
Например, закинуть объекты, которые обязательно должны находиться в видео — и модель будет удерживать их через всю сцену, а не “догадываться”, что это было.
Управлять движением камеры и объектами с помощью изображений
Теперь в одной генерации может происходить несколько управляемых действий:
движение камеры, перемещение персонажей — а не просто переход из одного состояния в другое.
Давать модели полное понимание объекта — персонаж, предмет, окружение, эффекты
Вы показываете объект целиком, поэтому модели не нужно придумывать, как он выглядит при повороте, наклоне или выходе из тени.
Загружать видео и менять его теми же способами ⬆️
Можно использовать для пост-продакшена:
объектная замена, стилизация, расширение сцены, восстановление.
И всё это без хромакея и ручного трекинга.
Это уже не набор отдельных инструментов, а единый контекстный video-pipeline внутри модели.
Так я добавил на видео с движением камеры группу спецназа из 4 человек, которая корректно вписалась в окружение.
Исходное видео немного изменилось по цвету, видно как люди взаимодействуют со сценой.
И да, появились артефакты на тексте — но это уже мелкие проблемы, которые легко исправить.
Попробовать здесь
Гайд по использованию
🔥9❤6❤🔥4