Новость которую запостили все маркето-рекламо-каналы, но никто не дал ни ссылку, ни объяснение технологии. Так что, все это неточно.
В Бразилии продемонстрировал концертных цифровых аватаров.
Они повторяют движения за владельцем и отрисованы до мельчайших деталей.
#humanavatar #3Davatar
В Бразилии продемонстрировал концертных цифровых аватаров.
Они повторяют движения за владельцем и отрисованы до мельчайших деталей.
#humanavatar #3Davatar
🔥1
BREAKING NEWS
Stability AI с радостью объявляет о запуске Stable Diffusion Reimagine! Мы приглашаем пользователей поэкспериментировать с изображениями и "переосмыслить" свой дизайн с помощью стабильной диффузии.
Stable Diffusion Reimagine - это новый инструмент Clipdrop, который позволяет пользователям создавать множество вариантов одного изображения без ограничений. Нет необходимости в сложных подсказках: пользователи могут просто загрузить изображение в алгоритм, чтобы создать столько вариантов, сколько они захотят.
Можно играть со стилем. Есть апскейлер
Код скоро выложат
#stablediffusion
Stability AI с радостью объявляет о запуске Stable Diffusion Reimagine! Мы приглашаем пользователей поэкспериментировать с изображениями и "переосмыслить" свой дизайн с помощью стабильной диффузии.
Stable Diffusion Reimagine - это новый инструмент Clipdrop, который позволяет пользователям создавать множество вариантов одного изображения без ограничений. Нет необходимости в сложных подсказках: пользователи могут просто загрузить изображение в алгоритм, чтобы создать столько вариантов, сколько они захотят.
Можно играть со стилем. Есть апскейлер
Код скоро выложат
#stablediffusion
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ответочка Гуглу от китайского опен сорса: text2video.
Много ограничений - "модель не была обучена реалистичному представлению людей или событий, поэтому ее использование для создания такого контента выходит за рамки возможностей модели."
С text2video будет всегда примерно так, сделать универсальную модель сложно и позволено только Гуглу, у которого Ютюб под матрасом.
Но эксперимент интересный, большинство деталей тут:
https://modelscope.cn/models/damo/text-to-video-synthesis/summary
web demo: https://huggingface.co/spaces/hysts/modelscope-text-to-video-synthesis
huggingface model: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
А вот тут человек уже делает новые звёздные войны. Пачками по 20 сек на шот на А10G.
It takes less than 20 sec to create a new video! If you use it for ~30 minutes it will generate a lot of clips and cost you ~$1.5!
Данные для обучения включают LAION5B, ImageNet, Webvid и другие общедоступные наборы данных. Поэтому шаттерсток там гарцует в пол экрана.
Ну, за звёздные войны!
https://twitter.com/victormustar/status/1637461621541949441?s=20
Много ограничений - "модель не была обучена реалистичному представлению людей или событий, поэтому ее использование для создания такого контента выходит за рамки возможностей модели."
С text2video будет всегда примерно так, сделать универсальную модель сложно и позволено только Гуглу, у которого Ютюб под матрасом.
Но эксперимент интересный, большинство деталей тут:
https://modelscope.cn/models/damo/text-to-video-synthesis/summary
web demo: https://huggingface.co/spaces/hysts/modelscope-text-to-video-synthesis
huggingface model: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
А вот тут человек уже делает новые звёздные войны. Пачками по 20 сек на шот на А10G.
It takes less than 20 sec to create a new video! If you use it for ~30 minutes it will generate a lot of clips and cost you ~$1.5!
Данные для обучения включают LAION5B, ImageNet, Webvid и другие общедоступные наборы данных. Поэтому шаттерсток там гарцует в пол экрана.
Ну, за звёздные войны!
https://twitter.com/victormustar/status/1637461621541949441?s=20
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Скоро в Automatic1111 подвезут ControlNet для лица. Типа маркеров на лице, которые будут определять позицию и "выражение" лица.
Модель уже есть, пилят препроцессор.
Пока модель отрабатывает не очень, см. картинку.
Но всё идёт к метахуманам внутри Stable Diffusion.
https://www.reddit.com/r/StableDiffusion/comments/11v3dgj/new_controlnet_model_trained_on_face_landmarks/
Модель уже есть, пилят препроцессор.
Пока модель отрабатывает не очень, см. картинку.
Но всё идёт к метахуманам внутри Stable Diffusion.
https://www.reddit.com/r/StableDiffusion/comments/11v3dgj/new_controlnet_model_trained_on_face_landmarks/
👍2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Text-2-Video - ответочка от RunwayML!
Gen-2: The Next Step Forward for Generative AI
Олдскульные софты обновлются раз в год. Maya 2022, Adobe CC2023.
А мы живем в ускоренной вселенной. Счет идет на недели...
Только что мы охреневали от GEN-1.
Вот держите GEN-2!
Никакого видео на входе. Только текст, только хардкор.
Mediascope рыдает..
Кипит все отчаянно, но лучше, чем все, что было до этого.
Ну и only text as input - это безумие и отвага.
https://research.runwayml.com/gen2
Gen-2: The Next Step Forward for Generative AI
Олдскульные софты обновлются раз в год. Maya 2022, Adobe CC2023.
А мы живем в ускоренной вселенной. Счет идет на недели...
Только что мы охреневали от GEN-1.
Вот держите GEN-2!
Никакого видео на входе. Только текст, только хардкор.
Mediascope рыдает..
Кипит все отчаянно, но лучше, чем все, что было до этого.
Ну и only text as input - это безумие и отвага.
https://research.runwayml.com/gen2
❤1
Zero-1-to-3: Zero-shot One Image to 3D Object
Генератор 3D объектов по одному фото. Вернее, он выдает на выходе не 3D объект, а вид объекта с заданного ракурса, некое подобие рендера
На сайте проекта есть интерактивная демка с ограниченным выбором объектов.
Код
#imageto3D #novelview #rendering
Генератор 3D объектов по одному фото. Вернее, он выдает на выходе не 3D объект, а вид объекта с заданного ракурса, некое подобие рендера
На сайте проекта есть интерактивная демка с ограниченным выбором объектов.
Код
#imageto3D #novelview #rendering
❤5
https://www.seedscienceai.com/artists/slideshow
Залипательный сайт с генерациями SD разбитым по художникам, в виде слайдшоу.
То что надо для вдохновения и поиска стиля.
#tools #artiststudy
Залипательный сайт с генерациями SD разбитым по художникам, в виде слайдшоу.
То что надо для вдохновения и поиска стиля.
#tools #artiststudy
❤2
Авторы выложили код и демо Video-P2P
Демо запустить не удалось, вылетает с ошибкой. Надо подождать пока починят.
Код
Демо
#text2video #video2video #videop2p
Демо запустить не удалось, вылетает с ошибкой. Надо подождать пока починят.
Код
Демо
#text2video #video2video #videop2p
Telegram
Нейронавт | Нейросети в творчестве
Video-P2P
Нейросеть для редактирования видео по тексту от Adobe и Гонконгского китайского Университета. Информации мало.
Код обещают позже с намеками на публичный доступ к модели.
[UPDATE]
Код
Демо
#text2video #video2video #videop2p
Нейросеть для редактирования видео по тексту от Adobe и Гонконгского китайского Университета. Информации мало.
Код обещают позже с намеками на публичный доступ к модели.
[UPDATE]
Код
Демо
#text2video #video2video #videop2p
🔥1
Пытался сгенерить видео на huggingface Modelscope text2video
Бесполезно, слишком много алчущих синтетического видео.
Тем временем умелец с реддит собрал колаб. Из репозитория он не запускается, его надо скачать и загрузить себе в колаб. Файл в коментах.
Другой умелец собрал для нее GUI под Windows
При первом запуске GUI загрузит 13 Гб весов модели.
Ну что, го тестить и делитесь генерациями в коментах!
Бесполезно, слишком много алчущих синтетического видео.
Тем временем умелец с реддит собрал колаб. Из репозитория он не запускается, его надо скачать и загрузить себе в колаб. Файл в коментах.
Другой умелец собрал для нее GUI под Windows
При первом запуске GUI загрузит 13 Гб весов модели.
Ну что, го тестить и делитесь генерациями в коментах!
AdverseCleaner
16 строк кода Python для удаления нежелательного шума с изображений сгенерированных ИИ.
Изображению 1024px требуется менее 3 секунд на процессоре ноутбука, что бы избавится от шума.
#tools #denoise
16 строк кода Python для удаления нежелательного шума с изображений сгенерированных ИИ.
Изображению 1024px требуется менее 3 секунд на процессоре ноутбука, что бы избавится от шума.
#tools #denoise
🔥2
FIREFLY
Adobe показала свой ИИ-генератор изображений.
Для его обучения не использовали чужие работы без разрешения: тренировали только на лицензированном контенте или без авторских прав.
Сначала инструмент можно будет попробовать в браузере. Скоро нейронку встроят в Photoshop, After Effects и Premiere Pro.
Подать заявку
#text2image #image2image #image2video #text2font #image2font #Adobe
Adobe показала свой ИИ-генератор изображений.
Для его обучения не использовали чужие работы без разрешения: тренировали только на лицензированном контенте или без авторских прав.
Сначала инструмент можно будет попробовать в браузере. Скоро нейронку встроят в Photoshop, After Effects и Premiere Pro.
Подать заявку
#text2image #image2image #image2video #text2font #image2font #Adobe
👍3