Forwarded from Ai molodca (Dobrokotov)
#Мешалка выходит на новый уровень. Команда #midjourney осознала, что блендинг изображений — это киллерфича их модели, поэтому мощно ее усилила.
1. Теперь можно загружать МНОГО изображений, а не два. Сколько точно — буду тестировать.
2. Теперь можно загружать картинки через команду /blend (вместо /imagine) прямо с телефона или компьютера. Но до 5 штук.
Это ещё больше упрощает воркфлоу и даёт бесконечный потенциал для решения творческих задач (и создания топлива для кошмаров, как в моем примере).
1. Теперь можно загружать МНОГО изображений, а не два. Сколько точно — буду тестировать.
2. Теперь можно загружать картинки через команду /blend (вместо /imagine) прямо с телефона или компьютера. Но до 5 штук.
Это ещё больше упрощает воркфлоу и даёт бесконечный потенциал для решения творческих задач (и создания топлива для кошмаров, как в моем примере).
👍34🔥2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
3D Avatar Diffusion
Майкрософт выпустил диффузионную модель, которая способна построить 3D аватар по одной фотографии человека. Да, он не супер реалистичный получается, но выглядит опрятно.
На вход одно фото (!), то что слева, и текстовое описание. А на выходе модель дает tri-plane репрезентацию 3D объема головы человека, которая декодидируется в radience field (типа как в NeRF) и рендерится. Архитектура очень занятная, и позовляет еще и редактировать как аватар будет выглядеть с помощью изменения текстового промпта, подаваемого на вход. За всеми деталями отправляю вас в статью.
❱❱ Сайт проекта
❱❱ Arxiv: Rodin: A Generative Model for Sculpting 3D Digital Avatars Using Diffusion
@ai_newz
Майкрософт выпустил диффузионную модель, которая способна построить 3D аватар по одной фотографии человека. Да, он не супер реалистичный получается, но выглядит опрятно.
На вход одно фото (!), то что слева, и текстовое описание. А на выходе модель дает tri-plane репрезентацию 3D объема головы человека, которая декодидируется в radience field (типа как в NeRF) и рендерится. Архитектура очень занятная, и позовляет еще и редактировать как аватар будет выглядеть с помощью изменения текстового промпта, подаваемого на вход. За всеми деталями отправляю вас в статью.
❱❱ Сайт проекта
❱❱ Arxiv: Rodin: A Generative Model for Sculpting 3D Digital Avatars Using Diffusion
@ai_newz
👍16🤩2😢1
Forwarded from AI для Всех
🤯 Полное отслеживание тела теперь возможно с помощью сигналов WiFi
Глубокая нейронная сеть сопоставляет фазу и амплитуду сигналов WiFi с метками на человеческом теле
Модель может оценить позу нескольких субъектов, используя сигналы WiFi в качестве единственного входного сигнала.
Исследование показывает, что сигналы WiFi могут служить повсеместной заменой RGB-изображений для восприятия человека.
Освещенность и окклюзия практически не влияют на WiFi.
🤖 Статья
Глубокая нейронная сеть сопоставляет фазу и амплитуду сигналов WiFi с метками на человеческом теле
Модель может оценить позу нескольких субъектов, используя сигналы WiFi в качестве единственного входного сигнала.
Исследование показывает, что сигналы WiFi могут служить повсеместной заменой RGB-изображений для восприятия человека.
Освещенность и окклюзия практически не влияют на WiFi.
🤖 Статья
🔥35😱12👍2😁1
Всех с наступлением среды, мои чюваки!
Привет передает бета-версия IF by DeepFloyd
Привет передает бета-версия IF by DeepFloyd
❤29
Выкатили демку Image Mixer
Будем посмотреть, насколько она далека от MidJourney
Тыкать тут
За наводку спасибо @tripl3wave
@derplearning
Будем посмотреть, насколько она далека от MidJourney
Тыкать тут
За наводку спасибо @tripl3wave
@derplearning
🔥23👍3
Forwarded from тоже моушн
вчерашний стрим на ютуб - без редактуры, со всеми косяками. смотреть лучше на скорости 1.5)
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
YouTube
Тоже Моушн Стрим - colab SD smooth interpolation
смело включаем на скорости 1.5) стрим из тг канала тоже моушн. много запинаюсь, много сбиваюсь - не судите строго. надеюсь найдете для себя что то полезное
👍7❤5
Forwarded from Vik
https://arxiv.org/pdf/2212.11565.pdf
В Дипмайнде допилили диффузную text2image сетку для создания видео на основе какого-то конкретного исходного видео.
Новая "text2video" нейросетка после обучения (как я понял, новое исходное видео - новое обучение) превращает цепочку кадров из исходного видео (уровня пара штук в секунду) + текстовый промпт --> в цепочку картинок, которые с натяжкой выглядят, как если бы это были кадры из нового видео (а не разрозненной мешаниной сгенерированных картинок, как раньше). Получается аж в 5/6 случаев.
Для этого в диффузионной нейросетке переделали projection матрицы (только) в блоках внимания.
Мы видим эмпирически, что отдельное пространственно-временное внимание в VDM baselines недостаточно для создания согласованного контента в one shot video, поэтому мы переходим от пространственного самовнимания к межкадровому вниманию, расширяя пространственный селф-аттеншн до пространственно-временного домена.
В Дипмайнде допилили диффузную text2image сетку для создания видео на основе какого-то конкретного исходного видео.
Новая "text2video" нейросетка после обучения (как я понял, новое исходное видео - новое обучение) превращает цепочку кадров из исходного видео (уровня пара штук в секунду) + текстовый промпт --> в цепочку картинок, которые с натяжкой выглядят, как если бы это были кадры из нового видео (а не разрозненной мешаниной сгенерированных картинок, как раньше). Получается аж в 5/6 случаев.
Для этого в диффузионной нейросетке переделали projection матрицы (только) в блоках внимания.
Мы видим эмпирически, что отдельное пространственно-временное внимание в VDM baselines недостаточно для создания согласованного контента в one shot video, поэтому мы переходим от пространственного самовнимания к межкадровому вниманию, расширяя пространственный селф-аттеншн до пространственно-временного домена.
👍16❤1
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
Экспериментируя с моделью #DeepFloyd (которая, напоминаю, умеет в текст) я подумал: “Блин, это же отличный инструмент для Lyric video!”. И сделал тест — первый куплет The Smiths - There Is a Light That Never Goes Out. Хотел передать ощущение от трека, когда едешь немного пьяненький (как пассажир) в машине и засматриваешься на вывески и огни ночного города. Ссылка на ютуб, если вдруг хотите пошерить со знакомым клипмейкером вне Телеграма.
👍18🔥6❤1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Твит выше удолили, видео на всякий случай.
👍4