Всех с наступлением среды, мои чюваки!
Привет передает бета-версия IF by DeepFloyd
Привет передает бета-версия IF by DeepFloyd
❤29
Выкатили демку Image Mixer
Будем посмотреть, насколько она далека от MidJourney
Тыкать тут
За наводку спасибо @tripl3wave
@derplearning
Будем посмотреть, насколько она далека от MidJourney
Тыкать тут
За наводку спасибо @tripl3wave
@derplearning
🔥23👍3
Forwarded from тоже моушн
вчерашний стрим на ютуб - без редактуры, со всеми косяками. смотреть лучше на скорости 1.5)
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
YouTube
Тоже Моушн Стрим - colab SD smooth interpolation
смело включаем на скорости 1.5) стрим из тг канала тоже моушн. много запинаюсь, много сбиваюсь - не судите строго. надеюсь найдете для себя что то полезное
👍7❤5
Forwarded from Vik
https://arxiv.org/pdf/2212.11565.pdf
В Дипмайнде допилили диффузную text2image сетку для создания видео на основе какого-то конкретного исходного видео.
Новая "text2video" нейросетка после обучения (как я понял, новое исходное видео - новое обучение) превращает цепочку кадров из исходного видео (уровня пара штук в секунду) + текстовый промпт --> в цепочку картинок, которые с натяжкой выглядят, как если бы это были кадры из нового видео (а не разрозненной мешаниной сгенерированных картинок, как раньше). Получается аж в 5/6 случаев.
Для этого в диффузионной нейросетке переделали projection матрицы (только) в блоках внимания.
Мы видим эмпирически, что отдельное пространственно-временное внимание в VDM baselines недостаточно для создания согласованного контента в one shot video, поэтому мы переходим от пространственного самовнимания к межкадровому вниманию, расширяя пространственный селф-аттеншн до пространственно-временного домена.
В Дипмайнде допилили диффузную text2image сетку для создания видео на основе какого-то конкретного исходного видео.
Новая "text2video" нейросетка после обучения (как я понял, новое исходное видео - новое обучение) превращает цепочку кадров из исходного видео (уровня пара штук в секунду) + текстовый промпт --> в цепочку картинок, которые с натяжкой выглядят, как если бы это были кадры из нового видео (а не разрозненной мешаниной сгенерированных картинок, как раньше). Получается аж в 5/6 случаев.
Для этого в диффузионной нейросетке переделали projection матрицы (только) в блоках внимания.
Мы видим эмпирически, что отдельное пространственно-временное внимание в VDM baselines недостаточно для создания согласованного контента в one shot video, поэтому мы переходим от пространственного самовнимания к межкадровому вниманию, расширяя пространственный селф-аттеншн до пространственно-временного домена.
👍16❤1
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
Экспериментируя с моделью #DeepFloyd (которая, напоминаю, умеет в текст) я подумал: “Блин, это же отличный инструмент для Lyric video!”. И сделал тест — первый куплет The Smiths - There Is a Light That Never Goes Out. Хотел передать ощущение от трека, когда едешь немного пьяненький (как пассажир) в машине и засматриваешься на вывески и огни ночного города. Ссылка на ютуб, если вдруг хотите пошерить со знакомым клипмейкером вне Телеграма.
👍18🔥6❤1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Твит выше удолили, видео на всякий случай.
👍4
Forwarded from Двач
В слитых исходниках «Яндекса» нашли список стоп-слов для чат-бота Алисы.
Кожаные мешки совсем страх потеряли
Кожаные мешки совсем страх потеряли
😁43😢14😱3❤1👍1
Наткнулся тут на любопытный node-based gui для stablediffusion
Подойдет для наглядного объяснения как оно все работает, и можно, например, пересобрать img2img из txt2img, перетыкнув ноды.
Основная же фишка репо - area-based conditioning, где условия задаются отдельно для разных участков картинки. Эдакий параметрический segmentation mask -> image
репо
реддит
колаб
@derplearning
Подойдет для наглядного объяснения как оно все работает, и можно, например, пересобрать img2img из txt2img, перетыкнув ноды.
Основная же фишка репо - area-based conditioning, где условия задаются отдельно для разных участков картинки. Эдакий параметрический segmentation mask -> image
репо
реддит
колаб
@derplearning
👍25🔥8❤4