Forwarded from тоже моушн
вчерашний стрим на ютуб - без редактуры, со всеми косяками. смотреть лучше на скорости 1.5)
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
YouTube
Тоже Моушн Стрим - colab SD smooth interpolation
смело включаем на скорости 1.5) стрим из тг канала тоже моушн. много запинаюсь, много сбиваюсь - не судите строго. надеюсь найдете для себя что то полезное
👍7❤5
Forwarded from Vik
https://arxiv.org/pdf/2212.11565.pdf
В Дипмайнде допилили диффузную text2image сетку для создания видео на основе какого-то конкретного исходного видео.
Новая "text2video" нейросетка после обучения (как я понял, новое исходное видео - новое обучение) превращает цепочку кадров из исходного видео (уровня пара штук в секунду) + текстовый промпт --> в цепочку картинок, которые с натяжкой выглядят, как если бы это были кадры из нового видео (а не разрозненной мешаниной сгенерированных картинок, как раньше). Получается аж в 5/6 случаев.
Для этого в диффузионной нейросетке переделали projection матрицы (только) в блоках внимания.
Мы видим эмпирически, что отдельное пространственно-временное внимание в VDM baselines недостаточно для создания согласованного контента в one shot video, поэтому мы переходим от пространственного самовнимания к межкадровому вниманию, расширяя пространственный селф-аттеншн до пространственно-временного домена.
В Дипмайнде допилили диффузную text2image сетку для создания видео на основе какого-то конкретного исходного видео.
Новая "text2video" нейросетка после обучения (как я понял, новое исходное видео - новое обучение) превращает цепочку кадров из исходного видео (уровня пара штук в секунду) + текстовый промпт --> в цепочку картинок, которые с натяжкой выглядят, как если бы это были кадры из нового видео (а не разрозненной мешаниной сгенерированных картинок, как раньше). Получается аж в 5/6 случаев.
Для этого в диффузионной нейросетке переделали projection матрицы (только) в блоках внимания.
Мы видим эмпирически, что отдельное пространственно-временное внимание в VDM baselines недостаточно для создания согласованного контента в one shot video, поэтому мы переходим от пространственного самовнимания к межкадровому вниманию, расширяя пространственный селф-аттеншн до пространственно-временного домена.
👍16❤1
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
Экспериментируя с моделью #DeepFloyd (которая, напоминаю, умеет в текст) я подумал: “Блин, это же отличный инструмент для Lyric video!”. И сделал тест — первый куплет The Smiths - There Is a Light That Never Goes Out. Хотел передать ощущение от трека, когда едешь немного пьяненький (как пассажир) в машине и засматриваешься на вывески и огни ночного города. Ссылка на ютуб, если вдруг хотите пошерить со знакомым клипмейкером вне Телеграма.
👍18🔥6❤1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Твит выше удолили, видео на всякий случай.
👍4
Forwarded from Двач
В слитых исходниках «Яндекса» нашли список стоп-слов для чат-бота Алисы.
Кожаные мешки совсем страх потеряли
Кожаные мешки совсем страх потеряли
😁43😢14😱3❤1👍1
Наткнулся тут на любопытный node-based gui для stablediffusion
Подойдет для наглядного объяснения как оно все работает, и можно, например, пересобрать img2img из txt2img, перетыкнув ноды.
Основная же фишка репо - area-based conditioning, где условия задаются отдельно для разных участков картинки. Эдакий параметрический segmentation mask -> image
репо
реддит
колаб
@derplearning
Подойдет для наглядного объяснения как оно все работает, и можно, например, пересобрать img2img из txt2img, перетыкнув ноды.
Основная же фишка репо - area-based conditioning, где условия задаются отдельно для разных участков картинки. Эдакий параметрический segmentation mask -> image
репо
реддит
колаб
@derplearning
👍25🔥8❤4
Forwarded from Ai molodca (Dobrokotov)
This media is not supported in your browser
VIEW IN TELEGRAM
Простоквашино, но это Американский ситком 80х.
Аниверсии мы научились делать, интересно было попробовать обратное, особенно с тем, чего нет в датасете.
#midjourney
Аниверсии мы научились делать, интересно было попробовать обратное, особенно с тем, чего нет в датасете.
#midjourney
👍47❤7🔥3😁1
Forwarded from Дмитрий Савостьянов Вещает
Пошла жара
https://dtf.ru/gamedev/1592200-realnyy-keys-vnedreniya-ai-generated-art-v-igrovoy-kompanii
https://dtf.ru/gamedev/1592200-realnyy-keys-vnedreniya-ai-generated-art-v-igrovoy-kompanii
🔥27👍4
Media is too big
VIEW IN TELEGRAM
Stable.art - бесплатный опенсорсный плагин, добавляющий stablediffusion automatic1111 в Фотошоп.
Код
@derplearning
Код
@derplearning
🔥32👍1