Forwarded from Нейросети и Блендер
Генерации из 3 стрима.
Гугл диск со всеми генерациями со стрима.
Текстовые запросы в названиях файлов.
Гугл диск со всеми генерациями со стрима.
Текстовые запросы в названиях файлов.
Сегодня сначала упал мой стрим, а затем сам Dalle 2, но в конце все наладилось.👍9❤4
Apple представила свой аналог DLSS/FSR апскейла для игр - MetalFX Upscaling
(тут яблочники внезапно узнали, что на маках есть игры)
Забавно наблюдать разные новые версии алгоритмов ИИ-суперсемплинга, появляющиеся, как грибы после дожд слива данных от nvidia.
Подробнее
Подробнее
😁12👍2🤩1
Forwarded from эйай ньюз
🔥Nvidia жжет напалмом! На этот раз выпустили модель для генерации динамических видео
Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.
Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.
Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."
❱ Код будет в конце лета
❱❱ Сайт проекта
@ai_newz
Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.
Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.
Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."
❱ Код будет в конце лета
❱❱ Сайт проекта
@ai_newz
🔥14👍7
Forwarded from Мишин Лернинг
This media is not supported in your browser
VIEW IN TELEGRAM
🗽 NVIDIA Создала 3D StyleGAN — EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks
EG3D — нестоящее инженерное чудо. Ресерчеры взяли за основу StyleGAN 2 бэкбон, и вставили в середину графа гибридный neural rendering.
Nvidia создала новый tri-plane-based 3D GAN framework. Ресерчеры показали, что NeRF в их случае медленный, а воксели не очень масштабируются по памяти с повышением разрешения.
После нейронного рендеринга в 128х128 следует каскад супер-резолюшена в 512х512. Затем low-res ещё раз апскейлится интерполяцией и после конкатенации с mid-res картинкой, единым тензором подается на двойной дискриминатор.
StyleGAN’ы интересны тем, что способны за относительно небольшой компьют (тут 8 Tesla V100 GPUs и 8.5 дней) построить реалистичную генеративную модель в одном домене.
EG3D позволяет сразу генерировать качественную 3D геометрию, которую сеть выучивает самостоятельно!
Как же чудесно будущее 3D графики!
💻 Code
🖥 Project
📄 Paper
🎥 YouTube
@мишин_лернинг
EG3D — нестоящее инженерное чудо. Ресерчеры взяли за основу StyleGAN 2 бэкбон, и вставили в середину графа гибридный neural rendering.
Nvidia создала новый tri-plane-based 3D GAN framework. Ресерчеры показали, что NeRF в их случае медленный, а воксели не очень масштабируются по памяти с повышением разрешения.
После нейронного рендеринга в 128х128 следует каскад супер-резолюшена в 512х512. Затем low-res ещё раз апскейлится интерполяцией и после конкатенации с mid-res картинкой, единым тензором подается на двойной дискриминатор.
StyleGAN’ы интересны тем, что способны за относительно небольшой компьют (тут 8 Tesla V100 GPUs и 8.5 дней) построить реалистичную генеративную модель в одном домене.
EG3D позволяет сразу генерировать качественную 3D геометрию, которую сеть выучивает самостоятельно!
Как же чудесно будущее 3D графики!
💻 Code
🖥 Project
📄 Paper
🎥 YouTube
@мишин_лернинг
👍14🔥2
Тем временем показали новый логотип импортозамещенного МакДоналдс.
Если вас тоже посетило чувство дежа вю, то вы не одиноки. И не зря, ведь это отзеркаленный логотип недавнего импортозамещенного же приложения Now.
Для полноты лулзов осталось узнать стоимостьребрендинга отзеркаливания и замены двух цветов.
Если вас тоже посетило чувство дежа вю, то вы не одиноки. И не зря, ведь это отзеркаленный логотип недавнего импортозамещенного же приложения Now.
Для полноты лулзов осталось узнать стоимость
😁12👍5😢2
This media is not supported in your browser
VIEW IN TELEGRAM
Собрался с силами и выкатил в ранний доступ все багфиксы и наработки на основе вашего фидбека по #warpfusion turbo+smooth. Забрать тут - Бусти.
Еще раз спасибо за поддержку и фидбек, вы супер :3
Если вам больше всего нравится первый видос слева, то вам подойдет и текущий публично-стабильный
колаб DiscoDiffusion Warp
Еще раз спасибо за поддержку и фидбек, вы супер :3
Если вам больше всего нравится первый видос слева, то вам подойдет и текущий публично-стабильный
колаб DiscoDiffusion Warp
🔥16👍3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn)
This media is not supported in your browser
VIEW IN TELEGRAM
Метахьюманы - в массы!
Или наоборот: массы - в Метахьюманы!
Легким движением мыши ширнармассы превращаются в засеталенные модели Метахьюманов. Все что вам нужно иметь - это либо 3Д-скан вашей кожаной морды, либо ручной скульпт ея же или модель лица, полученную нелегальным (ИИ) способом, например, через RealIllusion или AvatarSDK.
Дальше вы тащите все это пиршество в MetaHuman с помощью функции Mesh to MetaHuman из нового плагина MetaHuman Plugin для Unreal Engine.
Потом смотрите видео ниже о дальнейшей доработке MetaHuman в MetaHuman Creator.
И Метаверс прирастает взрослыми аватарами. А не карликами из песочниц.
Спасибо за наводку Жене из @CGIT_Vines
https://www.youtube.com/watch?v=xOVyme4TFZw
https://www.unrealengine.com/marketplace/en-US/product/metahuman-plugin
Или наоборот: массы - в Метахьюманы!
Легким движением мыши ширнармассы превращаются в засеталенные модели Метахьюманов. Все что вам нужно иметь - это либо 3Д-скан вашей кожаной морды, либо ручной скульпт ея же или модель лица, полученную нелегальным (ИИ) способом, например, через RealIllusion или AvatarSDK.
Дальше вы тащите все это пиршество в MetaHuman с помощью функции Mesh to MetaHuman из нового плагина MetaHuman Plugin для Unreal Engine.
Потом смотрите видео ниже о дальнейшей доработке MetaHuman в MetaHuman Creator.
И Метаверс прирастает взрослыми аватарами. А не карликами из песочниц.
Спасибо за наводку Жене из @CGIT_Vines
https://www.youtube.com/watch?v=xOVyme4TFZw
https://www.unrealengine.com/marketplace/en-US/product/metahuman-plugin
👍8🔥2
Forwarded from shonenkov AI
"корги эскиз цветной" / "Corky color sketches"
generated by unknown user
просто напоминаю про своих дискорд-ботов с генерациями, присоединяйтесь)
https://discord.gg/xV7dNbT9NU
@shonenkovAI
generated by unknown user
просто напоминаю про своих дискорд-ботов с генерациями, присоединяйтесь)
https://discord.gg/xV7dNbT9NU
@shonenkovAI
👍7
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Мы уже видели что-то подобное с интерактивом в блендер и связкой с мобилкой.
Эта инсталляция сделана на UE5 + Arduino + kinnect. На картину лучше всего, конечно, смотреть ночью.
Сорс
Эта инсталляция сделана на UE5 + Arduino + kinnect. На картину лучше всего, конечно, смотреть ночью.
Сорс
👍15😱3
Forwarded from Соне нравится (или нет)
Новые модели от OpenAI и Google? А, может быть, лучше генерация всякой мемоподобной жести в DALL•E mini?
🔥14😁1🎉1