Опубликован код и веса генератора глубины по видео Neural Video Depth Stabilizer
Если удастся запустить, поделитесь результатами
Код
#depth #depth2video
Если удастся запустить, поделитесь результатами
Код
#depth #depth2video
Telegram
Нейронавт | Нейросети в творчестве
Neural Video Depth Stabilizer (NVDS)
Фреймворк для генерации согласованной во времени карты глубины для видео. Если вы когда-нибудь пробовали генерировать карты глубины для видео, вы знаете что модели, обученные предсказывать глубину для отдельно взятой…
Фреймворк для генерации согласованной во времени карты глубины для видео. Если вы когда-нибудь пробовали генерировать карты глубины для видео, вы знаете что модели, обученные предсказывать глубину для отдельно взятой…
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Вслед за лидерами конкурентной гонки в области генерации ИИ-видео Kaiber выкатил генерацию видео по тексту и по начальному изображению.
Может генерировать видео продолжительностью до 4 минут.
И снова открыли пробный доступ для всех. Доступно 40 секунд бесплатной генерации. А помнится, в мае бесплатные сервисы прикрывали.
Попробовать Kaiber motion
#text2video #image2video
Может генерировать видео продолжительностью до 4 минут.
И снова открыли пробный доступ для всех. Доступно 40 секунд бесплатной генерации. А помнится, в мае бесплатные сервисы прикрывали.
Попробовать Kaiber motion
#text2video #image2video
👍2👎1
Дорогие подписчики, которые уносят заботливо добытые мною новости на свои коммерческие каналы с 50К+, 200К+ подписчиков. Я со своего канала не получаю ни копейки. Подумайте пожалуйста о том чтобы упомянуть меня как источник новости хотя бы один раз из 10 когда вы бесплатно ее тут забираете. Вам нетрудно, и мне приятно.
У меня довольно часто новости выходят раньше чем у соседей с пересекающейся тематикой, и я могу сделать так что таскать у меня новости станет менее удобно.
Всем хорошего дня
У меня довольно часто новости выходят раньше чем у соседей с пересекающейся тематикой, и я могу сделать так что таскать у меня новости станет менее удобно.
Всем хорошего дня
👍26👏6🔥5😁1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Еще не утихли баталии на счет генеративных 2D конечностей, как в университете Tsinghua пытаются научить сети правильной семантики движения суставов. Задача сложная, в ход идет даже Mixamo и датасет InterHand2.6M.
Успехи оцените сами, но мне кажется, я знаю, куда мы применим мощности квантовых компьютеров. 🤌
Почитать тут
Успехи оцените сами, но мне кажется, я знаю, куда мы применим мощности квантовых компьютеров. 🤌
Почитать тут
😁3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Помните реконструкцию музыки по фМРТ мозговой активности?
Подоспело еще одно исследование в этой области, только на этот раз вместо фМРТ использовали электроды. В качестве испытуемых приняли участие 29 человек.
Исследователям удалось получить реконструкцию, отдаленно похожую на песню Another Brick in the Wall.
На примере можно услышать оригинал, преобразованный в амплитудную слуховую спектрограмму и обратно в аудиоволну. После него - реконструкция.
Такое преобразование демонстрируют чтобы можно было оценить разницу между оригиналом и реконструкцией в виде спектрограммы, считываемой с мозга. Криво объяснил, но надеюсь понятно.
Хабр
#tought2music #brain2music
Подоспело еще одно исследование в этой области, только на этот раз вместо фМРТ использовали электроды. В качестве испытуемых приняли участие 29 человек.
Исследователям удалось получить реконструкцию, отдаленно похожую на песню Another Brick in the Wall.
На примере можно услышать оригинал, преобразованный в амплитудную слуховую спектрограмму и обратно в аудиоволну. После него - реконструкция.
Такое преобразование демонстрируют чтобы можно было оценить разницу между оригиналом и реконструкцией в виде спектрограммы, считываемой с мозга. Криво объяснил, но надеюсь понятно.
Хабр
#tought2music #brain2music
👍3❤1
Опубликованы экспериментальные облегченные #ControlNet модели для SDXL. Они занимают меньше места, 320 Мб младшие и 545 Мб средние. При этом, по первым отзывам пользователей, работают не так хорошо как полновесные модели.
Что еще интереснее, команда diffusers опубликовала скрипт для обучения моделей ControlNet и код бенчмаркинга. Ну, теперь заживем.
твиттер
canny-small
canny-mid
depth-small
depth-mid
скрипт обучения
код бенчмаркинга
Что еще интереснее, команда diffusers опубликовала скрипт для обучения моделей ControlNet и код бенчмаркинга. Ну, теперь заживем.
твиттер
canny-small
canny-mid
depth-small
depth-mid
скрипт обучения
код бенчмаркинга
ImageBind
Мультимодальная модель от запрещенной в РФ Meta AI обеспечивает машины целостным пониманием, которое связывает объекты на фотографии с тем, как они будут звучать, их трехмерной формой, насколько они теплые или холодные и как они движутся. Таким образом железки становятся на шаг ближе к человеческой способности обучаться одновременно на разных типах информации.
Модель в опенсорсе, доступен код.
Демонстрация
Код
#multimodal
Мультимодальная модель от запрещенной в РФ Meta AI обеспечивает машины целостным пониманием, которое связывает объекты на фотографии с тем, как они будут звучать, их трехмерной формой, насколько они теплые или холодные и как они движутся. Таким образом железки становятся на шаг ближе к человеческой способности обучаться одновременно на разных типах информации.
Модель в опенсорсе, доступен код.
Демонстрация
Код
#multimodal
👍4❤1
Media is too big
VIEW IN TELEGRAM
Relightable and Animatable Neural Avatar from Sparse-View Video
Создание анимируемых аватаров по видео с нескольких или с одного ракурса, с возможностью релайтинга.
Код обещают выложить
#video2avatar #humananimation #relighting
Создание анимируемых аватаров по видео с нескольких или с одного ракурса, с возможностью релайтинга.
Код обещают выложить
#video2avatar #humananimation #relighting
CoDeF: Content Deformation Fields for Temporally Consistent Video Processing
Перенос движения на видео. Осуществляется за счет представления видео в виде Поля деформации контента (CoDeF). Оно состоит из поля каноничного статичного изображения и поля деформации. Казалось бы, звучит как обычный оптический поток. Но наверняка все сложнее. Если любите читать препринты и разберетесь, поделитесь в коментах.
Возможные применения
- стилизация видео, разумеется
- оживление изображений
- точечный трекинг
- сегментный трекинг
- трекинг неригидных объектов вроде дыма или жидкостей
- апскейл видео на основе каноничного апскейленного изображения
Код
Колаб
#video2video #tracking #image2video
Перенос движения на видео. Осуществляется за счет представления видео в виде Поля деформации контента (CoDeF). Оно состоит из поля каноничного статичного изображения и поля деформации. Казалось бы, звучит как обычный оптический поток. Но наверняка все сложнее. Если любите читать препринты и разберетесь, поделитесь в коментах.
Возможные применения
- стилизация видео, разумеется
- оживление изображений
- точечный трекинг
- сегментный трекинг
- трекинг неригидных объектов вроде дыма или жидкостей
- апскейл видео на основе каноничного апскейленного изображения
Код
Колаб
#video2video #tracking #image2video
This media is not supported in your browser
VIEW IN TELEGRAM
SceNeRFlow:Time-Consistent Reconstruction of General Dynamic Scenes
Исследователи (Meta Reality Labs Research, Институт Макса Планка и другие) научились восстанавливать динамическую 3D модель неригидных объектов и сцен по видео с нескольких статичных камер с известными параметрами оптики. Для этого, правда, им еще сначала нужна каноническая модель объекта, для которой рассчитывают деформацию чтобы получить движущуюся 3D модель и отрендерить ее волюметрически.
Кода, увы, нет
#videoto3D #nerf
Исследователи (Meta Reality Labs Research, Институт Макса Планка и другие) научились восстанавливать динамическую 3D модель неригидных объектов и сцен по видео с нескольких статичных камер с известными параметрами оптики. Для этого, правда, им еще сначала нужна каноническая модель объекта, для которой рассчитывают деформацию чтобы получить движущуюся 3D модель и отрендерить ее волюметрически.
Кода, увы, нет
#videoto3D #nerf
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
DragNUWA
генератор видео от Microsoft по тексту, изображению и траектории. Видимо, это развитие NUWA.
DragNUWA позволяет пользователям напрямую манипулировать фоном или объектами внутри изображений, а модель плавно преобразует эти действия в движения камеры или объекта, генерируя соответствующее видео.
[UPDATE]
Код
Демо
#image2video #text2video #trajectory2video
генератор видео от Microsoft по тексту, изображению и траектории. Видимо, это развитие NUWA.
DragNUWA позволяет пользователям напрямую манипулировать фоном или объектами внутри изображений, а модель плавно преобразует эти действия в движения камеры или объекта, генерируя соответствующее видео.
[UPDATE]
Код
Демо
#image2video #text2video #trajectory2video
Real-Time Neural Light Field on Mobile Devices
Рендер #nerf сцен на мобилке в реальном времени от Snap Research.
Пример применения - виртуальная примерка обуви. Ждем в снэпчате
Код
#realrime #rendering #mobile
Рендер #nerf сцен на мобилке в реальном времени от Snap Research.
Пример применения - виртуальная примерка обуви. Ждем в снэпчате
Код
#realrime #rendering #mobile
😁2👍1
Adobe обновили свой онлайн сервис Adobe Express, интегрировав в него FireFly
[update]
У меня на бесплатном тарифе кнопки Text to Image нет. Но нигде и не вижу чтобы это был платный функционал. Возможно они его не сразу для всех доступным сделали вопреки тому что говорят в пиаре.
На видео туториал от Крис Каштановой
Платный функционал на скриншоте - шаблоны, фото, шрифты, неограниченные посты в соцсети, 100Гб в облаке, ресайз, ластик и прочее
#design #text2image
[update]
У меня на бесплатном тарифе кнопки Text to Image нет. Но нигде и не вижу чтобы это был платный функционал. Возможно они его не сразу для всех доступным сделали вопреки тому что говорят в пиаре.
На видео туториал от Крис Каштановой
Платный функционал на скриншоте - шаблоны, фото, шрифты, неограниченные посты в соцсети, 100Гб в облаке, ресайз, ластик и прочее
#design #text2image
🤯2👍1🤔1