This media is not supported in your browser
VIEW IN TELEGRAM
CogStudio
GUI для запуска CogVideo - опенсорсного видеогенератора. Не хотите разбираться в ComfyUI - вам сюда.
Видео по тексту, по изображению, по видео и продление видео
#text2video #image2video #video2video #videoextension
GUI для запуска CogVideo - опенсорсного видеогенератора. Не хотите разбираться в ComfyUI - вам сюда.
Видео по тексту, по изображению, по видео и продление видео
#text2video #image2video #video2video #videoextension
🔥6
CogVideoX-Fun
Но лучше заморочиться и установить это если у вас есть 24Гб VRAM.
Это файнтюн CogVideoX
ComfyUI
#text2video #image2video #video2video
Но лучше заморочиться и установить это если у вас есть 24Гб VRAM.
Это файнтюн CogVideoX
ComfyUI
#text2video #image2video #video2video
👍5
😁21❤10👍1
This media is not supported in your browser
VIEW IN TELEGRAM
dzine
Помните сервис с кучей функций для работы с картинками Stylar? Они переименовались в Dzine, добавили фич. Прислали письмо с предложением опробовать их Image-to-video генератор.
А чтобы его опробовать надо подписаться на недельную триалку, что мне делать неохота сейчас.
Есть кто смелый попробовать?
Ну и да, у них все еще есть рефералка, ссылка вверху реферральная
#image2video #imageediting #inpainting #outpainting
Помните сервис с кучей функций для работы с картинками Stylar? Они переименовались в Dzine, добавили фич. Прислали письмо с предложением опробовать их Image-to-video генератор.
А чтобы его опробовать надо подписаться на недельную триалку, что мне делать неохота сейчас.
Есть кто смелый попробовать?
Ну и да, у них все еще есть рефералка, ссылка вверху реферральная
#image2video #imageediting #inpainting #outpainting
👍3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Нашел очень крутую работу от Nvidia.
Все эти генераторы 3Д, как правило, используют для обучения датасет Objaverse, в котором очень много шлака и превалируют 3Д-сканы и фотограмметрия с ужасными, плотными, хаотическими сетками.
Генерация с помощью score distillation sampling (SDS) и пр. начисто теряет любые данные о связи вертексов в исходных данных, а использование marching cubes порождает "обмылки" и вот эту вот всю ацкую топологию.
Мне, кстати, уже давно приходила в голову идея обучения 3Д-генератора на текстовом описании мешей, с сохранением и использованием информации о топологии.
Тут я выпендрюсь и процитирую статью:
Недавно в нескольких подходах были предприняты попытки токенизировать сетки в одномерные последовательности и использовать авторегрессивные модели для прямой генерации сеток. В частности, MeshGPT предлагает эмпирически сортировать треугольные грани и применять вариационный автокодер с векторной квантификацией (VQ-VAE) для токенизации сетки. MeshXL напрямую склеивает координаты вершин и не использует никакого сжатия, кроме дискретизации вершин. Однако такие подходы часто испытывают трудности с обобщением за пределами области обучения при обучении на изображениях одного вида.
Нвидия сделали авторегрессивный автокодер (ArAE), который сжимает треугольные сетки переменной длины в латентные коды фиксированной длины. Это латентное пространство может быть использовано для обучения моделей диффузии, обусловленных другими модальностями. Это позволяет EdgeRunner генерировать разнообразные, высококачественные художественные сетки, содержащие до 4 000 граней и вершин - в результате получаются последовательности вдвое длиннее и в четыре раза выше по разрешению по сравнению с предыдущими методами.
Но самое главное, поглядите, как происходит процесс детокенизации, то есть перевода 1Д-токенов(эмбедингов) обратно в 3Д пространство! Это ж латентный моделинг!
Сетка как бы моделит форму не плевком из облака точек, а выстраивая топологию.
Выглядит отлично.
Очень круто сделан сайт проекта, я скачал 3Д-модельки, покрутил, не врут, топология как на сайте.
Поглядите там, как идет процесс нейромоделинга.
Ну, за моделлеров, наконец-то.
Хотя... кода нет. Отставить чокаться. И возможно, не будет, ибо это явно просится в OmniVerse от Nvidia, который явно не открытый проект.
https://research.nvidia.com/labs/dir/edgerunner/
@cgevent
Все эти генераторы 3Д, как правило, используют для обучения датасет Objaverse, в котором очень много шлака и превалируют 3Д-сканы и фотограмметрия с ужасными, плотными, хаотическими сетками.
Генерация с помощью score distillation sampling (SDS) и пр. начисто теряет любые данные о связи вертексов в исходных данных, а использование marching cubes порождает "обмылки" и вот эту вот всю ацкую топологию.
Мне, кстати, уже давно приходила в голову идея обучения 3Д-генератора на текстовом описании мешей, с сохранением и использованием информации о топологии.
Тут я выпендрюсь и процитирую статью:
Недавно в нескольких подходах были предприняты попытки токенизировать сетки в одномерные последовательности и использовать авторегрессивные модели для прямой генерации сеток. В частности, MeshGPT предлагает эмпирически сортировать треугольные грани и применять вариационный автокодер с векторной квантификацией (VQ-VAE) для токенизации сетки. MeshXL напрямую склеивает координаты вершин и не использует никакого сжатия, кроме дискретизации вершин. Однако такие подходы часто испытывают трудности с обобщением за пределами области обучения при обучении на изображениях одного вида.
Нвидия сделали авторегрессивный автокодер (ArAE), который сжимает треугольные сетки переменной длины в латентные коды фиксированной длины. Это латентное пространство может быть использовано для обучения моделей диффузии, обусловленных другими модальностями. Это позволяет EdgeRunner генерировать разнообразные, высококачественные художественные сетки, содержащие до 4 000 граней и вершин - в результате получаются последовательности вдвое длиннее и в четыре раза выше по разрешению по сравнению с предыдущими методами.
Но самое главное, поглядите, как происходит процесс детокенизации, то есть перевода 1Д-токенов(эмбедингов) обратно в 3Д пространство! Это ж латентный моделинг!
Сетка как бы моделит форму не плевком из облака точек, а выстраивая топологию.
Выглядит отлично.
Очень круто сделан сайт проекта, я скачал 3Д-модельки, покрутил, не врут, топология как на сайте.
Поглядите там, как идет процесс нейромоделинга.
Ну, за моделлеров, наконец-то.
Хотя... кода нет. Отставить чокаться. И возможно, не будет, ибо это явно просится в OmniVerse от Nvidia, который явно не открытый проект.
https://research.nvidia.com/labs/dir/edgerunner/
@cgevent
❤13
Опубликован код и демо генератора глубины и нормалей Lotus
+можно запускать на replicate по API
Код
Демо глубина
Демо нормали
API
#image2depth #image2normal
+можно запускать на replicate по API
Код
Демо глубина
Демо нормали
API
#image2depth #image2normal
🔥12❤1
Depth Pro: Sharp Monocular Metric Depth in Less Than a Second
И сразу конкурент от Apple
Генерирует карту глубины с нативным выходным разрешением 1536×1536 за 0,3 секунды на V100
Код
#image2depth
И сразу конкурент от Apple
Генерирует карту глубины с нативным выходным разрешением 1536×1536 за 0,3 секунды на V100
Код
#image2depth
🔥13🤯2👍1
Forwarded from QWERTY
Началось объявления лауреатов Нобелевской премии. Награда по физике досталась за создание нейронных сетей
Премию по физике получили Джон Хопфилд (John Hopfield) из Принстонского университета в США и Джеффри Хинтон (Geoffrey Hinton) из Университета Торонто в Канаде за «основополагающие открытия и изобретения, которые делают возможным машинное обучение с использованием искусственных нейронных сетей».
Джон Хопфилд создал ассоциативную память, которая может хранить и восстанавливать изображения и другие типы шаблонов в данных. Джеффри Хинтон изобрел метод, который может автономно находить свойства в данных и таким образом выполнять такие задачи, как, например, идентификация определенных элементов на изображениях.
Объявление лауреатов Нобелевской премии началось вчера с присуждения премии по физиологии и медицине за открытие принципов регуляции активности генов.
Премию по физике получили Джон Хопфилд (John Hopfield) из Принстонского университета в США и Джеффри Хинтон (Geoffrey Hinton) из Университета Торонто в Канаде за «основополагающие открытия и изобретения, которые делают возможным машинное обучение с использованием искусственных нейронных сетей».
Джон Хопфилд создал ассоциативную память, которая может хранить и восстанавливать изображения и другие типы шаблонов в данных. Джеффри Хинтон изобрел метод, который может автономно находить свойства в данных и таким образом выполнять такие задачи, как, например, идентификация определенных элементов на изображениях.
Объявление лауреатов Нобелевской премии началось вчера с присуждения премии по физиологии и медицине за открытие принципов регуляции активности генов.
👍12❤3🤯1
Помните Cuebric?
Они навертели обновок
- Увеличили разрешение генерации изображений до 1080p с возможностью апскейла до 8K
- Улучшили кисть для инпейнтинга.
- Gen Mesh - генератор 3D по изображению. Поддержка стандартных отраслевых 3D-форматов, включая .fbx и .usd
Неудобно что не посмотреть меш перед экспортом, генерация 3D модели начинается после выбора формата и нажатия кнопки экспорт, после этого вы получаете архив с моделькой и картами глубины. ДА, кстати, она создает 3D через карту глубины. И называется это у них 2.75D
#imageto3d #tools #upscale #inpainting #segmentation #image2depth #text2image
Они навертели обновок
- Увеличили разрешение генерации изображений до 1080p с возможностью апскейла до 8K
- Улучшили кисть для инпейнтинга.
- Gen Mesh - генератор 3D по изображению. Поддержка стандартных отраслевых 3D-форматов, включая .fbx и .usd
Неудобно что не посмотреть меш перед экспортом, генерация 3D модели начинается после выбора формата и нажатия кнопки экспорт, после этого вы получаете архив с моделькой и картами глубины. ДА, кстати, она создает 3D через карту глубины. И называется это у них 2.75D
#imageto3d #tools #upscale #inpainting #segmentation #image2depth #text2image
🔥4🤮3🤯2💩2
QWERTY
Началось объявления лауреатов Нобелевской премии. Награда по физике досталась за создание нейронных сетей Премию по физике получили Джон Хопфилд (John Hopfield) из Принстонского университета в США и Джеффри Хинтон (Geoffrey Hinton) из Университета Торонто…
нобелевские лауреаты ближайшего будущего:
2030 - ИИ
2031 - ИИ
2032 - ИИ
2033 - ИИ
...
#humor #яниначтоненамекаю
2030 - ИИ
2031 - ИИ
2032 - ИИ
2033 - ИИ
...
#humor #яниначтоненамекаю
😁12❤2🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Minimax image2video
Minimax научился делать видео из картинки. + сделали англоязычный сайт. Пока работает бесплатно
Попробовать
Тем временем в Gen 3 Alpha Turbo для всех доступна возможность загружать первый и последний кадр для генерации видео
#image2video
Minimax научился делать видео из картинки. + сделали англоязычный сайт. Пока работает бесплатно
Попробовать
Тем временем в Gen 3 Alpha Turbo для всех доступна возможность загружать первый и последний кадр для генерации видео
#image2video
🔥16❤1🤯1
QWERTY
Началось объявления лауреатов Нобелевской премии. Награда по физике досталась за создание нейронных сетей Премию по физике получили Джон Хопфилд (John Hopfield) из Принстонского университета в США и Джеффри Хинтон (Geoffrey Hinton) из Университета Торонто…
Вторая часть марлезонского балета.
Нобелевку по химии дали за ИИ-модель AlphaFold2 для предсказания структуры белка.
Американский биохимик Дэвид Бейкер был отмечен за достижения в области вычислительного дизайна белков, а британский нейробиолог Демис Хассабис и его коллега Джон Джампер – за прорыв в предсказании структуры белков с использованием искусственного интеллекта.
#news
Нобелевку по химии дали за ИИ-модель AlphaFold2 для предсказания структуры белка.
Американский биохимик Дэвид Бейкер был отмечен за достижения в области вычислительного дизайна белков, а британский нейробиолог Демис Хассабис и его коллега Джон Джампер – за прорыв в предсказании структуры белков с использованием искусственного интеллекта.
#news
🔥10😁2🥴2
Forwarded from CG дневничок (Sergey Frolov)
This media is not supported in your browser
VIEW IN TELEGRAM
ComfyUI продолжает обрастать новыми фичами. В этот раз сделали новую любимую штуку для продюсеров — можно фиксить эмоции актеров после съемки.
Один из комментариев идеально описывает мои эмоции от этого инструмента:
Один из комментариев идеально описывает мои эмоции от этого инструмента:
Wow and wtf at the the same time.
🔥18🥴1
Forwarded from Двоичный кот
This media is not supported in your browser
VIEW IN TELEGRAM
Meta* запускает ИИ-инструменты для видеорекламы: готовьтесь к новому уровню абсурда
Meta решила, что статичные картинки в рекламе — это прошлый век. Теперь ваши ленты на Instagram* и Facebook* будут заполняться не просто рекламой, а анимированными видеороликами, созданными с помощью новых ИИ-инструментов. Да-да, теперь всё, от танцующих ягод до воображаемых праздников, станет частью вашего "красивого" интернет-опыта.
Что мы имеем? Анимированные изображения, которые будут "увлекательно" рассказывать о продуктах, которые вы, вероятно, никогда не купите, и об услугах, которые вам не нужны. Это как погружение в мир, где каждая реклама шутит над вашим отсутствием выбора. Кому вообще нужны яркие картинки и видеоролики, когда сам фб уже забит сгенерированным контентом, который откровенно не вызывает интереса?
Кроме того, с запуском этих инструментов в начале 2025 года мы все сможем наблюдать, как ИИ будет не только генерировать видео, но и пытаться имитировать человеческие эмоции. Зачем же тратить время на создание настоящего контента, когда можно просто заставить машины делать всю работу?
Тем временем Amazon и TikTok тоже не отстают, разрабатывая свои ИИ-решения. Вопрос лишь в том, насколько быстро мы сможем адаптироваться к этому новому "интерактивному" ужасу, где каждая реклама становится интерактивным спектаклем, а мы — не более чем зрители.
Meta решила, что статичные картинки в рекламе — это прошлый век. Теперь ваши ленты на Instagram* и Facebook* будут заполняться не просто рекламой, а анимированными видеороликами, созданными с помощью новых ИИ-инструментов. Да-да, теперь всё, от танцующих ягод до воображаемых праздников, станет частью вашего "красивого" интернет-опыта.
Что мы имеем? Анимированные изображения, которые будут "увлекательно" рассказывать о продуктах, которые вы, вероятно, никогда не купите, и об услугах, которые вам не нужны. Это как погружение в мир, где каждая реклама шутит над вашим отсутствием выбора. Кому вообще нужны яркие картинки и видеоролики, когда сам фб уже забит сгенерированным контентом, который откровенно не вызывает интереса?
Кроме того, с запуском этих инструментов в начале 2025 года мы все сможем наблюдать, как ИИ будет не только генерировать видео, но и пытаться имитировать человеческие эмоции. Зачем же тратить время на создание настоящего контента, когда можно просто заставить машины делать всю работу?
Тем временем Amazon и TikTok тоже не отстают, разрабатывая свои ИИ-решения. Вопрос лишь в том, насколько быстро мы сможем адаптироваться к этому новому "интерактивному" ужасу, где каждая реклама становится интерактивным спектаклем, а мы — не более чем зрители.
😱5💯3👎1👏1