Нейронавт | Нейросети в творчестве
Наконец #generativefill применили по прямому предназначению твиттер
Имхо, #controlnet без текстового промта может не хуже чем #generativefill, вот мои доказательства. В коменты еще кину
#neuronaut_art
#neuronaut_art
😁7👍1
Forwarded from Derp Learning
Твит
Сорс
Япония решила вступиться за все эти ваши аниме модели и разрешила обучать нейронки на чем угодно - копирайты исходных картинок при этом могут идти лесом 😺
(Поправка: на самом деле пока решила не вступаться за владельцев материалов, которые попадают в датасет, т.к. по текущему законодательству "анализировать информацию" можно у чего угодно, даже полученного преступным путем)
@derplearning
Сорс
Япония решила вступиться за все эти ваши аниме модели и разрешила обучать нейронки на чем угодно - копирайты исходных картинок при этом могут идти лесом 😺
(Поправка: на самом деле пока решила не вступаться за владельцев материалов, которые попадают в датасет, т.к. по текущему законодательству "анализировать информацию" можно у чего угодно, даже полученного преступным путем)
@derplearning
👍6🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Control4D: Dynamic Portrait Editing by Learning 4D GAN from 2D Diffusion-based Editor
И снова редактор/стилизатор видеоперсонажей по текстовому запросу. На сей раз на основе #GAN. Но это не просто GAN, а GAN, в который завернута и временная составляющая, то есть все видео представлено одним вектором. Благодаря этому разработчики избавились от присущих видеостилизациям артефактов
Ссылка на код пока ведет только на сайт проекта
#video2video #videoavatar #face2face #talkinghead
И снова редактор/стилизатор видеоперсонажей по текстовому запросу. На сей раз на основе #GAN. Но это не просто GAN, а GAN, в который завернута и временная составляющая, то есть все видео представлено одним вектором. Благодаря этому разработчики избавились от присущих видеостилизациям артефактов
Ссылка на код пока ведет только на сайт проекта
#video2video #videoavatar #face2face #talkinghead
🤔1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Держите Нейраланджело!
Это 2d-video-to-3D от Нвидия.
В общем это такой новый крутой замес из Instant NeRF и фотограмметрии.
На входе видео - на выходе 3Д-реконструкция сцены или объекта в невиданном доселе качестве.
Вот как поэтично пишут сами зеленые:
Используя 2D-видео объекта или сцены, снятой с разных ракурсов, модель выбирает несколько кадров, которые захватывают разные точки зрения — подобно тому, как художник рассматривает объект с разных сторон, чтобы получить ощущение глубины, размера и формы.
После определения положения камеры в каждом кадре ИИ Neuralangelo создает грубое трехмерное представление сцены, подобно скульптору, начинающему высекать форму объекта.
Затем модель оптимизирует визуализацию, чтобы сделать детали более четкими, подобно тому, как скульптор кропотливо обтесывает камень, чтобы имитировать текстуру ткани или человеческую фигуру.
Конечным результатом является 3D-объект или крупномасштабная сцена, которую можно использовать в приложениях виртуальной реальности, цифровых двойниках или разработке робототехники.
Поглядите видео. Там можно махать айфоном и получать 3Д-геометрию объекта, или летать дроном и получать какие-то конские 3Д-локации.
Оцифровка нашего утлого мира никогда не была так близка.
А теперь представьте, как через пару лет, выходите вы на крыльцо, на носу очки от эппле, которые сканируют своими лидарами все, что вокруг. Все это пережевывается в облаке софтами Нвидия, реконструируется всяпока еще ваша реальность в 3Д и выплевывается вам прямо в глаза, через те же очки.
А вы такие, чотонекрасиво! Stable Diffusion иди сюда, сегодня у нас на дворе RevAnimated с пейзанками.
И ну, метаверсить!
P.S. Я, конечно, щас опять начну ныть про качество мешей, точнее про их топологию. Качество обещают повысить в десятки раз - читаем "использовать в приложениях виртуальной реальности, цифровых двойниках или разработке робототехники".
https://blogs.nvidia.com/blog/2023/06/01/neuralangelo-ai-research-3d-reconstruction/
Это 2d-video-to-3D от Нвидия.
В общем это такой новый крутой замес из Instant NeRF и фотограмметрии.
На входе видео - на выходе 3Д-реконструкция сцены или объекта в невиданном доселе качестве.
Вот как поэтично пишут сами зеленые:
Используя 2D-видео объекта или сцены, снятой с разных ракурсов, модель выбирает несколько кадров, которые захватывают разные точки зрения — подобно тому, как художник рассматривает объект с разных сторон, чтобы получить ощущение глубины, размера и формы.
После определения положения камеры в каждом кадре ИИ Neuralangelo создает грубое трехмерное представление сцены, подобно скульптору, начинающему высекать форму объекта.
Затем модель оптимизирует визуализацию, чтобы сделать детали более четкими, подобно тому, как скульптор кропотливо обтесывает камень, чтобы имитировать текстуру ткани или человеческую фигуру.
Конечным результатом является 3D-объект или крупномасштабная сцена, которую можно использовать в приложениях виртуальной реальности, цифровых двойниках или разработке робототехники.
Поглядите видео. Там можно махать айфоном и получать 3Д-геометрию объекта, или летать дроном и получать какие-то конские 3Д-локации.
Оцифровка нашего утлого мира никогда не была так близка.
А теперь представьте, как через пару лет, выходите вы на крыльцо, на носу очки от эппле, которые сканируют своими лидарами все, что вокруг. Все это пережевывается в облаке софтами Нвидия, реконструируется вся
А вы такие, чотонекрасиво! Stable Diffusion иди сюда, сегодня у нас на дворе RevAnimated с пейзанками.
И ну, метаверсить!
P.S. Я, конечно, щас опять начну ныть про качество мешей, точнее про их топологию. Качество обещают повысить в десятки раз - читаем "использовать в приложениях виртуальной реальности, цифровых двойниках или разработке робототехники".
https://blogs.nvidia.com/blog/2023/06/01/neuralangelo-ai-research-3d-reconstruction/
😁1
Интересно есть ли там что-то принципиально новое, ради чего люди будут его покупать и сидеть в VR
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Meta анонсировала Quest 3!
Дроп будет осенью, по цене $499 за штуку. Новый девайс будет мощнее, компактнее и дешевле чем предыдущая модель.
В этой штуковине будет крутится пара моих нейронок тоже! Я успел кое-чего сделать перед своим переходом из Reality Labs, которая как раз занимается хедсетами, в Generative AI оргу.
@ai_newz
Дроп будет осенью, по цене $499 за штуку. Новый девайс будет мощнее, компактнее и дешевле чем предыдущая модель.
В этой штуковине будет крутится пара моих нейронок тоже! Я успел кое-чего сделать перед своим переходом из Reality Labs, которая как раз занимается хедсетами, в Generative AI оргу.
@ai_newz
Humans in 4D:Reconstructing and Tracking Humans with Transformers (HMR 2.0)
Восстановление 3D модели человеков в движении.
Получше чем PyMAF-X (см второе видео), но не идеально
Код
Демо - только статичное фото
Колаб
#image2pose #imageto3D #video2pose #videoto3D #humananmation
Восстановление 3D модели человеков в движении.
Получше чем PyMAF-X (см второе видео), но не идеально
Код
Демо - только статичное фото
Колаб
#image2pose #imageto3D #video2pose #videoto3D #humananmation
[update 2] не, не фейк
[update]
После того, как эта история была впервые опубликована, представитель ВВС сообщил Insider, что ВВС не проводили такого испытания и что комментарии представителя ВВС были вырваны из контекста
А теперь сама новость: ИИ-дрон "убил" человека-оператора в симуляции испытаний ВВС США. Пока не по-настоящему. Оператор препятствовал дрону выполнить его задание, и он его устранил в симуляции, ибо приоритет выполнения задачи был для него выше повиновения оператору.
Картинку не буду прикладывать, сами вспомните
По наводке @bestintown1
#яниначтоненамекаю
[update]
После того, как эта история была впервые опубликована, представитель ВВС сообщил Insider, что ВВС не проводили такого испытания и что комментарии представителя ВВС были вырваны из контекста
А теперь сама новость: ИИ-дрон "убил" человека-оператора в симуляции испытаний ВВС США. Пока не по-настоящему. Оператор препятствовал дрону выполнить его задание, и он его устранил в симуляции, ибо приоритет выполнения задачи был для него выше повиновения оператору.
Картинку не буду прикладывать, сами вспомните
По наводке @bestintown1
#яниначтоненамекаю
Business Insider
Air Force colonel backtracks over his warning about how AI could go rogue and kill its human operators
The head of the US Air Force's AI Test and Operations warned that AI-enabled technology can behave in unpredictable and dangerous ways.
👍1
GlyphControl
Убийца Deep Floyd по части генерации текста. Генерация управляемая, на основе диффузии. При том что вдвое меньше параметров чем у младшей модели DF, 1.3B против 2.1B
Ах да, я ж забыл что его уже убил Firefly
Код
Демо
#text2image
Убийца Deep Floyd по части генерации текста. Генерация управляемая, на основе диффузии. При том что вдвое меньше параметров чем у младшей модели DF, 1.3B против 2.1B
Ах да, я ж забыл что его уже убил Firefly
Код
Демо
#text2image
👍2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Вместо похода в спортзал, чтобы не отрываться от компьютера, берем Photoshop Beta и рисуем себе селфак из зала.
Норм тема. Just do it 😎.
@ai_newz
Норм тема. Just do it 😎.
@ai_newz
👍3😁3
Пара новостей от Google
StyleDrop - генерация изображений в любом стиле по тексту и референсу стиля. Но погодите говорить что уже есть фантюн SD. Посмотрите на сравнение, он очень хорош. Умеет в буквы и легко файнтюнится. Разумеется, если у вас есть код.
Кода нет
#text2image #style2image
StyleDrop - генерация изображений в любом стиле по тексту и референсу стиля. Но погодите говорить что уже есть фантюн SD. Посмотрите на сравнение, он очень хорош. Умеет в буквы и легко файнтюнится. Разумеется, если у вас есть код.
Кода нет
#text2image #style2image