Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
А вот это уже настоящий НЕЙРОМОКАП!
Киберпанк и биохакинг в одном флаконе!
Никаких маркеров на лице, никаких айфонов и велосипедных шлемов, никаких съемок, видео и нейросеток.
Вставляете в голову (ну ок, в уши) специальные наушники EarlO, а дальше немного акустической магии и ИИ.
EarIO работает как гидролокатор . Динамик на каждой стороне наушника посылает акустические сигналы в голову, а микрофон улавливает эхо. Когда носители говорят, улыбаются или поднимают брови, кожа движется и растягивается, изменяя отраженный. А дальше подключается ИИ, переводящий меняющиеся эхо-сигналов в полные выражения лица.
Магия!
«ИИ-алгоритм находит сложные связи между движением мышц и выражением лица, которые человеческий глаз не может определить. Мы можем использовать это, чтобы вывести сложную информацию, которую труднее уловить — всю переднюю часть лица».
Причем эти негодяи утверждают, что все это можно подключить как обычную гарнитуру и юзать нейромокап в зуме, например.
Если помыслить за пределы банального мокапа, то ИИ может испить с лица еще тонну информации "которую человеческий глаз не может определить". Например уровень стресса, по мышечному тонусу.
И вот это уже очень горячо и повод пилить стартапы.
P.S. Есть минус - перед первым использованием EarIO должен собрать 32-минутные данные о лице для обучения алгоритма. Но ИИ учится быстро.
https://news.cornell.edu/stories/2022/07/earable-uses-sonar-reconstruct-facial-expressions
Киберпанк и биохакинг в одном флаконе!
Никаких маркеров на лице, никаких айфонов и велосипедных шлемов, никаких съемок, видео и нейросеток.
Вставляете в голову (ну ок, в уши) специальные наушники EarlO, а дальше немного акустической магии и ИИ.
EarIO работает как гидролокатор . Динамик на каждой стороне наушника посылает акустические сигналы в голову, а микрофон улавливает эхо. Когда носители говорят, улыбаются или поднимают брови, кожа движется и растягивается, изменяя отраженный. А дальше подключается ИИ, переводящий меняющиеся эхо-сигналов в полные выражения лица.
Магия!
«ИИ-алгоритм находит сложные связи между движением мышц и выражением лица, которые человеческий глаз не может определить. Мы можем использовать это, чтобы вывести сложную информацию, которую труднее уловить — всю переднюю часть лица».
Причем эти негодяи утверждают, что все это можно подключить как обычную гарнитуру и юзать нейромокап в зуме, например.
Если помыслить за пределы банального мокапа, то ИИ может испить с лица еще тонну информации "которую человеческий глаз не может определить". Например уровень стресса, по мышечному тонусу.
И вот это уже очень горячо и повод пилить стартапы.
P.S. Есть минус - перед первым использованием EarIO должен собрать 32-минутные данные о лице для обучения алгоритма. Но ИИ учится быстро.
https://news.cornell.edu/stories/2022/07/earable-uses-sonar-reconstruct-facial-expressions
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Collaborative Neural Renderingusing Anime Character Sheets
Короче персонажка из видео в аниме
#mocap #video2anime
Код для продвинутых
Короче персонажка из видео в аниме
#mocap #video2anime
Код для продвинутых
👍3
Помните недавно был анонс tex2image модели Stable Diffusion?
Так вот, уже можно подать заявку на бета тест.
А на картинке сравнение с DALL-E 2 на идентичных запросах начеррипиканных (выбор лучшего результата) на выборке из 4 генераций для каждого запроса.
Выглядит очень круто и похоже что будет бесплатно как и многие Diffusion модели.
Недостатки - колабы работают на порядки медленнее чем DALL-E 2. И скорее всего придется разбираться в настройках. Хороший результат получить труднее
Так вот, уже можно подать заявку на бета тест.
А на картинке сравнение с DALL-E 2 на идентичных запросах начеррипиканных (выбор лучшего результата) на выборке из 4 генераций для каждого запроса.
Выглядит очень круто и похоже что будет бесплатно как и многие Diffusion модели.
Недостатки - колабы работают на порядки медленнее чем DALL-E 2. И скорее всего придется разбираться в настройках. Хороший результат получить труднее
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Анимация инпейнтингом в #dalle
Только на этот раз художник обозначил рамками каждый шаг и подписал текст запросов
Источник
Только на этот раз художник обозначил рамками каждый шаг и подписал текст запросов
Источник
🔥3👍1
Ах да, Midjourney обновили сервис до версии V3, в связи с чем выдали всем по 25 бесплатных кредитов. Если у вас нет подписки и кончилась триалка, вы тоже можете поиграть с новыми фичами. Самые интересные из них - стилизация и качество - описание см на картинке.
Попробуйте, качество генераций заметно выросло
Попробуйте, качество генераций заметно выросло
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда лень было нажать PrintScreen, и сфоткал экран на телефон.
Удаление муара
Towards Efficient and Scale-Robust Ultra-High-Definition Image Demoiréing.
Попробовать на huggingface.
Утащил у DeepFake 🤖 Нейросети
Удаление муара
Towards Efficient and Scale-Robust Ultra-High-Definition Image Demoiréing.
Попробовать на huggingface.
Утащил у DeepFake 🤖 Нейросети
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите какая красота.
дополненная реальность.
DALL-E 2, Midjourney + какие-то еще инструменты для расслоения и AR
дополненная реальность.
DALL-E 2, Midjourney + какие-то еще инструменты для расслоения и AR
👏2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Робота учат улыбаться показывая ему человеческие улыбки.
Ну, кто первый скинет мем?
Ну, кто первый скинет мем?
🔥2