Mask Prompter
Генератор масок для AfterEffects.
Как-то я не сильно следил за плагинами и скриптами для AE. А оказывается вот такие штуки есть. $49.99 для честных людей.
поддерживает АЕ 2022 и выше
Туториал
#video2mask #segmentation #matting
Генератор масок для AfterEffects.
Как-то я не сильно следил за плагинами и скриптами для AE. А оказывается вот такие штуки есть. $49.99 для честных людей.
поддерживает АЕ 2022 и выше
Туториал
#video2mask #segmentation #matting
Forwarded from Малоизвестное интересное
Что делают в «секретной» лаборатории OpenAI.
LVM – это не только новое кино, но и новый мир.
Мне уже приходилось рассказывать о своем поразительном опыте путешествия в будущее, - и не в метафорическом или публицистическом смысле, а в буквальном. Тогда (28 лет назад) в «секретной» лаборатории SGI я вживую опробовал несколько технологий, опередивших на четверть века своё массовое внедрение: визуальные симуляторы многомерных функциональных пространств и симуляторы полета над ландшафтами данных. Тогда же, в соседней «секретной» лаборатории SGI меня впервые оцифровали на 3D сканере. И тут же, на основе этой цифровой копии, создали и показали мне моего цифрового двойника, управлять которым я мог с графического суперкомпьютера SGI Onyx.
Ну а вспомнил я сегодня об этом из-за проговорок гендира OpenAI Сэма Альтмана о перспективах перехода от LLM (Large Language Models) к LVM (Large Video Models). В этом направлении сейчас копают и люди Цукерберга, и китайцы. Но приоритет OpenAI в LLM достаточно велик, чтобы сделать ставку на прорывной разработке LVM в своих «секретных» лабах.
О чем же идет речь?
О двух фантастически прибыльных областях бизнеса.
1. Создание нового типа кино, на основе тотального перехода на цифровые дубликаты кинозвезд.
2. Создание нового типа массовых развлечений на основе использования цифровых дубликатов пользователей для их путешествий в виртуальные миры Метаверса.
Первое
Использование цифровых дубликатов звезд кино и спорта уже становится распространенной практикой. Но чтобы создать на этой технологической базе новый тип кино, нужно более мощное железо, чтобы все делать влет и прямо на студии, а не долгими расчетами на огромных сторонних компьютерных фермах.
Что из себя будет представлять новый тип кино, когда «железо» позволит, показано в 1м эпизоде 6го сезона «Черное зеркало» - «Джоан ужасна» (смотрите сами или, кто хочет, читайте детальный спойлер).
В этом эпизоде хорошо показано, как переход на новый тип кино колоссально изменит многие аспекты жизни общества и отдельных людей. Это будет уже иной мир.
Второе
Как будет работать перенос цифровых дубликатов пользователей в виртуальные миры, показано в другой модной новинке – китайском сериале «Задача трёх тел», литературной основой которого стал знаменитый роман Лю Цысиня).
Ключом к разгадке серии таинственных самоубийств ученых по всей Земле является компьютерная игра «Задача трёх тел», переносящая пользователя в иной мир с тремя солнцами — планету Трисолярис. Ну а то, насколько технология переноса цифровых дубликатов людей в виртуальный мир эффективна, можно судить по тому, что эта «игра» становится своего рода порталом. Через него инопланетяне вербуют сторонников на Земле, с целью заполучить ее в свои руки.
Последнее
Оба новых направления на основе LVM сулят колоссальные деньги, несравнимые с тем, что OpenAI и Microsoft могут заработать в мире на LLM. И поэтому есть все основания предполагать, что именно на LVM сейчас сфокусированы исследовани и разработки OpenAI.
Ну а всякие там GPT 5,6,7 … - это, как говорится, их «business as usual», а не стратегическая ставка на десятилетие.
#LVM
LVM – это не только новое кино, но и новый мир.
Мне уже приходилось рассказывать о своем поразительном опыте путешествия в будущее, - и не в метафорическом или публицистическом смысле, а в буквальном. Тогда (28 лет назад) в «секретной» лаборатории SGI я вживую опробовал несколько технологий, опередивших на четверть века своё массовое внедрение: визуальные симуляторы многомерных функциональных пространств и симуляторы полета над ландшафтами данных. Тогда же, в соседней «секретной» лаборатории SGI меня впервые оцифровали на 3D сканере. И тут же, на основе этой цифровой копии, создали и показали мне моего цифрового двойника, управлять которым я мог с графического суперкомпьютера SGI Onyx.
Ну а вспомнил я сегодня об этом из-за проговорок гендира OpenAI Сэма Альтмана о перспективах перехода от LLM (Large Language Models) к LVM (Large Video Models). В этом направлении сейчас копают и люди Цукерберга, и китайцы. Но приоритет OpenAI в LLM достаточно велик, чтобы сделать ставку на прорывной разработке LVM в своих «секретных» лабах.
О чем же идет речь?
О двух фантастически прибыльных областях бизнеса.
1. Создание нового типа кино, на основе тотального перехода на цифровые дубликаты кинозвезд.
2. Создание нового типа массовых развлечений на основе использования цифровых дубликатов пользователей для их путешествий в виртуальные миры Метаверса.
Первое
Использование цифровых дубликатов звезд кино и спорта уже становится распространенной практикой. Но чтобы создать на этой технологической базе новый тип кино, нужно более мощное железо, чтобы все делать влет и прямо на студии, а не долгими расчетами на огромных сторонних компьютерных фермах.
Что из себя будет представлять новый тип кино, когда «железо» позволит, показано в 1м эпизоде 6го сезона «Черное зеркало» - «Джоан ужасна» (смотрите сами или, кто хочет, читайте детальный спойлер).
В этом эпизоде хорошо показано, как переход на новый тип кино колоссально изменит многие аспекты жизни общества и отдельных людей. Это будет уже иной мир.
Второе
Как будет работать перенос цифровых дубликатов пользователей в виртуальные миры, показано в другой модной новинке – китайском сериале «Задача трёх тел», литературной основой которого стал знаменитый роман Лю Цысиня).
Ключом к разгадке серии таинственных самоубийств ученых по всей Земле является компьютерная игра «Задача трёх тел», переносящая пользователя в иной мир с тремя солнцами — планету Трисолярис. Ну а то, насколько технология переноса цифровых дубликатов людей в виртуальный мир эффективна, можно судить по тому, что эта «игра» становится своего рода порталом. Через него инопланетяне вербуют сторонников на Земле, с целью заполучить ее в свои руки.
Последнее
Оба новых направления на основе LVM сулят колоссальные деньги, несравнимые с тем, что OpenAI и Microsoft могут заработать в мире на LLM. И поэтому есть все основания предполагать, что именно на LVM сейчас сфокусированы исследовани и разработки OpenAI.
Ну а всякие там GPT 5,6,7 … - это, как говорится, их «business as usual», а не стратегическая ставка на десятилетие.
#LVM
❤1
Нейропрогнозирование. Исследователи из Клэрмонтского университета с точностью 97% смогли предсказать какие песни окажутся хитами. Для этого они собрали данные о нейронной активности 33 слушателей и применили к собранным данным машинное обучение.
Подробнее на Хабре
#cyberpunk
Подробнее на Хабре
#cyberpunk
🔥6👍1
Forwarded from эйай ньюз
🔥Stable Diffusion SDXL 0.9
А вот и официальное подтверждение релиза новой модели, но пока без ссылки на код.
Модель SDXL 0.9 имеет 3.5 B параметров в базовой версии. И будет ещё ансамбль из двух моделей, суммарно на 6.6 B параметров.
Для текстового гайданса вместо одной CLIP модели используется конкатенация из двух: базовый клип от OpenAI)и OpenCLIP ViT-G/14. Это позволяет генерировать более точные детали на картинках.
На парных картинках — сравнение результатов SDXL beta и новой версии SDXL 0.9. Качество сильно возросло
Во время инференса нужна будет видеокарта с 16 GB VRAM.
Ждём блог пост со всеми деталями и сам код (который по идее должен появиться сегодня).
https://stability.ai/blog/sdxl-09-stable-diffusion
@ai_newz
А вот и официальное подтверждение релиза новой модели, но пока без ссылки на код.
Модель SDXL 0.9 имеет 3.5 B параметров в базовой версии. И будет ещё ансамбль из двух моделей, суммарно на 6.6 B параметров.
Для текстового гайданса вместо одной CLIP модели используется конкатенация из двух: базовый клип от OpenAI)и OpenCLIP ViT-G/14. Это позволяет генерировать более точные детали на картинках.
На парных картинках — сравнение результатов SDXL beta и новой версии SDXL 0.9. Качество сильно возросло
Во время инференса нужна будет видеокарта с 16 GB VRAM.
Ждём блог пост со всеми деталями и сам код (который по идее должен появиться сегодня).
https://stability.ai/blog/sdxl-09-stable-diffusion
@ai_newz
😁2❤1
Media is too big
VIEW IN TELEGRAM
AudioPaLM
A Large Language Model That Can Speak and Listen
Google представил модель понимания и генерации речи, способную переводить речь на разные языки. В основе архитектуры текстовая модель PALM-2 и речевая AudioLM
При переводе AudioPaLM сохраняет индивидуальные характеристики и интонации оригинального голоса.
На сайте множество примеров.
Кода нет
#audio2audio #speech2speech
A Large Language Model That Can Speak and Listen
Google представил модель понимания и генерации речи, способную переводить речь на разные языки. В основе архитектуры текстовая модель PALM-2 и речевая AudioLM
При переводе AudioPaLM сохраняет индивидуальные характеристики и интонации оригинального голоса.
На сайте множество примеров.
Кода нет
#audio2audio #speech2speech
This media is not supported in your browser
VIEW IN TELEGRAM
Midjourney обновили до версии V5.2. Среди прочих нововведений функция Zoom Out - аналог Generative Fill.
Держат нос по ветру, молодцы
#zoomout #outpainting
Держат нос по ветру, молодцы
#zoomout #outpainting
🔥4❤1
Если вы не хотели загружать версию Opera One для разработчиков и ждали пользовательскую, то вот она.
В браузер интергрированы три ИИ ассистента: ChatGPT, Chatsonic и, конечно, своя разработка - Aria. Для ChatGPT потребуется логин/пароль/VPN
скачать Opera One
#chatbot
В браузер интергрированы три ИИ ассистента: ChatGPT, Chatsonic и, конечно, своя разработка - Aria. Для ChatGPT потребуется логин/пароль/VPN
скачать Opera One
#chatbot
👍4
HyperReel: High-Fidelity 6-DoF Video with Ray-Conditioned Sampling
Мы много видели способов получить реконструкцию изображения с нового ракурса. Но то все было про статичные изображения, в редких случаях NeRF. HyperReel покажет вам изменение ракурса на видео. Я не понял, сколько исходных ракурсов видео надо ему скормить. Выглядит как магия.
Прекрасно, что можно попытаться поиграть с ним, ибо есть
Код
#novelview #video2video #rendering
Мы много видели способов получить реконструкцию изображения с нового ракурса. Но то все было про статичные изображения, в редких случаях NeRF. HyperReel покажет вам изменение ракурса на видео. Я не понял, сколько исходных ракурсов видео надо ему скормить. Выглядит как магия.
Прекрасно, что можно попытаться поиграть с ним, ибо есть
Код
#novelview #video2video #rendering
👍4❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Neuralangelo интегрировали в SDFStudio
Да, его можно установить (с гитхаба) и пользоваться. В деле замешан Nerfstuduio, и можно пользоваться его вьюером.
Код
#nerf #rendering
Да, его можно установить (с гитхаба) и пользоваться. В деле замешан Nerfstuduio, и можно пользоваться его вьюером.
Код
#nerf #rendering
🔥3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🔥А вот и код SDXL 0.9 подоспел!
В репозитории есть код базовой модели и код рефайнера. Рефайнер — это модель, которая тренировалась на очень качественных картинках и низких уровнях шума. Она предназначена для улучшения выхода базовой модели.
Доступ к весам для исследовательских целей можно запросить по ссылкам [1, 2] в репе. Через пару дней, думаю, они утекут в интернет, если ещё нет.
Кроме того, весь код LDM отрефакторили и причесали (раньше это был просто кошмарный код). Теперь используется Pytorch Lightning. Из этой репы можно также запускать модели SD 2.1.
Короче, кайф!
@ai_newz
В репозитории есть код базовой модели и код рефайнера. Рефайнер — это модель, которая тренировалась на очень качественных картинках и низких уровнях шума. Она предназначена для улучшения выхода базовой модели.
Доступ к весам для исследовательских целей можно запросить по ссылкам [1, 2] в репе. Через пару дней, думаю, они утекут в интернет, если ещё нет.
Кроме того, весь код LDM отрефакторили и причесали (раньше это был просто кошмарный код). Теперь используется Pytorch Lightning. Из этой репы можно также запускать модели SD 2.1.
Короче, кайф!
@ai_newz
👍2
Plug-and-Play Diffusion Features for Text-Driven Image-to-Image Translation
Свежая разработка от NVIDIA на поле редактирования изображений текстовыми подсказками. Выглядит интересно
Код
Демо на HF
Демо на Replicate
#image2image #text2image
Свежая разработка от NVIDIA на поле редактирования изображений текстовыми подсказками. Выглядит интересно
Код
Демо на HF
Демо на Replicate
#image2image #text2image
Forwarded from twin3D
This media is not supported in your browser
VIEW IN TELEGRAM
Симуляция физики 3D-одежды станет ещё естественнее
Про аватаров достаточно часто слышим. А что насчёт оцифровки одежды?
На конференции CVPR’23 представили метод обучения нейросетей HOOD для воспроизведения физики одежды в 3D. По заверению разработчиков, они добились следующих преимуществ:
• Физика материалов теперь не привязывается жёстко к 3D-аватару. Благодаря этому 3D-ткани могут двигаться более свободно, что выгодно при моделировании, например, платьев или свободной одежды.
• Метод позволяет динамично подстраивать симуляцию материалов под изменение топологии (то есть модель не сломается, если у неё расстегнуть пуговицы или молнию).
• Нейросеть не нужно обучать под конкретный вид одежды (чем часто ограничиваются возможности таких нейросетей): метод позволяет симулировать поведение разных материалов без переобучения.
Что ж, если всё так, как рассказывают разработчики, ждём крутых обновлений для CLO3D или в прочих подобных программах.
Новости 3D, аватаров и метавселенных — подписаться!
Про аватаров достаточно часто слышим. А что насчёт оцифровки одежды?
На конференции CVPR’23 представили метод обучения нейросетей HOOD для воспроизведения физики одежды в 3D. По заверению разработчиков, они добились следующих преимуществ:
• Физика материалов теперь не привязывается жёстко к 3D-аватару. Благодаря этому 3D-ткани могут двигаться более свободно, что выгодно при моделировании, например, платьев или свободной одежды.
• Метод позволяет динамично подстраивать симуляцию материалов под изменение топологии (то есть модель не сломается, если у неё расстегнуть пуговицы или молнию).
• Нейросеть не нужно обучать под конкретный вид одежды (чем часто ограничиваются возможности таких нейросетей): метод позволяет симулировать поведение разных материалов без переобучения.
Что ж, если всё так, как рассказывают разработчики, ждём крутых обновлений для CLO3D или в прочих подобных программах.
Новости 3D, аватаров и метавселенных — подписаться!
This media is not supported in your browser
VIEW IN TELEGRAM
PanoHead: Geometry-Aware 3D Full-Head Synthesis in 360°
Ах, какое полезное изобретение! Генератор полной 3D модели головы по одному фото. В основе модели - 3D GAN. На видео примеры результатов одного реддитора
Код
Колаб
#GAN #3DGAN #imageto3D #image2head
Ах, какое полезное изобретение! Генератор полной 3D модели головы по одному фото. В основе модели - 3D GAN. На видео примеры результатов одного реддитора
Код
Колаб
#GAN #3DGAN #imageto3D #image2head
🔥5
Forwarded from Нейрокузня | DreamForge
Пока SDXL еще не полностью вышла в открытый доступ, продолжаем выжимать всё возможное из нынешних моделей.
Почти месяц назад я разработал в рамках своей дипломной работы скрипт для Stable Diffusion WebUI, призванный помочь и новичкам, только осваивающим интерфейс, и бывалым энтузиастам в создании качественных изображений с минимальными усилиями. И наконец я готов этот скрипт, пусть и все еще на стадии поздней беты, выложить в открытый доступ.
AutoChar осуществляет автоматический инпеинт обнаруженных лиц и глаз на них, налаживает двухэтапный апскейл изображения, а так же чистит изначальную генерацию от шума.
Всё, впрочем, детально регулируется или выключается по мере надобности, при этом все настройки скрыты за шторкой, у новичков глаза разбегаться не будут. Базовые настройки достаточно универсальны, но в случае чего их всегда можно адаптировать под задачу.
Десятки лишних кликов и ручное рисований масок лиц мышкой теперь в прошлом, иллюстрация получается значительно лучше с одной кнопки. По сути, я автоматизировал свой собственный алгоритм работы и не надо верить мне на слово, сами попробуйте и оцените, насколько много времени и сил AutoChar экономит.
Пока реализованы не все задуманные мной и предложенные первыми тестерами функции, но всё впереди! Забрасывать разработку не намерен, т.к. каждый день использую скрипт сам в своей работе и сам заинтересован в его улучшении. Буду рад всем предложениям, пожеланиям и сообщениям об ошибках.
https://github.com/alexv0iceh/AutoChar
https://www.reddit.com/r/StableDiffusion/comments/14h5qa3/autochar_new_automatic1111_webui_noscript_for/
https://civitai.com/models/95923?modelVersionId=102438
Почти месяц назад я разработал в рамках своей дипломной работы скрипт для Stable Diffusion WebUI, призванный помочь и новичкам, только осваивающим интерфейс, и бывалым энтузиастам в создании качественных изображений с минимальными усилиями. И наконец я готов этот скрипт, пусть и все еще на стадии поздней беты, выложить в открытый доступ.
AutoChar осуществляет автоматический инпеинт обнаруженных лиц и глаз на них, налаживает двухэтапный апскейл изображения, а так же чистит изначальную генерацию от шума.
Всё, впрочем, детально регулируется или выключается по мере надобности, при этом все настройки скрыты за шторкой, у новичков глаза разбегаться не будут. Базовые настройки достаточно универсальны, но в случае чего их всегда можно адаптировать под задачу.
Десятки лишних кликов и ручное рисований масок лиц мышкой теперь в прошлом, иллюстрация получается значительно лучше с одной кнопки. По сути, я автоматизировал свой собственный алгоритм работы и не надо верить мне на слово, сами попробуйте и оцените, насколько много времени и сил AutoChar экономит.
Пока реализованы не все задуманные мной и предложенные первыми тестерами функции, но всё впереди! Забрасывать разработку не намерен, т.к. каждый день использую скрипт сам в своей работе и сам заинтересован в его улучшении. Буду рад всем предложениям, пожеланиям и сообщениям об ошибках.
https://github.com/alexv0iceh/AutoChar
https://www.reddit.com/r/StableDiffusion/comments/14h5qa3/autochar_new_automatic1111_webui_noscript_for/
https://civitai.com/models/95923?modelVersionId=102438
🔥10❤2👍2