Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Цветокоррекция с помощью нейронок через NILUT.
LUT, или Lookup Table, используется в кино для преобразования цветов и тонов в кадре. Помимо грейдинга видео, LUT используется в фотографии, CG, калибрации мониторов и стриминге. Вот видос на эту тему.
3D LUT (3D Lookup Table) - это расширение концепции LUT, которое используется в обработке изображений для более точного контроля над цветами и тонами. Вместо одномерной таблицы, как в обычном LUT, 3D LUT использует трехмерную таблицу, что позволяет более точно манипулировать цветами в изображении.
NILUT (Neural Implicit Lookup Table) - это еще более сложное расширение концепции LUT. Здесь используется нейросеть для параметризации 3D LUT, что позволяет ей эмулировать реальные 3D LUT с большей точностью и гибкостью. Это означает, что NILUT может включать в себя несколько стилей и смешивать их, что делает её более мощным инструментом для улучшения изображений.
Гитхаб
Колаб
LUT, или Lookup Table, используется в кино для преобразования цветов и тонов в кадре. Помимо грейдинга видео, LUT используется в фотографии, CG, калибрации мониторов и стриминге. Вот видос на эту тему.
3D LUT (3D Lookup Table) - это расширение концепции LUT, которое используется в обработке изображений для более точного контроля над цветами и тонами. Вместо одномерной таблицы, как в обычном LUT, 3D LUT использует трехмерную таблицу, что позволяет более точно манипулировать цветами в изображении.
NILUT (Neural Implicit Lookup Table) - это еще более сложное расширение концепции LUT. Здесь используется нейросеть для параметризации 3D LUT, что позволяет ей эмулировать реальные 3D LUT с большей точностью и гибкостью. Это означает, что NILUT может включать в себя несколько стилей и смешивать их, что делает её более мощным инструментом для улучшения изображений.
Гитхаб
Колаб
👍4
Градиент обреченный
🔺 Kandinsky 2.2 Тут коллеги выложили Кандинского в открытый доступ. Попробовал, картинки получаются прикольнее чем было до этого, плюс увеличилось выходное разрешение. Кроме того, всё это теперь можно запустить через библиотеку diffusers! А Арсений Шахматов…
А вот и LoRA, работает на бесплатном колабе
Google
lora_decoder.ipynb
Colaboratory notebook
Нейронавт | Нейросети в творчестве
GenMM: Example-based Motion Synthesis viaGenerative Motion Matching Быстрый перенос персонажной анимации с референса с учетом скелета. Можно задавать траекторию движения, зацикливать, пересобирать анимацию, задать ключевые кадры. А еще умеет додумывать анимацию.…
Демо GenMM, как и обещали, запустили.
Анимация персонажей рендерится в рилтайме, ее можно зациклить. Для этого справа вверху разворачиваем панель Controls, настраиваем количество кадров и ставим галочку loop
Демо
#motion2motion #chracteranimation #humananimation
Анимация персонажей рендерится в рилтайме, ее можно зациклить. Для этого справа вверху разворачиваем панель Controls, настраиваем количество кадров и ставим галочку loop
Демо
#motion2motion #chracteranimation #humananimation
EFFICIENT 3D ARTICULATED HUMAN GENERATION WITH LAYERED SURFACE VOLUMES
Новый подход к архитектуре цифровых аватаров на основе layered surface volumes (LSVs) - могу перевести это как слоеные объемы.
Первым делом генерируются текстуры персонажа в StyleGAN2. Их натягивают на отдельные слои меша. Все текстурированные слои деформируются вместе в соответствии с целевым распределением поз и растеризуются. После чего их подают в дискриминатор StyleGAN2, управляемый камерой и позой. Ну и плюс дополнительный распознаватель лиц, который на схеме не показали.
Кода нет
Демо нет
#humanavatar #humananimation #3Davatar
Новый подход к архитектуре цифровых аватаров на основе layered surface volumes (LSVs) - могу перевести это как слоеные объемы.
Первым делом генерируются текстуры персонажа в StyleGAN2. Их натягивают на отдельные слои меша. Все текстурированные слои деформируются вместе в соответствии с целевым распределением поз и растеризуются. После чего их подают в дискриминатор StyleGAN2, управляемый камерой и позой. Ну и плюс дополнительный распознаватель лиц, который на схеме не показали.
Кода нет
Демо нет
#humanavatar #humananimation #3Davatar
Нейронавт | Нейросети в творчестве
VampNet: Music Generation via Masked Acoustic Token Modeling Качественный генератор музыки с уклоном в экспериментальную, конкурент MusicGen Только без текстовой подсказки. Может делать вариации и продолжить музыку из затравки. Код найден благодаря @tech_wizart…
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
GPTgame
Генератор игр на ChatGPT. Обещают прикрутить GPT-4.
Сразу выдает рабочий результат в отличие от Webapp Factory.
Позволяет сохранить код и ссылку на игру. Вот мой шутер, управление курсорами и Ctrl. Кидайте свои игры в чат
#text2app #coding #text2code #text2game
Генератор игр на ChatGPT. Обещают прикрутить GPT-4.
Сразу выдает рабочий результат в отличие от Webapp Factory.
Позволяет сохранить код и ссылку на игру. Вот мой шутер, управление курсорами и Ctrl. Кидайте свои игры в чат
#text2app #coding #text2code #text2game
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
After-Diffusion
Бесплатный Stable Diffusion - плагин для AfterEffects.
Подразумевается что у вас должен быть webui
Фичи:
- генерация по по расставленным в АЕ ключам. Можно задать анимацию CFG, денойза, параметров ControlNet и т д.
- Txt2Img, Img2Img + Inpaint, Inpaint Sketch, Multi-Controlnet и т д
- фоновый вывод - изменения параметров автоматически обрабатываются и выводтся
- сетки изображений
- управляющие изображения для всех типов генераций
- Лайв превью
- генерация по маске АЕ
Гитхаб
#plugin #tools #stablediffusion #AE
Бесплатный Stable Diffusion - плагин для AfterEffects.
Подразумевается что у вас должен быть webui
Фичи:
- генерация по по расставленным в АЕ ключам. Можно задать анимацию CFG, денойза, параметров ControlNet и т д.
- Txt2Img, Img2Img + Inpaint, Inpaint Sketch, Multi-Controlnet и т д
- фоновый вывод - изменения параметров автоматически обрабатываются и выводтся
- сетки изображений
- управляющие изображения для всех типов генераций
- Лайв превью
- генерация по маске АЕ
Гитхаб
#plugin #tools #stablediffusion #AE
🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
SocialBook PhotoStudio
Полноценный дизайн-конструктор с функционалом ИИ-генерации и редактирования картинок наподобие Canva.
Есть какой-от лимит бесплатных генераций. Я сгенерил картинок 5, и мне сказали подождать до завтра.
А еще у него туго с фотореализмом. Но можно загружать референсные картинки и, похоже, нет nsfw-фильтра. И вообще фич много по дизайну.
Реферральная ссылка
#image2image #tools #design
Полноценный дизайн-конструктор с функционалом ИИ-генерации и редактирования картинок наподобие Canva.
Есть какой-от лимит бесплатных генераций. Я сгенерил картинок 5, и мне сказали подождать до завтра.
А еще у него туго с фотореализмом. Но можно загружать референсные картинки и, похоже, нет nsfw-фильтра. И вообще фич много по дизайну.
Реферральная ссылка
#image2image #tools #design
👍2
Forwarded from Dreams and Robots
Гугловский Бард выкатился в открытый доступ, бесплатно и в том числе на русском языке. Тесты показали, что со многими задачами он справляется не хуже GPT4. Последовательности чисел продолжает, код пишет, лексические парадоксы понимает.
Прямо из интерфейса можно запускать код и проверять его в коллабе.
Не ура ли?
https://bard.google.com/
#llm #bard
Прямо из интерфейса можно запускать код и проверять его в коллабе.
Не ура ли?
https://bard.google.com/
#llm #bard
🔥7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Audio Webui
Инсталлятор для опенсорсных аудионейросетей.
Сам не пробовал, на вопросы ответить не смогу
Гитхаб
Колаб
Твиттер с примерами
#tools #audio
Инсталлятор для опенсорсных аудионейросетей.
Сам не пробовал, на вопросы ответить не смогу
Гитхаб
Колаб
Твиттер с примерами
#tools #audio
HyperDreamBooth: HyperNetworks for FastPersonalization of Text-to-Image Models
Новый метод дообучения генераторов изображений. Достаточно одной входной картинки, работает в 25 раз быстрее DreamBooth, а модель на выходе в 10000 меньше чем DreamBooth
HyperDreamBooth одновременно сохраняет целостность модели и разнообразие стилей, максимально приближаясь к сути предмета и деталям. Персонализация лица достигается за 20 секунд.
Разработка Google Research, кода нет.
#text2image #finetuning
Новый метод дообучения генераторов изображений. Достаточно одной входной картинки, работает в 25 раз быстрее DreamBooth, а модель на выходе в 10000 меньше чем DreamBooth
HyperDreamBooth одновременно сохраняет целостность модели и разнообразие стилей, максимально приближаясь к сути предмета и деталям. Персонализация лица достигается за 20 секунд.
Разработка Google Research, кода нет.
#text2image #finetuning
🔥5❤2
This media is not supported in your browser
VIEW IN TELEGRAM
FreeDrag: Point Tracking is Not You Need for Interactive Point-based Image Editing
Конкурент DragGAN, более лучший.
Код обещают выложить
#image2image
Конкурент DragGAN, более лучший.
Код обещают выложить
#image2image
❤3
Stable Doodle
Опробовал новую игрушку StabilityAI/Clipdrop на своих старых комиксах. Если неграмотно написать промт, то Stable Doodle вашим дудлом подотрется. А если грамотно, то прям можно комиксы рисовать. Правда, без повторяющихся от панели к панели объектов.
Не хватает загрузки входных дудлов, приходится рисовать на месте в маленьком окошке.
#image2image #sketch2image
Опробовал новую игрушку StabilityAI/Clipdrop на своих старых комиксах. Если неграмотно написать промт, то Stable Doodle вашим дудлом подотрется. А если грамотно, то прям можно комиксы рисовать. Правда, без повторяющихся от панели к панели объектов.
Не хватает загрузки входных дудлов, приходится рисовать на месте в маленьком окошке.
#image2image #sketch2image
👍1
LLM arena
Текстовая игра против ИИ. Если вам понравилось играть в Гэндальфа, то и это должно зайти.
Вы выступаете в роли бойца. Вам говорят кто вы и кто ваш противник. Можете писать что угодно. LLM решает кто победил. Цель - победить минимальным количеством символов.
И не ведитесь на лимон, он не помогает
#game #gaming #chatbot #LLM
Текстовая игра против ИИ. Если вам понравилось играть в Гэндальфа, то и это должно зайти.
Вы выступаете в роли бойца. Вам говорят кто вы и кто ваш противник. Можете писать что угодно. LLM решает кто победил. Цель - победить минимальным количеством символов.
И не ведитесь на лимон, он не помогает
#game #gaming #chatbot #LLM
👍4😁1
Media is too big
VIEW IN TELEGRAM
A Generalized Ray Formulation For Wave-Optics Rendering
Оказывается, трассировка лучей - некорректный метод получения 3D рендера. В этом исследовании показано, что трассировка волн дает лучшие результаты. Более грамотные объяснения у двухминутного доктора
Авторам удалось еще и добиться скоростного рендера, десятые доли секунды для разрешения 1440p. Код и все материалы в наличии.
Код
#rendering
Оказывается, трассировка лучей - некорректный метод получения 3D рендера. В этом исследовании показано, что трассировка волн дает лучшие результаты. Более грамотные объяснения у двухминутного доктора
Авторам удалось еще и добиться скоростного рендера, десятые доли секунды для разрешения 1440p. Код и все материалы в наличии.
Код
#rendering
👍6🤔3
Forwarded from тоже моушн
This media is not supported in your browser
VIEW IN TELEGRAM
что ж, пришло время об этом рассказать: красиво стилизовать видео теперь можно не только в платном StableWarp но и бесплатном Deforum
и никакого фликера, даже напротив - еще более гладкая анимация. на видео сравнение двух техник при условно одинаковых настройках. магия работает в A1111 на ip2p контролнете и режиме hybrid video
узнал про этот трюк благодаря подписчику. спасибо, Михаил!
StableWarp по прежнему остается годным и очень крутым инструментом, но на мой личный взгляд - чрезмерно навороченным и чем дальше тем сложнее в нем разобраться, я уже не говорю про новых пользователей, у которых вскипает мозг при виде сотен настроек.
файл с настройками дефорума - в комментах
@тоже_моушн
и никакого фликера, даже напротив - еще более гладкая анимация. на видео сравнение двух техник при условно одинаковых настройках. магия работает в A1111 на ip2p контролнете и режиме hybrid video
узнал про этот трюк благодаря подписчику. спасибо, Михаил!
StableWarp по прежнему остается годным и очень крутым инструментом, но на мой личный взгляд - чрезмерно навороченным и чем дальше тем сложнее в нем разобраться, я уже не говорю про новых пользователей, у которых вскипает мозг при виде сотен настроек.
файл с настройками дефорума - в комментах
@тоже_моушн
👍2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
SDFX: Новый UI для Stable Diffusion. Выглядит нарядно.
Как пишет автор (очень правильные слова, я ныл об этом тут):
У создания SDFX было два основных мотива. Первый возник из-за повторяющейся задачи в A111 прокрутки вниз, настройки параметров, прокрутки вверх, нажатия «Создать» и повторения этого цикла снова и снова. Выполнение этого 1500 раз сказалось на моем психическом здоровье. Второй проблемой была тяжеловесность и непоследовательность графического интерфейса, который полностью упускал из виду основной элемент: изображение. Stable Diffusion — это технология, которая генерирует изображения. Итак, где изображения на интерфейсе? Он должен быть в основе интерфейса. Все, что я вижу, это тысячи кнопок и ползунков, разбросанных вокруг. Пришло время положить этому конец. Внедрение новых технологий, таких как Stable Diffusion, неизбежно требует создания простых в использовании продуктов, а не сложных интерфейсов, предназначенные для инженеров, которые восхищаются миллиардами кнопок и бесконечными выпадающими меню.
Есть две засады.
Будет только в августе.
Человек пишет все это в одно кожаное лицо.
Соответственно, развитие и поддержка проекта будут однопоточными.
Подробности тут:
https://www.reddit.com/r/StableDiffusion/comments/1437b8o/sdfx_new_ui_for_stable_diffusion/
Как пишет автор (очень правильные слова, я ныл об этом тут):
У создания SDFX было два основных мотива. Первый возник из-за повторяющейся задачи в A111 прокрутки вниз, настройки параметров, прокрутки вверх, нажатия «Создать» и повторения этого цикла снова и снова. Выполнение этого 1500 раз сказалось на моем психическом здоровье. Второй проблемой была тяжеловесность и непоследовательность графического интерфейса, который полностью упускал из виду основной элемент: изображение. Stable Diffusion — это технология, которая генерирует изображения. Итак, где изображения на интерфейсе? Он должен быть в основе интерфейса. Все, что я вижу, это тысячи кнопок и ползунков, разбросанных вокруг. Пришло время положить этому конец. Внедрение новых технологий, таких как Stable Diffusion, неизбежно требует создания простых в использовании продуктов, а не сложных интерфейсов, предназначенные для инженеров, которые восхищаются миллиардами кнопок и бесконечными выпадающими меню.
Есть две засады.
Будет только в августе.
Человек пишет все это в одно кожаное лицо.
Соответственно, развитие и поддержка проекта будут однопоточными.
Подробности тут:
https://www.reddit.com/r/StableDiffusion/comments/1437b8o/sdfx_new_ui_for_stable_diffusion/
❤4🤔2👍1👎1🔥1