ml_mdm - Matryoshka Diffusion Models
Apple, похоже, включается в гонку генераторов картинок. Они выпустили диффузный генератор. Вернее, есть модели (64, 256 и 1024), обученные на 50 миллионах картинок с flickr. Но выглядит так, будто это набор "сделай сам" с примером обученной модели:
Короче, "Мы сделаем свой StableDiffusion с блекджеком и персонализацией"
Гитхаб
#text2image #news
Apple, похоже, включается в гонку генераторов картинок. Они выпустили диффузный генератор. Вернее, есть модели (64, 256 и 1024), обученные на 50 миллионах картинок с flickr. Но выглядит так, будто это набор "сделай сам" с примером обученной модели:
ml_mdm - это пакет python для эффективного обучения высококачественным моделям преобразования текста в изображение
Короче, "Мы сделаем свой StableDiffusion с блекджеком и персонализацией"
Гитхаб
#text2image #news
👍4🤡3❤2💩1
Sketch2Scene: Automatic Generation of Interactive 3D Game Scenes from User's Casual Sketches
Генерация интерактивных 3D-игровых сцен по нарисованным от руки эскизам и текстовым описаниям.
Под капотом генератор картинок, ControlNet, LoRa на SDXL-Inpaint, Grounded Segment Anything.
Для процедурного синтеза 3D-сцены используется игровой движок Unity
Кода нет, есть понимание чего ожидать в играх
#sketch2scene #text2scene #news
Генерация интерактивных 3D-игровых сцен по нарисованным от руки эскизам и текстовым описаниям.
Под капотом генератор картинок, ControlNet, LoRa на SDXL-Inpaint, Grounded Segment Anything.
Для процедурного синтеза 3D-сцены используется игровой движок Unity
Кода нет, есть понимание чего ожидать в играх
#sketch2scene #text2scene #news
❤6👍1
Undenis
The Rains of Castamere II
Поскольку, в 4 сезоне Игры Престолов, была такая же проблема, что и выше, с песней Sigur Rós — The Rains of Castamere (это та грустная, со свадьбы Джофри), я повторил весь процесс чтобы получить более длинную версию песни которая понравилась.
Обещал рассказать как делать в Suno ремиксы известных песен, делюсь (кстати, способ обходит запрет на обратботку существующих треков, хехе):
1) Заходим на audjust.com и заливаем туда ваш трек, который хочется замиксовать
2) В местном редакторе, нужно выделить какие части песни нравятся, какие нет, какие зациклить — выделяете кусочек вейвформы и появляется меню, там можно отметить.
3) Длительность трека (поле с 🕙) нужно указать 55 секунд — все это нужно, чтобы создать у Content Id модератора Suno ощущение, что вы не оригинальный трек заливаете, а свой ремикс оригинала
4) Выбираем один из треков который вам больше нравится (желательно, где сuts побольше, это там так сэмплы названы)
5) Идем в Suno, заливаем трек туда: https://suno.com/create
6) Теперь нужно взять слова оригинальной песни и прописать ее жанры через запятую, например: Earworm, post-rock, ambient, neoclassical, dark folk, cinematic, dark cello
7) В поле «Extend from» нужно указать с какой секунды продолжить трек: чем больше войдет в модель «контекста», тем похожее будет результат, с этим параметром интереснее всего играться
Все, наслаждаетесь нейронными версиями любимых треков — так можно провести не один час генеря разные версии, меняя текст, жанры и тп
@denissexy
Обещал рассказать как делать в Suno ремиксы известных песен, делюсь (кстати, способ обходит запрет на обратботку существующих треков, хехе):
1) Заходим на audjust.com и заливаем туда ваш трек, который хочется замиксовать
2) В местном редакторе, нужно выделить какие части песни нравятся, какие нет, какие зациклить — выделяете кусочек вейвформы и появляется меню, там можно отметить.
3) Длительность трека (поле с 🕙) нужно указать 55 секунд — все это нужно, чтобы создать у Content Id модератора Suno ощущение, что вы не оригинальный трек заливаете, а свой ремикс оригинала
4) Выбираем один из треков который вам больше нравится (желательно, где сuts побольше, это там так сэмплы названы)
5) Идем в Suno, заливаем трек туда: https://suno.com/create
6) Теперь нужно взять слова оригинальной песни и прописать ее жанры через запятую, например: Earworm, post-rock, ambient, neoclassical, dark folk, cinematic, dark cello
7) В поле «Extend from» нужно указать с какой секунды продолжить трек: чем больше войдет в модель «контекста», тем похожее будет результат, с этим параметром интереснее всего играться
Все, наслаждаетесь нейронными версиями любимых треков — так можно провести не один час генеря разные версии, меняя текст, жанры и тп
@denissexy
🔥11👍3❤2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
SuperSplat 1.0
Редактор сцен на гауссианах.
Покрутил чуть-чуть. Кроме как удалить выделенные гауссианы, ничего больше не смог. Но интересно, их как минимум можно чистить для рендера
Гитхаб
Попробовать
#gaussian #tools
Редактор сцен на гауссианах.
Покрутил чуть-чуть. Кроме как удалить выделенные гауссианы, ничего больше не смог. Но интересно, их как минимум можно чистить для рендера
Гитхаб
Попробовать
#gaussian #tools
🔥11
XLabs flux lora collection
Новые лоры от XLabs
Disney
MidjourneyV6
Scenery
Art
Anime
Должны работать с dev и schnell
—————
На аккаунте InstntX появилась пока пустая каточка FLUX.1-dev-Controlnet-Union-alpha
—————
Ну и не забывайте про Civitai, там уже всякие Flux-лоры появляются
#flux #lora #news
Новые лоры от XLabs
Disney
MidjourneyV6
Scenery
Art
Anime
Должны работать с dev и schnell
—————
На аккаунте InstntX появилась пока пустая каточка FLUX.1-dev-Controlnet-Union-alpha
—————
Ну и не забывайте про Civitai, там уже всякие Flux-лоры появляются
#flux #lora #news
👍7
Flux Upscaled
Вот демоспейс где можно сuенерить картинку Flux'ом и заапскейлить Finegrain'ом
#flux #uspcale
Вот демоспейс где можно сuенерить картинку Flux'ом и заапскейлить Finegrain'ом
#flux #uspcale
❤9
This media is not supported in your browser
VIEW IN TELEGRAM
[Major Update] BitsandBytes Guidelines and Flux
А Forge теперь поддерживает #Flux, а точнее два чекпойнта:
1. flux1-dev-bnb-nf4.safetensors - flux-dev с основной моделью в NF4. <- Рекомендован, намного быстрее FP8
2. flux1-dev-fp8.safetensors flux-dev с основной моделью в FP8.
Я не совсем понял что происходит с Forge, но кажется его опять можно обновить не опасаясь миллиона багов. Но это неточно!
#news
А Forge теперь поддерживает #Flux, а точнее два чекпойнта:
1. flux1-dev-bnb-nf4.safetensors - flux-dev с основной моделью в NF4. <- Рекомендован, намного быстрее FP8
2. flux1-dev-fp8.safetensors flux-dev с основной моделью в FP8.
Я не совсем понял что происходит с Forge, но кажется его опять можно обновить не опасаясь миллиона багов. Но это неточно!
#news
👍10
Flux.1-Dev Compact | CLIP and VAE included
Оптимизированные веса Flux dev fp16 и fp8 по 20 и 16 ГБ соответственно. CLIP и VAE внутри того же файла. Для тех у кого каждый Гб VRAM на счету. То есть, почти для всех.
#flux
Оптимизированные веса Flux dev fp16 и fp8 по 20 и 16 ГБ соответственно. CLIP и VAE внутри того же файла. Для тех у кого каждый Гб VRAM на счету. То есть, почти для всех.
#flux
👍12
This media is not supported in your browser
VIEW IN TELEGRAM
KEEP: Kalman-Inspired Feature Propagation for Video Face Super-Resolution
Реставрация и апскейл лиц на видео. Похоже, у нас будет замена GFP-GAN и Codeformer когда выложат код
Код ждем
#restoration #enhance #facerestoration #upscale
Реставрация и апскейл лиц на видео. Похоже, у нас будет замена GFP-GAN и Codeformer когда выложат код
Код ждем
#restoration #enhance #facerestoration #upscale
🔥11❤1👍1
Нейронавт | Нейросети в творчестве
[Major Update] BitsandBytes Guidelines and Flux А Forge теперь поддерживает #Flux, а точнее два чекпойнта: 1. flux1-dev-bnb-nf4.safetensors - flux-dev с основной моделью в NF4. <- Рекомендован, намного быстрее FP8 2. flux1-dev-fp8.safetensors flux-dev с основной…
Остальные оболочки для Flux тоже не дремлют.
В частности, поддержка NF4 уже есть в ComfyUI и SwarmUI
#flux #news
В частности, поддержка NF4 уже есть в ComfyUI и SwarmUI
#flux #news
🔥5
VGGHeads: A Large-Scale Synthetic Dataset for 3D Human Heads
Реконструкция 3d сетки головы по изображению.
Вообще-то это датасет, но присутствует и код, и демо, и контролнет. То есть, генерить головы тоже можно, должно быть точнее чем с OpenPose.
Я только не понял как из него получить собственно меш, а не картинку меша
Код
Демо
ControlNet Head Mesh SDXL
#controlnet #imageto3D #image2pose #image2head #pose2image
Реконструкция 3d сетки головы по изображению.
Вообще-то это датасет, но присутствует и код, и демо, и контролнет. То есть, генерить головы тоже можно, должно быть точнее чем с OpenPose.
Я только не понял как из него получить собственно меш, а не картинку меша
Код
Демо
ControlNet Head Mesh SDXL
#controlnet #imageto3D #image2pose #image2head #pose2image
👍8❤2🔥1😁1
UniPortrait: A Unified Framework for Identity-Preserving Single- and Multi-Human Image Personalization
Персонализация одного или нескольких (!) объектов на изображении
Код ждем
Демо
#personalization #text2image
Персонализация одного или нескольких (!) объектов на изображении
Код ждем
Демо
#personalization #text2image
🔥14