Также в AI Toolkit от Ostris подвезли треню лор для LTX-2
Пока влезает на RTX 5090 + 64 RAM, но скоро впихнут и в 24gb VRAM
В целом, интерес опенсорсного сообщества довольно быстро переключился с Wan 2.x на LTX-2, благо она еще и поддерживает из коробки большую часть лор для предыдущей версии.
пше
Пока влезает на RTX 5090 + 64 RAM, но скоро впихнут и в 24gb VRAM
В целом, интерес опенсорсного сообщества довольно быстро переключился с Wan 2.x на LTX-2, благо она еще и поддерживает из коробки большую часть лор для предыдущей версии.
пше
🔥11
This media is not supported in your browser
VIEW IN TELEGRAM
The slop we need but don't deserve
5🔥74❤11🤗3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
1😁25🤡19🔥11❤4🤩2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Энциклопедия LTX.
Для тех, кто локально генерит видосы.
Собрано всё самое годное:
Промпт гайды
Веса
Чекпойнты
Дистиляты
Кванты
Апскейлеры
Ггуфы
Текстовые енкодеры
VAEs
Embedding Connectors
Лоры(много)
Разные воркфлоу
В общем ЛТХ Клондайк
https://github.com/wildminder/awesome-ltx2
@cgevent
Для тех, кто локально генерит видосы.
Собрано всё самое годное:
Промпт гайды
Веса
Чекпойнты
Дистиляты
Кванты
Апскейлеры
Ггуфы
Текстовые енкодеры
VAEs
Embedding Connectors
Лоры(много)
Разные воркфлоу
В общем ЛТХ Клондайк
https://github.com/wildminder/awesome-ltx2
@cgevent
GitHub
GitHub - wildminder/awesome-ltx2: All available LTX-2 models, encoders, workflows, LoRAs for ComfyUI
All available LTX-2 models, encoders, workflows, LoRAs for ComfyUI - wildminder/awesome-ltx2
❤18👍1
Forwarded from Alina Rin 🐟
Media is too big
VIEW IN TELEGRAM
Warner Music China представила свою первую ИИ-певицу по имени AI-Hua. С её участием уже выпустили дебютный клип в ретро-стилистике гонконгских кунг-фу боевиков.
Блин, а мне нравится, кстати.
Блин, а мне нравится, кстати.
🔥20🗿20❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Пока что лучший гаррипоттерный слоп во Вьетнаме
🗿24🤣12🤡5👍4❤2👀1
Segment anything ... Fast
GPU-poor актуалочка
Взяли segment-anything, навалили всего, до чего дотянулисьgit clone руки:
- bfloat16
- torch.compile with max-autotune
- torch.scaled_dot_product_attention
- A custom Triton kernel that implements SDPA for relative positional encodings for long sequence lengths
- NestedTensors
- Dynamic int8 symmetric quantization
- 2:4 sparse format
Ускорили х2.5 по сравнению с BF16,
точность падает только на sparse, 0.53 -> 0.48
С fp32 сравнивать не буду, они б еще fp64 за бейзлайн взяли
git
blog
GPU-poor актуалочка
Взяли segment-anything, навалили всего, до чего дотянулись
- bfloat16
- torch.compile with max-autotune
- torch.scaled_dot_product_attention
- A custom Triton kernel that implements SDPA for relative positional encodings for long sequence lengths
- NestedTensors
- Dynamic int8 symmetric quantization
- 2:4 sparse format
Ускорили х2.5 по сравнению с BF16,
точность падает только на sparse, 0.53 -> 0.48
С fp32 сравнивать не буду, они б еще fp64 за бейзлайн взяли
git
blog
👍11🤣2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну а как только ИИ научится есть спагетти, дни Уилла Смита будут сочтены.
1😁50🔥6❤5😢5
Вышел pytorch 2.10
Хайлайты релиза:
- Поддержка Python 3.14 для torch.compile().
Python 3.14t (freethreaded build) также поддерживается в экспериментальном режиме.
- Снижение оверхеда на запуск кернелов благодаря combo-kernels и horizontal fusion в torchinductor.
- Новый оператор varlen_attn(), обеспечивающий поддержку ragged и packed сиквенсов.
- Эффективные разложения на собственные значения с использованием DnXgeev.
- Оптимизации производительности и расширения функциональности для Intel GPU.
- torch.compile() теперь поддерживает use_deterministic_mode.
- DebugMode для отслеживания dispatch-реквестов и отладки расхождения малых чисел.
Такие вот дитейлз.
Blog
Хайлайты релиза:
- Поддержка Python 3.14 для torch.compile().
Python 3.14t (freethreaded build) также поддерживается в экспериментальном режиме.
- Снижение оверхеда на запуск кернелов благодаря combo-kernels и horizontal fusion в torchinductor.
- Новый оператор varlen_attn(), обеспечивающий поддержку ragged и packed сиквенсов.
- Эффективные разложения на собственные значения с использованием DnXgeev.
- Оптимизации производительности и расширения функциональности для Intel GPU.
- torch.compile() теперь поддерживает use_deterministic_mode.
- DebugMode для отслеживания dispatch-реквестов и отладки расхождения малых чисел.
Такие вот дитейлз.
Blog
1👍10🔥2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
ActionMesh: Animated 3D Mesh Generation with Temporal 3D Diffusion
Экстремисты здорового человека
FB продолжают радовать народ опенсорсными моделями
ActionMesh генерит анимированный 3д-меш (без рига) из видео меньше чем за минуту (правда, на H100 - все по нынешним gpu-poor критериям)
git
x
paper
demo
project
Экстремисты здорового человека
FB продолжают радовать народ опенсорсными моделями
ActionMesh генерит анимированный 3д-меш (без рига) из видео меньше чем за минуту (правда, на H100 - все по нынешним gpu-poor критериям)
git
x
paper
demo
project
🔥13🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Месяц спустя бахнули kling 2.6 motion control в Mago.
I am speed 😵💫
Норм липсинк, в целом хороший апгрейд по сравнению с wan animate v1
Исходный видос слева в углу тоже сгенеренный. Хороший лайфхак если нужно показать до и после, и не нарваться на страйк: берём инфлюенсера, генерим рандомного человека на первый кадр, анимируем. Затем загоняем по второму кругу и уже стилизуем по вкусу.
Тыкать тут
Норм липсинк, в целом хороший апгрейд по сравнению с wan animate v1
Исходный видос слева в углу тоже сгенеренный. Хороший лайфхак если нужно показать до и после, и не нарваться на страйк: берём инфлюенсера, генерим рандомного человека на первый кадр, анимируем. Затем загоняем по второму кругу и уже стилизуем по вкусу.
Тыкать тут
🔥15🗿1