This media is not supported in your browser
VIEW IN TELEGRAM
Колаб со stable-video, который влезает в 16гб
За три минуты сгенерило мне вот такой шедевр например. Анимация просто невероятной сложности :D
image2video
За три минуты сгенерило мне вот такой шедевр например. Анимация просто невероятной сложности :D
image2video
😁34🎉6❤1🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
Атсрологи объявили неделю упоротых каверов
Очередной text2audio сервис с неожиданно кошерными результатами
Дают сгенерить 15 раз в день, дальше - плоти.
При этом блочит за копирайченные тексты песен, но кредиты может списать (но ессесно рус.яз. не блочит, но генерит)
потыкать
Очередной text2audio сервис с неожиданно кошерными результатами
Дают сгенерить 15 раз в день, дальше - плоти.
При этом блочит за копирайченные тексты песен, но кредиты может списать (но ессесно рус.яз. не блочит, но генерит)
потыкать
❤27👍2😁1
Forwarded from Dankest Memes // Данкест Мемс
This media is not supported in your browser
VIEW IN TELEGRAM
🔥31😁18
Forwarded from Нейросети и Блендер
This media is not supported in your browser
VIEW IN TELEGRAM
ComfyUI Stable Diffusion Video
ComfyUI теперь поддерживает Stable Diffusion Video и при этом инференс влезает в 8GB VRAM, что позволит генерить даже на T4.
Некоторые пояснения к параметрам:
— video_frames: количество генерируемых видеокадров. (В зависимости от моделей от 1 до 24)
— motion_bucket_id: чем выше число, тем больше движения будет в видео.
— fps: чем выше частота кадров, тем менее прерывистым будет видео.
— augmentation level: количество шума, добавляемого к начальному изображению. Чем оно выше, тем меньше видео будет похоже на исходное изображение. Увеличьте его для большего движения.
— VideoLinearCFGGuidance: этот узел немного улучшает выборку для этих видеомоделей, он линейно масштабирует cfg по разным кадрам.
Качество генераций очень нравится, еще бы поддержку ControlNet и Lora, и станет заменой AnimateDiff.
В комментах скидываю два .json для ComfyUI.
ComfyUI теперь поддерживает Stable Diffusion Video и при этом инференс влезает в 8GB VRAM, что позволит генерить даже на T4.
Некоторые пояснения к параметрам:
— video_frames: количество генерируемых видеокадров. (В зависимости от моделей от 1 до 24)
— motion_bucket_id: чем выше число, тем больше движения будет в видео.
— fps: чем выше частота кадров, тем менее прерывистым будет видео.
— augmentation level: количество шума, добавляемого к начальному изображению. Чем оно выше, тем меньше видео будет похоже на исходное изображение. Увеличьте его для большего движения.
— VideoLinearCFGGuidance: этот узел немного улучшает выборку для этих видеомоделей, он линейно масштабирует cfg по разным кадрам.
Качество генераций очень нравится, еще бы поддержку ControlNet и Lora, и станет заменой AnimateDiff.
Если возникнет ошибка при генерации связанная с xformers, то при запуске добавить параметр:
--use-pytorch-cross-attentionВ комментах скидываю два .json для ComfyUI.
🔥20👍1
Тем временем скоро появится офицальне орнитоптер из лего.
56x80cm, корал! Не хачапури, конечно, но тоже неплохо.
The bricks must flow!
shop
56x80cm, корал! Не хачапури, конечно, но тоже неплохо.
The bricks must flow!
shop
🔥14👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Видеоигры нам не врали!
Срубленное дерево действительно распадается на дрова.
Срубленное дерево действительно распадается на дрова.
😁85🎉8🔥4👍3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
CollageRL
- моделька для генерации коллажей по исходной картинке из газет (или любого другого сета картинок)
Finally, теперь можно писать анонимные письма авторам любимых каналов 😅
Код
Пейпер
@derplearning
- моделька для генерации коллажей по исходной картинке из газет (или любого другого сета картинок)
Finally, теперь можно писать анонимные письма авторам любимых каналов 😅
Код
Пейпер
@derplearning
❤28👍2
Forwarded from Агенты ИИ | AGI_and_RL
Тут показывают как учить квадрокоптер летать с RLем за 18 секунд (и 300к шагов) на маке.
Решили много нюансов, чтобы подход был универсальным и натренированная нейрока могла быть загружена в дрона Crazyflie;
Использовали асимметричный actor-critic (после тренировки нужен лишь actor);
Написали все на плюсах;
Learning to Fly in Seconds
https://arxiv.org/abs/2311.13081v1
https://www.youtube.com/watch?v=NRD43ZA1D-4
https://github.com/arplaboratory/learning-to-fly
Решили много нюансов, чтобы подход был универсальным и натренированная нейрока могла быть загружена в дрона Crazyflie;
Использовали асимметричный actor-critic (после тренировки нужен лишь actor);
Написали все на плюсах;
Learning to Fly in Seconds
https://arxiv.org/abs/2311.13081v1
https://www.youtube.com/watch?v=NRD43ZA1D-4
https://github.com/arplaboratory/learning-to-fly
👍11❤8😱4🔥1🎉1
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Немножко "оживлённых" с помощью stable video diffusion мемов.
В целом, SVD штука интересная, но очень часто хуёвничает и вместо того, чтобы генерировать нормальное видео с движением, делает просто панораму изображения.
В целом, SVD штука интересная, но очень часто хуёвничает и вместо того, чтобы генерировать нормальное видео с движением, делает просто панораму изображения.
❤17😁7😢4