Нейронавт | Нейросети в творчестве
Krea Realtime Video Krea запускает генерацию видео в реальном времени (12+ fps). На вход принимает рисование, текстовые подсказки, веб-камеру или стрим экрана Под капотом подход основан на современных идеях “модели мира”: системах, которые изучают, как развиваются…
This media is not supported in your browser
VIEW IN TELEGRAM
Krea Realtime Video
Прислали на днях доступ со ссылкой на нерабочий сайт.
А теперь выпустили в доступ для платных подписанов генерацию видео в реальном времени
#realtime #video2video #sketch2video
Прислали на днях доступ со ссылкой на нерабочий сайт.
А теперь выпустили в доступ для платных подписанов генерацию видео в реальном времени
#realtime #video2video #sketch2video
👀9👍4🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Убегая от вооруженного базукой робота, лучи поноса направляйте по адресу китайских студентов из Чунциня
#robot
#robot
😁12😐8🍾5❤1👍1
Tongyi DeepResearch
Первый полностью открытый веб-агент, который демонстрирует результаты, сопоставимые с DeepResearch от OpenAI. Модель от Alibaba способна решать сложные задачи, связанные с поиском информации и рассуждениями
Работает в двух режимах: Native ReAct Mode для стандартного рассуждения и Heavy Mode для сложных многоэтапных исследовательских задач
Умеет решать комплексные задачи, например, планировать путешествия с учётом специфических требований или проводить юридические исследования, анализируя судебную практику и законы.
Гитхаб
HF
#deepresearch #agent #assistant
Первый полностью открытый веб-агент, который демонстрирует результаты, сопоставимые с DeepResearch от OpenAI. Модель от Alibaba способна решать сложные задачи, связанные с поиском информации и рассуждениями
Работает в двух режимах: Native ReAct Mode для стандартного рассуждения и Heavy Mode для сложных многоэтапных исследовательских задач
Умеет решать комплексные задачи, например, планировать путешествия с учётом специфических требований или проводить юридические исследования, анализируя судебную практику и законы.
Гитхаб
HF
#deepresearch #agent #assistant
👍8🔥1
Postshot v1
Вышел из беты инструмент полного цикла для работы с полями света (нерфы, гауссианы)
Бета лицензия превратится в бесплатный тариф 26 сентября. На бесплатном тарифе рендер с вотермаком, входные изображения ограничены 8 бит.
На двух платных тарифах предлагают экспорт в .PLY, поддержку исходников 4K и HDR (16bit or 32bit) и прочие плюшки.
Так что бежим пользоваться всеми плюшками бесплатно - осталась неделя.
#gui #tools #gaussian #nerf #windows #desktop
Вышел из беты инструмент полного цикла для работы с полями света (нерфы, гауссианы)
Бета лицензия превратится в бесплатный тариф 26 сентября. На бесплатном тарифе рендер с вотермаком, входные изображения ограничены 8 бит.
На двух платных тарифах предлагают экспорт в .PLY, поддержку исходников 4K и HDR (16bit or 32bit) и прочие плюшки.
Так что бежим пользоваться всеми плюшками бесплатно - осталась неделя.
#gui #tools #gaussian #nerf #windows #desktop
👍4❤2😭1
Media is too big
VIEW IN TELEGRAM
MapAnything: Universal Feed-Forward Metric 3D Reconstruction
Реконструкция 3D сцены с камерой по разным входным данным - изображениям, позиции камеры, глубине или даже по частичной реконструкции.
Напрямую вычисляет 3D геометрию сцены и параметры камер
Код
Демо
#3d #image2scene #any2scene #imageto3d #3dto3d #image2normal #image2depth
Реконструкция 3D сцены с камерой по разным входным данным - изображениям, позиции камеры, глубине или даже по частичной реконструкции.
Напрямую вычисляет 3D геометрию сцены и параметры камер
Код
Демо
#3d #image2scene #any2scene #imageto3d #3dto3d #image2normal #image2depth
👍5🔥1
Qwen3-ASR-Toolkit
Официальный Python-инструмент для транскрибации длинных аудио и видео по API Qwen3-ASR
— обходит ограничение API в 3 минуты, транскрибируя файлы любой длины
— разделяет аудио на фрагменты с помощью Voice Activity Detection (VAD), чтобы не разрезать фразы и предложения
— обрабатывает фрагменты параллельно, сокращая время транскрипции длинных файлов
— автоматически устраняет распространённые ошибки и артефакты распознавания речи
— конвертирует аудио в нужный формат (16 кГц, моно) без необходимости предварительной обработки
— поддерживает практически любые аудио- и видеоформаты благодаря использованию FFmpeg
#ASR #speech2text #stt #russian
Официальный Python-инструмент для транскрибации длинных аудио и видео по API Qwen3-ASR
— обходит ограничение API в 3 минуты, транскрибируя файлы любой длины
— разделяет аудио на фрагменты с помощью Voice Activity Detection (VAD), чтобы не разрезать фразы и предложения
— обрабатывает фрагменты параллельно, сокращая время транскрипции длинных файлов
— автоматически устраняет распространённые ошибки и артефакты распознавания речи
— конвертирует аудио в нужный формат (16 кГц, моно) без необходимости предварительной обработки
— поддерживает практически любые аудио- и видеоформаты благодаря использованию FFmpeg
#ASR #speech2text #stt #russian
GitHub
GitHub - QwenLM/Qwen3-ASR-Toolkit: Official Python toolkit for the Qwen3-ASR API. Parallel high‑throughput calls, robust long‑audio…
Official Python toolkit for the Qwen3-ASR API. Parallel high‑throughput calls, robust long‑audio trannoscription, multi‑sample‑rate support. - QwenLM/Qwen3-ASR-Toolkit
❤9👍1😁1
Wan 2.2 VACE in ComfyUI / September 16th, 2025
#ComfyUI провели стрим про Wan 2.2 VACE-Fun
Сграбил для вас воркфлоу с их дискорда
#workflow #controlnet #referencing #pose2video #tutorial
#ComfyUI провели стрим про Wan 2.2 VACE-Fun
Сграбил для вас воркфлоу с их дискорда
#workflow #controlnet #referencing #pose2video #tutorial
YouTube
Wan 2.2 VACE in ComfyUI / September 16th, 2025
Стрим на официальном канале ComfyUI про Wan 2.2 VACE.
Залил чтобы вы могли посмотреть с переводом
Залил чтобы вы могли посмотреть с переводом
🔥19❤1
Вышел код реконструктора 4D сцен Diffuman4D
Код
Спасибо @Dmitriy_Ru6ts0v
#4D #videoto4D #gaussian #novelview #rendering
Код
Спасибо @Dmitriy_Ru6ts0v
#4D #videoto4D #gaussian #novelview #rendering
Telegram
Нейронавт | Нейросети в творчестве
Diffuman4D: 4D Consistent Human View Synthesis from Sparse-View Videos with Spatio-Temporal Diffusion Models
Реконструкция 4D сцен, снятых с ограниченного количества ракурсов. Недостающие данные дорисует, выдаст видео с нужного ракурса
Код ждем
Интерактивный…
Реконструкция 4D сцен, снятых с ограниченного количества ракурсов. Недостающие данные дорисует, выдаст видео с нужного ракурса
Код ждем
Интерактивный…
🔥13
ComfyUI Deadline
#ComfyUI прикрутили к Deadline
Deadline это менеджер рендер-фермы, распределяющий задачи на подключенные к ферме машины.
Теперь можно делать распределенный инференс на ферме, работающей на Deadline
ComfyUI Deadline Plugin
ComfyUI-Deadline-Distributed
Youtube разработчика
#tools #farm
#ComfyUI прикрутили к Deadline
Deadline это менеджер рендер-фермы, распределяющий задачи на подключенные к ферме машины.
Теперь можно делать распределенный инференс на ферме, работающей на Deadline
ComfyUI Deadline Plugin
ComfyUI-Deadline-Distributed
Youtube разработчика
#tools #farm
❤6👍3
Нейронавт | Нейросети в творчестве
HuMo GGUF + workflow Кванты HuMo на Wan2.1: https://huggingface.co/Alissonerdx/Wan2.1-HuMo-GGUF/tree/main/GGUF https://huggingface.co/Kijai/WanVideo_comfy/tree/main/HuMo воркфлоу - официальный в ComfyUI-WanVideoWrapper, на сейфтензорах воркфлоу GGUF…
HuMo 1.7B
Опубликованы 1.7B веса HuMo
HF
GGUF 1.7B уже есть
Официальная поддержка 1.7B в #comfyUI
#referencing #text2video #image2video #audio2video #gguf
Опубликованы 1.7B веса HuMo
HF
GGUF 1.7B уже есть
Официальная поддержка 1.7B в #comfyUI
#referencing #text2video #image2video #audio2video #gguf
Telegram
Нейронавт | Нейросети в творчестве
HuMo: Human-Centric Video Generation via Collaborative Multi-Modal Conditioning
Видеогенератор при участии Bytedance
— генерирует видео на основе текста, изображений и аудио
— удерживает идентичность и характеристики изображаемого субъекта
— синхронизирует…
Видеогенератор при участии Bytedance
— генерирует видео на основе текста, изображений и аудио
— удерживает идентичность и характеристики изображаемого субъекта
— синхронизирует…
👍7❤2🔥1
Ray 3
Lumalabs обновили свой видеогенератор. Новая версия - рассуждающая
Она способна генерировать видео студийного качества в 16-bit HDR (примеры на сайте), поддерживает новый режим Draft Mode для быстрой итерации идей в творческих рабочих процессах. Понимает визуальные аннотации. Есть экспорт в .EXR
Предлагают попробовать бесплатно - но это будет Draft Mode. Полный платно
Полюбуйтесь на моего Рыба. Сделано за минуту. Я впечатлен если не смотреть на фон
#text2video #image2video #reasoning #hdr #exr
Lumalabs обновили свой видеогенератор. Новая версия - рассуждающая
Она способна генерировать видео студийного качества в 16-bit HDR (примеры на сайте), поддерживает новый режим Draft Mode для быстрой итерации идей в творческих рабочих процессах. Понимает визуальные аннотации. Есть экспорт в .EXR
Предлагают попробовать бесплатно - но это будет Draft Mode. Полный платно
Полюбуйтесь на моего Рыба. Сделано за минуту. Я впечатлен если не смотреть на фон
#text2video #image2video #reasoning #hdr #exr
❤10👎3🔥3
Wan-Animate: Unified Character Animation and Replacement with Holistic Replication
Анимация и замена персонажей на видео затюненным #wan22 !
Под капотом совет экспертов
Создает видео 720p, 24fps с фокусом на кинематографичное качество
Воспроизводит оригинальное освещение и цветовую гамму для интеграции анимированного персонажа в сцену. Включает вспомогательный модуль Relighting LoRA для улучшения интеграции персонажа с новой средой.
Использует скелетные сигналы для управления движениями тела и скрытые черты лица, извлечённые из исходных изображений, для воспроизведения выражений. Короче, контролнет. Интересно чем отличается от Fun / VACE
Кванты сегодня будут, полагаю?
Гитхаб
HF
Демо
#moe #image2video #video2video #characteranimation #chracterswap #faceswap
Анимация и замена персонажей на видео затюненным #wan22 !
Под капотом совет экспертов
Создает видео 720p, 24fps с фокусом на кинематографичное качество
Воспроизводит оригинальное освещение и цветовую гамму для интеграции анимированного персонажа в сцену. Включает вспомогательный модуль Relighting LoRA для улучшения интеграции персонажа с новой средой.
Использует скелетные сигналы для управления движениями тела и скрытые черты лица, извлечённые из исходных изображений, для воспроизведения выражений. Короче, контролнет. Интересно чем отличается от Fun / VACE
Кванты сегодня будут, полагаю?
Гитхаб
HF
Демо
#moe #image2video #video2video #characteranimation #chracterswap #faceswap
1🔥9❤8🤯2👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Lucy Edit
Редактор видео по тексту от Decart.ai
В основе - архитектура Wan2.2 5B. Унаследовал VAE + DiT, что должно упростить адаптацию существующих скриптов и воркфлоу WAN.
Модель доступна в двух версиях: Dev — открытая версия для сообщества, и Pro — более детализированная и надёжная версия для создателей контента. Обе версии доступны через API и платформу, поддерживают редактирование видео в разрешении 480p и 720p
Недавно Decart показали быстрый видеогенератор Lucy, который доступен только на платных сервисах. Интересно, коммерческая модель у них тоже на базе открытого WAN?
Теперь же открытая редактирующая модель. Выглядит слабее WAN, шакально. Но может окажется быстрее или умнее?
Попробовать - на страте дают 2000 кредитов
HF - всего около 32Гб
ComfyUI - зато уже можно пользоваться
#videoediting #video2video #videoinpainting
Редактор видео по тексту от Decart.ai
Опенсорсный Nano-Banana для видео
В основе - архитектура Wan2.2 5B. Унаследовал VAE + DiT, что должно упростить адаптацию существующих скриптов и воркфлоу WAN.
Модель доступна в двух версиях: Dev — открытая версия для сообщества, и Pro — более детализированная и надёжная версия для создателей контента. Обе версии доступны через API и платформу, поддерживают редактирование видео в разрешении 480p и 720p
Недавно Decart показали быстрый видеогенератор Lucy, который доступен только на платных сервисах. Интересно, коммерческая модель у них тоже на базе открытого WAN?
Теперь же открытая редактирующая модель. Выглядит слабее WAN, шакально. Но может окажется быстрее или умнее?
Попробовать - на страте дают 2000 кредитов
HF - всего около 32Гб
ComfyUI - зато уже можно пользоваться
#videoediting #video2video #videoinpainting
❤7😁2👍1🔥1🥴1
Media is too big
VIEW IN TELEGRAM
Tencent's Hunyuan 3D Studio
ИИ-платформа для создания 3D-контента. Собрали наработки по 3D в кучу
Может:
- создавать 3D-модели из текста и картинок
- разбивать модели на редактируемые части
- автоматически создавать UV-развертку
- настраивать PBR текстуры
- добавлять скелетную анимацию персонажам.
Записаться в вейтлист
#3d #3dediting #texture #pbr #uvmpping #characteranimation #animation
ИИ-платформа для создания 3D-контента. Собрали наработки по 3D в кучу
Может:
- создавать 3D-модели из текста и картинок
- разбивать модели на редактируемые части
- автоматически создавать UV-развертку
- настраивать PBR текстуры
- добавлять скелетную анимацию персонажам.
Записаться в вейтлист
#3d #3dediting #texture #pbr #uvmpping #characteranimation #animation
👍8❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Stable Part Diffusion 4D: Multi-View RGB and Kinematic Parts Video Generation (SP4D)
Сегментатор кинематических частей на картинках и видео. Stability AI выступают одним из двух соавторов
В отличие от методов, которые генерируют только внешний вид, SP4D фиксирует как визуальную структуру, так и сочлененную геометрию, создавая 3D-объекты, готовые к ригу с учетом частей и анимации
Код ждем
#segmentation #segmentation3D #3d #imageto3d #videoto3d
Сегментатор кинематических частей на картинках и видео. Stability AI выступают одним из двух соавторов
В отличие от методов, которые генерируют только внешний вид, SP4D фиксирует как визуальную структуру, так и сочлененную геометрию, создавая 3D-объекты, готовые к ригу с учетом частей и анимации
Код ждем
#segmentation #segmentation3D #3d #imageto3d #videoto3d
👍6