Qwen3-Omni
первая полностью нативно омнимодальная (все типы информации) ИИ-модель, которая объединяет текст, изображения, аудио и видео в одной модели без компромиссов между модальностями
#SOTA в 22 из 36 аудио- и AV-бенчмарков
119 языков для текста, 19 — для входящего аудио, 10 — для исходящего аудио? в том числе русский
задержка 211 мс
способна понимать аудио длительностью до 30 минут
настраивается с помощью системных промтов
Встроена функция вызова инструментов
содержит открытую модель Captioner с низким уровнем галлюцинаций
Демо
Чат
HF
Гитхаб
#assistant #tts #stt #multimodal #omnimodal #russian
первая полностью нативно омнимодальная (все типы информации) ИИ-модель, которая объединяет текст, изображения, аудио и видео в одной модели без компромиссов между модальностями
#SOTA в 22 из 36 аудио- и AV-бенчмарков
119 языков для текста, 19 — для входящего аудио, 10 — для исходящего аудио? в том числе русский
задержка 211 мс
способна понимать аудио длительностью до 30 минут
настраивается с помощью системных промтов
Встроена функция вызова инструментов
содержит открытую модель Captioner с низким уровнем галлюцинаций
Демо
Чат
HF
Гитхаб
#assistant #tts #stt #multimodal #omnimodal #russian
🔥15👍3🤔1😈1
Lynx: Towards High-Fidelity Personalized Video Generation
ByteDance никак не угомонятся.
Видеогенератор с фокусом на персонализации на базе Wan 2.1, может быть интегрирован в существующие экосистемы
Сохраняет идентичность человека, используя два лёгких адаптера: ID-адаптер преобразует лицевые эмбеддинги в токены идентичности, а Ref-адаптер внедряет детализированные особенности через кросс-внимание
Код ждем
#personalization #referenceing #text2video #imge2video
ByteDance никак не угомонятся.
Видеогенератор с фокусом на персонализации на базе Wan 2.1, может быть интегрирован в существующие экосистемы
Сохраняет идентичность человека, используя два лёгких адаптера: ID-адаптер преобразует лицевые эмбеддинги в токены идентичности, а Ref-адаптер внедряет детализированные особенности через кросс-внимание
Код ждем
#personalization #referenceing #text2video #imge2video
👍9🔥2
Держите воркфлоу нового #QIE
И еще один, должен работать на 8 ГБ VRAM
Воркфлоу колоризации на FP8 в нашем чате
#workflow
И еще один, должен работать на 8 ГБ VRAM
Воркфлоу колоризации на FP8 в нашем чате
#workflow
❤11👍6🔥2🤔1
❤14😁8👍4😱3🤯2
Нейронавт | Нейросети в творчестве
Воу-воу полегче! Мы еще с 2.2 не наигрались Alibaba тизерит WAN 2.5-Preview. Завтра стрим в 5:00 утра по Москве #news
Так, поправочка
WAN 2.5 уже доступен на WaveSpeed AI
5 или 10 секунд
до 1080p
Встроена говорилка, как в VEO 3
На старте дают аж 1$, этого хватит на 5-секундное видео в 1080p
Или кстати на ~30 картинок SeeDream 4.0
#text2video #image2video
WAN 2.5 уже доступен на WaveSpeed AI
5 или 10 секунд
до 1080p
Встроена говорилка, как в VEO 3
На старте дают аж 1$, этого хватит на 5-секундное видео в 1080p
Или кстати на ~30 картинок SeeDream 4.0
#text2video #image2video
😁17👍4
This media is not supported in your browser
VIEW IN TELEGRAM
VEED Fabric 1.0
Оживлятор персонажей с фокусом на длинные говорящие видео - 1 минута, 720p
Надо же иметь смелость делать такие заявления через несколько месяцев после релиза VEO 3
Можно попробовать бесплатно, пара видосов в день
#characteranimation #image2video #personalization
Оживлятор персонажей с фокусом на длинные говорящие видео - 1 минута, 720p
Первая в мире говорящая ИИ-видеомодель
Надо же иметь смелость делать такие заявления через несколько месяцев после релиза VEO 3
Можно попробовать бесплатно, пара видосов в день
#characteranimation #image2video #personalization
❤8👍5🔥1
👍11🤔1
nunchaku-qwen-image-edit-2509
Поддержка нового #QIE в nunchaku
Поддержка LoRA / FP16, а так же WAN2.2 - ждем
HF
воркфлоу (ComfyUI ≥ 0.3.60)
Спасибо @MaxKhtv
#optimization #imageediting #workflow
Поддержка нового #QIE в nunchaku
Поддержка LoRA / FP16, а так же WAN2.2 - ждем
HF
воркфлоу (ComfyUI ≥ 0.3.60)
Спасибо @MaxKhtv
#optimization #imageediting #workflow
👍12🔥3❤2
Media is too big
VIEW IN TELEGRAM
Qwen3-VL: Sharper Vision, Deeper Thought, Broader Action
Визуально-языковая модель, которая не просто «видит» изображения и видео, но и понимает мир, интерпретирует события и способна действовать.
Есть две версии: Instruct и Thinking. Instruct лучше Gemini 2.5 Pro в работе с визуальными задачами, а Thinking отлично справляется с мультимодальным рассуждением.
Возможности:
- управляет интерфейсами на ПК и телефонах
- превращает скриншоты в код (HTML/CSS/JS)
- интерпретирует пространственные отношения, планирует движения и подходит для применения в робототехнике и автономных системах
- определяет объекты в сложных сценах и поддерживает предсказание 3D-границ
- узнаёт знаменитостей, еду, растения, животных, бренды автомобилей и аниме-персонажей
- анализирует несколько изображений, сравнивает их и поддерживает контекст в многоходовых диалогах
- описывает видео кадр за кадром и отвечает на вопросы о содержании
- распознает текст на 32 языках, даже если он размыт или наклонён
- показывает отличные результаты в STEM и математике
Код
Демо
HF
Чат
API
#VLM #OCR #assistant #reasoning #video2text #image2text #chat
Визуально-языковая модель, которая не просто «видит» изображения и видео, но и понимает мир, интерпретирует события и способна действовать.
Есть две версии: Instruct и Thinking. Instruct лучше Gemini 2.5 Pro в работе с визуальными задачами, а Thinking отлично справляется с мультимодальным рассуждением.
Возможности:
- управляет интерфейсами на ПК и телефонах
- превращает скриншоты в код (HTML/CSS/JS)
- интерпретирует пространственные отношения, планирует движения и подходит для применения в робототехнике и автономных системах
- определяет объекты в сложных сценах и поддерживает предсказание 3D-границ
- узнаёт знаменитостей, еду, растения, животных, бренды автомобилей и аниме-персонажей
- анализирует несколько изображений, сравнивает их и поддерживает контекст в многоходовых диалогах
- описывает видео кадр за кадром и отвечает на вопросы о содержании
- распознает текст на 32 языках, даже если он размыт или наклонён
- показывает отличные результаты в STEM и математике
Код
Демо
HF
Чат
API
#VLM #OCR #assistant #reasoning #video2text #image2text #chat
🔥5
А также Qwen3-Max и Qwen3-Coder
Qwen3-Max — крупнейшая модель от Qwen:
— решает задачи программирования (69,6 баллов на SWE-Bench Verified);
— работает с агентами (74,8 балла на Tau2-Bench);
— достигает 100% на тестах AIME 25 и HMMT.
Qwen3-Coder обновили. Добавили мультимодальность + прокачали. На SWE-Bench теперь почти 70% —примерно уровень Opus 4 и GPT-5
Обе можно попробовать в чате
#reasoning #assistant #coding
Qwen3-Max — крупнейшая модель от Qwen:
— решает задачи программирования (69,6 баллов на SWE-Bench Verified);
— работает с агентами (74,8 балла на Tau2-Bench);
— достигает 100% на тестах AIME 25 и HMMT.
Qwen3-Coder обновили. Добавили мультимодальность + прокачали. На SWE-Bench теперь почти 70% —примерно уровень Opus 4 и GPT-5
Обе можно попробовать в чате
#reasoning #assistant #coding
❤4🤔1