Apple выложили на HuggingFace веса STARFlow
И это даже не видеогенератор, а прилагающийся к нему генератор картинок с базовым разрешением 256*256
Сам видеогенератор разрешением 480p ждем
HF
#text2image
И это даже не видеогенератор, а прилагающийся к нему генератор картинок с базовым разрешением 256*256
Сам видеогенератор разрешением 480p ждем
HF
#text2image
Telegram
Нейронавт | Нейросети в творчестве
STARFlow-V: End-to-End Video Generative Modeling with Normalizing Flows
Видеогенератор от Apple на архитектуре с нормализующими потоками
480p
Поддерживает несколько задач генерации «из коробки»: из текста в видео, из изображения в видео и из видео в видео…
Видеогенератор от Apple на архитектуре с нормализующими потоками
480p
Поддерживает несколько задач генерации «из коробки»: из текста в видео, из изображения в видео и из видео в видео…
🥴5👍2😁1
Nodes 2.0
новая система рендеринга нод в #ComfyUI, основанная на Vue, которая пришла на смену системе рендеринга Canvas на базе LiteGraph.js. Gозволяет ускорить разработку и улучшить взаимодействие с интерфейсом
Как попробовать Nodes 2.0:
Зайдите на cloud.comfy.org или обновитесь до ночной версии (версия для рабочего стола скоро появится)
При запуске ComfyUI нажмите «Try it out» на верхнем баннере
В чате уже обсуждают
новая система рендеринга нод в #ComfyUI, основанная на Vue, которая пришла на смену системе рендеринга Canvas на базе LiteGraph.js. Gозволяет ускорить разработку и улучшить взаимодействие с интерфейсом
Как попробовать Nodes 2.0:
Зайдите на cloud.comfy.org или обновитесь до ночной версии (версия для рабочего стола скоро появится)
При запуске ComfyUI нажмите «Try it out» на верхнем баннере
В чате уже обсуждают
👎6👍4😈2
грустный #Humor
SSD тоже подорожали вслед за памятью.
А я как раз хотел после памяти докупить SSD. А когда я успел купить память? В том-то и дело что не успел😭 😭 😂 😭 😭 😭
SSD тоже подорожали вслед за памятью.
А я как раз хотел после памяти докупить SSD. А когда я успел купить память? В том-то и дело что не успел
Please open Telegram to view this post
VIEW IN TELEGRAM
😭24😁5👍3
Все потешаются над "сосуном" Дурова
А "ИИчко" как будто никто и не заметил, а зря.
Ведь в русском языке кот наплакал существительных с двумя буквами "и" подряд чтобы придумывать прикольные названия связанные с ИИ. Вспомните сейчас хотя бы три русских слова содержащие "ИИ", а потом откройте спойлер:
гостеприимство
прииск
шиит
копиист
пиит
антиинтеллектуализм
антиискусство
мультиинструменталист
квазиимперия
полиимид
антииммуноглобулин
Иисус
Вот почти полный список. И большинство из них имеет две "и" подряд только благодаря приставке.
Не, ну антИИскусство конечно хорошо как название если вы неолуддит и ИИ-хейтер или, что менее вероятно, хейтер человеческого искусства. А так - не разгуляешься. Попробуйте-ка придумать название ИИ-стартапа, можете использовать любое слово из этого списка. Как вам ПрИИск?👀
Я знаю о чем вы думаете. Нет, даже не пытайтесь.
Не удваивайте "И" там где она изначально одна, это кринж. Не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то.
То ли дело англИЙский язык. Чувствуете, даже название языка уже намекает нам что он изначально был придуман для называния всяких ИИ-штук
BrAIn
TrAIn
ExplAIn
RetAIn
ContAIn
PortrAIt
ChAIn
DetAIl
ClAIm
AIM
AID
Выбирай - не хочу.
Спрашивается чем думали советские словотворцы в 60-х? Достаточно было популяризировать термин Искусственный Разум вместо Искусственный Интеллект. Крайне безответственное поведение. Единственное для чего годится русское "ИИ" - это для какого-нибудь Института Искусственного Интеллекта. Но и то пишется красиво, а звучит кринжово - ИИИ
Вот и приходится Дурову придумывать всяких сосунов и иички. Хотя по его фото и не скажешь что шутник. Хотел быть аполлоном а приходится шутом
#набрюзжал #оффтоп #humor
А "ИИчко" как будто никто и не заметил, а зря.
Ведь в русском языке кот наплакал существительных с двумя буквами "и" подряд чтобы придумывать прикольные названия связанные с ИИ. Вспомните сейчас хотя бы три русских слова содержащие "ИИ", а потом откройте спойлер:
прииск
шиит
копиист
пиит
антиинтеллектуализм
антиискусство
мультиинструменталист
квазиимперия
полиимид
антииммуноглобулин
Вот почти полный список. И большинство из них имеет две "и" подряд только благодаря приставке.
Не, ну антИИскусство конечно хорошо как название если вы неолуддит и ИИ-хейтер или, что менее вероятно, хейтер человеческого искусства. А так - не разгуляешься. Попробуйте-ка придумать название ИИ-стартапа, можете использовать любое слово из этого списка. Как вам ПрИИск?
Я знаю о чем вы думаете. Нет, даже не пытайтесь.
Не удваивайте "И" там где она изначально одна, это кринж. Не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то.
То ли дело англИЙский язык. Чувствуете, даже название языка уже намекает нам что он изначально был придуман для называния всяких ИИ-штук
BrAIn
TrAIn
ExplAIn
RetAIn
ContAIn
PortrAIt
ChAIn
DetAIl
ClAIm
AIM
AID
Выбирай - не хочу.
Спрашивается чем думали советские словотворцы в 60-х? Достаточно было популяризировать термин Искусственный Разум вместо Искусственный Интеллект. Крайне безответственное поведение. Единственное для чего годится русское "ИИ" - это для какого-нибудь Института Искусственного Интеллекта. Но и то пишется красиво, а звучит кринжово - ИИИ
Вот и приходится Дурову придумывать всяких сосунов и иички. Хотя по его фото и не скажешь что шутник. Хотел быть аполлоном а приходится шутом
#набрюзжал #оффтоп #humor
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🍌11😁9❤4🌚3👍1
Mistral 3
Новое поколение мультимодальных и мультиязычных ИИ-моделей. Проект предлагает ряд моделей разной мощности, включая три компактные модели (14B, 8B и 3B) и мощную модель Mistral Large 3 с 41B активными и 675B общими параметрами
— понимает текст и изображения
— поддерживает более 40 языков
— демонстрирует высокую производительность при работе с многоязычными диалогами, особенно вне английского и китайского языков
— занимает второе место в категории OSS-моделей без рассуждения на LMArena
По метрикам моделька на уровне DeepSeek 3.1 и Kimi K2. Если бы не DeepSeek-3.2, была бы #SOTA
Говорят, на НЕанглийском и НЕкитайском модель лучшая в своем классе.
Попробовать
HF Large 3
HF Ministral
#assistant #multimodal
Новое поколение мультимодальных и мультиязычных ИИ-моделей. Проект предлагает ряд моделей разной мощности, включая три компактные модели (14B, 8B и 3B) и мощную модель Mistral Large 3 с 41B активными и 675B общими параметрами
— понимает текст и изображения
— поддерживает более 40 языков
— демонстрирует высокую производительность при работе с многоязычными диалогами, особенно вне английского и китайского языков
— занимает второе место в категории OSS-моделей без рассуждения на LMArena
По метрикам моделька на уровне DeepSeek 3.1 и Kimi K2. Если бы не DeepSeek-3.2, была бы #SOTA
Говорят, на НЕанглийском и НЕкитайском модель лучшая в своем классе.
Попробовать
HF Large 3
HF Ministral
#assistant #multimodal
👍7🔥1
LongVT: Incentivizing "Thinking with Long Videos" via Native Tool Calling
Агент для работы с длинными видео, позволяет большим мультимодальным моделям (#LMM) эффективнее анализировать и делать выводы на основе часовых роликов.
Cнижает вероятность галлюцинаций за счёт привязки рассуждений к фактическому видеоконтенту, а не только к текстовым данным
Работает с редкими и мелкими деталями в длинных видео, которые сложно уловить существующим моделям, обученным на более грубых и коротких данных
Гитхаб
HF
Демо
Разъяснительный комикс (EN)
#vlm #video2text
Агент для работы с длинными видео, позволяет большим мультимодальным моделям (#LMM) эффективнее анализировать и делать выводы на основе часовых роликов.
Cнижает вероятность галлюцинаций за счёт привязки рассуждений к фактическому видеоконтенту, а не только к текстовым данным
Работает с редкими и мелкими деталями в длинных видео, которые сложно уловить существующим моделям, обученным на более грубых и коротких данных
Гитхаб
HF
Демо
Разъяснительный комикс (EN)
#vlm #video2text
🔥8👍4😱2
Infinity-RoPE: Action-Controllable Infinite Video Generation Emerges From Autoregressive Self-Rollout
Метод генерации бесконечных по длине видео с возможностью контроля действий и кинематографических переходов на базе Wan2.1-T2V-1.3B + Self-Forcing
Работает без дополнительного обучения, применяется поверх существующих моделей
— может генерировать видео неограниченной длины, выходя за пределы временного горизонта базовой модели
— осуществляет точный контроль действий, позволяя мгновенно менять подсказки и плавно переходить между действиями
Код ждем
#optimization #longvideo #adapter
Метод генерации бесконечных по длине видео с возможностью контроля действий и кинематографических переходов на базе Wan2.1-T2V-1.3B + Self-Forcing
Работает без дополнительного обучения, применяется поверх существующих моделей
— может генерировать видео неограниченной длины, выходя за пределы временного горизонта базовой модели
— осуществляет точный контроль действий, позволяя мгновенно менять подсказки и плавно переходить между действиями
Код ждем
#optimization #longvideo #adapter
👍15❤1😱1🌚1
Учим маму пользоваться ИИ: почему это важно
Скорее всего многие из вас никогда не планировали учить маму ИИ. Но было ощущение, что она живёт в параллельной вселенной, где любая ошибка на телефоне = «всё сломалось».
Момент истины наступает при получении видео, где «президент» обещает государственные выплаты, если пополнишь «пенсионный счет». И подпись: «Это правда?».
И вот мы смотрим на это и думаем: всё, хватит. Если человек не знает, что существуют дипфейки, надо что-то делать. Не только ради безопасности, но и вообще — мозг должен работать, а не бояться каждой кнопки.
Процесс знакомства с ИИ
Первое знакомство с ИИ вызывает вопросы: «Он меня слышит? А если чихну, он это тоже запомнит??»
Предложение помощи с напоминанием о таблетках приводит к уточнению: «Подожди… но откуда он знает, что их пью?? Ты ему что-то рассказал?!»
Далее мама решила обратиться к ИИ сама: «Здравствуйте, девушка. Можно меня разбудить завтра в семь утра?»
ИИ: «Хорошо, напомню».
Мама: «Ох ты ж… Она ещё и культурная».
И самый топ, когда ей позвонили «из банка». Мы вместе решили спросить у ИИ, что он думает. ИИ выдал маме, что высока вероятность мошенничества. И мама в трубку говорит: «Извините, искусственный интеллект сообщает, что вы мошенники».
И что в итоге?
Стало намного спокойнее. Она уже не боится телефона, не паникует из-за каждого звонка, знает, что можно спросить эту умную штуку, если непонятно.
И главное — ей реально стало легче.
Но понятно и другое
У нас с вами нет столько времени и нервов, чтобы сидеть с родителями и все объяснять. Кто-то живёт далеко и вообще не понимает, как что-то показать по телефону. И это не мы плохие дети. Это просто жизнь летит слишком быстро.
Поэтому есть курс, куда можно отправить родителей — там их реально научат пользоваться ИИ и базовыми цифровыми штуками спокойно, без сложных слов и без стресса.
Чему их обучат:
• Что такое нейросети и как они могут помочь
• Как разговаривать с ИИ как с помощником и давать ему задачи
• Где использовать ИИ в повседневной жизни и в работе
• Как отличить реальность от фейка
Если хочется, чтобы родители чувствовали себя уверенно в современном мире — оставьте заявку, вам расскажут подробности и стоимость.
#промо
Скорее всего многие из вас никогда не планировали учить маму ИИ. Но было ощущение, что она живёт в параллельной вселенной, где любая ошибка на телефоне = «всё сломалось».
Момент истины наступает при получении видео, где «президент» обещает государственные выплаты, если пополнишь «пенсионный счет». И подпись: «Это правда?».
И вот мы смотрим на это и думаем: всё, хватит. Если человек не знает, что существуют дипфейки, надо что-то делать. Не только ради безопасности, но и вообще — мозг должен работать, а не бояться каждой кнопки.
Процесс знакомства с ИИ
Первое знакомство с ИИ вызывает вопросы: «Он меня слышит? А если чихну, он это тоже запомнит??»
Предложение помощи с напоминанием о таблетках приводит к уточнению: «Подожди… но откуда он знает, что их пью?? Ты ему что-то рассказал?!»
Далее мама решила обратиться к ИИ сама: «Здравствуйте, девушка. Можно меня разбудить завтра в семь утра?»
ИИ: «Хорошо, напомню».
Мама: «Ох ты ж… Она ещё и культурная».
И самый топ, когда ей позвонили «из банка». Мы вместе решили спросить у ИИ, что он думает. ИИ выдал маме, что высока вероятность мошенничества. И мама в трубку говорит: «Извините, искусственный интеллект сообщает, что вы мошенники».
И что в итоге?
Стало намного спокойнее. Она уже не боится телефона, не паникует из-за каждого звонка, знает, что можно спросить эту умную штуку, если непонятно.
И главное — ей реально стало легче.
Но понятно и другое
У нас с вами нет столько времени и нервов, чтобы сидеть с родителями и все объяснять. Кто-то живёт далеко и вообще не понимает, как что-то показать по телефону. И это не мы плохие дети. Это просто жизнь летит слишком быстро.
Поэтому есть курс, куда можно отправить родителей — там их реально научат пользоваться ИИ и базовыми цифровыми штуками спокойно, без сложных слов и без стресса.
Чему их обучат:
• Что такое нейросети и как они могут помочь
• Как разговаривать с ИИ как с помощником и давать ему задачи
• Где использовать ИИ в повседневной жизни и в работе
• Как отличить реальность от фейка
Если хочется, чтобы родители чувствовали себя уверенно в современном мире — оставьте заявку, вам расскажут подробности и стоимость.
#промо
aiforparents.ru
Обучение ИИ для родителей
Обучение искусственному интеллекту для родителей простыми словами
🍌6👀5😱3👍1🔥1
Lotus-2: Advancing Geometric Dense Prediction with Powerful Image Generative Model
Генерилка глубины и нормалей по изображению от HKUST
В гитхабе сказано готовьте 40ГБ VRAM
Гитхаб
Демо глубина
Демо нормали
#image2depth #image2normal
Генерилка глубины и нормалей по изображению от HKUST
В гитхабе сказано готовьте 40ГБ VRAM
Гитхаб
Демо глубина
Демо нормали
#image2depth #image2normal
👍12😱4🔥1
Нейронавт | Нейросети в творчестве
Seedream 4.1 У некоторых юзеров уже появился на Dreamina Capcut в списке доступных моделей под названием Image 4.1 #text2image
This media is not supported in your browser
VIEW IN TELEGRAM
Seedream v4.5
Так я не понял
Чего это, позавчера 4.1 а теперь уже 4.5 что ли?
Более чистый рендер текста, четкие детали, более "умные" правки, 4К
Ну и конечно мультиреференс,куда без него
На ImagineARt дают 250 кредитов за ретвит
Еще где уже есть
https://fal.ai/models/fal-ai/bytedance/seedream/v4.5/edit
https://www.somake.ai/ru/tools/seedream
https://wavespeed.ai/models/bytedance/seedream-v4.5
#imageediting #text2image #referencing #4k
Так я не понял
Чего это, позавчера 4.1 а теперь уже 4.5 что ли?
Более чистый рендер текста, четкие детали, более "умные" правки, 4К
Ну и конечно мультиреференс,куда без него
На ImagineARt дают 250 кредитов за ретвит
Еще где уже есть
https://fal.ai/models/fal-ai/bytedance/seedream/v4.5/edit
https://www.somake.ai/ru/tools/seedream
https://wavespeed.ai/models/bytedance/seedream-v4.5
#imageediting #text2image #referencing #4k
👍13
This media is not supported in your browser
VIEW IN TELEGRAM
Новый ролик на прожарку от Атона Зимина. Далее текст автора
Летом я сделал свой первый ролик в AI для несуществующего препарата — просто чтобы показать, на что сегодня способны нейросети. Разослал его по агентствам. Инстинкт отреагировали очень быстро, и почти сразу появился бриф для Полисорба.
У агентства было много крутых идей, но моя задача была выступить фильтром: выбрать то, что реально будет работать в продакшене, а не развалится на генерации.
Дальше всё шло как в обычном рекламном производстве: тритмент, ключевые кадры, описание анимации, утверждения. Но чтобы команда чувствовала себя уверенно, ещё на этапе тритмента я показывал видео-тесты — AI позволял сразу увидеть, как идея ведёт себя в движении.
В процессе я использовал свой кастомный воркфлоу, и это стало геймчейнджером. Обычно правки в AI — это рулетка. У меня получилось настроить процесс так, что комментарии вроде «давайте перенесем день на вечер» или заменим денрожденный язычок на шарик не ломали саму анимацию и движения героев.
И самое ценное в этом процессе было то, что AI дал возможность сфокусироваться на креативе, а не на бюджете. Когда инструмент снимает с тебя технические ограничения, идеи начинают жить свободнее — и это, кажется, самое интересное, что сейчас происходит в рекламе.
Видео модель: wan2.1 vace
Ключевые кадры: FLUX Kontext, Nano Banana.
Агентство – Инстинкт
Креативные директора: Даниил Островский, Евгения Бабиор
Старший арт-директор: Михаил Россинский
Креативный групп хэд: Максим Бонюшкин
Директор по работе с клиентами: Наталия Ясонова
Менеджер по работе с клиентами: Светлана Коротова
Режиссер: Антон Зимин
Ai-Artist: Антон Зимин
Нейропродакшен: AiZ ( ТГ: https://news.1rj.ru/str/aizproduction )
Продакшен: Luxemburg&Hott
Летом я сделал свой первый ролик в AI для несуществующего препарата — просто чтобы показать, на что сегодня способны нейросети. Разослал его по агентствам. Инстинкт отреагировали очень быстро, и почти сразу появился бриф для Полисорба.
У агентства было много крутых идей, но моя задача была выступить фильтром: выбрать то, что реально будет работать в продакшене, а не развалится на генерации.
Дальше всё шло как в обычном рекламном производстве: тритмент, ключевые кадры, описание анимации, утверждения. Но чтобы команда чувствовала себя уверенно, ещё на этапе тритмента я показывал видео-тесты — AI позволял сразу увидеть, как идея ведёт себя в движении.
В процессе я использовал свой кастомный воркфлоу, и это стало геймчейнджером. Обычно правки в AI — это рулетка. У меня получилось настроить процесс так, что комментарии вроде «давайте перенесем день на вечер» или заменим денрожденный язычок на шарик не ломали саму анимацию и движения героев.
И самое ценное в этом процессе было то, что AI дал возможность сфокусироваться на креативе, а не на бюджете. Когда инструмент снимает с тебя технические ограничения, идеи начинают жить свободнее — и это, кажется, самое интересное, что сейчас происходит в рекламе.
Видео модель: wan2.1 vace
Ключевые кадры: FLUX Kontext, Nano Banana.
Агентство – Инстинкт
Креативные директора: Даниил Островский, Евгения Бабиор
Старший арт-директор: Михаил Россинский
Креативный групп хэд: Максим Бонюшкин
Директор по работе с клиентами: Наталия Ясонова
Менеджер по работе с клиентами: Светлана Коротова
Режиссер: Антон Зимин
Ai-Artist: Антон Зимин
Нейропродакшен: AiZ ( ТГ: https://news.1rj.ru/str/aizproduction )
Продакшен: Luxemburg&Hott
1👍19🔥7🤔2❤1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Google Workspace Studio
Платформа для создания, управления и обмена AI-агентами в Google Workspace, без необходимости навыков программиста
— интегрирована с приложениями Google Workspace (Gmail, Drive, Chat)
— даёт возможность делиться агентами с командой так же легко, как файлами в Google Drive
— позволяет подключать агентов к корпоративным приложениям и платформам (Asana, Jira, Mailchimp, Salesforce)
— предоставляет расширенные возможности для технически подкованных пользователей через Apps Script и интеграцию с Vertex AI
— быстрое создание агентов из шаблонов или с помощью описания задачи на естественном языке
Пока только для платных юзеров
#agent #assistant
Платформа для создания, управления и обмена AI-агентами в Google Workspace, без необходимости навыков программиста
— интегрирована с приложениями Google Workspace (Gmail, Drive, Chat)
— даёт возможность делиться агентами с командой так же легко, как файлами в Google Drive
— позволяет подключать агентов к корпоративным приложениям и платформам (Asana, Jira, Mailchimp, Salesforce)
— предоставляет расширенные возможности для технически подкованных пользователей через Apps Script и интеграцию с Vertex AI
— быстрое создание агентов из шаблонов или с помощью описания задачи на естественном языке
Пока только для платных юзеров
#agent #assistant
👍3
TUNA: Taming Unified Visual Representations for Native Unified Multimodal Models
Семейство нативных унифицированных мультимодальных моделей. Использует унифицированные визуальные представления для работы с изображениями и видео.
— понимает изображения и видео
— генерирует изображения и видео
— редактирует изображения
Видео у них 384×672 @12 fps, так что Тунец интересен прежде всего визуальным пониманием и редактированием
Код ждем
#vlm #imageediting #text2image
Семейство нативных унифицированных мультимодальных моделей. Использует унифицированные визуальные представления для работы с изображениями и видео.
— понимает изображения и видео
— генерирует изображения и видео
— редактирует изображения
Видео у них 384×672 @12 fps, так что Тунец интересен прежде всего визуальным пониманием и редактированием
Код ждем
#vlm #imageediting #text2image
❤5🤔2👍1
Media is too big
VIEW IN TELEGRAM
YingVideo-MV: Music-Driven Multi-Stage Video Generation
Видеогенерилка музыкальных видео по аудио с контролем камеры и высокой согласованностью персонажа между кадрами на базе WAN 2.1.
Код ждем в середине декабря
#text2video #music2video #audio2video #film #image2video #cameracontrol
Видеогенерилка музыкальных видео по аудио с контролем камеры и высокой согласованностью персонажа между кадрами на базе WAN 2.1.
Код ждем в середине декабря
#text2video #music2video #audio2video #film #image2video #cameracontrol
👍14
Glance : Accelerating Diffusion Models with 1 Sample
Ускорение работы диффузионных генераторов картинок всего одним образцом
— ускоряет работу диффузионных моделей, применяя небольшие ускорения на ранних семантических этапах и значительные — на более поздних избыточных этапах
— использует два эксперта (адаптера): Slow-LoRA и Fast-LoRA, которые специализируются на медленном и быстром шумоподавлении соответственно
— достигает ускорения в 5 раз по сравнению с базовой моделью, сохраняя при этом качество генерации изображений
— обучается с использованием всего одного образца данных и требует всего один час времени на GPU V100
— обеспечивает хорошую генерализацию на новых промптах
На сайте предлагают отличить картинки Qwen-Image и Glance
Гитхаб
HF
#optimization #text2image
Ускорение работы диффузионных генераторов картинок всего одним образцом
— ускоряет работу диффузионных моделей, применяя небольшие ускорения на ранних семантических этапах и значительные — на более поздних избыточных этапах
— использует два эксперта (адаптера): Slow-LoRA и Fast-LoRA, которые специализируются на медленном и быстром шумоподавлении соответственно
— достигает ускорения в 5 раз по сравнению с базовой моделью, сохраняя при этом качество генерации изображений
— обучается с использованием всего одного образца данных и требует всего один час времени на GPU V100
— обеспечивает хорошую генерализацию на новых промптах
На сайте предлагают отличить картинки Qwen-Image и Glance
Гитхаб
HF
#optimization #text2image
👍5🔥5❤1