BLACKTRACED
Runway показали Aleph, типа Flux Kontext для видео Разрабы в Runway решили сделать это лето максимально насыщенным на жирные дропы. Сперва Act Two, теперь они представили свою новую контекстуальную модель Aleph. Выкатывать будут волнами совсем скоро, первыми…
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Runway демонстрируют возможности Aleph
За последние сутки разрабы из Runway поделились пачкой примеров работы Aleph. Принёс Вам посмотреть. По этим демкам видно, что нас ждёт мыльненький 720p и, конечно, различных нейро-артефактов на данном поколении моделей всё ещё достаточно.
Плюс, обратите внимание на пример, где девушка стоит у окна "зимой" — Aleph попросили изменить погоду и тут-то оно растерялось из-за отражений на стекле и интерьера самого кафе, про изменённый цвет волос и так понятно.
Но инструмент, несомненно, крутой и судя даже по этим примерам с косяками — видно, что оно работает. Ожиданий не завышаем, но всё-равно вау.
UPD: Aleph будет генерить всего 5-секундными кусочками.
UPD 2: Стало доступно для подписчиков плана Enterprise и креативных партнёров.
😳 BLACKTRACED
За последние сутки разрабы из Runway поделились пачкой примеров работы Aleph. Принёс Вам посмотреть. По этим демкам видно, что нас ждёт мыльненький 720p и, конечно, различных нейро-артефактов на данном поколении моделей всё ещё достаточно.
Плюс, обратите внимание на пример, где девушка стоит у окна "зимой" — Aleph попросили изменить погоду и тут-то оно растерялось из-за отражений на стекле и интерьера самого кафе, про изменённый цвет волос и так понятно.
Но инструмент, несомненно, крутой и судя даже по этим примерам с косяками — видно, что оно работает. Ожиданий не завышаем, но всё-равно вау.
UPD: Aleph будет генерить всего 5-секундными кусочками.
UPD 2: Стало доступно для подписчиков плана Enterprise и креативных партнёров.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥8❤4 2
BLACKTRACED
Luma AI дропнули Modify Video Luma наконец-то раскачались и выкатили свой рестайл video-2-video, который зашили в Ray2. Судя по сравнениям результатов, работает лучше, чем у Runway. Новый инструмент позволяет изменять уже отснятые и сгенерированные видео…
This media is not supported in your browser
VIEW IN TELEGRAM
Luma AI вдогонку за Runway анонсировали "Modify with Instructions"
Чтобы не сильно отстать от Runway с их Aleph, Luma анонсировали этакое "обновление" их недавней функции Modify. И назвали это Modify with Instructions.
По сути, такой же инструмент для контекстного редактирования видео, с почти таким же набором возможностей, что и Aleph от Runway: смена декораций, времени года, удаление и изменение объектов, и тд и тп. Поэтому, всё то, что я писал в этом посте (хотя нет, не всё), можно просто копипастнуть сюда.
Пользоваться просто: загружаете своё исходное видео и в поле промпта прописываете, какие изменения необходимо выполнить, без сложных длинных промптов. Все примеры можно посмотреть на странице анонса.
По классике, пока без конкретной даты релиза. Но разрабы сообщают, что выкатят очень скоро и сразу для всех пользователей одновременно. Сейчас исправляют некоторые баги.
😳 BLACKTRACED
Чтобы не сильно отстать от Runway с их Aleph, Luma анонсировали этакое "обновление" их недавней функции Modify. И назвали это Modify with Instructions.
По сути, такой же инструмент для контекстного редактирования видео, с почти таким же набором возможностей, что и Aleph от Runway: смена декораций, времени года, удаление и изменение объектов, и тд и тп. Поэтому, всё то, что я писал в этом посте (хотя нет, не всё), можно просто копипастнуть сюда.
Пользоваться просто: загружаете своё исходное видео и в поле промпта прописываете, какие изменения необходимо выполнить, без сложных длинных промптов. Все примеры можно посмотреть на странице анонса.
По классике, пока без конкретной даты релиза. Но разрабы сообщают, что выкатят очень скоро и сразу для всех пользователей одновременно. Сейчас исправляют некоторые баги.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥4❤3👏3
This media is not supported in your browser
VIEW IN TELEGRAM
Blood Debt: наглядный пример, как использовать технику джамп-ката
Пользователь X под ником EccentrismArt поделился своим офигенным кейсом, продемонстрировав небольшой кусочек своей короткометражки Blood Debt, а именно, как можно сделать целую сцену всего из одного изображения (ну, почти).
Автор использовал технику джамп-ката для генерации других углов камеры в той же сцене, используя преимущественно Veo3, но по его словам, могут вполне подойти и Seedance, и Aleph. В чём прикол: Вы загружаете изображение и для генерации другого ракурса в промпт пишете (наглядный пример в комментах):
Автор пишет, что для пары шотов всё же пришлось делать скрины из получившихся генераций на основе первого изображения и использовать их как первый кадр для генерации нужных кусочков.
В некоторых моментах хоть и выглядит рвано, но то, что для всего хрона было сгенерировано лишь одно изображение — это аплодисменты стоя. Ну а дальше уже по классике вытягивать монтажом и саунд дизайном, чтобы всё выглядело целостно.
😳 BLACKTRACED
Пользователь X под ником EccentrismArt поделился своим офигенным кейсом, продемонстрировав небольшой кусочек своей короткометражки Blood Debt, а именно, как можно сделать целую сцену всего из одного изображения (ну, почти).
Автор использовал технику джамп-ката для генерации других углов камеры в той же сцене, используя преимущественно Veo3, но по его словам, могут вполне подойти и Seedance, и Aleph. В чём прикол: Вы загружаете изображение и для генерации другого ракурса в промпт пишете (наглядный пример в комментах):
Instantly Jump cut on frame 1 to a [полный промпт нужного Вам шота]
Автор пишет, что для пары шотов всё же пришлось делать скрины из получившихся генераций на основе первого изображения и использовать их как первый кадр для генерации нужных кусочков.
В некоторых моментах хоть и выглядит рвано, но то, что для всего хрона было сгенерировано лишь одно изображение — это аплодисменты стоя. Ну а дальше уже по классике вытягивать монтажом и саунд дизайном, чтобы всё выглядело целостно.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥23❤7 4
BLACKTRACED
Seedance 1.0: Новая видеомодель в Dreamina Ого, а там оказывается ByteDance уже потихоньку выкатывают свою новую модель для Dreamina! И да, это намного лучше, чем тот видеогенератор, что у них был. 😨 Самое главное: оно умеет генерировать несколько консистентных…
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Seedance 1.0: Генерация нескольких углов камеры, наглядно
Этот пост как небольшое дополнение к предыдущему, раз уж упомянулась модель Seedance. На этой модели тоже можно генерировать разные углы камеры в контексте одной сцены, используя как изображение, так и текст, с помощью тэга [cut] в промпте.
Пачка примеров от 0xFramer на мемах, как пруф, что работает оно достаточно неплохо. Да, в деталях может незначительно наврать, плюс, стоит помнить о том, что тайминг одной генерации всего 5 секунд. Промпт от автора как пример (генерация со скрывающим боль Гарольдом):
На самом деле, это очень круто, что видеомодели стали развиваться в направлении генерации разных ракурсов, стараясь максимально сохранить все ключевые детали входного изображения. Это даёт возможность выстраивать более полноценный и убедительный нарратив. А ведь только в начале года приходилось генерировать консистентные шоты одной сцены с разных углов по принципу "лишь бы похоже".
😳 BLACKTRACED
Этот пост как небольшое дополнение к предыдущему, раз уж упомянулась модель Seedance. На этой модели тоже можно генерировать разные углы камеры в контексте одной сцены, используя как изображение, так и текст, с помощью тэга [cut] в промпте.
Пачка примеров от 0xFramer на мемах, как пруф, что работает оно достаточно неплохо. Да, в деталях может незначительно наврать, плюс, стоит помнить о том, что тайминг одной генерации всего 5 секунд. Промпт от автора как пример (генерация со скрывающим боль Гарольдом):
Man stares at something uncomfortably.
[cut] Over the shoulder shot – in front of the man – a small girl ballet dancing.
[cut] Close up shot of the man being super uncomfortable but giving a thumbs up
На самом деле, это очень круто, что видеомодели стали развиваться в направлении генерации разных ракурсов, стараясь максимально сохранить все ключевые детали входного изображения. Это даёт возможность выстраивать более полноценный и убедительный нарратив. А ведь только в начале года приходилось генерировать консистентные шоты одной сцены с разных углов по принципу "лишь бы похоже".
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤13🔥6😁5
BLACKTRACED
Команда Google DeepMind анонсировала Genie: первый прототип генеративных игр! Мы представляем Genie — модель, обученную на основе интернет-видео, которая может генерировать бесконечное разнообразие играбельных (управляемых действиями) миров из синтетических…
Media is too big
VIEW IN TELEGRAM
Google DeepMind показали Genie 3: новую модель для генерации миров
Genie 3 генерирует сцены с помощью текстовых промптов в 720p и 24fps, по которым можно перемещаться в реальном времени. Новая модель обладает визуальной памятью, то есть, если мы крутим камеру и перемещаемся по локации — мы увидим то же самое место без изменения деталей.
Продолжительность интерактива (длительность симуляции) составляет несколько минут, это очень огромный шаг по сравнению с предыдущими моделями: Genie мог продержаться всего пару-тройку секунд и у которого не было визуальной памяти, а Genie 2 держался 10–20 сек с примитивной визуальной памятью.
Из интерактива, помимо хождения туда-сюда, у Genie 3 есть "Promptable world events" — возможность промптом создать какое-то событие в сгенерированной сцене (примеры в самом видео). Но, о каком-то полноценном взаимодействии с окружением или предметами речи пока не идёт. DeepMind подчёркивает, что реальное взаимодействие с объектами пока ограничено и это осознанное ограничение модели, а не недоработка. Все примеры можно посмотреть на странице анонса.
Ну дак и для чего всё это? Сперва казалось, что это всё про развитие геймдева или интерактивного кино. Но Модели Мира (World Models) это более крупная рыба, не только про игры. Они идут путём симуляции реального окружающего мира с его законами физики и природы. Сами разработчики отмечают, что в перспективе с помощью этого можно создавать симуляции для изучения природы, или симулировать сценарии "а что если?" для тренировок в экстремальных ситуациях, таких как наводнение или пожар. Модели Мира также считаются ключевым компонентом на пути к AGI (Artificial General Intelligence), т.к. смогут обеспечить обучение на "бесконечном учебном курсе" без ограничений реальности.
Возможно это прозвучит кринжово, но на мой взгляд мы становимся свидетелями технологического пролога к "Матрице" Вачовски: когда человек буквально сможет погрузиться в симуляцию как в цифровую жизнь, имея возможность полноценно взаимодействовать с цифровым миром, а не "наблюдать со стороны" через экран или VR-шлем. Время покажет, во что разовьётся эта технология.
Помните тот старый ролик, которому уже больше 10 лет? Тогда он звучал как стёбная страшилка, но сейчас смотрится уже совсем по-другому.
UPD: Пока что Genie 3 доступна только для ресёрчеров, а не для широкого публичного использования.
😳 BLACKTRACED
Genie 3 генерирует сцены с помощью текстовых промптов в 720p и 24fps, по которым можно перемещаться в реальном времени. Новая модель обладает визуальной памятью, то есть, если мы крутим камеру и перемещаемся по локации — мы увидим то же самое место без изменения деталей.
Продолжительность интерактива (длительность симуляции) составляет несколько минут, это очень огромный шаг по сравнению с предыдущими моделями: Genie мог продержаться всего пару-тройку секунд и у которого не было визуальной памяти, а Genie 2 держался 10–20 сек с примитивной визуальной памятью.
Из интерактива, помимо хождения туда-сюда, у Genie 3 есть "Promptable world events" — возможность промптом создать какое-то событие в сгенерированной сцене (примеры в самом видео). Но, о каком-то полноценном взаимодействии с окружением или предметами речи пока не идёт. DeepMind подчёркивает, что реальное взаимодействие с объектами пока ограничено и это осознанное ограничение модели, а не недоработка. Все примеры можно посмотреть на странице анонса.
Ну дак и для чего всё это? Сперва казалось, что это всё про развитие геймдева или интерактивного кино. Но Модели Мира (World Models) это более крупная рыба, не только про игры. Они идут путём симуляции реального окружающего мира с его законами физики и природы. Сами разработчики отмечают, что в перспективе с помощью этого можно создавать симуляции для изучения природы, или симулировать сценарии "а что если?" для тренировок в экстремальных ситуациях, таких как наводнение или пожар. Модели Мира также считаются ключевым компонентом на пути к AGI (Artificial General Intelligence), т.к. смогут обеспечить обучение на "бесконечном учебном курсе" без ограничений реальности.
Возможно это прозвучит кринжово, но на мой взгляд мы становимся свидетелями технологического пролога к "Матрице" Вачовски: когда человек буквально сможет погрузиться в симуляцию как в цифровую жизнь, имея возможность полноценно взаимодействовать с цифровым миром, а не "наблюдать со стороны" через экран или VR-шлем. Время покажет, во что разовьётся эта технология.
Помните тот старый ролик, которому уже больше 10 лет? Тогда он звучал как стёбная страшилка, но сейчас смотрится уже совсем по-другому.
UPD: Пока что Genie 3 доступна только для ресёрчеров, а не для широкого публичного использования.
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤9 5🔥4
Суд Midjourney против Universal и Disney
Вкратце напоминаю: 11 июня 2025 года, Universal и Disney подали коллективный иск на Midjourney. Студии обвиняют MJ в массовом и систематическом нарушении авторских прав. В этом деле внимание уделено не процессу обучения модели, а самому результату, который выглядит как почти точная копия персонажей защищённых авторскими правами: Шрек, персонажи Star Wars, Миньоны и т.д.
Позавчера, 6 августа, Midjourney дали официальный ответ, в котором ссылаются на принцип "fair use", а точнее, называя обучение AI-моделей как трансформирующее добросовестное использование, приведя в пример дела писателей против Anthropic и Meta (экстремисты, запрещены в РФ), где федеральные суды поддержали такую трактовку.
Midjourney подчёркивают то, что авторское право не предполагает абсолютного контроля над материалом по законам США, утверждая, что генерации изображений даже с популярными персонажами могут иметь законные цели: неприбыльный фан-арт, поиск идей, социальную критику и пародию.
Защита Midjourney решила хлестануть Universal и Disney их же тряпкой по лицу, отметив, что MJ популярен среди VFX-студий, работающих напрямую с истцами и более того, указав, что десятки подписчиков Midjourney зарегистрированы с корпоративных e‑mail адресов истцов. Намекая на то, что сотрудники Disney и Universal активно используют сервис, на который подали в суд.
Также Midjourney припомнили слова CEO Disney Боба Айгера, который сам недавно назвал AI "незаменимым инструментом для художников", в качестве доказательства того, что студии сами извлекают выгоду из технологии, которую пытаются запретить.
Что касается удаления контента с сайта Midjourney или блокировки сервиса по DMCA — компания указала, что сторона обвинения предоставила лишь обобщённые формулировки, не указав конкретные изображения или URL.
К слову сказать, Universal Pictures начала добавлять предупреждение в титры своих последних фильмов "Не может быть использовано для обучения AI" — эту надпись можно увидеть в "Как приручить дракона" и в "Мир Юрского периода: Возрождение", студия верит, что это поможет защите своих авторских прав от генеративных моделей.
Ждём ответ от студий.
😳 BLACKTRACED
Вкратце напоминаю: 11 июня 2025 года, Universal и Disney подали коллективный иск на Midjourney. Студии обвиняют MJ в массовом и систематическом нарушении авторских прав. В этом деле внимание уделено не процессу обучения модели, а самому результату, который выглядит как почти точная копия персонажей защищённых авторскими правами: Шрек, персонажи Star Wars, Миньоны и т.д.
Позавчера, 6 августа, Midjourney дали официальный ответ, в котором ссылаются на принцип "fair use", а точнее, называя обучение AI-моделей как трансформирующее добросовестное использование, приведя в пример дела писателей против Anthropic и Meta (экстремисты, запрещены в РФ), где федеральные суды поддержали такую трактовку.
Midjourney подчёркивают то, что авторское право не предполагает абсолютного контроля над материалом по законам США, утверждая, что генерации изображений даже с популярными персонажами могут иметь законные цели: неприбыльный фан-арт, поиск идей, социальную критику и пародию.
Защита Midjourney решила хлестануть Universal и Disney их же тряпкой по лицу, отметив, что MJ популярен среди VFX-студий, работающих напрямую с истцами и более того, указав, что десятки подписчиков Midjourney зарегистрированы с корпоративных e‑mail адресов истцов. Намекая на то, что сотрудники Disney и Universal активно используют сервис, на который подали в суд.
Также Midjourney припомнили слова CEO Disney Боба Айгера, который сам недавно назвал AI "незаменимым инструментом для художников", в качестве доказательства того, что студии сами извлекают выгоду из технологии, которую пытаются запретить.
Что касается удаления контента с сайта Midjourney или блокировки сервиса по DMCA — компания указала, что сторона обвинения предоставила лишь обобщённые формулировки, не указав конкретные изображения или URL.
К слову сказать, Universal Pictures начала добавлять предупреждение в титры своих последних фильмов "Не может быть использовано для обучения AI" — эту надпись можно увидеть в "Как приручить дракона" и в "Мир Юрского периода: Возрождение", студия верит, что это поможет защите своих авторских прав от генеративных моделей.
Ждём ответ от студий.
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤8🔥6 4
This media is not supported in your browser
VIEW IN TELEGRAM
Записывайтесь на Gen:48 Aleph Edition
Runway решили сделать исключение по случаю релиза своей модели Aleph и запилили второй в этом году Gen:48! Для участия нужно заполнить небольшую форму на сайте.
Дата: с 23 августа 16:00 по 25 августа 16:00 по МСК
Формат мероприятия остался прежним: участники должны за 48 часов сделать короткометражный фильм длительностью от 1 до 4 минут, используя генеративные инструменты Runway, но не ограничиваясь только ими. Всем участникам начислят по 200,000 кредитсов на срок проведения конкурса, при этом не обязательно иметь активную подписку.
Победителей в номинациях Grand Prix и People's Choice наградят по $5,000 и начислят 1,000,000 кредитсов, а также дадут партнёрку Creative Partners Program.
😳 BLACKTRACED
Runway решили сделать исключение по случаю релиза своей модели Aleph и запилили второй в этом году Gen:48! Для участия нужно заполнить небольшую форму на сайте.
Дата: с 23 августа 16:00 по 25 августа 16:00 по МСК
Формат мероприятия остался прежним: участники должны за 48 часов сделать короткометражный фильм длительностью от 1 до 4 минут, используя генеративные инструменты Runway, но не ограничиваясь только ими. Всем участникам начислят по 200,000 кредитсов на срок проведения конкурса, при этом не обязательно иметь активную подписку.
Победителей в номинациях Grand Prix и People's Choice наградят по $5,000 и начислят 1,000,000 кредитсов, а также дадут партнёрку Creative Partners Program.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥11❤6⚡1