BLACKTRACED – Telegram
BLACKTRACED
1.08K subscribers
148 photos
354 videos
161 links
Создаю медиаконтент с применением нейросетей и иногда о них рассказываю. Везде мой тег один: blacktraced

По вопросам сотрудничества пишите в ЛС канала.
Download Telegram
BLACKTRACED
Seedance 1.0: Новая видеомодель в Dreamina Ого, а там оказывается ByteDance уже потихоньку выкатывают свою новую модель для Dreamina! И да, это намного лучше, чем тот видеогенератор, что у них был. 😨 Самое главное: оно умеет генерировать несколько консистентных…
Seedance 1.0: Генерация нескольких углов камеры, наглядно

Этот пост как небольшое дополнение к предыдущему, раз уж упомянулась модель Seedance. На этой модели тоже можно генерировать разные углы камеры в контексте одной сцены, используя как изображение, так и текст, с помощью тэга [cut] в промпте.

Пачка примеров от 0xFramer на мемах, как пруф, что работает оно достаточно неплохо. Да, в деталях может незначительно наврать, плюс, стоит помнить о том, что тайминг одной генерации всего 5 секунд. Промпт от автора как пример (генерация со скрывающим боль Гарольдом):

Man stares at something uncomfortably.

[cut] Over the shoulder shot – in front of the man – a small girl ballet dancing.

[cut] Close up shot of the man being super uncomfortable but giving a thumbs up


На самом деле, это очень круто, что видеомодели стали развиваться в направлении генерации разных ракурсов, стараясь максимально сохранить все ключевые детали входного изображения. Это даёт возможность выстраивать более полноценный и убедительный нарратив. А ведь только в начале года приходилось генерировать консистентные шоты одной сцены с разных углов по принципу "лишь бы похоже".

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
313🔥6😁5
BLACKTRACED
Команда Google DeepMind анонсировала Genie: первый прототип генеративных игр! Мы представляем Genie — модель, обученную на основе интернет-видео, которая может генерировать бесконечное разнообразие играбельных (управляемых действиями) миров из синтетических…
Media is too big
VIEW IN TELEGRAM
Google DeepMind показали Genie 3: новую модель для генерации миров

Genie 3 генерирует сцены с помощью текстовых промптов в 720p и 24fps, по которым можно перемещаться в реальном времени. Новая модель обладает визуальной памятью, то есть, если мы крутим камеру и перемещаемся по локации — мы увидим то же самое место без изменения деталей.

Продолжительность интерактива (длительность симуляции) составляет несколько минут, это очень огромный шаг по сравнению с предыдущими моделями: Genie мог продержаться всего пару-тройку секунд и у которого не было визуальной памяти, а Genie 2 держался 10–20  сек с примитивной визуальной памятью.

Из интерактива, помимо хождения туда-сюда, у Genie 3 есть "Promptable world events" — возможность промптом создать какое-то событие в сгенерированной сцене (примеры в самом видео). Но, о каком-то полноценном взаимодействии с окружением или предметами речи пока не идёт. DeepMind подчёркивает, что реальное взаимодействие с объектами пока ограничено и это осознанное ограничение модели, а не недоработка. Все примеры можно посмотреть на странице анонса.

Ну дак и для чего всё это? Сперва казалось, что это всё про развитие геймдева или интерактивного кино. Но Модели Мира (World Models) это более крупная рыба, не только про игры. Они идут путём симуляции реального окружающего мира с его законами физики и природы. Сами разработчики отмечают, что в перспективе с помощью этого можно создавать симуляции для изучения природы, или симулировать сценарии "а что если?" для тренировок в экстремальных ситуациях, таких как наводнение или пожар. Модели Мира также считаются ключевым компонентом на пути к AGI (Artificial General Intelligence), т.к. смогут обеспечить обучение на "бесконечном учебном курсе" без ограничений реальности.

Возможно это прозвучит кринжово, но на мой взгляд мы становимся свидетелями технологического пролога к "Матрице" Вачовски: когда человек буквально сможет погрузиться в симуляцию как в цифровую жизнь, имея возможность полноценно взаимодействовать с цифровым миром, а не "наблюдать со стороны" через экран или VR-шлем. Время покажет, во что разовьётся эта технология.

Помните тот старый ролик, которому уже больше 10 лет? Тогда он звучал как стёбная страшилка, но сейчас смотрится уже совсем по-другому.

UPD: Пока что Genie 3 доступна только для ресёрчеров, а не для широкого публичного использования.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
195🔥4
Суд Midjourney против Universal и Disney

Вкратце напоминаю: 11 июня 2025 года, Universal и Disney подали коллективный иск на Midjourney. Студии обвиняют MJ в массовом и систематическом нарушении авторских прав. В этом деле внимание уделено не процессу обучения модели, а самому результату, который выглядит как почти точная копия персонажей защищённых авторскими правами: Шрек, персонажи Star Wars, Миньоны и т.д.

Позавчера, 6 августа, Midjourney дали официальный ответ, в котором ссылаются на принцип "fair use", а точнее, называя обучение AI-моделей как трансформирующее добросовестное использование, приведя в пример дела писателей против Anthropic и Meta (экстремисты, запрещены в РФ), где федеральные суды поддержали такую трактовку.

Midjourney подчёркивают то, что авторское право не предполагает абсолютного контроля над материалом по законам США, утверждая, что генерации изображений даже с популярными персонажами могут иметь законные цели: неприбыльный фан-арт, поиск идей, социальную критику и пародию.

Защита Midjourney решила хлестануть Universal и Disney их же тряпкой по лицу, отметив, что MJ популярен среди VFX-студий, работающих напрямую с истцами и более того, указав, что десятки подписчиков Midjourney зарегистрированы с корпоративных e‑mail адресов истцов. Намекая на то, что сотрудники Disney и Universal активно используют сервис, на который подали в суд.

Также Midjourney припомнили слова CEO Disney Боба Айгера, который сам недавно назвал AI "незаменимым инструментом для художников", в качестве доказательства того, что студии сами извлекают выгоду из технологии, которую пытаются запретить.

Что касается удаления контента с сайта Midjourney или блокировки сервиса по DMCA — компания указала, что сторона обвинения предоставила лишь обобщённые формулировки, не указав конкретные изображения или URL.

К слову сказать, Universal Pictures начала добавлять предупреждение в титры своих последних фильмов "Не может быть использовано для обучения AI" — эту надпись можно увидеть в "Как приручить дракона" и в "Мир Юрского периода: Возрождение", студия верит, что это поможет защите своих авторских прав от генеративных моделей.

Ждём ответ от студий.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
38🔥64
This media is not supported in your browser
VIEW IN TELEGRAM
Записывайтесь на Gen:48 Aleph Edition

Runway решили сделать исключение по случаю релиза своей модели Aleph и запилили второй в этом году Gen:48! Для участия нужно заполнить небольшую форму на сайте.

Дата: с 23 августа 16:00 по 25 августа 16:00 по МСК

Формат мероприятия остался прежним: участники должны за 48 часов сделать короткометражный фильм длительностью от 1 до 4 минут, используя генеративные инструменты Runway, но не ограничиваясь только ими. Всем участникам начислят по 200,000 кредитсов на срок проведения конкурса, при этом не обязательно иметь активную подписку.

Победителей в номинациях Grand Prix и People's Choice наградят по $5,000 и начислят 1,000,000 кредитсов, а также дадут партнёрку Creative Partners Program.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1161
Media is too big
VIEW IN TELEGRAM
Больше 1000 подписчиков на канале!

Нет, я не забыл. Хоть и публикую с запозданием, но лучше поздно, чем никогда. За последние несколько дней новых читателей пришло так много и так внезапно, что я попросту не успел вовремя сделать это ироничное видео, отметить это приятное событие.

Спасибо большое всем Вам за поддержку, за интерес, за лайки и репосты, спасибо, что помогаете каналу развиваться!

Пользуясь случаем, сообщаю, что работа над новыми роликами активно ведётся, но под слоем рабочих будней получается всё не так быстро, как хотелось бы.

Ещё раз благодарю всех Вас! ❤️

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
26🔥33😁128
Media is too big
VIEW IN TELEGRAM
Первый достойный AI-дебют на большом экране?

28 августа в «Сфере» Лас-Вегаса (да, тот самый огромный LED-купол высотой в 22 этажа и размером как 3 футбольных поля) состоится премьера AI-реконструкции классического фильма «Волшебник страны Оз» 1939 года.

Проект создавался в содружестве Warner Bros. и Google DeepMind, а визуально-техническую часть курировал Бен Гроссман, обладатель премии Оскар за VFX в фильме "Хранитель времени" Мартина Скорсезе.

Плёнку разогнали нейронками до качества ультра‑HD 16K, навалив детализации так, что теперь можно рассмотреть веснушки на лице Дороти и текстуру мешковины у Страшилы.

Чтобы расширить кадры под сферический формат и показать актёров в тех сценах, где они обрезаны из-за кадрирования, Warner Bros. позволили Google обучить на оригинале приватные модели. Все данные остались у Warner, поэтому никакие из этих данных не попали в публичные AI-модели Google.

Как пишут Reuters, музыка была заново записана на той же исторической студии, на которой записывали оригинал, чтобы воспроизвести объёмный звук на новом оборудовании. В самой Сфере специальные вентиляторы будут симулировать вихрь и, возможно, ещё какие-то погодные условия для полного погружения.

Создатели подчёркивают, это не ремейк и не ремастер. Это гибрид классического кино, VR и театра с помощью AI:

Мы не переписывали оригинальный фильм, мы реализовали то, чего не могли сделать в 1939-м.


Не смотря на все убеждения, анти-AIшники всё-равно заплевали проект, назвав его оскорблением искусства и посягательством на святое. Создатели, глубоко вздыхая говорят, что критикующие люди совершенно не понимают специфику проделанной работы.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👏64
Nano Banana: Загадочный редактор, который довольно хорош

Несколько дней назад, в Твиттере начали распространяться посты про взявшуюся из ниоткуда модель "Nano Banana", в которых попробовавшие называют её лучшим контекстуальным AI-редактором на рынке и с нетерпением ждут официального релиза.

Пока неизвестно, чья именно это модель, Nano Banana — это кодовое название. Сейчас по всей видимости идёт открытый, бесплатный бета-тест на сайте LMArena. Работает в России, рега не нужна.

Как пользоваться: в поле промпта выбираем "Generate Images", а режим "Battle" (наверху экрана) оставляем как есть.

Сперва я долго не мог понять, как получать результат именно от Nano Banana, так как напрямую в интерфейсе LMArena выбрать её нельзя. Затем разобрался, вот несколько ключевых важных моментов:

🟠Гарантированно выдаёт результат эта модель, если Вы делаете запрос именно на редактирование входного изображения, а не пытаетесь сгенерировать принципиально новое на его основе;

🟠Изменения вносит практически всегда невероятно круто, органично контекстуально вписывая их в эстетику и стиль редактируемого изображения, при этом само входное изображение оно почти не изменяет (не перегенеривает его заново полностью) — это важный ключевой момент;

🟠Новые углы камеры входного изображения оно не умеет делать. Результат выдаётся от любых моделей, кроме Nano Banana. При этом, я видел, что в Твиттере один чувак показал, что у него это якобы получилось. Но судя по качеству, это Flux Kontext. Сколько я пробовал сам — не получал результата от Nano Banana и не видел примеров-подтверждений от других;

🟠Если будете использовать 2 изображения, Nano Banana возьмёт соотношение сторон второго изображения, поэтому порядок загрузки важен;

🟠Можно использовать лишь одно изображение и текстом прописать, какие нужны изменения;

🟠Если формат изображения, на которое Вам необходимо внести изменения, допустим 16:9, а формат референса сильно отличается (скажем, 9:16), то результат будет либо сильно плохой, либо генерация будет висеть бесконечно (примеры в комментах);

🟠Качественную замену лица персонажа по референсу лично у меня сделать не получилось даже спустя попыток 20. Персонаж оставался тем же, либо с какими-то совсем малозаметными изменениями;

🟠У Techhalla увидел классный пример, как он персонажа вписал в сцену. По его примеру получилось плюс-минус окей, но что пробовал потом сам, всё херня.

Промпты из моих примеров:

Для смены одежды (1 - реф, 2 - редактируемое):
Change the girl's outfit in Image 2 to a [напр, моё: fancy suit/oversized jacket] from Image 1


Для рисунка на асфальте:
Make Image 1 look like it's a huge crayon drawing on the asphalt behind the girl in Image 2


Девушка на машине (2 изображения, промпт Techhalla):
Put the woman lying over the car


UPD: Это Google Gemini 2.5 Flash Image
, тут анонс.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥149👏1