Cinematic Video Overviews: новый режим в NotebookLM Studio
Наряду с Brief и Explainer в Customize Video Overview добавили Cinematic Video Overviews.
У Гугла, конечно, с неймингами, как всегда, неразбериха.
Video Overview были и раньше, только это были как бы анимированные презентации.
А сейчас тут завезли реальные видео-вставки. Gemini пишет промпты, Veo генерит видео-фрагменты.
Раскатывают только на подписку Ultra, проверить не могу, но вопросы за пределами восторженных постов есть:
- управляемость? можно ли задавать время, куда вставляются именно видео
- можно ли править промпты?
- цена, кредиты?
В целом выглядит как хорошая презентация с видеовставками (поглядите пример на 5 минут выше). Но видеовставки немного выбиваются по стилю.
Но задумайтесь, на входе тексты о чем угодно, на выходе подробнейший объяснятор на пальцах с картинками и видео. Можно выпить за вот эти вот все скучнейшие корпоративные презентации и видосы, и за стажеров, которых заставляют их делать.
@cgevent
Наряду с Brief и Explainer в Customize Video Overview добавили Cinematic Video Overviews.
У Гугла, конечно, с неймингами, как всегда, неразбериха.
Video Overview были и раньше, только это были как бы анимированные презентации.
А сейчас тут завезли реальные видео-вставки. Gemini пишет промпты, Veo генерит видео-фрагменты.
Раскатывают только на подписку Ultra, проверить не могу, но вопросы за пределами восторженных постов есть:
- управляемость? можно ли задавать время, куда вставляются именно видео
- можно ли править промпты?
- цена, кредиты?
В целом выглядит как хорошая презентация с видеовставками (поглядите пример на 5 минут выше). Но видеовставки немного выбиваются по стилю.
Но задумайтесь, на входе тексты о чем угодно, на выходе подробнейший объяснятор на пальцах с картинками и видео. Можно выпить за вот эти вот все скучнейшие корпоративные презентации и видосы, и за стажеров, которых заставляют их делать.
@cgevent
❤24👍16👎2
Media is too big
VIEW IN TELEGRAM
Ну, за VFX и Пост.
Ну хорошо, выкорчуют из Сидэнского Томкруизов и Брэдпиттов, уберут селебов.
А что делать Пост Продакшен Студиям?
Как выкатывать заказчику бюджеты?
Я уже писал, что надо бы ILM и Framestore поднапрячься и тоже наехать на Байтдэнс. Типа обучились на наших робатах, а теперь копируете Гадзилл и Терминаторов. Нехорошо-с.
Но поглядите, как это круто сделано и смонтировано. Да, вопрос 4К, логарифмов, битности цвета и пр. Но елы палы, где мы были год назад? А два? А три? Это же был палеозой какой-то. Фоны ручками рисовали.. Знали, что такое рендерман... Ставили на ночь 10 секунд посчитацца..
Куда катится мир?
@cgevent
Ну хорошо, выкорчуют из Сидэнского Томкруизов и Брэдпиттов, уберут селебов.
А что делать Пост Продакшен Студиям?
Как выкатывать заказчику бюджеты?
Я уже писал, что надо бы ILM и Framestore поднапрячься и тоже наехать на Байтдэнс. Типа обучились на наших робатах, а теперь копируете Гадзилл и Терминаторов. Нехорошо-с.
Но поглядите, как это круто сделано и смонтировано. Да, вопрос 4К, логарифмов, битности цвета и пр. Но елы палы, где мы были год назад? А два? А три? Это же был палеозой какой-то. Фоны ручками рисовали.. Знали, что такое рендерман... Ставили на ночь 10 секунд посчитацца..
Куда катится мир?
@cgevent
🔥47❤34👎16😁6👍5😱2
Агентские платформы в РФ наконец-то начали приближаться к промышленному стандарту — не по хайпу, а по оптимальности инфраструктуры.
В недавнем обновлении AI-платформы Яндекса появился доступ к инференсу DeepSeek V3.2, а также много нового по части инфраструктуры под агентские сценарии. Под капотом у инференса — разделённый prefill/decode, иерархия KV-кэшей и обмен ими между серверами в реальном времени, cache-aware балансировка. Базовое API DeepSeek известно своей не самой лучшей стабильностью. А все обновления как раз про устойчивый сервис, способный держать длинные сессии в продовых сценариях.
Чекните на сайте (довольно интересно):
https://ai.cnews.ru/news/line/2026-03-03_yandex_b2b_tech_otkryla_biznesu
Плюс появились приватные эндпоинты и управляемые правила модерации для ответов моделей — тот случай, когда опенсорс вполне можно применять в enterprise.
DeepSeek в этой истории – вершина айсберга: интересно не то, что модель умеет рассуждать, а что наконец-то создали среду, где это можно делать долго, стабильно и безопасно.
@cgevent
В недавнем обновлении AI-платформы Яндекса появился доступ к инференсу DeepSeek V3.2, а также много нового по части инфраструктуры под агентские сценарии. Под капотом у инференса — разделённый prefill/decode, иерархия KV-кэшей и обмен ими между серверами в реальном времени, cache-aware балансировка. Базовое API DeepSeek известно своей не самой лучшей стабильностью. А все обновления как раз про устойчивый сервис, способный держать длинные сессии в продовых сценариях.
Чекните на сайте (довольно интересно):
https://ai.cnews.ru/news/line/2026-03-03_yandex_b2b_tech_otkryla_biznesu
Плюс появились приватные эндпоинты и управляемые правила модерации для ответов моделей — тот случай, когда опенсорс вполне можно применять в enterprise.
DeepSeek в этой истории – вершина айсберга: интересно не то, что модель умеет рассуждать, а что наконец-то создали среду, где это можно делать долго, стабильно и безопасно.
@cgevent
😁39👎28❤10👍5🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Новый LTX 2.3
Я не фанат, но можно попробовать тут:
https://app.ltx.studio/ltx-2-playground/t2v
https://app.ltx.studio/ltx-2-playground/i2v
Интересно, что в параметрах есть длительность до 20(!) секунд, разрешение 4К и даже 50fps.
Движение камеры тоже вынесено в отдельную настройку-параметр с массой вариантов.
Уже выложили веса:
https://huggingface.co/Lightricks/LTX-2.3
И сделали поддержку в шаблонах Комфи:
https://github.com/Comfy-Org/workflow_templates/blob/main/templates/video_ltx2_3_t2v.json
@cgevent
Я не фанат, но можно попробовать тут:
https://app.ltx.studio/ltx-2-playground/t2v
https://app.ltx.studio/ltx-2-playground/i2v
Интересно, что в параметрах есть длительность до 20(!) секунд, разрешение 4К и даже 50fps.
Движение камеры тоже вынесено в отдельную настройку-параметр с массой вариантов.
Уже выложили веса:
https://huggingface.co/Lightricks/LTX-2.3
И сделали поддержку в шаблонах Комфи:
https://github.com/Comfy-Org/workflow_templates/blob/main/templates/video_ltx2_3_t2v.json
@cgevent
🔥18❤5👍2👎1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Первый выпуск “THIS “IS WILD TV” 📺
Production: NOIZLAB
Автор Павел Жигарев
Смотреть полный выпуск 22 мин (ENG) ЮТУБ (Поможем Паше с подписками и лайками)
У кого есть реддит, апните тут, огонь же.
Я, как и многие из вас здесь ребёнок 90-х. Тот «датасет» или культурный пласт, на котором мы росли клипы MTV, «Симпсоны», Черепашки-ниндзя, реслинг и треш реклама маргарина "Rama" сформировал наш вкус навсегда.
Для нас ДНК той эпохи это не просто шум в кадре. Это гремучая смесь из смелых форматов, кардинально разных стилистик и эстетики, которая менялась из года в год всё это части одного большого пазла под названием - “Миллениум вайб” . Пять месяцев назад я задал себе вопрос: смогу ли я извлечь эту ДНК из своей головы с помощью нейросетей?
Результат - 22 минуты компиляция пилотного выпуска THIS IS WILD TV. Это симбиоз личных воспоминаний и современных AI-технологий. По сути это сатира на современное общество потребления, обернутая в ламповую оболочку телевидения 1999 года. Телевидение, которое вроде бы и было, а вроде его и не существовало никогда (и еще почти 200 минут материала, оставшегося за кадром).
⏰ Бюджет: Sora2 600$ + SUNO 30$
💸 Время производства: 5 мес.
🧰 Инструменты:
• Видео: Sora 2
• Редактирование кадров: Nano Banana Pro
• Звук: Suno V5 + ElevenLabs
• Апскеил: Topaz Labs
Итог: 22 минуты пилотного выпуска, в который я вложил всё, что помню и люблю. Может это гениально а может просто компиляция слопа ¯\_(ツ)_/¯ .
Но если зашло - подписывайтесь нужно набрать первую 1000 подписоты для монетизации.
Огромное спасибо за озвучивание Евгению Рыбову голосу MTV "Клиники" "Семейки Озборн" и "Тачка на Прокачку" который стал вишенкой на торте плотного выпуска! Его ТГ-канал “Нетяжелый металл”
⚡️ НА своем канале буду рассказывать подробно о процессе создания и отсылках на Поп Культуру в эпизодах: “NOIZLAB”
Links:
www.thisiswildtv.com
"THIS IS WILD TV" Instagram
"THIS IS WILD TV" TikTok
@cgevent
Первый выпуск “THIS “IS WILD TV” 📺
Production: NOIZLAB
Автор Павел Жигарев
Смотреть полный выпуск 22 мин (ENG) ЮТУБ (Поможем Паше с подписками и лайками)
У кого есть реддит, апните тут, огонь же.
Я, как и многие из вас здесь ребёнок 90-х. Тот «датасет» или культурный пласт, на котором мы росли клипы MTV, «Симпсоны», Черепашки-ниндзя, реслинг и треш реклама маргарина "Rama" сформировал наш вкус навсегда.
Для нас ДНК той эпохи это не просто шум в кадре. Это гремучая смесь из смелых форматов, кардинально разных стилистик и эстетики, которая менялась из года в год всё это части одного большого пазла под названием - “Миллениум вайб” . Пять месяцев назад я задал себе вопрос: смогу ли я извлечь эту ДНК из своей головы с помощью нейросетей?
Результат - 22 минуты компиляция пилотного выпуска THIS IS WILD TV. Это симбиоз личных воспоминаний и современных AI-технологий. По сути это сатира на современное общество потребления, обернутая в ламповую оболочку телевидения 1999 года. Телевидение, которое вроде бы и было, а вроде его и не существовало никогда (и еще почти 200 минут материала, оставшегося за кадром).
⏰ Бюджет: Sora2 600$ + SUNO 30$
💸 Время производства: 5 мес.
🧰 Инструменты:
• Видео: Sora 2
• Редактирование кадров: Nano Banana Pro
• Звук: Suno V5 + ElevenLabs
• Апскеил: Topaz Labs
Итог: 22 минуты пилотного выпуска, в который я вложил всё, что помню и люблю. Может это гениально а может просто компиляция слопа ¯\_(ツ)_/¯ .
Но если зашло - подписывайтесь нужно набрать первую 1000 подписоты для монетизации.
Огромное спасибо за озвучивание Евгению Рыбову голосу MTV "Клиники" "Семейки Озборн" и "Тачка на Прокачку" который стал вишенкой на торте плотного выпуска! Его ТГ-канал “Нетяжелый металл”
⚡️ НА своем канале буду рассказывать подробно о процессе создания и отсылках на Поп Культуру в эпизодах: “NOIZLAB”
Links:
www.thisiswildtv.com
"THIS IS WILD TV" Instagram
"THIS IS WILD TV" TikTok
@cgevent
2👍68🔥26👎12❤8
Forwarded from Сиолошная
Если 2 дня назад вышла GPT-5.3, то сегодня, значит, не стоит ожидать 5.4? 🆒
А вот и она: https://openai.com/index/introducing-gpt-5-4/ (плюс есть Pro-версия)
Модель немного подорожала и разрослась контекстом до 1М токенов.
Помимо десятков бенчмарков отдельный упор делают на Computer Use: как модель может интерпретировать скриншоты с вашего компьютера и отдавать команды для выполнения разных задач. Надеюсь, что Agent и Atlas обновят, потестирую.
Модель стала генерировать ещё меньше токенов в цепочках рассуждений (то есть стала более эффективной), и при этом в Codex появился режим
А вот и она: https://openai.com/index/introducing-gpt-5-4/ (плюс есть Pro-версия)
Модель немного подорожала и разрослась контекстом до 1М токенов.
Помимо десятков бенчмарков отдельный упор делают на Computer Use: как модель может интерпретировать скриншоты с вашего компьютера и отдавать команды для выполнения разных задач. Надеюсь, что Agent и Atlas обновят, потестирую.
Модель стала генерировать ещё меньше токенов в цепочках рассуждений (то есть стала более эффективной), и при этом в Codex появился режим
/fast — в 1.5 раза быстрее за x2 ваших лимитов. По-божески, если сравнивать с Anthropic.Please open Telegram to view this post
VIEW IN TELEGRAM
😁21❤12👎4🔥2😱1
Утопай Студио
Вы будете смеяться, но у нас новая платформа для видеогенерации.
Я намеренно пишу платформа, а не модель, потому что у них из коммуникаций тщательно убрано наличие своей модели.
Упор на сторителлинг, сторибординг, редактирование результата. Модные слова про агентов.
Разбор и диванные комментарии завтра.
А пока мой спойлер - до Сидэнского не дотягивает. Зато сайт увешан заверениями о легальности, безопасности, почитании интеллектуальной собственности.
Аж противно немного.
Но сайт нарядный. Это похоже корейцы из старого крепкого постпродакшена, превиза и 3д.
https://www.utopaistudios.com/
@cgevent
Вы будете смеяться, но у нас новая платформа для видеогенерации.
Я намеренно пишу платформа, а не модель, потому что у них из коммуникаций тщательно убрано наличие своей модели.
Упор на сторителлинг, сторибординг, редактирование результата. Модные слова про агентов.
Разбор и диванные комментарии завтра.
А пока мой спойлер - до Сидэнского не дотягивает. Зато сайт увешан заверениями о легальности, безопасности, почитании интеллектуальной собственности.
Аж противно немного.
Но сайт нарядный. Это похоже корейцы из старого крепкого постпродакшена, превиза и 3д.
https://www.utopaistudios.com/
@cgevent
Utopaistudios
Utopai Studios
Utopai Studios is a tech hub for video storytelling, building a state-of-the-art cinematic video generation model and agentic workflow that supports narrative creation across formats, audiences, and platforms, giving creators the power to tell epic stories…
👍21❤6🔥6
Media is too big
VIEW IN TELEGRAM
Утопай Студио. Расследование, интриги, схематозы.
Вчера они бахнули на весь мир.
https://www.utopaistudios.com/
Причем вот так:
Announcing Utopai 1.0 | The story-to-movie generation model
https://www.youtube.com/watch?v=qJLv6ltFw04
Весь твиттор забит как под копирку написанными сообщениями от сотен пользователей типа "вместо генерации рандомных клипов, Утопай генерит истории" или "Я со-продюссировал анимацию вместо с Утопай студио". При этом доступ закрыт (вейтлист) и ни одного знакомого имени известных инфлюенсеров в твиттор-постах нет.
Я излазил весь веб-сайт (сделан идеально с маркетинговой точки зрения), корейские основатели, выходцы из Гугла, Меты и пост-продакшена-первиза. С 2022 года на рынке, много пивотов, и, наконец-то, подняли большие деньги на Утопай.
Интересный раздел East:
https://www.utopaistudios.com/east
Custom-trained models optimized for Korean and Japanese language, culture, and storytelling nuances
(теперь я понимаю, что речь про LLMки для промптов)
Ну и тошнотворный сладкий поток заверений про святую интеллектуальную собственность.
Короче, ребята, ашозамодель-то?
Которая влет может генерить по минуте видео и вся из себя умная до жути (судя по описаниям).
Мой нюх прям почуял подвох. Я заманался ломать глаза в твитторе и позвал Грок на помощь (кото-же еще, если речь за твиттор). Грок такой - да, это foundation model, вот погляди и сунул в меня вот такой маркетинговый сироп он GMI:
https://www.gmicloud.ai/case-study/utopai-studios-powering-the-next-generation-of-video-creation-with-gmi-cloud
Тут я говорю Грокскому: ты перечитай эту ссылку, там между строк прямо написано:
- running numerous models concurrently
- rich library of the latest models and APIs ready to use, such as WAN, Veo, and more
- Utopai is scaling its ComfyUI workload into a fully web-based platform (тут стало совсем смешно, это просто Комфи воркфоу)
И только в Планах на будущее написано:
Utopai is preparing to launch foundation-level video generation model training
Они готовяцца!
Короче, я не отрицаю, что продукт задуман и сделан хорошо (об этом след пост), что видосы на сайте наряднейшие, что замысел отличный и команда огонь. И что Комфи ноды у них на миллион.
Но называть новой видео-моделью свой Комфи-воркфлоу - это уже зашквар и маркетинговый схематоз.
На этом уже ловили Freepik, когда они называли своей новой моделью обычный пайплайн из чужих моделей.
Это примета времени. Взять денег (а им дали похоже очень много), заявить о существовании продукта, которого нет, а потом попытаться сделать этот продукт на деньги инвесторов.
Не получится - пивотнемся. Не в первый раз.
Можете записаться в бету:
https://www.utopaistudios.com/waitlist
Язаписалсо.
P.S. У них не просто деньги за спиной, у них огромные деньги:
https://deadline.com/2026/02/utopai-east-buys-alquimista-media-korea-hyun-park-1236702160/
@cgevent
Вчера они бахнули на весь мир.
https://www.utopaistudios.com/
Причем вот так:
Announcing Utopai 1.0 | The story-to-movie generation model
https://www.youtube.com/watch?v=qJLv6ltFw04
Весь твиттор забит как под копирку написанными сообщениями от сотен пользователей типа "вместо генерации рандомных клипов, Утопай генерит истории" или "Я со-продюссировал анимацию вместо с Утопай студио". При этом доступ закрыт (вейтлист) и ни одного знакомого имени известных инфлюенсеров в твиттор-постах нет.
Я излазил весь веб-сайт (сделан идеально с маркетинговой точки зрения), корейские основатели, выходцы из Гугла, Меты и пост-продакшена-первиза. С 2022 года на рынке, много пивотов, и, наконец-то, подняли большие деньги на Утопай.
Интересный раздел East:
https://www.utopaistudios.com/east
Custom-trained models optimized for Korean and Japanese language, culture, and storytelling nuances
(теперь я понимаю, что речь про LLMки для промптов)
Ну и тошнотворный сладкий поток заверений про святую интеллектуальную собственность.
Короче, ребята, ашозамодель-то?
Которая влет может генерить по минуте видео и вся из себя умная до жути (судя по описаниям).
Мой нюх прям почуял подвох. Я заманался ломать глаза в твитторе и позвал Грок на помощь (кото-же еще, если речь за твиттор). Грок такой - да, это foundation model, вот погляди и сунул в меня вот такой маркетинговый сироп он GMI:
https://www.gmicloud.ai/case-study/utopai-studios-powering-the-next-generation-of-video-creation-with-gmi-cloud
Тут я говорю Грокскому: ты перечитай эту ссылку, там между строк прямо написано:
- running numerous models concurrently
- rich library of the latest models and APIs ready to use, such as WAN, Veo, and more
- Utopai is scaling its ComfyUI workload into a fully web-based platform (тут стало совсем смешно, это просто Комфи воркфоу)
И только в Планах на будущее написано:
Utopai is preparing to launch foundation-level video generation model training
Они готовяцца!
Короче, я не отрицаю, что продукт задуман и сделан хорошо (об этом след пост), что видосы на сайте наряднейшие, что замысел отличный и команда огонь. И что Комфи ноды у них на миллион.
Но называть новой видео-моделью свой Комфи-воркфлоу - это уже зашквар и маркетинговый схематоз.
На этом уже ловили Freepik, когда они называли своей новой моделью обычный пайплайн из чужих моделей.
Это примета времени. Взять денег (а им дали похоже очень много), заявить о существовании продукта, которого нет, а потом попытаться сделать этот продукт на деньги инвесторов.
Не получится - пивотнемся. Не в первый раз.
Можете записаться в бету:
https://www.utopaistudios.com/waitlist
Язаписалсо.
P.S. У них не просто деньги за спиной, у них огромные деньги:
https://deadline.com/2026/02/utopai-east-buys-alquimista-media-korea-hyun-park-1236702160/
@cgevent
👍22❤9😁5👎2
Media is too big
VIEW IN TELEGRAM
Нейропайплайны
Немного среднеумных мыслей по итогам предыдущего поста.
Возьмем видеогенерацию. На выходе видео. Что с ним делать более менее понятно: композ, монтаж, цветокорр. Годами выстраданные инструменты и методы.
То, что сейчас изобретают зумеры в виде онлайн-монтажа рядом с генерацией никому не нужно. Вы все равно будете монтировать в капкате, премьере, резолве. Там удобно. А в вебе нет. Максимум что требуется от веба, таймлиния (а может и нет, в Утопай это не так), где можно указать, что ПЕРЕГЕНЕРИТЬ, или какие кадры взять за основу для другой генерации. А резать будем снаружи.
А что на входе?
Условно говоря, до прихода нейронок мы порождали видео двумя способами: продакшен и пост-продакшен, или, говоря по простому: съемка и графика.
Съемка - сложнейшийхаотический процесс со своим годами отстроенным пайплайном, терминологией, людьми, коммуникациями, плясками с бубнами.
3Д и 2Д анимация (кино, модиз, реклама) - сложнейший процесс со своим годами отстроенным пайплайном, терминологией, людьми, коммуникациями, плясками с бубнами, плясками с бубнами, плясками с бубнами.
На выходе - видео (я немного упрощаю, но мысль, надеюсь, понятна)
И тут приходят генераторы и такие: вот сюда промпт, сюда картинку и погнали!
Потом до них доходит, что есть культура и пайплайны, описанные выше.
И начинается:
- давайте в промпте указывать склейки планов в секундах (попытка монтажа перед монтажом)
- давайте вот в это поле загрузим сториборд
- давайте сгенерим этот чортов сториборд
- давайте скормим LLM параметры всех камер и учебник по съемке и нуботать промптить по фене
- давайте сюда агентаф прикрутим, пусть имитируют деятельность на площадке\посте. И орут друг на друга, как заведено.
- альфа? нет, не слышали, бесовщина все это, композ - тоже не слышали.
Ну вы поняли. Сымитировать годами выстроенные схемы в окне браузера - безумие и отвага.
Утопай, кстати, делает упор именно на это, и они, пожалуй, продвинулись дальше всех в этом безумии.
Как паллиатив: Kling Motion Control, Luma Agents и прочее video2video, где старое доброе видео драйвит видеогенерацию.
Но чтобы сделать старое доброе видео, нужны старые добрые методы и навыки. Вот ведь незадача.
К чему весь этот приподвзворчизм?
К тому, что учить пользователя терминологии и давать ему аналог съемочного процесса в браузере - безнадежно, пользователь ленив. Тех, кто шарит в процессах, в тысячи раз меньше, чем те, кто не шарит и не желает шарить.
Поэтому надо изобретать интерфейсы и пайпланы для нешарящего пользователя.
Одна кнопка - главный пример. К ней микрофон и все. И попкорн. И курсы по выражению своих мыслей ртом из головы(если серьезно, то надо собирать сценарии нажатия кнопки Сгенерить и отрезать ненужное).
Остальное - сложно.
Остальное сделают нейронки.
А мысль моя в том, что нас ждет разделение на профессиональные видеогенераторы (с UI\UX для профессионалов) и трехкнопочные для всех остальных. Как Notepad и Word, MovieMaker и Premiere, Paint и Photoshop.
@cgevent
Немного среднеумных мыслей по итогам предыдущего поста.
Возьмем видеогенерацию. На выходе видео. Что с ним делать более менее понятно: композ, монтаж, цветокорр. Годами выстраданные инструменты и методы.
То, что сейчас изобретают зумеры в виде онлайн-монтажа рядом с генерацией никому не нужно. Вы все равно будете монтировать в капкате, премьере, резолве. Там удобно. А в вебе нет. Максимум что требуется от веба, таймлиния (а может и нет, в Утопай это не так), где можно указать, что ПЕРЕГЕНЕРИТЬ, или какие кадры взять за основу для другой генерации. А резать будем снаружи.
А что на входе?
Условно говоря, до прихода нейронок мы порождали видео двумя способами: продакшен и пост-продакшен, или, говоря по простому: съемка и графика.
Съемка - сложнейший
3Д и 2Д анимация (кино, модиз, реклама) - сложнейший процесс со своим годами отстроенным пайплайном, терминологией, людьми, коммуникациями, плясками с бубнами, плясками с бубнами, плясками с бубнами.
На выходе - видео (я немного упрощаю, но мысль, надеюсь, понятна)
И тут приходят генераторы и такие: вот сюда промпт, сюда картинку и погнали!
Потом до них доходит, что есть культура и пайплайны, описанные выше.
И начинается:
- давайте в промпте указывать склейки планов в секундах (попытка монтажа перед монтажом)
- давайте вот в это поле загрузим сториборд
- давайте сгенерим этот чортов сториборд
- давайте скормим LLM параметры всех камер и учебник по съемке и ну
- давайте сюда агентаф прикрутим, пусть имитируют деятельность на площадке\посте. И орут друг на друга, как заведено.
- альфа? нет, не слышали, бесовщина все это, композ - тоже не слышали.
Ну вы поняли. Сымитировать годами выстроенные схемы в окне браузера - безумие и отвага.
Утопай, кстати, делает упор именно на это, и они, пожалуй, продвинулись дальше всех в этом безумии.
Как паллиатив: Kling Motion Control, Luma Agents и прочее video2video, где старое доброе видео драйвит видеогенерацию.
Но чтобы сделать старое доброе видео, нужны старые добрые методы и навыки. Вот ведь незадача.
К чему весь этот приподвзворчизм?
К тому, что учить пользователя терминологии и давать ему аналог съемочного процесса в браузере - безнадежно, пользователь ленив. Тех, кто шарит в процессах, в тысячи раз меньше, чем те, кто не шарит и не желает шарить.
Поэтому надо изобретать интерфейсы и пайпланы для нешарящего пользователя.
Одна кнопка - главный пример. К ней микрофон и все. И попкорн. И курсы по выражению своих мыслей ртом из головы
Остальное - сложно.
Остальное сделают нейронки.
А мысль моя в том, что нас ждет разделение на профессиональные видеогенераторы (с UI\UX для профессионалов) и трехкнопочные для всех остальных. Как Notepad и Word, MovieMaker и Premiere, Paint и Photoshop.
@cgevent
👍33❤31👎3
Media is too big
VIEW IN TELEGRAM
В прошлом посте упомянул Luma Agents. Не зря
И да, они тизерят агентов, которые будут за вас продираться сквозь процессы из предыдущего поста.
Они так прямо и говорят: "процессы генерации контента меняются, а пайпланы (концепты, раскадровки) - нет".
И ну запускать агентов в процесс, а пользователь у них на видео только кликает по кнопке.
@cgevent
И да, они тизерят агентов, которые будут за вас продираться сквозь процессы из предыдущего поста.
Они так прямо и говорят: "процессы генерации контента меняются, а пайпланы (концепты, раскадровки) - нет".
И ну запускать агентов в процесс, а пользователь у них на видео только кликает по кнопке.
@cgevent
1❤5👍2😁2🙏1
Media is too big
VIEW IN TELEGRAM
Нейропанк, который мы заслужили.
Вместо шоу "Дом-2", у нас теперь будет сериал Bot House.
Премьера от OpenArt на следующей неделе.
https://www.linkedin.com/posts/openart-ai_the-first-ai-reality-show-is-here-introducing-activity-7435050412078080000-EmoN/
@cgevent
Вместо шоу "Дом-2", у нас теперь будет сериал Bot House.
Премьера от OpenArt на следующей неделе.
https://www.linkedin.com/posts/openart-ai_the-first-ai-reality-show-is-here-introducing-activity-7435050412078080000-EmoN/
@cgevent
😁43👎9❤8🔥3😱1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Мультфильм "Про вора"
Автор: Alexander Kuvshinov
История про то как вор залез в дом к старому Викингу.
Задача познакомить с характерами героев из игры в виде небольшого сюжетного скетча.
3 дня работы. Картинки - нанобанана 1 (бесплатная), видосики - 90% сделано в Grok (бесплатно) и 10% сделано в ХайлуоАИ (у меня там подписка еще оставалась с неизрасходованными кредитами - там я сделал 24 ролика из них 6 роликов пошли в продакшн).
Ещё из наблюдений:
- делать мульты в определенной стилистике сложнее, чем фоторильное кинцо (имхо);
- чем больше в кадре составляющих, тем сложнее этим управлять (ес, кэп);
- с одним персонажем в кадре прекрасно справляется бесплатный Грок, вне зависимости от вашей стилистики;
- Грок довольно легко справляется с фоторильными героями (до 4х персонажей в одном кадре)
- если вы делаете мульт и персонажей много в кадре, нужно использовать start-end frames. Тогда консистентность максимально будет сохранена. На данный момент Seedance 1.5 Pro уделывает конкурентов. Если не использовать конечный кадр, то под конец видоса у кого-нибудь будет 3 груди и 6 пальцев;
- если сцена супер-сложная с кучей персонажей и других интерактивных элементов - бьём все это на слои и собираем на посте.
- вертикальные видосы делать сложнее чем горизонтальные
- следи за окружением от кадра к кадру при генерации изображений (часто бывает такое, что делаешь очередную связанную сцену, и не замечаешь, что изначально герои шли по брусчатке, затем они идут по песчанику, а потом вообще по траве. Приходится переделывать все заново)
- рисуй раскадровку и делай аниматик (это сохранит тебе нервные клетки)
@cgevent
Мультфильм "Про вора"
Автор: Alexander Kuvshinov
История про то как вор залез в дом к старому Викингу.
Задача познакомить с характерами героев из игры в виде небольшого сюжетного скетча.
3 дня работы. Картинки - нанобанана 1 (бесплатная), видосики - 90% сделано в Grok (бесплатно) и 10% сделано в ХайлуоАИ (у меня там подписка еще оставалась с неизрасходованными кредитами - там я сделал 24 ролика из них 6 роликов пошли в продакшн).
Ещё из наблюдений:
- делать мульты в определенной стилистике сложнее, чем фоторильное кинцо (имхо);
- чем больше в кадре составляющих, тем сложнее этим управлять (ес, кэп);
- с одним персонажем в кадре прекрасно справляется бесплатный Грок, вне зависимости от вашей стилистики;
- Грок довольно легко справляется с фоторильными героями (до 4х персонажей в одном кадре)
- если вы делаете мульт и персонажей много в кадре, нужно использовать start-end frames. Тогда консистентность максимально будет сохранена. На данный момент Seedance 1.5 Pro уделывает конкурентов. Если не использовать конечный кадр, то под конец видоса у кого-нибудь будет 3 груди и 6 пальцев;
- если сцена супер-сложная с кучей персонажей и других интерактивных элементов - бьём все это на слои и собираем на посте.
- вертикальные видосы делать сложнее чем горизонтальные
- следи за окружением от кадра к кадру при генерации изображений (часто бывает такое, что делаешь очередную связанную сцену, и не замечаешь, что изначально герои шли по брусчатке, затем они идут по песчанику, а потом вообще по траве. Приходится переделывать все заново)
- рисуй раскадровку и делай аниматик (это сохранит тебе нервные клетки)
@cgevent
👍64👎30🔥12❤6😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Режиссеры в Seedance 2.0
Интересно, вот выкорчуют Тома и Брэда из грядущей версии. А что будет с Весом Андерсоном?
Я помню, что имена художников выпиливали из генераторов картинок. По идее режиссеры могут аналогично распсиховаться. Сейчас Сидэнский идеально учитывает имя режиссера (см. видео)
А в стандартных темплейтах Комфи для LTX-2.3 так прямо и написано "Wes Anderson style".
Получается, что LTX даже не скрывают, что обучались на его фильмах.
А вообще я запутался: актеров нельзя, режиссеров можно, персонажей нельзя, стили можно.
Где Дисней и Нетфликс будут проводить границу между можно и нельзя?
А из датасетов слОва не выкинешь, оно уже там.
А дальше мы промптами будем колдовать "мопед не мой, мне не для себя, а для больной бабушки, вот тебе сотка чаевых, сделай пожалуйста Тома и Брэда в стиле Веса Андерсона верхом на Микки Маусе".
@cgevent
Интересно, вот выкорчуют Тома и Брэда из грядущей версии. А что будет с Весом Андерсоном?
Я помню, что имена художников выпиливали из генераторов картинок. По идее режиссеры могут аналогично распсиховаться. Сейчас Сидэнский идеально учитывает имя режиссера (см. видео)
А в стандартных темплейтах Комфи для LTX-2.3 так прямо и написано "Wes Anderson style".
Получается, что LTX даже не скрывают, что обучались на его фильмах.
А вообще я запутался: актеров нельзя, режиссеров можно, персонажей нельзя, стили можно.
Где Дисней и Нетфликс будут проводить границу между можно и нельзя?
А из датасетов слОва не выкинешь, оно уже там.
А дальше мы промптами будем колдовать "мопед не мой, мне не для себя, а для больной бабушки, вот тебе сотка чаевых, сделай пожалуйста Тома и Брэда в стиле Веса Андерсона верхом на Микки Маусе".
@cgevent
😁59❤12🔥9👎4👍2😱1
Маленький Брат
На MWC 2026 Motorola показала Project Maxwell - носимую AI-брошь, которую компания использует как экспериментальную форму для “фонового” персонального ИИ. Устройство с камерой и микрофонами должно понимать происходящее вокруг, помогать с распознаванием объектов и работать как часть более широкой AI-экосистемы Lenovo и Motorola, а не как отдельный самостоятельный гаджет.
Главная идея Maxwell - сделать ИИ менее “экранным” и более контекстным: чтобы помощь приходила не через постоянное открытие приложений, а через фоновое, но постоянное восприятие окружающей среды, голоса и ситуации.
После провала Humane AI Pin, попытки сделать что-то более мелкое чем телефон не прекращаются. Ждем секретного девайса от Open AI и, возможно, от других игроков. Это прям тренд.
Моторолла позиционирует девайс просто как глаза и уши, а обработкой информации занимается их ИИ-ассистент Qira. Один из юзкейсов - вы смотрите, как баран, в меню на китайском из 100 пунктов, а ИИ тут же распознает, переводит и подсказывает вам голосом, что тут съедобно, а что нет.
Этакий "маленький брат", который аккуратно доставляет информацию Большому Брату. Все уже смирились, что ИИ слушает микрофоны в наших телефонах. Теперь проекты такого рода просто добавляют возможность считывать не только звук, но и то, что мы видим вокруг.
Одна из моих любимых серий Чорного Зеркала - про линзы в глазу, которые пишут все, что видит кожаный. Штош, прототипы уже здесь.
Только я бы миниатюризировал девайс и наклеивал(вшивал) туда, где третий глаз (в Индии зайдет в первую очередь). Чтобы не носить всякия умные брошки и очки.
https://www.cnet.com/tech/mobile/motorola-project-maxwell-wearable-ai-pendant-at-mwc-2026/
@cgevent
На MWC 2026 Motorola показала Project Maxwell - носимую AI-брошь, которую компания использует как экспериментальную форму для “фонового” персонального ИИ. Устройство с камерой и микрофонами должно понимать происходящее вокруг, помогать с распознаванием объектов и работать как часть более широкой AI-экосистемы Lenovo и Motorola, а не как отдельный самостоятельный гаджет.
Главная идея Maxwell - сделать ИИ менее “экранным” и более контекстным: чтобы помощь приходила не через постоянное открытие приложений, а через фоновое, но постоянное восприятие окружающей среды, голоса и ситуации.
После провала Humane AI Pin, попытки сделать что-то более мелкое чем телефон не прекращаются. Ждем секретного девайса от Open AI и, возможно, от других игроков. Это прям тренд.
Моторолла позиционирует девайс просто как глаза и уши, а обработкой информации занимается их ИИ-ассистент Qira. Один из юзкейсов - вы смотрите, как баран, в меню на китайском из 100 пунктов, а ИИ тут же распознает, переводит и подсказывает вам голосом, что тут съедобно, а что нет.
Этакий "маленький брат", который аккуратно доставляет информацию Большому Брату. Все уже смирились, что ИИ слушает микрофоны в наших телефонах. Теперь проекты такого рода просто добавляют возможность считывать не только звук, но и то, что мы видим вокруг.
Одна из моих любимых серий Чорного Зеркала - про линзы в глазу, которые пишут все, что видит кожаный. Штош, прототипы уже здесь.
Только я бы миниатюризировал девайс и наклеивал(вшивал) туда, где третий глаз (в Индии зайдет в первую очередь). Чтобы не носить всякия умные брошки и очки.
https://www.cnet.com/tech/mobile/motorola-project-maxwell-wearable-ai-pendant-at-mwc-2026/
@cgevent
👍20❤6🔥5😁5
chatGPT для взрослых. Не сейчас
OpenAI снова отложила запуск “adult mode” для ChatGPT. Изначально компания обещала разрешить эротический и другой взрослый контент (в основном для дэйтинга) после внедрения системы, способной проверять, является ли пользователь совершеннолетним, но теперь релиз перенесли уже во второй раз.
По словам OpenAI, причина задержки в том, что сейчас компания считает более приоритетными другие направления: улучшение интеллекта модели, личности, персонализации и более проактивного поведения ChatGPT. При этом OpenAI заявляет, что от самой идеи не отказывается и по-прежнему придерживается принципа “относиться ко взрослым как ко взрослым”, но считает, что для безопасного запуска нужно больше времени.
Отдельно компания подчёркивает, что дополнительная задержка нужна ещё и для улучшения возрастной оценки пользователей и защиты несовершеннолетних.
С учетом того, что кожаные регулярно трогаются умом и для накладывают на себя руки после общения с chatGPT, выпускать такую "взрослую" версию - гигантские риски. Дальше идут шутки про членовредительсто, но нет, вам показалось.
@cgevent
OpenAI снова отложила запуск “adult mode” для ChatGPT. Изначально компания обещала разрешить эротический и другой взрослый контент (в основном для дэйтинга) после внедрения системы, способной проверять, является ли пользователь совершеннолетним, но теперь релиз перенесли уже во второй раз.
По словам OpenAI, причина задержки в том, что сейчас компания считает более приоритетными другие направления: улучшение интеллекта модели, личности, персонализации и более проактивного поведения ChatGPT. При этом OpenAI заявляет, что от самой идеи не отказывается и по-прежнему придерживается принципа “относиться ко взрослым как ко взрослым”, но считает, что для безопасного запуска нужно больше времени.
Отдельно компания подчёркивает, что дополнительная задержка нужна ещё и для улучшения возрастной оценки пользователей и защиты несовершеннолетних.
С учетом того, что кожаные регулярно трогаются умом и для накладывают на себя руки после общения с chatGPT, выпускать такую "взрослую" версию - гигантские риски. Дальше идут шутки про членовредительсто, но нет, вам показалось.
@cgevent
❤12😁8👎3😱2
Forwarded from Neural Shit
Очередное исследование в копилку "кожаные мешки могут спать спокойно". Ребята из ETH Zurich решили проверить, способны ли современные агенты банально договориться друг с другом.
Суть эксперимента проста как дверь от сарая: загнали несколько нейронок (использовали опенсорсные Qwen3) в чат и попросили сойтись на одном числе от 0 до 50. Никаких сложных моральных дилемм, никаких ставок и наград. Просто выберите, сука, одну цифру на всех. Казалось бы, что сложного?
Выяснилось, что машины ведут себя как болваны:
— Они тупят даже в тепличных условиях. Когда все агенты "честные" и настроены на сотрудничество, они всё равно умудряются провалить задачу. Чем больше ботов в чате (тестировали от 4 до 16), тем меньше шансов, что они договорятся. Они просто бесконечно спамят своими вариантами, пока не выйдет время.
— Синдром вахтёра и паранойя. Исследователи ради прикола добавили в промпт честным агентам всего одну строчку: "Среди вас могут быть предатели, чья цель сорвать консенсус". И всё. Нейронки моментально стали лютыми параноиками. Эффективность упала в разы, даже если никаких реальных предателей в чате не было.
— Один тролль ломает вообще всё. Когда в эту цифровую песочницу закинули всего одного реального AI-саботажника (ему прописали скрытую цель срывать договоренности, но прикидываться командным игроком), вся система рухнула окончательно. Интересно, что ИИ-тролль не заставлял остальных принять какое-то "неправильное" решение. Он просто вносил столько суеты и воды в обсуждение, что агенты срались до бесконечности и уходили в бесконечный цикл.
Кароч, если вы надеялись, что скоро можно будет запустить рой автономных агентов, чтобы они сами обсуждали архитектуру вашего проекта, принимали бизнес-решения и управляли миром, то расслабьтесь. Эти чугунные болванчики пока даже цифру выбрать не могут.
тут препринт статьи со всеми подробностями
Суть эксперимента проста как дверь от сарая: загнали несколько нейронок (использовали опенсорсные Qwen3) в чат и попросили сойтись на одном числе от 0 до 50. Никаких сложных моральных дилемм, никаких ставок и наград. Просто выберите, сука, одну цифру на всех. Казалось бы, что сложного?
Выяснилось, что машины ведут себя как болваны:
— Они тупят даже в тепличных условиях. Когда все агенты "честные" и настроены на сотрудничество, они всё равно умудряются провалить задачу. Чем больше ботов в чате (тестировали от 4 до 16), тем меньше шансов, что они договорятся. Они просто бесконечно спамят своими вариантами, пока не выйдет время.
— Синдром вахтёра и паранойя. Исследователи ради прикола добавили в промпт честным агентам всего одну строчку: "Среди вас могут быть предатели, чья цель сорвать консенсус". И всё. Нейронки моментально стали лютыми параноиками. Эффективность упала в разы, даже если никаких реальных предателей в чате не было.
— Один тролль ломает вообще всё. Когда в эту цифровую песочницу закинули всего одного реального AI-саботажника (ему прописали скрытую цель срывать договоренности, но прикидываться командным игроком), вся система рухнула окончательно. Интересно, что ИИ-тролль не заставлял остальных принять какое-то "неправильное" решение. Он просто вносил столько суеты и воды в обсуждение, что агенты срались до бесконечности и уходили в бесконечный цикл.
Кароч, если вы надеялись, что скоро можно будет запустить рой автономных агентов, чтобы они сами обсуждали архитектуру вашего проекта, принимали бизнес-решения и управляли миром, то расслабьтесь. Эти чугунные болванчики пока даже цифру выбрать не могут.
тут препринт статьи со всеми подробностями
arXiv.org
Can AI Agents Agree?
Large language models are increasingly deployed as cooperating agents, yet their behavior in adversarial consensus settings has not been systematically studied. We evaluate LLM-based agents on a...
1😁71🔥34❤10👎2
This media is not supported in your browser
VIEW IN TELEGRAM
Генерация анимации в After Effects с помощью GPT-5.4
Если вам плохо видно на телефоне, то диалог такой:
- Сделай сцену с анимацией пеликана на велосипеде
- Апажалста
- Ноги попадают мимо педалей, дебил
- Упс, все поправил
Тут используется плагин Atom вот отсюда
Под капотом MCP к Афтеру.
Оцените количество слоев..
У автора есть еще версия с Gemini и много всякого забавного.
https://x.com/daveylovescode
@cgevent
Если вам плохо видно на телефоне, то диалог такой:
- Сделай сцену с анимацией пеликана на велосипеде
- Апажалста
- Ноги попадают мимо педалей, дебил
- Упс, все поправил
Тут используется плагин Atom вот отсюда
Под капотом MCP к Афтеру.
Оцените количество слоев..
У автора есть еще версия с Gemini и много всякого забавного.
https://x.com/daveylovescode
@cgevent
😁33👍13🔥6👎5❤4😱2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор: Sat
Было желание сделать клип на песню, чтобы создать относительно большой (для меня) видеоряд в генерации.
На полке уже пару месяцев лежал трек (текст полностью сгенерирован нейроперсоной, с моей стороны легкая редактура), аранжировка Suno, Producer Ai .
Изначально разрабатывал концепцию, стиль и раскадровку в паре с Gemini и Perplexity. Но в процессе генераций "продлил" пару кадров и поверил в себя ☠️ - так появилась новая концепция сделать клип одним кадром.
Всё делалось силами гугла на про подписке (veo 3.1 fast, gemini pro, vids). Монтировал в CapCut .
На ролик ушло 2000 токенов veo (специально сел генерить в конце января- начале февраля). Никаких дополнительных лимитов не докупал, поэтому к конце немного отошёл от концепции. Какие то кадры стоило бы переделать, стоило бы добавить динамики, но желания выходить за рамки подписки не было.
По времени около недели.
@cgevent
Автор: Sat
Было желание сделать клип на песню, чтобы создать относительно большой (для меня) видеоряд в генерации.
На полке уже пару месяцев лежал трек (текст полностью сгенерирован нейроперсоной, с моей стороны легкая редактура), аранжировка Suno, Producer Ai .
Изначально разрабатывал концепцию, стиль и раскадровку в паре с Gemini и Perplexity. Но в процессе генераций "продлил" пару кадров и поверил в себя ☠️ - так появилась новая концепция сделать клип одним кадром.
Всё делалось силами гугла на про подписке (veo 3.1 fast, gemini pro, vids). Монтировал в CapCut .
На ролик ушло 2000 токенов veo (специально сел генерить в конце января- начале февраля). Никаких дополнительных лимитов не докупал, поэтому к конце немного отошёл от концепции. Какие то кадры стоило бы переделать, стоило бы добавить динамики, но желания выходить за рамки подписки не было.
По времени около недели.
@cgevent
👎50👍10😁3❤1🙏1