Media is too big
VIEW IN TELEGRAM
Google запустил Vids — эксперимент, который может переписать правила видеопроизводства.
Это не просто редактор, а гибридная студия с мозгами Gemini. Алгоритм берет на себя задачи, которые раньше требовали команды: пишет сценарий; предлагает визуальные решения; генерирует иллюстрации; монтирует; озвучивает.
На практике это выглядит так: вы даете идею, а на выходе получаете готовый ролик для соцсетей, презентации или кампании. Никаких навыков монтажа — только диалог с ИИ. Итак, Vids превращает видеопроизводство в текстовый интерфейс.
Создатели говорят: то, что раньше было ремеслом для продакшн-студий, становится доступно любому — и это обещает радикально изменить динамику рынка.
Я отвечу: конечно, никаких людей эта штука не заменит. На уровне простого рилсика — возможно. Но вот делать фестивальное кино или серьезные рекламы — точно нет. Пока нет. А что будет через год — это большой вопрос.
Тестировать по этой ссылке.
Это не просто редактор, а гибридная студия с мозгами Gemini. Алгоритм берет на себя задачи, которые раньше требовали команды: пишет сценарий; предлагает визуальные решения; генерирует иллюстрации; монтирует; озвучивает.
На практике это выглядит так: вы даете идею, а на выходе получаете готовый ролик для соцсетей, презентации или кампании. Никаких навыков монтажа — только диалог с ИИ. Итак, Vids превращает видеопроизводство в текстовый интерфейс.
Создатели говорят: то, что раньше было ремеслом для продакшн-студий, становится доступно любому — и это обещает радикально изменить динамику рынка.
Я отвечу: конечно, никаких людей эта штука не заменит. На уровне простого рилсика — возможно. Но вот делать фестивальное кино или серьезные рекламы — точно нет. Пока нет. А что будет через год — это большой вопрос.
Тестировать по этой ссылке.
👍28🔥14
Пост для тех, кто говорит, что ИИ — это просто: я пятый день делаю кадр длительностью 4 секунды для рекламного ролика.
Ну и раз уж мы затронули эту тему. Мой любимый комментарий, который часто слышу об ии работе "ну там же нажимаешь кнопку "сгенерить" и оно само все делает".
Ну и раз уж мы затронули эту тему. Мой любимый комментарий, который часто слышу об ии работе "ну там же нажимаешь кнопку "сгенерить" и оно само все делает".
💯50🤣46👍18🔥4
11 111 - не успел сделать скрин. Но не пропустил событие 🙂 Спасибо, что вы здесь. Скоро покажу очень крутой ролик для ТВ. Пока нельзя.
5👍37🥰2
Media is too big
VIEW IN TELEGRAM
Продолжая тему, что "ИИ — это просто кнопку нажать". Это ремесло, где нет CTRL+Z. Только ты, машина и желание снова доказать, что ты — это "имя, о котором скоро все заговорят".
Ролик для Континентальной хоккейной лиги (КХЛ)— самый сложный коммерческий проект, который я делал. Не по хронометражу. По требованию к чистоте кадра, мурашкам в голосе, к деталям, которые нельзя сгенерировать простым prompt’ом.
Три недели работы, тысячи тысяч генераций, бессонные ночи. Я искал нужное движение брови и угол взгляда игрока не в модели — в сотнях вариантов от Kling, Veo, Runway, Luma, Hailuo, и очень много чего еще.
Этот ролик — в некотором смысле визитная карточка моих умений. Каждую фразу текста написал я. Каждая эмоция в кадре — выстрадана. Каждый кадр — результат долгой и кропотливой работы.
Это не "первый мой ролик для ТВ, сделанный в ИИ" (потому что уже не первый), не "впервые в истории КХЛ". Все это не так важно. Важно другое:
— можно ли "достать" эмоцию из генерации?
— можно ли заставить машину рассказывать истории, которые волнуют людей?
— можно ли быть режиссером там, где нет камер?
Можно.
Смотрите не глазами. Смотрите вниманием. Там — каждый кадр через боль, "выбит", как гол в овертайме: через 3000 неудачных генераций, сотни фиксов и монтаж до ночи.
ИИ — это не замена человеку. Это новый способ сказать миру: я был, я чувствовал, я сделал.
Сценарий, идея, генерация, монтаж, цветкорр и все-все-все — я. Крутейшая озвучка — Андрей Зайцев. Комментатор в ролике — реальный комментатор КХЛ Андрей Мосалев. Крутейшая работа со звуком — Константин Цыбульский. Клинап — Екатерина Бессмертная. В общем, хорошая командная работа.
Ролик для Континентальной хоккейной лиги (КХЛ)— самый сложный коммерческий проект, который я делал. Не по хронометражу. По требованию к чистоте кадра, мурашкам в голосе, к деталям, которые нельзя сгенерировать простым prompt’ом.
Три недели работы, тысячи тысяч генераций, бессонные ночи. Я искал нужное движение брови и угол взгляда игрока не в модели — в сотнях вариантов от Kling, Veo, Runway, Luma, Hailuo, и очень много чего еще.
Этот ролик — в некотором смысле визитная карточка моих умений. Каждую фразу текста написал я. Каждая эмоция в кадре — выстрадана. Каждый кадр — результат долгой и кропотливой работы.
Это не "первый мой ролик для ТВ, сделанный в ИИ" (потому что уже не первый), не "впервые в истории КХЛ". Все это не так важно. Важно другое:
— можно ли "достать" эмоцию из генерации?
— можно ли заставить машину рассказывать истории, которые волнуют людей?
— можно ли быть режиссером там, где нет камер?
Можно.
Смотрите не глазами. Смотрите вниманием. Там — каждый кадр через боль, "выбит", как гол в овертайме: через 3000 неудачных генераций, сотни фиксов и монтаж до ночи.
ИИ — это не замена человеку. Это новый способ сказать миру: я был, я чувствовал, я сделал.
Сценарий, идея, генерация, монтаж, цветкорр и все-все-все — я. Крутейшая озвучка — Андрей Зайцев. Комментатор в ролике — реальный комментатор КХЛ Андрей Мосалев. Крутейшая работа со звуком — Константин Цыбульский. Клинап — Екатерина Бессмертная. В общем, хорошая командная работа.
11👍86🔥73🥰17👎8💩1
ИИ-итоги недели: сделал подборку апдейтов, на которые определенно стоит обратить внимание.
Higgsfield Draw to Edit: теперь есть Draw-to-Edit, и, да, это работает на базе Nano-Banana. Инструмент напоминает Aleph от Runway, но ощущается совсем по-другому — вы просто рисуете маску и редактируете видео, без тех страданий, что раньше были нормой. Это новый тип контроля в видео-редактировании.
Midjourney Style Explorer: Midjourney добавил фичу, о которой просили с альфа-версии — исследование и тест стилей прямо в генераторе. Теперь не нужно наугад повторять то, что тебе понравилось в Explore — просто кликайте, меняйте, запускайте. Стало в разы быстрее искать и применять вдохновение в реальных сценах.
HuanYuan Game Engine 2.0: обновленная модель от HuanYuan — настоящий подарок для гейм-девов и сценографов. Image-to-video, LoRA-тренировки, генерация игровых сцен, работа с видео и материалами — если ты строишь свои Unreal-миры с помощью ИИ, обойти HuanYuan уже нельзя.
ElevenLabs Sound FX v2: 30 секунд звуков, лупы, улучшенное качество — Elevenlabs сделали апгрейд звуковой части. SFX теперь можно использовать в сценах, как полноценный элемент атмосферы. Эту фичу я уже интегрировал в свои пайплайны. При наличии таких монстров как Veo3 и Adobe Firefly SFX — звучит как битва титанов.
Meshy 3D Model to Video: Meshy запустили конвертацию 3D-моделей в видео и изображения. Теперь можно контролировать свет, сцену, композицию — и рендер, который раньше занимал сутки, уходит в облако и превращается в видео. Создатели визуальных миров — вам точно туда.
Хотите такие апдейты раз в неделю?
Higgsfield Draw to Edit: теперь есть Draw-to-Edit, и, да, это работает на базе Nano-Banana. Инструмент напоминает Aleph от Runway, но ощущается совсем по-другому — вы просто рисуете маску и редактируете видео, без тех страданий, что раньше были нормой. Это новый тип контроля в видео-редактировании.
Midjourney Style Explorer: Midjourney добавил фичу, о которой просили с альфа-версии — исследование и тест стилей прямо в генераторе. Теперь не нужно наугад повторять то, что тебе понравилось в Explore — просто кликайте, меняйте, запускайте. Стало в разы быстрее искать и применять вдохновение в реальных сценах.
HuanYuan Game Engine 2.0: обновленная модель от HuanYuan — настоящий подарок для гейм-девов и сценографов. Image-to-video, LoRA-тренировки, генерация игровых сцен, работа с видео и материалами — если ты строишь свои Unreal-миры с помощью ИИ, обойти HuanYuan уже нельзя.
ElevenLabs Sound FX v2: 30 секунд звуков, лупы, улучшенное качество — Elevenlabs сделали апгрейд звуковой части. SFX теперь можно использовать в сценах, как полноценный элемент атмосферы. Эту фичу я уже интегрировал в свои пайплайны. При наличии таких монстров как Veo3 и Adobe Firefly SFX — звучит как битва титанов.
Meshy 3D Model to Video: Meshy запустили конвертацию 3D-моделей в видео и изображения. Теперь можно контролировать свет, сцену, композицию — и рендер, который раньше занимал сутки, уходит в облако и превращается в видео. Создатели визуальных миров — вам точно туда.
Хотите такие апдейты раз в неделю?
1👍67💯17
Media is too big
VIEW IN TELEGRAM
Пришли новости с венецианского ии-кинофестиваля: вошел в топ-3
Документальный фильм Behind the Wings вошел в топ-3 видео мира на Venice AI Film Awards Venice 2025 в категории "документальные фильмы". А рекламный ролик Lada вошел в топ-3 видео мира в категории реклама.
Видео Behind The Wings доступно в этом посте. А ролик "Лада" залью к посту — для новых подписчиков.
Примечательно, что буквально на прошлой неделе ролик "Лада" вошел в топ-50 видео мира на AIFF — очень крупном международном кинофестивале (церемония награждения пройдет тоже в Венеции), на который было подано более 2000 работ.
Ну а еще у этого рекламного ролика есть "серебро" на международном кинофестивале Neuro Masters 2025, на который было подано 1500+ работ из 52 стран мира.
Документальный фильм Behind the Wings вошел в топ-3 видео мира на Venice AI Film Awards Venice 2025 в категории "документальные фильмы". А рекламный ролик Lada вошел в топ-3 видео мира в категории реклама.
Видео Behind The Wings доступно в этом посте. А ролик "Лада" залью к посту — для новых подписчиков.
Примечательно, что буквально на прошлой неделе ролик "Лада" вошел в топ-50 видео мира на AIFF — очень крупном международном кинофестивале (церемония награждения пройдет тоже в Венеции), на который было подано более 2000 работ.
Ну а еще у этого рекламного ролика есть "серебро" на международном кинофестивале Neuro Masters 2025, на который было подано 1500+ работ из 52 стран мира.
7🔥73👍30🥰2
Media is too big
VIEW IN TELEGRAM
А это продолжение ролика про "Ладу" — бэкстейдж. В котором нет ни одного реального кадра.
6🔥58👍12🤣7
Media is too big
VIEW IN TELEGRAM
Ежегодная презентация Apple началась 4 минуты назад и уже такие новости.
Источник — телеграм-канал "Нейронутые"
Источник — телеграм-канал "Нейронутые"
10🤣90🔥20💩20👍9🙈5🤬3
This media is not supported in your browser
VIEW IN TELEGRAM
Например вот 😂 В русской деревне всегда так.
🔥21🤣15🙈3
Media is too big
VIEW IN TELEGRAM
Помедитируйте немного вместе со мной
Воссоздал свой день вдали от цивилизации нейросетей. Именно так я перезагружаюсь, когда мне нужно отдохнуть от работы. Делаю это регулярно, чтобы шифер не потек.
Вот сдам сейчас большой проект и на следующей неделе в Рязанскую область укачу.
Воссоздал свой день вдали от цивилизации нейросетей. Именно так я перезагружаюсь, когда мне нужно отдохнуть от работы. Делаю это регулярно, чтобы шифер не потек.
Вот сдам сейчас большой проект и на следующей неделе в Рязанскую область укачу.
🔥31👍27🥰6
ИИ-новости недели: свежие релизы, большие ставки
Seedream 4.0 — новый соперник для Nano Banana: ByteDance вышли на арену с Seedream 4.0, и да, по заявлениям многих «тестировщиков, он реально мощнее Nano Banana (по моим тестам – я уже плотно поработал с ним — нет). Поддержка редактирования и генерации изображений до 4K — и это не просто upscale. Так или иначе, у нас новый классный инструмент в генеративной графике.
Hunyuan Image 2.1: когда Hunyuan выпускает image model — сначала смеёшься над названием, потом смотришь в разрешение: 2K + генерация текста с высокой точностью. До этого мы знали их по LoRA и 3D-движкам, а теперь вот — конкурент Midjourney с акцентом на контент и символику. Нужно тестить.
Udio Voices: после того, как Udio удивил всех своей генерацией аудиотреков, они пошли дальше — теперь можно делать интересные AI-голоса. Я по-прежнему считаю, что нет конкурентов у ElevenLabs, но этот апдейт звучит как открытый вызов. Позже сделаю сравнение по параметрам: тембр, дикция, стабильность, экспорт, музыкальные интеграции.
Kling — AI Avatar и синхрон: Kling выкатил новую фичу с AI-аватарами и улучшенным липсинком. Первые тесты показали весьма неплохие результаты. Но нужно больше времени, чтобы дать экспертное заключение, что получилось у Kling и как этот инструмент выглядит на фоне конкурентов.
Higgsfield + $50M: Higgsfield закрыли крупный раунд, чтобы не просто пилить свое, а поддерживать другие AI-стартапы. То есть: они делают инструменты — и строят экосистему вокруг. Инфраструктура растет. Но в моем пайплайне Higgsfield нет и скорее всего не будет никогда. Почему? Потому что это хайповая игрушка, которая не годится для серьезной работы.
Итог недели: ии-гонка продолжается. Что ни день — новый движок.
Seedream 4.0 — новый соперник для Nano Banana: ByteDance вышли на арену с Seedream 4.0, и да, по заявлениям многих «тестировщиков, он реально мощнее Nano Banana (по моим тестам – я уже плотно поработал с ним — нет). Поддержка редактирования и генерации изображений до 4K — и это не просто upscale. Так или иначе, у нас новый классный инструмент в генеративной графике.
Hunyuan Image 2.1: когда Hunyuan выпускает image model — сначала смеёшься над названием, потом смотришь в разрешение: 2K + генерация текста с высокой точностью. До этого мы знали их по LoRA и 3D-движкам, а теперь вот — конкурент Midjourney с акцентом на контент и символику. Нужно тестить.
Udio Voices: после того, как Udio удивил всех своей генерацией аудиотреков, они пошли дальше — теперь можно делать интересные AI-голоса. Я по-прежнему считаю, что нет конкурентов у ElevenLabs, но этот апдейт звучит как открытый вызов. Позже сделаю сравнение по параметрам: тембр, дикция, стабильность, экспорт, музыкальные интеграции.
Kling — AI Avatar и синхрон: Kling выкатил новую фичу с AI-аватарами и улучшенным липсинком. Первые тесты показали весьма неплохие результаты. Но нужно больше времени, чтобы дать экспертное заключение, что получилось у Kling и как этот инструмент выглядит на фоне конкурентов.
Higgsfield + $50M: Higgsfield закрыли крупный раунд, чтобы не просто пилить свое, а поддерживать другие AI-стартапы. То есть: они делают инструменты — и строят экосистему вокруг. Инфраструктура растет. Но в моем пайплайне Higgsfield нет и скорее всего не будет никогда. Почему? Потому что это хайповая игрушка, которая не годится для серьезной работы.
Итог недели: ии-гонка продолжается. Что ни день — новый движок.
👍22🔥18
OpenAI × Голливуд: новая «эпоха Pixar» или конец ремеслу?
OpenAI начала с чатов — и вот уже снимает полнометражный анимационный фильм. Название: Critterz. Бюджет: <$30 миллионов (по данным The Telegtaph).
Цель: сделать мультфильм с помощью ИИ за 9 месяцев, а не за три года, как планировал автор идеи — креативщик OpenAI Чад Нельсон.
Проект поддерживают продюсерские компании из Лондона и Лос-Анджелеса. И да, звучит как технодемка для больших студий — а вдруг ИИ действительно сможет заменить анимационные пайплайны?
OpenAI мечтает повторить магию Pixar 90-х (вспомним: «Toy Story» финансировал Стив Джобс, и это тоже была революция). Но здесь, конечно, ставки другие. Не 3D как новая технология, а ИИ как новый способ производства.
Что известно:
1. Фильм создается с помощью генеративного ИИ (но с участием людей — актеры озвучивают, художники отрисовывают основные скетчи).
2. Название — Critterz. История про лесных существ, отправляющихся в приключение.
3. Главная цель — ускорить производство и сократить расходы.
4. Работают с Vertigo Films (Великобритания)
5. OpenAI хочет показать, что их инструменты (речь явно о Sora) могут делать большие фильмы
6. Вопрос авторских прав все еще открыт — ИИ не может быть автором, но озвучка и человеческие скетчи, на которых обучались модели, могут защищаться.
Голливуд напрягся: Netflix и Disney уже тестят нейросети, а художники и аниматоры — начинают судиться. Только на прошлой неделе Anthropic заплатила $1,5 млрд за использование пиратских книг. Это не «ха-ха веселые мультики», это — битва за рабочие места и легитимность авторства.
Будет ли Critterz новым Pixar — или новым Гибли? Пока неясно. Но одно точно: ИИ официально вышел на экран. И назад уже не вернется.
OpenAI начала с чатов — и вот уже снимает полнометражный анимационный фильм. Название: Critterz. Бюджет: <$30 миллионов (по данным The Telegtaph).
Цель: сделать мультфильм с помощью ИИ за 9 месяцев, а не за три года, как планировал автор идеи — креативщик OpenAI Чад Нельсон.
Проект поддерживают продюсерские компании из Лондона и Лос-Анджелеса. И да, звучит как технодемка для больших студий — а вдруг ИИ действительно сможет заменить анимационные пайплайны?
OpenAI мечтает повторить магию Pixar 90-х (вспомним: «Toy Story» финансировал Стив Джобс, и это тоже была революция). Но здесь, конечно, ставки другие. Не 3D как новая технология, а ИИ как новый способ производства.
Что известно:
1. Фильм создается с помощью генеративного ИИ (но с участием людей — актеры озвучивают, художники отрисовывают основные скетчи).
2. Название — Critterz. История про лесных существ, отправляющихся в приключение.
3. Главная цель — ускорить производство и сократить расходы.
4. Работают с Vertigo Films (Великобритания)
5. OpenAI хочет показать, что их инструменты (речь явно о Sora) могут делать большие фильмы
6. Вопрос авторских прав все еще открыт — ИИ не может быть автором, но озвучка и человеческие скетчи, на которых обучались модели, могут защищаться.
Голливуд напрягся: Netflix и Disney уже тестят нейросети, а художники и аниматоры — начинают судиться. Только на прошлой неделе Anthropic заплатила $1,5 млрд за использование пиратских книг. Это не «ха-ха веселые мультики», это — битва за рабочие места и легитимность авторства.
Будет ли Critterz новым Pixar — или новым Гибли? Пока неясно. Но одно точно: ИИ официально вышел на экран. И назад уже не вернется.
👍13🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
А вот тизер фильма Critterz, над которым работает Open Ai. Это первая (самая ранняя) версия.
Обращаю ваше внимание: фильм делает озвучка, а не визуал. Так они и вытащили этот тизер: исключительно за счет профессиональной озвучки.
Когда есть хорошие голоса, рождающие живых героев, визуал отходит на второй план.
p.s. на сайте — ссылка в посте выше — вылодена remastered версия, которую делали в Sora. Там визуал уже поинтереснее.
Обращаю ваше внимание: фильм делает озвучка, а не визуал. Так они и вытащили этот тизер: исключительно за счет профессиональной озвучки.
Когда есть хорошие голоса, рождающие живых героев, визуал отходит на второй план.
p.s. на сайте — ссылка в посте выше — вылодена remastered версия, которую делали в Sora. Там визуал уже поинтереснее.
👍18💩12👎3🔥3🤣1
Это блестяще (с hh.ru — не придумал):
ИМЯ КОМПАНИИ открывает новое направление в продакшене AI-контента. Нам нужен эксперт-знаток, который умеет создавать визуальный, аудио и видео контент с помощью современных инструментов: VEO 3, Heygen, ElevenLabs и др. Вы будете тем, кто превращает идеи в профессиональные медиаформаты с использованием генеративных моделей.
Задачи
Работа со всеми современными генеративными моделями и инструментами: VEO 3, Heygen, ElevenLabs и аналогичными.
Создание визуального, аудио и видео контента с помощью AI-инструментов.
Разработка промптов, оптимизация и доведение результата до профессионального уровня.
Эксперименты с форматами, стилями и сценариями, чтобы находить новые креативные решения.
Сотрудничество с маркетингом, дизайнерами, продуктом для формирования кейсов и презентаций.
Ведение внутренней базы знаний, документация лучших практик.
Требования (must-have)
Опыт работы с генеративными инструментами: VEO 3, Heygen, ElevenLabs или аналогами.
Навык генерации видео и изображений с участием реальных людей (deepfake/AI avatars).
Умение создавать видеопереходы и комбинировать сцены.
Использование синтезированных голосов (AI voice-over) для озвучки.
Креативность, внимательность к деталям, самостоятельность.
Будет плюсом (nice-to-have)
Портфолио работ, где использованы VEO 3 / Heygen / ElevenLabs.
Опыт монтажа и пост-обработки видео/аудио.
Знание других трендовых генеративных платформ.
Английский язык на уровне чтения документации и общения с международными коллегами.
Мы предлагаем: зарплата50 000 рублей в месяц фикс . Выплаты 2 раза в месяц.
Комментарий "Нейронутых": Это уже клиника.50 000 рублей в месяц за full-stack продакшен в одной из самых технологичных и взрывоопасных ниш медиа в 2025 году — это даже не фриланс за еду. Это когда ты просыпаешься с VEO3, засыпаешь с ElevenLabs, пишешь инструкции, рендеришь по 200 сцен в сутки, генеришь кейсы для маркетинга… и получаешь меньше, чем курьер на самокате. Это не вакансия, это диагноз.
Выссказывайтесь дорогие подписчики, что думаете на эту тему вы.
UPD: Вакансия вот тут. Настоящая, чесслово.
ИМЯ КОМПАНИИ открывает новое направление в продакшене AI-контента. Нам нужен эксперт-знаток, который умеет создавать визуальный, аудио и видео контент с помощью современных инструментов: VEO 3, Heygen, ElevenLabs и др. Вы будете тем, кто превращает идеи в профессиональные медиаформаты с использованием генеративных моделей.
Задачи
Работа со всеми современными генеративными моделями и инструментами: VEO 3, Heygen, ElevenLabs и аналогичными.
Создание визуального, аудио и видео контента с помощью AI-инструментов.
Разработка промптов, оптимизация и доведение результата до профессионального уровня.
Эксперименты с форматами, стилями и сценариями, чтобы находить новые креативные решения.
Сотрудничество с маркетингом, дизайнерами, продуктом для формирования кейсов и презентаций.
Ведение внутренней базы знаний, документация лучших практик.
Требования (must-have)
Опыт работы с генеративными инструментами: VEO 3, Heygen, ElevenLabs или аналогами.
Навык генерации видео и изображений с участием реальных людей (deepfake/AI avatars).
Умение создавать видеопереходы и комбинировать сцены.
Использование синтезированных голосов (AI voice-over) для озвучки.
Креативность, внимательность к деталям, самостоятельность.
Будет плюсом (nice-to-have)
Портфолио работ, где использованы VEO 3 / Heygen / ElevenLabs.
Опыт монтажа и пост-обработки видео/аудио.
Знание других трендовых генеративных платформ.
Английский язык на уровне чтения документации и общения с международными коллегами.
Мы предлагаем: зарплата
Комментарий "Нейронутых": Это уже клиника.
Выссказывайтесь дорогие подписчики, что думаете на эту тему вы.
UPD: Вакансия вот тут. Настоящая, чесслово.
🤣58🤬15💯6🙈4👍2💩1
Люди до сих пор думают, что генерить ИИ-видео — это просто "нажать кнопку". "А чего так дорого? Оно же само все делает."
Ага. Оно само:
1. Ставит свет как Роджер Дикинс.
2. Пишет промты лучше копирайтера с Cannes Lions.
3. Рендерит сцену так, чтобы трек не вылетел, кадр не затупил, и эмоция дошла до зрителя.
4. Комбинирует с десятко моделей, от VEO3 до Midjourney, плюс лица, плюс голоса, плюс реализм, плюс — чтоб не жахнуло по авторскому праву.
5. Монтирует, озвучивает, делает цветокоррекцию и т.д. и т.п.
Оно само, конечно. Veo3 сам встанет в 5 утра, выберет тебе кадр (сам конечно), где актер не моргнул как дебил.
А ты потом неделю как маньяк промты правишь, сцены чистишь, собираешь как конструктор один единственный кадр на 3 секунды, прогоняешь через нейросеть, чтобы эмоция в кадре была настоящая, а не как у робота-суицидника.
Вот почему "оно" стоит дорого. Потому что под капотом не кнопка — а продакшн из двадцати человек, сведенный в одного специалиста с прокачанным мозгом, зрением, насмотренностью, опытом в маркетинге, видеопродакшне и терпением.
p.s. Цена на ии-видео высокая, потому что: вы не платите за кнопку. Вы платите за того, кто знает, на какую именно кнопку и когда нажать. И сколько раз нажать, чтобы не получилось г#вно.
p.p.s. "Ты кнопку жмешь — миллион тебе сразу, да?" Тогда у меня к вопрос: а что же все до сих пор бедные (на контент), если все так просто?
p.p.p.s. ИИ — это не автозапуск, это новая форма режиссуры. И если вы видите результат, от которого мурашки — знайте, кто-то за кадром выгорел, чтобы вы ахнули.
Ага. Оно само:
1. Ставит свет как Роджер Дикинс.
2. Пишет промты лучше копирайтера с Cannes Lions.
3. Рендерит сцену так, чтобы трек не вылетел, кадр не затупил, и эмоция дошла до зрителя.
4. Комбинирует с десятко моделей, от VEO3 до Midjourney, плюс лица, плюс голоса, плюс реализм, плюс — чтоб не жахнуло по авторскому праву.
5. Монтирует, озвучивает, делает цветокоррекцию и т.д. и т.п.
Оно само, конечно. Veo3 сам встанет в 5 утра, выберет тебе кадр (сам конечно), где актер не моргнул как дебил.
А ты потом неделю как маньяк промты правишь, сцены чистишь, собираешь как конструктор один единственный кадр на 3 секунды, прогоняешь через нейросеть, чтобы эмоция в кадре была настоящая, а не как у робота-суицидника.
Вот почему "оно" стоит дорого. Потому что под капотом не кнопка — а продакшн из двадцати человек, сведенный в одного специалиста с прокачанным мозгом, зрением, насмотренностью, опытом в маркетинге, видеопродакшне и терпением.
p.s. Цена на ии-видео высокая, потому что: вы не платите за кнопку. Вы платите за того, кто знает, на какую именно кнопку и когда нажать. И сколько раз нажать, чтобы не получилось г#вно.
p.p.s. "Ты кнопку жмешь — миллион тебе сразу, да?" Тогда у меня к вопрос: а что же все до сих пор бедные (на контент), если все так просто?
p.p.p.s. ИИ — это не автозапуск, это новая форма режиссуры. И если вы видите результат, от которого мурашки — знайте, кто-то за кадром выгорел, чтобы вы ахнули.
👍66💯35🔥17👎3🥰3