Нейронутые | ИИ (Егор Апполонов) – Telegram
Нейронутые | ИИ (Егор Апполонов)
13K subscribers
1.18K photos
280 videos
1 file
339 links
Я — Егор Апполонов, эксперт по ии-видео. Победитель 3 международных конкурсов ии-фильмов. Связь @egorevna

Портфолио: https://egorappolonov.ru/ и @aigencydigital

Курс по ии-видео: https://aifilm.online/

РКН https://clck.ru/3NNPKh
Download Telegram
Media is too big
VIEW IN TELEGRAM
MiniMax все за всеми представили Start и End Frame.
2🔥23👍12
Media is too big
VIEW IN TELEGRAM
Google запустил Vids — эксперимент, который может переписать правила видеопроизводства.

Это не просто редактор, а гибридная студия с мозгами Gemini. Алгоритм берет на себя задачи, которые раньше требовали команды: пишет сценарий; предлагает визуальные решения; генерирует иллюстрации; монтирует; озвучивает.

На практике это выглядит так: вы даете идею, а на выходе получаете готовый ролик для соцсетей, презентации или кампании. Никаких навыков монтажа — только диалог с ИИ. Итак, Vids превращает видеопроизводство в текстовый интерфейс.

Создатели говорят: то, что раньше было ремеслом для продакшн-студий, становится доступно любому — и это обещает радикально изменить динамику рынка.

Я отвечу: конечно, никаких людей эта штука не заменит. На уровне простого рилсика — возможно. Но вот делать фестивальное кино или серьезные рекламы — точно нет. Пока нет. А что будет через год — это большой вопрос.

Тестировать по этой ссылке.
👍28🔥14
Пост для тех, кто говорит, что ИИ — это просто: я пятый день делаю кадр длительностью 4 секунды для рекламного ролика.

Ну и раз уж мы затронули эту тему. Мой любимый комментарий, который часто слышу об ии работе "ну там же нажимаешь кнопку "сгенерить" и оно само все делает".
💯50🤣46👍18🔥4
11 111 - не успел сделать скрин. Но не пропустил событие 🙂 Спасибо, что вы здесь. Скоро покажу очень крутой ролик для ТВ. Пока нельзя.
5👍37🥰2
Media is too big
VIEW IN TELEGRAM
Продолжая тему, что "ИИ — это просто кнопку нажать". Это ремесло, где нет CTRL+Z. Только ты, машина и желание снова доказать, что ты — это "имя, о котором скоро все заговорят".

Ролик для Континентальной хоккейной лиги (КХЛ)— самый сложный коммерческий проект, который я делал. Не по хронометражу. По требованию к чистоте кадра, мурашкам в голосе, к деталям, которые нельзя сгенерировать простым prompt’ом.

Три недели работы, тысячи тысяч генераций, бессонные ночи. Я искал нужное движение брови и угол взгляда игрока не в модели — в сотнях вариантов от Kling, Veo, Runway, Luma, Hailuo, и очень много чего еще.

Этот ролик — в некотором смысле визитная карточка моих умений. Каждую фразу текста написал я. Каждая эмоция в кадре — выстрадана. Каждый кадр — результат долгой и кропотливой работы.

Это не "первый мой ролик для ТВ, сделанный в ИИ" (потому что уже не первый), не "впервые в истории КХЛ". Все это не так важно. Важно другое:

— можно ли "достать" эмоцию из генерации?
— можно ли заставить машину рассказывать истории, которые волнуют людей?
— можно ли быть режиссером там, где нет камер?

Можно.

Смотрите не глазами. Смотрите вниманием. Там — каждый кадр через боль, "выбит", как гол в овертайме: через 3000 неудачных генераций, сотни фиксов и монтаж до ночи.

ИИ — это не замена человеку. Это новый способ сказать миру: я был, я чувствовал, я сделал.

Сценарий, идея, генерация, монтаж, цветкорр и все-все-все — я. Крутейшая озвучка — Андрей Зайцев. Комментатор в ролике — реальный комментатор КХЛ Андрей Мосалев. Крутейшая работа со звуком — Константин Цыбульский. Клинап — Екатерина Бессмертная. В общем, хорошая командная работа.
11👍86🔥73🥰17👎8💩1
ИИ-итоги недели: сделал подборку апдейтов, на которые определенно стоит обратить внимание.

Higgsfield Draw to Edit: теперь есть Draw-to-Edit, и, да, это работает на базе Nano-Banana. Инструмент напоминает Aleph от Runway, но ощущается совсем по-другому — вы просто рисуете маску и редактируете видео, без тех страданий, что раньше были нормой. Это новый тип контроля в видео-редактировании.

Midjourney Style Explorer: Midjourney добавил фичу, о которой просили с альфа-версии — исследование и тест стилей прямо в генераторе. Теперь не нужно наугад повторять то, что тебе понравилось в Explore — просто кликайте, меняйте, запускайте. Стало в разы быстрее искать и применять вдохновение в реальных сценах.

HuanYuan Game Engine 2.0: обновленная модель от HuanYuan — настоящий подарок для гейм-девов и сценографов. Image-to-video, LoRA-тренировки, генерация игровых сцен, работа с видео и материалами — если ты строишь свои Unreal-миры с помощью ИИ, обойти HuanYuan уже нельзя.

ElevenLabs Sound FX v2: 30 секунд звуков, лупы, улучшенное качество — Elevenlabs сделали апгрейд звуковой части. SFX теперь можно использовать в сценах, как полноценный элемент атмосферы. Эту фичу я уже интегрировал в свои пайплайны. При наличии таких монстров как Veo3 и Adobe Firefly SFX — звучит как битва титанов.

Meshy 3D Model to Video: Meshy запустили конвертацию 3D-моделей в видео и изображения. Теперь можно контролировать свет, сцену, композицию — и рендер, который раньше занимал сутки, уходит в облако и превращается в видео. Создатели визуальных миров — вам точно туда.

Хотите такие апдейты раз в неделю?
1👍67💯17
Media is too big
VIEW IN TELEGRAM
Пришли новости с венецианского ии-кинофестиваля: вошел в топ-3

Документальный фильм Behind the Wings вошел в топ-3 видео мира на Venice AI Film Awards Venice 2025 в категории "документальные фильмы". А рекламный ролик Lada вошел в топ-3 видео мира в категории реклама.

Видео Behind The Wings доступно в этом посте. А ролик "Лада" залью к посту — для новых подписчиков.

Примечательно, что буквально на прошлой неделе ролик "Лада" вошел в топ-50 видео мира на AIFF — очень крупном международном кинофестивале (церемония награждения пройдет тоже в Венеции), на который было подано более 2000 работ.

Ну а еще у этого рекламного ролика есть "серебро" на международном кинофестивале Neuro Masters 2025, на который было подано 1500+ работ из 52 стран мира.
7🔥73👍30🥰2
Media is too big
VIEW IN TELEGRAM
А это продолжение ролика про "Ладу" — бэкстейдж. В котором нет ни одного реального кадра.
6🔥58👍12🤣7
Media is too big
VIEW IN TELEGRAM
Ежегодная презентация Apple началась 4 минуты назад и уже такие новости.

Источник — телеграм-канал "Нейронутые"
10🤣90🔥20💩20👍9🙈5🤬3
Ликуйте. Во Flow добавили возможность генерить вертикальные видео. Появился селектор выбора ориентации экрана.
4🔥23🥰3🤣2
А вот и интересная маркетинговая акция от MiniMax. Целую неделю опция Start / End Frame бесплатна.

Не могу сказать, касается ли это только тех, у кого есть подписка или всех подряд (проверяйте). Все остальные генерации на модели 02 — за кредитики.
👍13🙈1
This media is not supported in your browser
VIEW IN TELEGRAM
Например вот 😂 В русской деревне всегда так.
🔥21🤣15🙈3
Media is too big
VIEW IN TELEGRAM
Помедитируйте немного вместе со мной

Воссоздал свой день вдали от цивилизации нейросетей. Именно так я перезагружаюсь, когда мне нужно отдохнуть от работы. Делаю это регулярно, чтобы шифер не потек.

Вот сдам сейчас большой проект и на следующей неделе в Рязанскую область укачу.
🔥31👍27🥰6
ИИ-новости недели: свежие релизы, большие ставки

Seedream 4.0 — новый соперник для Nano Banana: ByteDance вышли на арену с Seedream 4.0, и да, по заявлениям многих «тестировщиков, он реально мощнее Nano Banana (по моим тестам – я уже плотно поработал с ним — нет). Поддержка редактирования и генерации изображений до 4K — и это не просто upscale. Так или иначе, у нас новый классный инструмент в генеративной графике.

Hunyuan Image 2.1: когда Hunyuan выпускает image model — сначала смеёшься над названием, потом смотришь в разрешение: 2K + генерация текста с высокой точностью. До этого мы знали их по LoRA и 3D-движкам, а теперь вот — конкурент Midjourney с акцентом на контент и символику. Нужно тестить.

Udio Voices: после того, как Udio удивил всех своей генерацией аудиотреков, они пошли дальше — теперь можно делать интересные AI-голоса. Я по-прежнему считаю, что нет конкурентов у ElevenLabs, но этот апдейт звучит как открытый вызов. Позже сделаю сравнение по параметрам: тембр, дикция, стабильность, экспорт, музыкальные интеграции.

Kling — AI Avatar и синхрон: Kling выкатил новую фичу с AI-аватарами и улучшенным липсинком. Первые тесты показали весьма неплохие результаты. Но нужно больше времени, чтобы дать экспертное заключение, что получилось у Kling и как этот инструмент выглядит на фоне конкурентов.

Higgsfield + $50M: Higgsfield закрыли крупный раунд, чтобы не просто пилить свое, а поддерживать другие AI-стартапы. То есть: они делают инструменты — и строят экосистему вокруг. Инфраструктура растет. Но в моем пайплайне Higgsfield нет и скорее всего не будет никогда. Почему? Потому что это хайповая игрушка, которая не годится для серьезной работы.

Итог недели: ии-гонка продолжается. Что ни день — новый движок.
👍22🔥18
OpenAI × Голливуд: новая «эпоха Pixar» или конец ремеслу?

OpenAI начала с чатов — и вот уже снимает полнометражный анимационный фильм. Название: Critterz. Бюджет: <$30 миллионов (по данным The Telegtaph).

Цель: сделать мультфильм с помощью ИИ за 9 месяцев, а не за три года, как планировал автор идеи — креативщик OpenAI Чад Нельсон.

Проект поддерживают продюсерские компании из Лондона и Лос-Анджелеса. И да, звучит как технодемка для больших студий — а вдруг ИИ действительно сможет заменить анимационные пайплайны?

OpenAI мечтает повторить магию Pixar 90-х (вспомним: «Toy Story» финансировал Стив Джобс, и это тоже была революция). Но здесь, конечно, ставки другие. Не 3D как новая технология, а ИИ как новый способ производства.

Что известно:

1. Фильм создается с помощью генеративного ИИ (но с участием людей — актеры озвучивают, художники отрисовывают основные скетчи).
2. Название — Critterz. История про лесных существ, отправляющихся в приключение.
3. Главная цель — ускорить производство и сократить расходы.
4. Работают с Vertigo Films (Великобритания)
5. OpenAI хочет показать, что их инструменты (речь явно о Sora) могут делать большие фильмы
6. Вопрос авторских прав все еще открыт — ИИ не может быть автором, но озвучка и человеческие скетчи, на которых обучались модели, могут защищаться.

Голливуд напрягся: Netflix и Disney уже тестят нейросети, а художники и аниматоры — начинают судиться. Только на прошлой неделе Anthropic заплатила $1,5 млрд за использование пиратских книг. Это не «ха-ха веселые мультики», это — битва за рабочие места и легитимность авторства.

Будет ли Critterz новым Pixar — или новым Гибли? Пока неясно. Но одно точно: ИИ официально вышел на экран. И назад уже не вернется.
👍13🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
А вот тизер фильма Critterz, над которым работает Open Ai. Это первая (самая ранняя) версия.

Обращаю ваше внимание: фильм делает озвучка, а не визуал. Так они и вытащили этот тизер: исключительно за счет профессиональной озвучки.

Когда есть хорошие голоса, рождающие живых героев, визуал отходит на второй план.

p.s. на сайте — ссылка в посте выше — вылодена remastered версия, которую делали в Sora. Там визуал уже поинтереснее.
👍18💩12👎3🔥3🤣1
Это блестяще (с hh.ru — не придумал):


ИМЯ КОМПАНИИ открывает новое направление в продакшене AI-контента. Нам нужен эксперт-знаток, который умеет создавать визуальный, аудио и видео контент с помощью современных инструментов: VEO 3, Heygen, ElevenLabs и др. Вы будете тем, кто превращает идеи в профессиональные медиаформаты с использованием генеративных моделей.

Задачи

Работа со всеми современными генеративными моделями и инструментами: VEO 3, Heygen, ElevenLabs и аналогичными.

Создание визуального, аудио и видео контента с помощью AI-инструментов.

Разработка промптов, оптимизация и доведение результата до профессионального уровня.

Эксперименты с форматами, стилями и сценариями, чтобы находить новые креативные решения.

Сотрудничество с маркетингом, дизайнерами, продуктом для формирования кейсов и презентаций.

Ведение внутренней базы знаний, документация лучших практик.

Требования (must-have)

Опыт работы с генеративными инструментами: VEO 3, Heygen, ElevenLabs или аналогами.

Навык генерации видео и изображений с участием реальных людей (deepfake/AI avatars).

Умение создавать видеопереходы и комбинировать сцены.

Использование синтезированных голосов (AI voice-over) для озвучки.

Креативность, внимательность к деталям, самостоятельность.

Будет плюсом (nice-to-have)

Портфолио работ, где использованы VEO 3 / Heygen / ElevenLabs.

Опыт монтажа и пост-обработки видео/аудио.

Знание других трендовых генеративных платформ.

Английский язык на уровне чтения документации и общения с международными коллегами.

Мы предлагаем: зарплата 50 000 рублей в месяц фикс. Выплаты 2 раза в месяц.

Комментарий "Нейронутых": Это уже клиника. 50 000 рублей в месяц за full-stack продакшен в одной из самых технологичных и взрывоопасных ниш медиа в 2025 году — это даже не фриланс за еду. Это когда ты просыпаешься с VEO3, засыпаешь с ElevenLabs, пишешь инструкции, рендеришь по 200 сцен в сутки, генеришь кейсы для маркетинга… и получаешь меньше, чем курьер на самокате. Это не вакансия, это диагноз.

Выссказывайтесь дорогие подписчики, что думаете на эту тему вы.

UPD: Вакансия вот тут. Настоящая, чесслово.
🤣58🤬15💯6🙈4👍2💩1
Люди до сих пор думают, что генерить ИИ-видео — это просто "нажать кнопку". "А чего так дорого? Оно же само все делает."

Ага. Оно само:

1. Ставит свет как Роджер Дикинс.

2. Пишет промты лучше копирайтера с Cannes Lions.

3. Рендерит сцену так, чтобы трек не вылетел, кадр не затупил, и эмоция дошла до зрителя.

4. Комбинирует с десятко моделей, от VEO3 до Midjourney, плюс лица, плюс голоса, плюс реализм, плюс — чтоб не жахнуло по авторскому праву.

5. Монтирует, озвучивает, делает цветокоррекцию и т.д. и т.п.

Оно само, конечно. Veo3 сам встанет в 5 утра, выберет тебе кадр (сам конечно), где актер не моргнул как дебил.

А ты потом неделю как маньяк промты правишь, сцены чистишь, собираешь как конструктор один единственный кадр на 3 секунды, прогоняешь через нейросеть, чтобы эмоция в кадре была настоящая, а не как у робота-суицидника.

Вот почему "оно" стоит дорого. Потому что под капотом не кнопка — а продакшн из двадцати человек, сведенный в одного специалиста с прокачанным мозгом, зрением, насмотренностью, опытом в маркетинге, видеопродакшне и терпением.

p.s. Цена на ии-видео высокая, потому что: вы не платите за кнопку. Вы платите за того, кто знает, на какую именно кнопку и когда нажать. И сколько раз нажать, чтобы не получилось г#вно.

p.p.s. "Ты кнопку жмешь — миллион тебе сразу, да?" Тогда у меня к вопрос: а что же все до сих пор бедные (на контент), если все так просто?

p.p.p.s. ИИ — это не автозапуск, это новая форма режиссуры. И если вы видите результат, от которого мурашки — знайте, кто-то за кадром выгорел, чтобы вы ахнули.
👍66💯35🔥17👎3🥰3