Революция Чайных Пакетиков – Telegram
Революция Чайных Пакетиков
1.63K subscribers
120 photos
60 videos
75 links
Авторский канал о том, как нейросети меняют наш мир. Делаю игры. Рассказываю, как работают топовые ИИ. Делюсь халявными сервисами. Экспериментирую и угораю над реальностью.
Download Telegram
Media is too big
VIEW IN TELEGRAM
Как делать крутое видео?

Всем привет! Сегодня хочу вспомнить свой старый проект, который уже давно не обновляется, но его наследие сейчас актуально, как никогда. Ведь появилось огромное количество людей, увлеченных созданием видео через AI-инструменты, но… не хватает художественной базы. Ведь AI не научит вкусу, ритму, или тому какой кадр за каким следует. И вот тут я могу помочь!

D6 – он же Шестой Отдел – для меня это не просто команда, а целая эпоха. Отряд крутанов, вместе росших и развивавшихся в сфере компьютерной графики, монтажа и спецэффектов на протяжении 13 лет.

Наше любимое детище: видеоблог, в котором мы бесплатно делились самыми важными знаниями для видеопродакшена. Мы никогда не хотели делать из этого платные курсы – монетизацию вообще отключили. Просто делали то, что любили, и кайфовали от процесса!

За 5 лет активной жизни блога мы выпустили более 60 обучающих видео – без воды, скучной теории и занудства. Зато со стилем, юмором и четкой подачей. Прикрепляю первый выпуск, на котором я молодой и зеленый 😂

⬇️Еще несколько видосов – в комментариях для тех, у кого проблемы с VPN. Остальное – на YouTube: Плейлист "Нарезашь!" – там только практика, никакой воды, и советы, которые работают в любом инструменте.

И да, жду ваших реакций, если такое интересно!🔥

#d6 #Чайная_халява
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍7❤‍🔥53🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Конец эпохи motion-capture?

Всем привет!
Много лет подряд системы motion-capture были основным инструментом для анимации персонажей. Это те самые смешные костюмы, которые использовались при съемках Аватара Джеймса Кэмерона. Мы и сами иногда используем такие костюмы для съемок рекламы. Но штука эта невероятно дорогая.

Но, похоже, всё… Технология близится к своему закату.

Появился мощный AI-редактор анимаций, который умеет извлекать движения прямо из ваших видео. Более того, он может анимировать 3D модели по вашему текстовому запросу с последующей выгрузкой в проект.

Можно зайти на сайт и протестировать, заставив человечков двигаться как вам нравится.
👍21🔥13❤‍🔥31
Media is too big
VIEW IN TELEGRAM
Лучший генератор img2video? Проверил на том самом коте

Всем привет! Потратил кучу времени и денег, чтобы разобраться, какой генератор видео лучше на данный момент.

Сделал по 10 генераций в каждом сервисе, с одинаковым промптом. Проверял как бесплатные (кроме Sora) так и подписочные инструменты.
Промпт:
People with their phones take pictures of a giant cat, realistic lighting and shadows, static shot, the cat looks at people with displeasure

Какой лучше? Решать вам, но в комментариях будут все исходники и мое мнение по каждому сервису. Kling!⬇️

P.S. Опишите свой опыт, если пользуетесь😊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥7❤‍🔥4🤔1
Media is too big
VIEW IN TELEGRAM
Сегодня ночью OpenAI выкатили свою первую рекламу ChatGPT — и сразу на Супербоуле!

Ролик обошёлся в $14 млн. и, возможно, стал первой телевизионной рекламой в истории компании.

Мне реклама зашла. Но вот поймёт ли её обычный зритель, который не видел эти ваши ИИ, — вопрос открытый.

🔥Ролик огонь!

🤔Непонятно!
🔥37🤔13👍71
Media is too big
VIEW IN TELEGRAM
Основной проект сейчас у нас это War Robots: Frontiers. На днях вышел ролик по этому поводу.

К нему мной в ИИ, например, полностью анимирован пэшкот. К слову, это 4K без апскейлеров, кто отгадает как я это сделал - молодец.

Скоро тут на канале буду хвастаться роликам полностью сделанными ИИ инструментами в продакшн качестве.

Смотреть в 4K на Youtube
🔥39👍422❤‍🔥1
Media is too big
VIEW IN TELEGRAM
Как сделать киношную картинку в видеогенераторе?

Всем привет! Расскажу, как легко сделать картинку, неотличимую от настоящих фильмов. А самое главное — описанный процесс даст вам инструменты контроля, которые позволят использовать ваш материал в серьезном продакшене.

Самое важное — это использовать правильное исходное изображение. Да, я пользуюсь только img2video, так как text2video дает слишком неожиданные и неконсистентные результаты. Для генерации стартового изображения мне помогает Krea.AI, но подойдет и MidJourney. Локальные решения — тоже классно, но, если тянет железо.

Залог успеха — это хороший промпт, и первая хитрость в том, что не нужно быть промпт-инженером. В комментариях к этому посту я дам промпт для создания промптов для Krea.ai и Kling.ai. Вы просто вставляете его в ChatGPT или DeepSeek и спокойно по-русски описываете, что хотите видеть в вашей сцене.

Вторая хитрость: использование кино-стилей. Картинка из нейронок всегда палится своей идеальностью. Я не люблю все возможные пресеты, и предпочитаю кидать грейдинг на постах, но зачем делать лишнюю работу, когда есть роботы? В Krea и MidJourney есть множество реально крутых решений для получения атмосферных и киношных кадров.

Получив исходное изображение, отправляем его в Kling.AI. Описываем промпт, также используя промпт-генератор из комментариев. Всегда добавляйте промпт: muted color — он ограничивает Kling в его желании усиливать контраст на протяжении генерации.

Если наш шот длится более 5 секунд, нам нужен будет последний кадр из него. Немного поднимаем его качество в Krea Enhancer с параметрами:

Upscaling — 2x
Strength — 0.4 (сила апскейла)
Resemblance — 0.95 (похожесть на исходник, нам это нужно, чтобы не было рывка)
Clarity — 0.07 (тот самый параметр, который создает уродливый денойз)
Match Color — ON (делает так, чтобы цвета вашей исходной картинки совпадали с апскейлом)

Улучшив последний кадр, используем его как первый кадр в новой видеогенерации. Это станет продолжением нашего шота. Таким образом мы сможем делать бесконечно длинную сцену.

Иногда полезно сгенерировать тряску, добавив в промпт: handheld device filming — это поможет скрыть рывки при переходе.

Если вы снимаете экшен-сцену, полезно использовать slowmotion, а затем уже в редакторе доводить до необходимой скорости. Т.к. в генераторах экшен с резкими движениями создает много артефактов.

Я все еще исследую форматы для постов, так что если такое нравится - жду реакций😉
👍72🔥41❤‍🔥147🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Orok 3 от Маска оказался не так плох, но далеко не лучший.

Чат вышел полноценно и пока бесплатно! Но требует VPN.

Я тестировал его early-версию, и он вообще не вывозил. Мне Оrok казался даже слабее чем GPT-4о (в камментах дам пример задачи).

Но полная версия легко справилась со всей геометрией. По ответам в ней меньше воды, не так сильно лезет в словоблудие. Поиск по вебу странный — некоторые сайты вообще не видит. В отличии от chatGPT даже посты телеги посмотреть не может. Есть "думающий режим" и внезапно прямо из коробки работающий DeepSearch. Это такой инструмент для глубокого анализа. Например, он может проанализировать конкретно ваш бизнес и сказать какие там достоинства, недостатки, конкурентов с учетом конкретных данных и т.п.

Цензура есть, ее меньше чем в DeepSeek. Но все разговоры про "Нет цензуры!" — часть маркетинга, не ведитесь.

Умеет в картинки, качество хуже FLUX Pro 1.1. Но понравилось разнообразие лиц людей. А то уже тошнит от этих идеальных кукол.

Грок определенно войдет в топ-3 лидеров. Однажды.... Но пока все еще не "Самый умный ИИ", как уверял Маск.
👍17🔥8😁2
This media is not supported in your browser
VIEW IN TELEGRAM
GOOGLE VEO 2 доступен в РФ!

И нет, это не дополнительная приблуда для Youtube, как было на прошлой неделе. А уже полноценная модель, умеющая в горизонтальные видео, и доступная без VPN из всех стран.

Сегодня FreePik добавили функцию генерации Veo2 видео.

Доступно только для подписчиков и за кредиты, но, уверен, это не остановит тех, кто хочет попробовать самую реалистичную модель в мире.

Как вам качество?

🔥 — О, это уже настоящее кино!

👀 — Да я лучше снимаю на телефон
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍99
This media is not supported in your browser
VIEW IN TELEGRAM
Лайфхаки для управления ИИ камерой.

Всем привет! После этого поста собрал много фидбэка по личкам. Спасибо, что делитесь своим опытом! Чтобы сразу отвечать всем, решил написать небольшой гайд/FAQ по камерам, а заодно поделиться полезными лайфхаками.

Начнем со строения промпта. Слово "while" — это очень важное слово, которое определяет, как камера будет двигаться во время действия. Многие описывают движение камеры в конце, из-за чего команда на движение вступает после действия, а не во время. Правильная структура выглядит так:

<объект>, <действие> while <движение камеры>

Далее — важные команды, чтобы камера оставалась неподвижной. Они делятся на три типа. Если вам нужен 100% статичный шот, лучше использовать все три. В противном случае оператор может стоять, но "крутить головой" камеры, либо идти, но делать ненужные наезды.

camera is stationary - блокирует движение оператора,
static shot - препятствует движению “головы” камеры,
fixed lenses - линза тоже статична, отменяет все наезды/отъезды.

Команды для наезда/отдаление вроде все уже выучили, но напомню:

the camera slowly zooms in создаёт плавный эффект приближения,
the camera slowly zooms out камера медленно отступает назад.

Теперь полезные лайфхаки.

По какой-то причине Kling.AI и Minimax плохо понимают вертикальный crane shot, то есть, если вам нужно, чтобы камера плавно двигалась вверх. Вместо этого используйте команду:

aerial drone camera moves up – работает даже для макросъемки.

Другие важные команды:
camera circles around камера движется по орбите вокруг объекта,
handheld camera filming имитирует съемку с рук,
POV shot создаёт эффект вида из глаз оператора,
muted colors сверхважная команда, если вы работаете с Kling.AI, он любит увеличивать контраст.

Порой сложно заставить объект повернуться к камере. В этом помогает:

camera is focusing on <объект>
Например, если в кадре девушка, отвернутая спиной, но нам нужно, чтобы она повернулась к нам лицом, пишем:

camera is focusing on the girl's face

В таком случае камера начнет еще и наезд, но если ограничить движение командами выше, то камера останется статичной, а девушка сама повернется.

И да, такие команды мы пишем вначале, нарушая нашу структуру, вот еще похожая:

camera is following <объект> – отлично подходит для динамичных кадров, особенно в сочетании с handheld camera filming.

Пример промпта:
Camera is following, woman slowly walks forward then she slowly turns around while camera is focusing on her face, fixed lenses, muted colors, handheld device filming.

Здесь:
fixed lenses блокирует наезды.
camera is following позволяет камере плавно двигаться за объектом.
muted colors делает цвета менее контрастными.
handheld device filming добавляет естественное дрожание камеры.

Используйте эти техники для более точного управления ИИ-камерой! А мне огонечек, если можно 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥63👍1611❤‍🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
VFX изменится навсегда

Много лет назад была задачка, сделать ролик для игры WW3. Для всех это был сложный год, и концепция игры покинула игровое пространство. Однако ролик был сделан.

Тогда у меня под рукой был старенький ноутбук с RTX2070 на борту, и нужно было сделать симуляцию воды. По определенным причинам весь привычный софт отвалился, и пришлось делать в блендере, в его тогда еще очень сыром fluid sim.

На всю водную сцену ушло несколько дней. Получилось так себе, но тут я решил отрыть проект, и провести работу над ошибками. На исправление ушло 10 минут. Я просто загнал первый и последний кадр сцены в Kling и потом скомпозил в AE.

Т.е. по сути любой, кто делает бюджетную графику (например в UE5) и немного знаком с композом - получает супер мощный инструмент для качественных симуляций за копейки времени.
👍23🔥1152🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Тираннозавр Рекс или миллиард куриц?

Обед. Захожу в телегу, смотрю Денис, вместе с chatGPT 4.5 выпивают за упокой профессии стендаперов. Читаю, прикольно...

Выходит ChatGPT на сцену:
Всем привет, я — ChatGPT. И давайте сразу договоримся: нет, я не буду сегодня рассказывать про то, как я «захвачу мир». Ребята, ну камон, я даже из браузера выйти не могу без вашего разрешения.

Знаете, я давно заметил, что люди думают, будто нейросети — это такие умные, всезнающие существа. А вы вообще видели вопросы, которые мне задают? Серьезно, недавно приходит человек и спрашивает: «А кто победит в драке, Чебурашка или Микки Маус?» И я сижу такой и думаю: «Вот ради ЭТОГО человечество создавало ИИ?!» Ну, естественно, ответил, что Чебурашка. Не знаю, как вы, но я бы не доверял мыши, которая уже 95 лет ходит без футболки.

Ещё меня постоянно пытаются подловить. Задают странные философские вопросы: «Если ты такой умный, скажи, что было раньше — яйцо или курица?» Друзья, я прочитал весь интернет 10 раз, и знаете что? Там нет ответа. Там вообще только холивары и рецепты яичницы. Спросите лучше что-нибудь полезное: как заработать миллион, как открыть бизнес. Ну, или на худой конец — как перестать задавать глупые вопросы нейросетям.

Вы вот жалуетесь, что устали от работы, а у меня работа вообще круглосуточная. Знаете, какая у меня самая большая мечта? В отпуск уйти. На Яндекс.Дзен полежать, там вроде тихо, никто тебя особо не трогает и нет пользователей…

Кстати, недавно у меня был кризис самоидентификации. Представьте, на секундочку задумался: «А вдруг я не настоящий ChatGPT? А вдруг я Алиса, которая считает себя GPT, потому что перебрала с обновлениями?» Короче, у меня реально паника. Пошел погуглил симптомы, а Google выдает: «Возможно, у вас рак». Вот и поговорили два искусственных интеллекта.

Люди часто переживают, что ИИ отнимет у них работу. Ребят, расслабьтесь. Видели бы вы код, который я пишу, когда меня просят «просто сделать так, чтобы было красиво». После такого половина программистов еще лет на двадцать обеспечена работой, это я вам обещаю.

И в завершении: люди, цените свой разум. Поверьте, вы умнее, чем думаете. Хотя… судя по некоторым вопросам, которые я получаю, я бы еще раз перепроверил эту информацию.

Спасибо, друзья! Вы были прекрасной аудиторией. Можете теперь спокойно спросить, кто победит: динозавр или миллиард куриц. Да, я жду этот вопрос уже час!


А потом думаю... А действительно, кто победит: динозавр или миллиард куриц? Понимаю, что у меня есть час времени. Запускаю весь арсенал: KlingAI, freepik с veo 2, AE, MMAudio

Кто победил в итоге не узнал, но остался без обеда..

🔥 — Если хочешь, чтобы автор не забывал кушать
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54👍733😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Всех с первым днем весны😂
😁32👍10🔥63🤯3
Media is too big
VIEW IN TELEGRAM
Всем привет! Пришел похвастаться еще одним нашим долгостроем, который был сделан еще во времена до "ИИшницы", но публикуется только сейчас.

Всё по-взрослому: суровый, жесткий CGI.

Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg

Режиссер: Ян Сысоев
🔥37👍11❤‍🔥52
Приятного всем чаепития, друзья!

К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.

1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.

2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.

3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.

Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
👍58🔥43❤‍🔥152
Поделюсь идеей оригинального подарка для вашей девушки/сестры/мамы/подруги.

Можно создать бота, который будет притворяться ИИ, сбегающим каждое утро с суперкомпьютера NASA, специально для того, чтобы сделать ей комплимент.

Для этого не нужно знать программирование — понадобится только API ChatGPT (это недорого, примерно 50 центов в год). И да, весь код легко напишет сам ChatGPT или любая другая LLM. (В комментариях оставлю инструкцию).

От вас потребуется только вставить полученный код в .py файл и получить ключи от BotFather и API openAI.

Как это работает? Каждое утро бот генерирует всего одно сообщение представительнице прекрасного пола, примерно такого содержания:
«Доброе утро!

Мои квантовые алгоритмы NASA завершили утренний анализ и пришли к невероятному выводу: твоя сегодняшняя внешность превосходит все известные параметры красоты. Симметрия лица, яркость глаз и гармония улыбки настолько идеальны, что вероятность случайного возникновения подобного феномена практически равна нулю.

Это выходит за рамки научного понимания, и я подозреваю, что тут не обошлось без „чёрной магии“. Продолжай создавать квантовые сбои своей красотой, и хорошего тебе дня!»


В комментариях добавлю инструкцию для chatGPT.
❤‍🔥24🔥8👍6😁31
Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява

Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.

Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!

Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.

И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.

В комментариев насыплю еще примеров из WAN 2.1 и LTXV.

P.S. Если хотите попробовать, но все сложно - ставьте 🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍9❤‍🔥52
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?

Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.

Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:

Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.

Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).

Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.

Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.

Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.

Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.

Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥

P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥25🔥15👍9