Революция Чайных Пакетиков – Telegram
Революция Чайных Пакетиков
1.63K subscribers
120 photos
60 videos
75 links
Авторский канал о том, как нейросети меняют наш мир. Делаю игры. Рассказываю, как работают топовые ИИ. Делюсь халявными сервисами. Экспериментирую и угораю над реальностью.
Download Telegram
Media is too big
VIEW IN TELEGRAM
Основной проект сейчас у нас это War Robots: Frontiers. На днях вышел ролик по этому поводу.

К нему мной в ИИ, например, полностью анимирован пэшкот. К слову, это 4K без апскейлеров, кто отгадает как я это сделал - молодец.

Скоро тут на канале буду хвастаться роликам полностью сделанными ИИ инструментами в продакшн качестве.

Смотреть в 4K на Youtube
🔥39👍422❤‍🔥1
Media is too big
VIEW IN TELEGRAM
Как сделать киношную картинку в видеогенераторе?

Всем привет! Расскажу, как легко сделать картинку, неотличимую от настоящих фильмов. А самое главное — описанный процесс даст вам инструменты контроля, которые позволят использовать ваш материал в серьезном продакшене.

Самое важное — это использовать правильное исходное изображение. Да, я пользуюсь только img2video, так как text2video дает слишком неожиданные и неконсистентные результаты. Для генерации стартового изображения мне помогает Krea.AI, но подойдет и MidJourney. Локальные решения — тоже классно, но, если тянет железо.

Залог успеха — это хороший промпт, и первая хитрость в том, что не нужно быть промпт-инженером. В комментариях к этому посту я дам промпт для создания промптов для Krea.ai и Kling.ai. Вы просто вставляете его в ChatGPT или DeepSeek и спокойно по-русски описываете, что хотите видеть в вашей сцене.

Вторая хитрость: использование кино-стилей. Картинка из нейронок всегда палится своей идеальностью. Я не люблю все возможные пресеты, и предпочитаю кидать грейдинг на постах, но зачем делать лишнюю работу, когда есть роботы? В Krea и MidJourney есть множество реально крутых решений для получения атмосферных и киношных кадров.

Получив исходное изображение, отправляем его в Kling.AI. Описываем промпт, также используя промпт-генератор из комментариев. Всегда добавляйте промпт: muted color — он ограничивает Kling в его желании усиливать контраст на протяжении генерации.

Если наш шот длится более 5 секунд, нам нужен будет последний кадр из него. Немного поднимаем его качество в Krea Enhancer с параметрами:

Upscaling — 2x
Strength — 0.4 (сила апскейла)
Resemblance — 0.95 (похожесть на исходник, нам это нужно, чтобы не было рывка)
Clarity — 0.07 (тот самый параметр, который создает уродливый денойз)
Match Color — ON (делает так, чтобы цвета вашей исходной картинки совпадали с апскейлом)

Улучшив последний кадр, используем его как первый кадр в новой видеогенерации. Это станет продолжением нашего шота. Таким образом мы сможем делать бесконечно длинную сцену.

Иногда полезно сгенерировать тряску, добавив в промпт: handheld device filming — это поможет скрыть рывки при переходе.

Если вы снимаете экшен-сцену, полезно использовать slowmotion, а затем уже в редакторе доводить до необходимой скорости. Т.к. в генераторах экшен с резкими движениями создает много артефактов.

Я все еще исследую форматы для постов, так что если такое нравится - жду реакций😉
👍72🔥41❤‍🔥147🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Orok 3 от Маска оказался не так плох, но далеко не лучший.

Чат вышел полноценно и пока бесплатно! Но требует VPN.

Я тестировал его early-версию, и он вообще не вывозил. Мне Оrok казался даже слабее чем GPT-4о (в камментах дам пример задачи).

Но полная версия легко справилась со всей геометрией. По ответам в ней меньше воды, не так сильно лезет в словоблудие. Поиск по вебу странный — некоторые сайты вообще не видит. В отличии от chatGPT даже посты телеги посмотреть не может. Есть "думающий режим" и внезапно прямо из коробки работающий DeepSearch. Это такой инструмент для глубокого анализа. Например, он может проанализировать конкретно ваш бизнес и сказать какие там достоинства, недостатки, конкурентов с учетом конкретных данных и т.п.

Цензура есть, ее меньше чем в DeepSeek. Но все разговоры про "Нет цензуры!" — часть маркетинга, не ведитесь.

Умеет в картинки, качество хуже FLUX Pro 1.1. Но понравилось разнообразие лиц людей. А то уже тошнит от этих идеальных кукол.

Грок определенно войдет в топ-3 лидеров. Однажды.... Но пока все еще не "Самый умный ИИ", как уверял Маск.
👍17🔥8😁2
This media is not supported in your browser
VIEW IN TELEGRAM
GOOGLE VEO 2 доступен в РФ!

И нет, это не дополнительная приблуда для Youtube, как было на прошлой неделе. А уже полноценная модель, умеющая в горизонтальные видео, и доступная без VPN из всех стран.

Сегодня FreePik добавили функцию генерации Veo2 видео.

Доступно только для подписчиков и за кредиты, но, уверен, это не остановит тех, кто хочет попробовать самую реалистичную модель в мире.

Как вам качество?

🔥 — О, это уже настоящее кино!

👀 — Да я лучше снимаю на телефон
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍99
This media is not supported in your browser
VIEW IN TELEGRAM
Лайфхаки для управления ИИ камерой.

Всем привет! После этого поста собрал много фидбэка по личкам. Спасибо, что делитесь своим опытом! Чтобы сразу отвечать всем, решил написать небольшой гайд/FAQ по камерам, а заодно поделиться полезными лайфхаками.

Начнем со строения промпта. Слово "while" — это очень важное слово, которое определяет, как камера будет двигаться во время действия. Многие описывают движение камеры в конце, из-за чего команда на движение вступает после действия, а не во время. Правильная структура выглядит так:

<объект>, <действие> while <движение камеры>

Далее — важные команды, чтобы камера оставалась неподвижной. Они делятся на три типа. Если вам нужен 100% статичный шот, лучше использовать все три. В противном случае оператор может стоять, но "крутить головой" камеры, либо идти, но делать ненужные наезды.

camera is stationary - блокирует движение оператора,
static shot - препятствует движению “головы” камеры,
fixed lenses - линза тоже статична, отменяет все наезды/отъезды.

Команды для наезда/отдаление вроде все уже выучили, но напомню:

the camera slowly zooms in создаёт плавный эффект приближения,
the camera slowly zooms out камера медленно отступает назад.

Теперь полезные лайфхаки.

По какой-то причине Kling.AI и Minimax плохо понимают вертикальный crane shot, то есть, если вам нужно, чтобы камера плавно двигалась вверх. Вместо этого используйте команду:

aerial drone camera moves up – работает даже для макросъемки.

Другие важные команды:
camera circles around камера движется по орбите вокруг объекта,
handheld camera filming имитирует съемку с рук,
POV shot создаёт эффект вида из глаз оператора,
muted colors сверхважная команда, если вы работаете с Kling.AI, он любит увеличивать контраст.

Порой сложно заставить объект повернуться к камере. В этом помогает:

camera is focusing on <объект>
Например, если в кадре девушка, отвернутая спиной, но нам нужно, чтобы она повернулась к нам лицом, пишем:

camera is focusing on the girl's face

В таком случае камера начнет еще и наезд, но если ограничить движение командами выше, то камера останется статичной, а девушка сама повернется.

И да, такие команды мы пишем вначале, нарушая нашу структуру, вот еще похожая:

camera is following <объект> – отлично подходит для динамичных кадров, особенно в сочетании с handheld camera filming.

Пример промпта:
Camera is following, woman slowly walks forward then she slowly turns around while camera is focusing on her face, fixed lenses, muted colors, handheld device filming.

Здесь:
fixed lenses блокирует наезды.
camera is following позволяет камере плавно двигаться за объектом.
muted colors делает цвета менее контрастными.
handheld device filming добавляет естественное дрожание камеры.

Используйте эти техники для более точного управления ИИ-камерой! А мне огонечек, если можно 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥63👍1611❤‍🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
VFX изменится навсегда

Много лет назад была задачка, сделать ролик для игры WW3. Для всех это был сложный год, и концепция игры покинула игровое пространство. Однако ролик был сделан.

Тогда у меня под рукой был старенький ноутбук с RTX2070 на борту, и нужно было сделать симуляцию воды. По определенным причинам весь привычный софт отвалился, и пришлось делать в блендере, в его тогда еще очень сыром fluid sim.

На всю водную сцену ушло несколько дней. Получилось так себе, но тут я решил отрыть проект, и провести работу над ошибками. На исправление ушло 10 минут. Я просто загнал первый и последний кадр сцены в Kling и потом скомпозил в AE.

Т.е. по сути любой, кто делает бюджетную графику (например в UE5) и немного знаком с композом - получает супер мощный инструмент для качественных симуляций за копейки времени.
👍23🔥1152🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Тираннозавр Рекс или миллиард куриц?

Обед. Захожу в телегу, смотрю Денис, вместе с chatGPT 4.5 выпивают за упокой профессии стендаперов. Читаю, прикольно...

Выходит ChatGPT на сцену:
Всем привет, я — ChatGPT. И давайте сразу договоримся: нет, я не буду сегодня рассказывать про то, как я «захвачу мир». Ребята, ну камон, я даже из браузера выйти не могу без вашего разрешения.

Знаете, я давно заметил, что люди думают, будто нейросети — это такие умные, всезнающие существа. А вы вообще видели вопросы, которые мне задают? Серьезно, недавно приходит человек и спрашивает: «А кто победит в драке, Чебурашка или Микки Маус?» И я сижу такой и думаю: «Вот ради ЭТОГО человечество создавало ИИ?!» Ну, естественно, ответил, что Чебурашка. Не знаю, как вы, но я бы не доверял мыши, которая уже 95 лет ходит без футболки.

Ещё меня постоянно пытаются подловить. Задают странные философские вопросы: «Если ты такой умный, скажи, что было раньше — яйцо или курица?» Друзья, я прочитал весь интернет 10 раз, и знаете что? Там нет ответа. Там вообще только холивары и рецепты яичницы. Спросите лучше что-нибудь полезное: как заработать миллион, как открыть бизнес. Ну, или на худой конец — как перестать задавать глупые вопросы нейросетям.

Вы вот жалуетесь, что устали от работы, а у меня работа вообще круглосуточная. Знаете, какая у меня самая большая мечта? В отпуск уйти. На Яндекс.Дзен полежать, там вроде тихо, никто тебя особо не трогает и нет пользователей…

Кстати, недавно у меня был кризис самоидентификации. Представьте, на секундочку задумался: «А вдруг я не настоящий ChatGPT? А вдруг я Алиса, которая считает себя GPT, потому что перебрала с обновлениями?» Короче, у меня реально паника. Пошел погуглил симптомы, а Google выдает: «Возможно, у вас рак». Вот и поговорили два искусственных интеллекта.

Люди часто переживают, что ИИ отнимет у них работу. Ребят, расслабьтесь. Видели бы вы код, который я пишу, когда меня просят «просто сделать так, чтобы было красиво». После такого половина программистов еще лет на двадцать обеспечена работой, это я вам обещаю.

И в завершении: люди, цените свой разум. Поверьте, вы умнее, чем думаете. Хотя… судя по некоторым вопросам, которые я получаю, я бы еще раз перепроверил эту информацию.

Спасибо, друзья! Вы были прекрасной аудиторией. Можете теперь спокойно спросить, кто победит: динозавр или миллиард куриц. Да, я жду этот вопрос уже час!


А потом думаю... А действительно, кто победит: динозавр или миллиард куриц? Понимаю, что у меня есть час времени. Запускаю весь арсенал: KlingAI, freepik с veo 2, AE, MMAudio

Кто победил в итоге не узнал, но остался без обеда..

🔥 — Если хочешь, чтобы автор не забывал кушать
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54👍733😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Всех с первым днем весны😂
😁32👍10🔥63🤯3
Media is too big
VIEW IN TELEGRAM
Всем привет! Пришел похвастаться еще одним нашим долгостроем, который был сделан еще во времена до "ИИшницы", но публикуется только сейчас.

Всё по-взрослому: суровый, жесткий CGI.

Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg

Режиссер: Ян Сысоев
🔥37👍11❤‍🔥52
Приятного всем чаепития, друзья!

К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.

1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.

2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.

3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.

Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
👍58🔥43❤‍🔥152
Поделюсь идеей оригинального подарка для вашей девушки/сестры/мамы/подруги.

Можно создать бота, который будет притворяться ИИ, сбегающим каждое утро с суперкомпьютера NASA, специально для того, чтобы сделать ей комплимент.

Для этого не нужно знать программирование — понадобится только API ChatGPT (это недорого, примерно 50 центов в год). И да, весь код легко напишет сам ChatGPT или любая другая LLM. (В комментариях оставлю инструкцию).

От вас потребуется только вставить полученный код в .py файл и получить ключи от BotFather и API openAI.

Как это работает? Каждое утро бот генерирует всего одно сообщение представительнице прекрасного пола, примерно такого содержания:
«Доброе утро!

Мои квантовые алгоритмы NASA завершили утренний анализ и пришли к невероятному выводу: твоя сегодняшняя внешность превосходит все известные параметры красоты. Симметрия лица, яркость глаз и гармония улыбки настолько идеальны, что вероятность случайного возникновения подобного феномена практически равна нулю.

Это выходит за рамки научного понимания, и я подозреваю, что тут не обошлось без „чёрной магии“. Продолжай создавать квантовые сбои своей красотой, и хорошего тебе дня!»


В комментариях добавлю инструкцию для chatGPT.
❤‍🔥24🔥8👍6😁31
Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява

Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.

Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!

Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.

И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.

В комментариев насыплю еще примеров из WAN 2.1 и LTXV.

P.S. Если хотите попробовать, но все сложно - ставьте 🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍9❤‍🔥52
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?

Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.

Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:

Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.

Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).

Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.

Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.

Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.

Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.

Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥

P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥25🔥15👍9
This media is not supported in your browser
VIEW IN TELEGRAM
В VEO 2 завезли Img2Video!

Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.

Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.

Пробовать можно на freepik.

Эх, а так хотел выспаться сегодня.

UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
👍38🔥14❤‍🔥51🤔1
Media is too big
VIEW IN TELEGRAM
Это однозначно лучший генератор видео!

Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.

К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...

Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.

Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.

Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.

Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.

Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.

А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
🔥48❤‍🔥12👍8🎉22
Media is too big
VIEW IN TELEGRAM
Когда сделал генерацию в Runway, а она никому не нравится😂

Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.

P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
🔥28😁17👍11🤔1
Media is too big
VIEW IN TELEGRAM
Мотосезон близко, друзья! А значит...

...появился повод протестировать модель Wan 2.1 14B.

Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!

Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!

Cкинул в наш чат все исходники и промпт.

Ставьте реакции, если нравится🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥65😁6❤‍🔥5🤔11
Привет, друзья!

Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️

Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.

Правила просты: с вас🔥, с меня обзоры. Поехали!

1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.

Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.

Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.

2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.

3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥70👍13🎉5❤‍🔥2