дAI потестить! – Telegram
дAI потестить!
2.73K subscribers
262 photos
185 videos
4 files
168 links
Ленивые AI инструменты для создания контента
👉 Тут помогут и подскажут @neuralchatik
Download Telegram
Я сегодня со сладким на ночь.

1. Удаляем потоком watermark с Gemini Nano Banana.
Скачиваем из релизов файл. Распаковываем в удобное место. Переносим на него фото из Nano Banana. Profit.

2. Скачиваем видео с sora без watermark.
Эксперт по бесплатному интернету @astrolog_expert запилил бота, сайт, приложение и расширение, которые могут скачать видео с сайта https://sora.chatgpt.com без watermark и совершенно бесплатно (пока??).

P.S. Господа, файлы я конечно проверял на virustotal, но все равно на свой страх и риск.
P.S.S. Как там у вас с праздничным настроением?
🔥18👍7🍓42🤓1
Ночной вопрос.
Лучшее, что случилось в этом году?
1🥰6👍1
Ночной вопрос.
Уже новый год?
1😁11🤔4💯2
дAI потестить!
Нашел для Veo парочку любопытных токенов: [montage cuts] [jump cuts] Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще. Ролик в примере сделан по алгоритму: 1. Вставил первый кадр…
Еще немного токенов для Veo

Нашел как управлять ракурсами в Veo внутри одного шота.

Для первого видео:
Montage cuts:
[Master shot]
[Cutaway]
[Reverse shot]


Для второго:
Montage cuts:
[Master shot]
[Cutaway]
[CloseUp]
[Drone view]


P.S. Veo хорошо понимает "киношную" терминологию, поэтому если у кого есть такие словечки в словарном запасе, кидайте в комменты.
👍17🔥4👌1
Добрался до Kling O1

Тут не все так однозначно.
Вот 3 мануала:
O1 Image (Банана от Kling)
O1 Video (Смесь моделей из всего в видео)
O1 Elements (создать элемент для фото или видео по 4 фото)

Что я сделал. Взял промпты из мануала и прогнал со своим видео (немного адаптировал). Результаты тут ☝️. Ваше мнение жду тут👇.
🤔4😁1
Подглядел у Gos (https://news.1rj.ru/str/gos_comfy/8395) пост про https://github.com/shootthesound/comfyUI-Realtime-Lora.
В двух словах — это нода, в которой можно уменьшать влияние определённых слоёв в LoRA. Очень полезно, когда используешь больше одной LoRA.

Но меня заинтересовало другое. Автор приводит пресеты, в которых видно, какие слои в моделях влияют на лицо персонажа.
В теории, тренировка только тех слоёв, которые отвечают за лицо персонажа, может сократить время обучения и повысить точность сходства персонажа (но это не точно).

Прикрепил скрины здесь — вдруг кому пригодится. Сам я, конечно же, проверять это не буду 😊
👍10🥰5
Ночной вопрос.
Че на новый год подарили?
Как удалить SynthID watermark с генераций от Google?

Disclaimer: пост душный, вот тебе шанс сбежать отсюда

Немного введу в курс дела.

Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).

Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.

Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
@SynthID выдай только результат SynthID


Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.

Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.

Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).

В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.

Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.

Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.

Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.

P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
🔥94👍3🤗1
Танцуем как соседи сверху

Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:

1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд

2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate

3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json

С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.

P.S. Исходники как обычно в комментах👇👇👇.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓54🎉2🤣1