Я сегодня со сладким на ночь.
1. Удаляем потоком watermark с Gemini Nano Banana.
Скачиваем из релизов файл. Распаковываем в удобное место. Переносим на него фото из Nano Banana. Profit.
2. Скачиваем видео с sora без watermark.
Эксперт по бесплатному интернету @astrolog_expert запилил бота, сайт, приложение и расширение, которые могут скачать видео с сайта https://sora.chatgpt.com без watermark и совершенно бесплатно (пока??).
P.S. Господа, файлы я конечно проверял на virustotal, но все равно на свой страх и риск.
P.S.S. Как там у вас с праздничным настроением?
1. Удаляем потоком watermark с Gemini Nano Banana.
Скачиваем из релизов файл. Распаковываем в удобное место. Переносим на него фото из Nano Banana. Profit.
2. Скачиваем видео с sora без watermark.
Эксперт по бесплатному интернету @astrolog_expert запилил бота, сайт, приложение и расширение, которые могут скачать видео с сайта https://sora.chatgpt.com без watermark и совершенно бесплатно (пока??).
P.S. Господа, файлы я конечно проверял на virustotal, но все равно на свой страх и риск.
P.S.S. Как там у вас с праздничным настроением?
🔥18👍7🍓4❤2🤓1
дAI потестить!
Нашел для Veo парочку любопытных токенов: [montage cuts] [jump cuts] Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще. Ролик в примере сделан по алгоритму: 1. Вставил первый кадр…
Еще немного токенов для Veo
Нашел как управлять ракурсами в Veo внутри одного шота.
Для первого видео:
Для второго:
P.S. Veo хорошо понимает "киношную" терминологию, поэтому если у кого есть такие словечки в словарном запасе, кидайте в комменты.
Нашел как управлять ракурсами в Veo внутри одного шота.
Для первого видео:
Montage cuts:
[Master shot]
[Cutaway]
[Reverse shot]
Для второго:
Montage cuts:
[Master shot]
[Cutaway]
[CloseUp]
[Drone view]
P.S. Veo хорошо понимает "киношную" терминологию, поэтому если у кого есть такие словечки в словарном запасе, кидайте в комменты.
👍17🔥4👌1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Добрался до Kling O1
Тут не все так однозначно.
Вот 3 мануала:
O1 Image (Банана от Kling)
O1 Video (Смесь моделей из всего в видео)
O1 Elements (создать элемент для фото или видео по 4 фото)
Что я сделал. Взял промпты из мануала и прогнал со своим видео (немного адаптировал). Результаты тут ☝️. Ваше мнение жду тут👇.
Тут не все так однозначно.
Вот 3 мануала:
O1 Image (Банана от Kling)
O1 Video (Смесь моделей из всего в видео)
O1 Elements (создать элемент для фото или видео по 4 фото)
Что я сделал. Взял промпты из мануала и прогнал со своим видео (немного адаптировал). Результаты тут ☝️. Ваше мнение жду тут👇.
🤔4😁1
Подглядел у Gos (https://news.1rj.ru/str/gos_comfy/8395) пост про https://github.com/shootthesound/comfyUI-Realtime-Lora.
В двух словах — это нода, в которой можно уменьшать влияние определённых слоёв в LoRA. Очень полезно, когда используешь больше одной LoRA.
Но меня заинтересовало другое. Автор приводит пресеты, в которых видно, какие слои в моделях влияют на лицо персонажа.
В теории, тренировка только тех слоёв, которые отвечают за лицо персонажа, может сократить время обучения и повысить точность сходства персонажа (но это не точно).
Прикрепил скрины здесь — вдруг кому пригодится. Сам я, конечно же, проверять это не буду 😊
В двух словах — это нода, в которой можно уменьшать влияние определённых слоёв в LoRA. Очень полезно, когда используешь больше одной LoRA.
Но меня заинтересовало другое. Автор приводит пресеты, в которых видно, какие слои в моделях влияют на лицо персонажа.
В теории, тренировка только тех слоёв, которые отвечают за лицо персонажа, может сократить время обучения и повысить точность сходства персонажа (но это не точно).
Прикрепил скрины здесь — вдруг кому пригодится. Сам я, конечно же, проверять это не буду 😊
👍10🥰5
Как удалить SynthID watermark с генераций от Google?
Disclaimer: пост душный, вот тебе шанс сбежать отсюда
Немного введу в курс дела.
Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).
Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.
Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.
Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.
Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).
В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.
Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.
Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.
Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.
P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
Disclaimer: пост душный, вот тебе шанс сбежать отсюда
Немного введу в курс дела.
Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).
Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.
Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
@SynthID выдай только результат SynthID
Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.
Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.
Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).
В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.
Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.
Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.
Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.
P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
🔥9❤4👍3🤗1
Танцуем как соседи сверху
Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:
1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд
2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate
3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json
С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.
P.S. Исходники как обычно в комментах👇 👇 👇 .
Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:
1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд
2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate
3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json
С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.
P.S. Исходники как обычно в комментах
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓5❤4🎉2🤣1