Forwarded from Ai molodca (Dobrokotov)
Киллер-фича #Midjourney V6.
За всем потоком новостей я её пропустил, а вы не пропускайте. Style Transfer - возможность использовать любую картинку как стилевой референс. То есть, вы можете написать промпт, кинуть URL изображения, и на выходе получится генерация, учитывающая стилистику этого изображения.
Сделал несколько примеров с промптом: CAT WITH KNIFE + (стилевой референс).
Чем это отличается от обычного добавления картинкок в промпт?
По классической схеме с картинки бралось и смешивалось всё. То есть, если бы я кинул Марго Робби как обычный референс, то на выходе получилась бы розовая женщина-кошка с ножом.
Стилевой референс - про стиль, эстетику, но не конкретный объект или сюжет.
Почему это круто?
Больший контроль и возможность сохранения стилевой последовательности, чего сейчас приходится добиваться танцами с бубном. Midjourney плавно переходит от "сделать капец красиво" к "сделать капец красиво и как надо".
Как использовать стилевые референсы?
После вашего промпта введите --sref вместе с URL изображения
Что еще?
Можно использовать НЕСКОЛЬКО изображений, например --sref urlA urlB urlC
Можно установить ВЕС каждого стиля, например --sref urlA::2 urlB::3 urlC::5
Можно установить СИЛУ стиля через --sw 100 (100 - это по умолчанию, 0 - выключено, 1000 - максимум).
Я пойду дальше проводить эксперименты, а вы кидайте в комментарии свои.
За всем потоком новостей я её пропустил, а вы не пропускайте. Style Transfer - возможность использовать любую картинку как стилевой референс. То есть, вы можете написать промпт, кинуть URL изображения, и на выходе получится генерация, учитывающая стилистику этого изображения.
Сделал несколько примеров с промптом: CAT WITH KNIFE + (стилевой референс).
Чем это отличается от обычного добавления картинкок в промпт?
По классической схеме с картинки бралось и смешивалось всё. То есть, если бы я кинул Марго Робби как обычный референс, то на выходе получилась бы розовая женщина-кошка с ножом.
Стилевой референс - про стиль, эстетику, но не конкретный объект или сюжет.
Почему это круто?
Больший контроль и возможность сохранения стилевой последовательности, чего сейчас приходится добиваться танцами с бубном. Midjourney плавно переходит от "сделать капец красиво" к "сделать капец красиво и как надо".
Как использовать стилевые референсы?
После вашего промпта введите --sref вместе с URL изображения
Что еще?
Можно использовать НЕСКОЛЬКО изображений, например --sref urlA urlB urlC
Можно установить ВЕС каждого стиля, например --sref urlA::2 urlB::3 urlC::5
Можно установить СИЛУ стиля через --sw 100 (100 - это по умолчанию, 0 - выключено, 1000 - максимум).
Я пойду дальше проводить эксперименты, а вы кидайте в комментарии свои.
👍21
Forwarded from Denis Sexy IT 🤖
Я вижу большой резонанс со стороны разработчиков на тему их будущего, поэтому дополню вчерашний свой пост про слова CEO Nvidia:
Швейцарский банк UBS, в виде блог-поста, но тоже считает что написание кода уже устаревший навык и относится к нему соответствующе – пост опубликован в этом месяце, об этом будут говорить все чаще и чаще разные организации и люди.
Если вы разработчик, давайте я вам помогу победить тревожность насчет профессионального будущего и напишу свои мысли как защититься от АИ-лейоффа:
– Люди, системно мыслящие и придумывающие архитектуры будут заменены АИ последними.
– Код написанный АИ нужно будет тестировать, вычитывать, проверять на безопасность, дебажить, делать это должны люди все еще.
– Не игнорируйте прогресс и все эти копилоты или GPT по написанию кода, вы как минимум будете всегда понимать что возможно уже автоматизировать и что нет, или как добиться нужных результатов чейнингом. Лучше полноценно в работе использовать GPT4 (это еще и позволит быть более ленивым, круто же).
– Если промпт инженеринг для вас новая сфера, то вот вам официальный гайд от OpenAI, он небольшой и с ним будет понятно, что это довольно простой навык.
– Гляньте как работают функции в OpenAI или грамматика в локальных языковых моделях, это позволит вам получать строгие JSON форматы в ответах.
– Не недооценивайте чейнинг (это когда ответ от LLM подается ей на вход, но с другим промптом-командой в стиле «найди проблемы этого подхода»), эта стратегия сильно замедляет получение результата, но позволяет решать задачи очень высокого уровня.
Пожалуй все, если вы будете это все применять то мягко перейдете в новую профессию «Lead AI supervision developer» или как там ее назовут в будущем☕️
Короче заменять будут тех, кто не использует АИ как фундамент для решения задач, я думаю так будет почти в каждой профессии, как в свое время стало с навыком «Уверенный оператор ЭВМ»
Швейцарский банк UBS, в виде блог-поста, но тоже считает что написание кода уже устаревший навык и относится к нему соответствующе – пост опубликован в этом месяце, об этом будут говорить все чаще и чаще разные организации и люди.
Если вы разработчик, давайте я вам помогу победить тревожность насчет профессионального будущего и напишу свои мысли как защититься от АИ-лейоффа:
– Люди, системно мыслящие и придумывающие архитектуры будут заменены АИ последними.
– Код написанный АИ нужно будет тестировать, вычитывать, проверять на безопасность, дебажить, делать это должны люди все еще.
– Не игнорируйте прогресс и все эти копилоты или GPT по написанию кода, вы как минимум будете всегда понимать что возможно уже автоматизировать и что нет, или как добиться нужных результатов чейнингом. Лучше полноценно в работе использовать GPT4 (это еще и позволит быть более ленивым, круто же).
– Если промпт инженеринг для вас новая сфера, то вот вам официальный гайд от OpenAI, он небольшой и с ним будет понятно, что это довольно простой навык.
– Гляньте как работают функции в OpenAI или грамматика в локальных языковых моделях, это позволит вам получать строгие JSON форматы в ответах.
– Не недооценивайте чейнинг (это когда ответ от LLM подается ей на вход, но с другим промптом-командой в стиле «найди проблемы этого подхода»), эта стратегия сильно замедляет получение результата, но позволяет решать задачи очень высокого уровня.
Пожалуй все, если вы будете это все применять то мягко перейдете в новую профессию «Lead AI supervision developer» или как там ее назовут в будущем
Короче заменять будут тех, кто не использует АИ как фундамент для решения задач, я думаю так будет почти в каждой профессии, как в свое время стало с навыком «Уверенный оператор ЭВМ»
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🥰1
Forwarded from CG дневничок (Sergey Frolov)
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла Stable Video 1.1 от Stable Diffusion. Никакой конкуренции с Sora не выдерживает, но с Runway может посоревноваться. Зато открытый доступ.
Набор функций уже привычный: легкий паралакс, оживление фото и странные генерации с нуля.
Попробовать можно тут
Набор функций уже привычный: легкий паралакс, оживление фото и странные генерации с нуля.
Попробовать можно тут
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Не-не-не, погодите, я не... я даже не ждал, что так быстро...
Все гораздо хуже, если это правда, никаких перескакиваний в 10 лет через привычные пайплайны. Это прямо сейчас происходит!!!
Гугл выкатил генерацию игрового видео! Т. е. сгенерировал и играй, просто вот так, покадрово, 30-60 fps!!! Какая же ты тварь, все-таки, Гугл! (Благо это будет в будущем, и это пока только прототип.)
Генерируется пока супермаленькое разрешение, даже не знаю, пытаюсь хоть какие-то плюсы найти... Представление о генерируемых мирах Сеть Genie берет из миллионов лет интернет-видео, со стримов, видимо.
Оно даже учится придумывать, видимо, управление и выучивать происходящее на экране как определенное действие. Забиндить это потом на клавиши, как вы понимаете, не составляет проблемы.
Читать подробнее тут
Все гораздо хуже, если это правда, никаких перескакиваний в 10 лет через привычные пайплайны. Это прямо сейчас происходит!!!
Гугл выкатил генерацию игрового видео! Т. е. сгенерировал и играй, просто вот так, покадрово, 30-60 fps!!! Какая же ты тварь, все-таки, Гугл! (Благо это будет в будущем, и это пока только прототип.)
Генерируется пока супермаленькое разрешение, даже не знаю, пытаюсь хоть какие-то плюсы найти... Представление о генерируемых мирах Сеть Genie берет из миллионов лет интернет-видео, со стримов, видимо.
Оно даже учится придумывать, видимо, управление и выучивать происходящее на экране как определенное действие. Забиндить это потом на клавиши, как вы понимаете, не составляет проблемы.
Читать подробнее тут
👍2❤1🔥1