Если вы не в курсе, то на нетфликсе (и в интернетике) появился свежеиспечённый сериал "задача трёх тел".
И это не китайский ультрамногосерийный неторопливый сериалище.
Это огонь.
Ибо.
Сделали его ... те самые Вайс и Бенёф -
создатели Игры Престолов!
Одну из главных ролей играет тот самый толстяк Сэм, и роль его принципиально иная. Ядовитый циник.
Наверняка поклонники книги будут ругаццо в процессе, но я смотрю как на самодостаточное произведение. А сравнивать лучше с китайским вариантом
Мне пока нравится...
И это не китайский ультрамногосерийный неторопливый сериалище.
Это огонь.
Ибо.
Сделали его ... те самые Вайс и Бенёф -
создатели Игры Престолов!
Одну из главных ролей играет тот самый толстяк Сэм, и роль его принципиально иная. Ядовитый циник.
Наверняка поклонники книги будут ругаццо в процессе, но я смотрю как на самодостаточное произведение. А сравнивать лучше с китайским вариантом
Мне пока нравится...
🔥81👎32👍8
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ-текстурирование.
Уже писал про ИИ-текстуры.
Тут вот китайские товарищи делают не только генерацию текстур, но и некоторые инструменты для этого. То есть взаимодействие и управление на протяжении всего процесса генерации, которое позволяет перекрашивать конкретные области и точно редактировать текстуры. Они также разработали единую модель инпайнтинга с учетом глубины, которая объединяет информацию о глубине с подсказками по инпайнту, эффективно смягчая 3D-неконсистентность и повышая скорость генерации.
https://me.kiui.moe/intex/
Уже писал про ИИ-текстуры.
Тут вот китайские товарищи делают не только генерацию текстур, но и некоторые инструменты для этого. То есть взаимодействие и управление на протяжении всего процесса генерации, которое позволяет перекрашивать конкретные области и точно редактировать текстуры. Они также разработали единую модель инпайнтинга с учетом глубины, которая объединяет информацию о глубине с подсказками по инпайнту, эффективно смягчая 3D-неконсистентность и повышая скорость генерации.
https://me.kiui.moe/intex/
👍23
Forwarded from Dreams and Robots
Если вы занимаетесь программированием, вам наверняка знаком сайт https://leetcode.com/, на котором собраны алгоритмические задачи. Вы можете выбрать задачу, решить ее на любом языке программирования и автоматически проверить решение. Задачи с этого сайта часто используются на собеседованиях для проверки кандидатов.
Пять месяцев назад мне пришла идея эксперимента: Я беру сложные задачи, скармливаю их GPT4, без правок копирую результат на сайт и проверяю автотестом. Игра продолжается до первой ошибки. И тогда я срезался на первой же задаче, потому что решение содержало ошибки.
Вчера я вспомнил об этом эксперименте и решил его повторить. Памятуя о прошлом провале я начал с простой задачи. Она решилась мгновенно. Потом перешел на средние и решил 15 штук. Переключился на сложные. Тут я, честно говоря, в какой-то момент начал уставать, так как ошибок всё не было и не было. Меня спасло достижения лимита сообщений в ChatGPT. До этого момента я решил 22 сложные задачи.
В общем, за 43 минуты GPT4 решил 38 задач с LeetCode без единой ошибки.
Не все решения были оптимальными по быстродействию. Примерно половина укладывалась в среднее значение (по сравнению с человеческим кодом), процентов 30 была медленнее, зато оставшиеся были быстрее, чем 90 процентов предложенных решений.
Какой можно сделать вывод?
Ну, во-первых, GPT4 сейчас и GPT4 пять месяцев назад очень сильно отличаются друг от друга. Это бьется с последним интервью Альтмана, в котором он признался, что они больше не хотят революционных прорывов, а планируют медленно разогревать воду в котле с лягушками.
А во-вторых, следующее поколение программистов будет ленивым и неизобретательным, зато задачи будут щёлкаться как семечки.
#gpt4 #programming
Пять месяцев назад мне пришла идея эксперимента: Я беру сложные задачи, скармливаю их GPT4, без правок копирую результат на сайт и проверяю автотестом. Игра продолжается до первой ошибки. И тогда я срезался на первой же задаче, потому что решение содержало ошибки.
Вчера я вспомнил об этом эксперименте и решил его повторить. Памятуя о прошлом провале я начал с простой задачи. Она решилась мгновенно. Потом перешел на средние и решил 15 штук. Переключился на сложные. Тут я, честно говоря, в какой-то момент начал уставать, так как ошибок всё не было и не было. Меня спасло достижения лимита сообщений в ChatGPT. До этого момента я решил 22 сложные задачи.
В общем, за 43 минуты GPT4 решил 38 задач с LeetCode без единой ошибки.
Не все решения были оптимальными по быстродействию. Примерно половина укладывалась в среднее значение (по сравнению с человеческим кодом), процентов 30 была медленнее, зато оставшиеся были быстрее, чем 90 процентов предложенных решений.
Какой можно сделать вывод?
Ну, во-первых, GPT4 сейчас и GPT4 пять месяцев назад очень сильно отличаются друг от друга. Это бьется с последним интервью Альтмана, в котором он признался, что они больше не хотят революционных прорывов, а планируют медленно разогревать воду в котле с лягушками.
А во-вторых, следующее поколение программистов будет ленивым и неизобретательным, зато задачи будут щёлкаться как семечки.
#gpt4 #programming
🔥37👍17
MatX: Очередной новый чип - убийца Нвидия.
"Наше оборудование позволит обучать GPT-4 и запускать ChatGPT, но в рамках бюджета небольшого стартапа.
Наша команда основателей разрабатывала чипы в Google и Amazon, и мы создали чипы, имея 1/10 от размера команды, которая обычно требуется. Вот как мы подходим к решению проблемы неэффективных и недостаточных вычислений.
В то время как другие чипы одинаково относятся ко всем моделям, мы направляем каждый транзистор на максимизацию производительности самых больших в мире моделей. Наша цель - заставить лучшие в мире модели ИИ работать настолько эффективно, насколько это позволяет физика, что позволит миру на годы вперед продвинуться в качестве и доступности ИИ. Мир с более доступным интеллектом - это более счастливый и процветающий мир. "
https://twitter.com/MatXComputing/status/1772615554421170562
"Наше оборудование позволит обучать GPT-4 и запускать ChatGPT, но в рамках бюджета небольшого стартапа.
Наша команда основателей разрабатывала чипы в Google и Amazon, и мы создали чипы, имея 1/10 от размера команды, которая обычно требуется. Вот как мы подходим к решению проблемы неэффективных и недостаточных вычислений.
В то время как другие чипы одинаково относятся ко всем моделям, мы направляем каждый транзистор на максимизацию производительности самых больших в мире моделей. Наша цель - заставить лучшие в мире модели ИИ работать настолько эффективно, насколько это позволяет физика, что позволит миру на годы вперед продвинуться в качестве и доступности ИИ. Мир с более доступным интеллектом - это более счастливый и процветающий мир. "
https://twitter.com/MatXComputing/status/1772615554421170562
🔥30👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за аниматоров, в пятый раз!
Аниматоров обкладывают флажками со всех сторон.
С одной стороны нейромокапы, с другой генераторы анимации.
Вот тут еще один интересный проект.
Их фишка - перенос стиля анимации. Ну то есть берете какую-то стандартную походку и наваливаете на нее стиль зомби или гоблина.
Мессадж вот такой - No Capture. No Cleanup. Just Animate
Я у них вот тут:
https://www.motorica.ai/mogen
не увидел стиля "Дисней" - можно было бы выпить за аниматоров бесповоротно, а пока это повод вернуться к этому вопросу позже.
Аниматоров обкладывают флажками со всех сторон.
С одной стороны нейромокапы, с другой генераторы анимации.
Вот тут еще один интересный проект.
Их фишка - перенос стиля анимации. Ну то есть берете какую-то стандартную походку и наваливаете на нее стиль зомби или гоблина.
Мессадж вот такой - No Capture. No Cleanup. Just Animate
Я у них вот тут:
https://www.motorica.ai/mogen
не увидел стиля "Дисней" - можно было бы выпить за аниматоров бесповоротно, а пока это повод вернуться к этому вопросу позже.
👍43🔥20👎1
Аватарифай на стероидах.
Тут не знаю, за кого выпить в первую очередь: за тикток танцы, за вебкам, за цифровых инфлюенсеров, за аниматоров...
Про вебкам уже выпивал, кстати.
Одно время назад интернетик полнился анимацией портретов (типа Аватарифай) - загружаешь фотку (Мону Лизу, например), а ИИ заставляет ее кривляться или корчить разные смешные морды. Проекты типа D-ID берут морду лица и учат ее говорить всякие глупости.
Но постепенно ИИ добирается и до, скажем так, поясного плана, включающего в себя руки, плечи и часть корпуса.
На входе одна фотка и какой-то примерчик из библиотеки движений. И вот уже ваша фотка лихо пляшет на видео, размахивая руками.
Тут я подумал, что анимации можно брать из предыдущего поста.
По сравнению с тем, что раньше все эти цифровые инфлюенсеры делали тупую пересадку сгенерированного лица на реальные фото и видосы (по сути дипфейки), это уже шаг навстречу полной генерации и лица и тушки.
И есть код и проект:
https://github.com/fudan-generative-vision/champ
И объяснялка:
https://www.youtube.com/watch?v=2XVsy9tQRAY
И даже сами можете попробовать!
https://replicate.com/camenduru/champ
Тут не знаю, за кого выпить в первую очередь: за тикток танцы, за вебкам, за цифровых инфлюенсеров, за аниматоров...
Про вебкам уже выпивал, кстати.
Одно время назад интернетик полнился анимацией портретов (типа Аватарифай) - загружаешь фотку (Мону Лизу, например), а ИИ заставляет ее кривляться или корчить разные смешные морды. Проекты типа D-ID берут морду лица и учат ее говорить всякие глупости.
Но постепенно ИИ добирается и до, скажем так, поясного плана, включающего в себя руки, плечи и часть корпуса.
На входе одна фотка и какой-то примерчик из библиотеки движений. И вот уже ваша фотка лихо пляшет на видео, размахивая руками.
Тут я подумал, что анимации можно брать из предыдущего поста.
По сравнению с тем, что раньше все эти цифровые инфлюенсеры делали тупую пересадку сгенерированного лица на реальные фото и видосы (по сути дипфейки), это уже шаг навстречу полной генерации и лица и тушки.
И есть код и проект:
https://github.com/fudan-generative-vision/champ
И объяснялка:
https://www.youtube.com/watch?v=2XVsy9tQRAY
И даже сами можете попробовать!
https://replicate.com/camenduru/champ
👍31👎6🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и вот вам целое агенство по производству рекламных видосов (креативов), на которых (как выяснилось кожаные) актеры впаривают потребителям все что угодно.
Пишете сценарий, выбираете актера, генерите видео с нужным языком и липсинком.
Тут дополнительный слой в том, генерация заточена именно под рекламные видео.
Дорого, 100 баксов в месяц за 10 видосов.
https://app.arcads.ai/
Пишете сценарий, выбираете актера, генерите видео с нужным языком и липсинком.
Тут дополнительный слой в том, генерация заточена именно под рекламные видео.
Дорого, 100 баксов в месяц за 10 видосов.
https://app.arcads.ai/
🔥25👍9👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь Scaniverse поддерживает Gaussian Splatting
Если кто не в курсе, Scaniverse - это хорошее приложение фотограмметрии и 3Д-сканирования. Сканы можно редактировать, как и фотографии, обрезая, поворачивая, настраивая экспозицию или контрастность, а также экспортировать в популярные форматы OBJ и FBX для совместимости с программами 3D-моделирования и игровыми движками.
Круто, что Гауссианы вползают в разные пайплайны. И обратите внимание - все это крутится НА УСТРОЙСТВЕ, то есть на телефоне.
Пользователю, в общем, все равно, меш это или гауссианы, главное чтобы было красиво.
https://scaniverse.com/
Если кто не в курсе, Scaniverse - это хорошее приложение фотограмметрии и 3Д-сканирования. Сканы можно редактировать, как и фотографии, обрезая, поворачивая, настраивая экспозицию или контрастность, а также экспортировать в популярные форматы OBJ и FBX для совместимости с программами 3D-моделирования и игровыми движками.
Круто, что Гауссианы вползают в разные пайплайны. И обратите внимание - все это крутится НА УСТРОЙСТВЕ, то есть на телефоне.
Пользователю, в общем, все равно, меш это или гауссианы, главное чтобы было красиво.
https://scaniverse.com/
👍35🔥16
Кстати, уже в четырех странах мира - в Индии, Коста-Рика, Венгрии и Чили - признали права китообразных и дельфинов, взяв их под особую защиту на государственном уровне. В 2013 году правительство Индии присвоило дельфинам статус "личностей, не относящихся к человеческому роду". Таким образом Индия стала первой страной, признавшей уникальный интеллект представителей отряда водных млекопитающих - китообразных.
Значит вот эти твари, которые только пищат и смотрят на вас умными глазками - это личности, не относящиеся к человеческому роду. А ИИ, который звучит как личность, выглядит, как личность, говорит лучше 50% кожаных, умнее 80% кожаных - это стохастический попугай?
Представьте, что у вас есть новый вид рыбы, и вы не знаете откуда он взялся. При этом он говорит, рассуждает и врет, как человек. Вы проводите над ним опыты, он дико умный, умеет распознавать картинки и видео, умеет поговорить о них с вами на человеческом. Умеет рисовать картинки силой мысли. И вы не знаете, кто он вощетакой.
Вы будете называть его жалким повторителем?
Кстати, я вот тут подумал, что если замешать в датасеты разговоры на китовьем и на дельфиньем то может быть ИИ выучит кое-что новое...
https://www.anapatravelnotes.com/articles/novosti/184
Значит вот эти твари, которые только пищат и смотрят на вас умными глазками - это личности, не относящиеся к человеческому роду. А ИИ, который звучит как личность, выглядит, как личность, говорит лучше 50% кожаных, умнее 80% кожаных - это стохастический попугай?
Представьте, что у вас есть новый вид рыбы, и вы не знаете откуда он взялся. При этом он говорит, рассуждает и врет, как человек. Вы проводите над ним опыты, он дико умный, умеет распознавать картинки и видео, умеет поговорить о них с вами на человеческом. Умеет рисовать картинки силой мысли. И вы не знаете, кто он вощетакой.
Вы будете называть его жалким повторителем?
Кстати, я вот тут подумал, что если замешать в датасеты разговоры на китовьем и на дельфиньем то может быть ИИ выучит кое-что новое...
https://www.anapatravelnotes.com/articles/novosti/184
👍59👎33🔥17
Еще один шевеляж лицом.
Помните убойное EMO от Алибабы? Кода, как обычно, от алибабищенко, нет.
Но тут вот ТикТочек выкатил ответочку.
На входе фотка и аудио-файл, на выходе анимированный портрет, который, вроде как, должен под это аудио шевелить лицом.
Можно на вход подавать не только аудио, но и видео, чтобы копировать мимику, получается а ля дипфейк.
Я попробовал - выходит не очень, ответочка так себе. Самая засада, как обычно, в липсинке. Плюс поглядите, как диффузия беспощадно перемалывает надпись Nvidia на ленточке от бейджа.
Но есть код, и можно попробовать самому тут:
https://replicate.com/camenduru/aniportrait-vid2vid
Код:
https://github.com/Zejun-Yang/AniPortrait
Ну и если глянуть в статью, и даже дойти до раздела выводы, то они там пишут, что в будущем они собираются перейти на алибабищенский подход EMO, чтобы поправить качество.
In the future, we plan to follow the approach of EMO, predicting portrait videos directly from audio, in order to achieve more stunning generation results.
Алибаба, код давай, да?!
Помните убойное EMO от Алибабы? Кода, как обычно, от алибабищенко, нет.
Но тут вот ТикТочек выкатил ответочку.
На входе фотка и аудио-файл, на выходе анимированный портрет, который, вроде как, должен под это аудио шевелить лицом.
Можно на вход подавать не только аудио, но и видео, чтобы копировать мимику, получается а ля дипфейк.
Я попробовал - выходит не очень, ответочка так себе. Самая засада, как обычно, в липсинке. Плюс поглядите, как диффузия беспощадно перемалывает надпись Nvidia на ленточке от бейджа.
Но есть код, и можно попробовать самому тут:
https://replicate.com/camenduru/aniportrait-vid2vid
Код:
https://github.com/Zejun-Yang/AniPortrait
Ну и если глянуть в статью, и даже дойти до раздела выводы, то они там пишут, что в будущем они собираются перейти на алибабищенский подход EMO, чтобы поправить качество.
In the future, we plan to follow the approach of EMO, predicting portrait videos directly from audio, in order to achieve more stunning generation results.
Алибаба, код давай, да?!
👍22👎2
Тут вот интернетик верещит новостью "The king is dead" - имея в виду тот факт, что "Claude 3 впервые превзошел GPT-4 на Chatbot Arena". Ну и дальше про похороны короля GPT Четвертого...
Если поглядеть на это трезво, то получается, что где-то, как каком-то ресурсе, на определенных бенчмарках и задачах, Клод обошел на повороте GPT-4 в моменте.
Более того, если почитать основную Y-дискуссию, посвященную этой новости, то выясняется, что даже на отдельно задаче кодогенерации половина кожаных считает, что GPT лучше, а половина, что Клод.
For coding I've found ChatGPT4 a bit better than Claude 3 Opus because it tends to understand my intentions more and I trust it to make better suggestions for code changes.
Ну то есть, бенчмарки бенчмарками, чатботарены чатботаренами, а все люди и задачи разные и пока говорить, что "король мертв" - это лютый кликбейт, конечно (говорю как спец по кликбейту).
Также в коментах можно найти много интересного про GPT-5 и другие теории заговора.
В общем, революции нет, расходимся, и ждем новостей от OpenAI.
https://news.ycombinator.com/item?id=39841390
Если поглядеть на это трезво, то получается, что где-то, как каком-то ресурсе, на определенных бенчмарках и задачах, Клод обошел на повороте GPT-4 в моменте.
Более того, если почитать основную Y-дискуссию, посвященную этой новости, то выясняется, что даже на отдельно задаче кодогенерации половина кожаных считает, что GPT лучше, а половина, что Клод.
For coding I've found ChatGPT4 a bit better than Claude 3 Opus because it tends to understand my intentions more and I trust it to make better suggestions for code changes.
Ну то есть, бенчмарки бенчмарками, чатботарены чатботаренами, а все люди и задачи разные и пока говорить, что "король мертв" - это лютый кликбейт, конечно (говорю как спец по кликбейту).
Также в коментах можно найти много интересного про GPT-5 и другие теории заговора.
В общем, революции нет, расходимся, и ждем новостей от OpenAI.
https://news.ycombinator.com/item?id=39841390
👍19👎3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
One-step Diffusion
Ускорение Stable Diffusion становится трендом (особенно актуально в преддверии SD3).
Причем генерация в один шаг появилась за последнюю неделю сразу во многих работах.
Собрал три последние работы, поглядите сами:
Xiaomi: https://idkiro.github.io/sdxs/
Адобченко: https://tianweiy.github.io/dmd/
Ёсо: https://github.com/Luo-Yihong/YOSO
Если это разогнать еще с помощью ухваток от Нвидии в виде TensorRT, то можно ждать реалтаймовых генераций с очень приличным качеством.
И это очень круто, потому что продукты типа Krea или Vizcom демонстрируют, что отклик и работа "в картинке" (а не с кнопкой Генерить) являются очень ценными для тех, кто работает с той самой картинкой.
Любопытная аналогия напрашивается - с появлением UE в постпродакшене лет 10 назад. Когда архвизеры увидели, что UE может рендерить их ацкие интерьеры почти в реалтайме, они заплакали (от щастя) и остановили свои тридцатичасовые рендеры в Вирее.
В общем, реалтайм диффузия хорошо зайдет в рынок инструментов для генерации контента.
Ускорение Stable Diffusion становится трендом (особенно актуально в преддверии SD3).
Причем генерация в один шаг появилась за последнюю неделю сразу во многих работах.
Собрал три последние работы, поглядите сами:
Xiaomi: https://idkiro.github.io/sdxs/
Адобченко: https://tianweiy.github.io/dmd/
Ёсо: https://github.com/Luo-Yihong/YOSO
Если это разогнать еще с помощью ухваток от Нвидии в виде TensorRT, то можно ждать реалтаймовых генераций с очень приличным качеством.
И это очень круто, потому что продукты типа Krea или Vizcom демонстрируют, что отклик и работа "в картинке" (а не с кнопкой Генерить) являются очень ценными для тех, кто работает с той самой картинкой.
Любопытная аналогия напрашивается - с появлением UE в постпродакшене лет 10 назад. Когда архвизеры увидели, что UE может рендерить их ацкие интерьеры почти в реалтайме, они заплакали (от щастя) и остановили свои тридцатичасовые рендеры в Вирее.
В общем, реалтайм диффузия хорошо зайдет в рынок инструментов для генерации контента.
👍34🔥7
Stable Diffusion 3 Бот
Как подсказывает нам лента Stable Diffusion на реддите (забавная, читаю), Stable Diffusion 3 раскатали в виде чат-бота, в котором можно генерить картинки. Я об этом уже писал, но доступа за это мне не дали)).
Но всегда можно почитать коменты на реддите:
Говорят, что это одна из младших моделей, что она не тянет хорошее качество и разрешение и что она ЖУТКО цензурирована:
"Ассистент SD3 хуже, чем dalle3 на chatGPT и даже bing image creator. На запрос "две женщины болтают в спортзале" он несколько раз отказывался генерировать что-либо, а потом выдал нечто, похожее на двух мужчин в женской одежде... "full body shot" означает отсутствие изображения. В более реалистичном стиле он по умолчанию (я имею в виду очень часто) генерирует жуткие, обычно немного уродливые лица (например, большие или кривые зубы). Он не любит "привлекательные" и "красивые" и, хотя не отказывается их генерировать, обычно вычеркивает их из подсказки. "Аниме-женщина" означает отсутствие видимой формы груди, либо одетая грудь заслонена другим предметом, либо это детская/мужская грудь, лишь изредка мне удавалось сгенерировать что-то, что я бы классифицировал как часть маленькой груди (опять же, не обнаженной, просто одежда с неясной формой груди). Я очень надеюсь, что слухи о том, что бот использует меньшую модель, правдивы, и цензура портит ее, а не то, что большая модель так плоха.
По крайней мере, половина изображений выглядит хуже, чем из SDXL, и большинству изображений потребуется инпайнт для глаз/рук/конечностей). "
Пока невесело...
https://www.reddit.com/r/StableDiffusion/comments/1bp3i0r/stable_assistant_preview_with_beta_version_of/
Как подсказывает нам лента Stable Diffusion на реддите (забавная, читаю), Stable Diffusion 3 раскатали в виде чат-бота, в котором можно генерить картинки. Я об этом уже писал, но доступа за это мне не дали)).
Но всегда можно почитать коменты на реддите:
Говорят, что это одна из младших моделей, что она не тянет хорошее качество и разрешение и что она ЖУТКО цензурирована:
"Ассистент SD3 хуже, чем dalle3 на chatGPT и даже bing image creator. На запрос "две женщины болтают в спортзале" он несколько раз отказывался генерировать что-либо, а потом выдал нечто, похожее на двух мужчин в женской одежде... "full body shot" означает отсутствие изображения. В более реалистичном стиле он по умолчанию (я имею в виду очень часто) генерирует жуткие, обычно немного уродливые лица (например, большие или кривые зубы). Он не любит "привлекательные" и "красивые" и, хотя не отказывается их генерировать, обычно вычеркивает их из подсказки. "Аниме-женщина" означает отсутствие видимой формы груди, либо одетая грудь заслонена другим предметом, либо это детская/мужская грудь, лишь изредка мне удавалось сгенерировать что-то, что я бы классифицировал как часть маленькой груди (опять же, не обнаженной, просто одежда с неясной формой груди). Я очень надеюсь, что слухи о том, что бот использует меньшую модель, правдивы, и цензура портит ее, а не то, что большая модель так плоха.
По крайней мере, половина изображений выглядит хуже, чем из SDXL, и большинству изображений потребуется инпайнт для глаз/рук/конечностей). "
Пока невесело...
https://www.reddit.com/r/StableDiffusion/comments/1bp3i0r/stable_assistant_preview_with_beta_version_of/
👍14👎3
This media is not supported in your browser
VIEW IN TELEGRAM
У HeyGen обновление - Avatar in Motion 1.0
Теперь вам не нужно напряженно глядеть в камеру и стараться не шевелить головой. Теперь можно махать руками, трясти башкой, снимать стримы на улице(!), ХейГенчик подхватывет все это добро, переводит и липсинкает все это на разные языки.
Еще раз, тут нет генерации аватаров - это перевод, дубляж и липсинк.
А теперь вишенка: для тех, кто считает, что при переходе на испанский качество упало. Оригинальное видео было записано на немецком!
ХейГенщики также отжигают в твитторе: присылайте, говорят, какие глупости должен сказать персонаж, а мы сгенерим это в ленте.
https://twitter.com/HeyGen_Official/status/1773119891068883240
Теперь вам не нужно напряженно глядеть в камеру и стараться не шевелить головой. Теперь можно махать руками, трясти башкой, снимать стримы на улице(!), ХейГенчик подхватывет все это добро, переводит и липсинкает все это на разные языки.
Еще раз, тут нет генерации аватаров - это перевод, дубляж и липсинк.
А теперь вишенка: для тех, кто считает, что при переходе на испанский качество упало. Оригинальное видео было записано на немецком!
ХейГенщики также отжигают в твитторе: присылайте, говорят, какие глупости должен сказать персонаж, а мы сгенерим это в ленте.
https://twitter.com/HeyGen_Official/status/1773119891068883240
🔥44👍4
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Мне дали доступ к продвинутой модели генерации картинок SD3, пока в виде чатбота – я поигрался и могу сказать что через месяца два у нас будет MJ v6 дома; не потому что сама SD3 такая сильная, а потому что это шикарная базовая модель, которую после релиза в опенсорс обязательно полюбят в сообществе и натренирует кучу версий с ней.
По моим источникам в стабилити, релиз SD3 в опенсорс будет через ~6 недель☕️
По моим источникам в стабилити, релиз SD3 в опенсорс будет через ~6 недель
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Взалкали новизны в творчестве? ИИ придет на помощь.
Держите очередную порцию новых нормальных видео. Промпты в титрах.
И знаете, что мне нравится - демократизация. Автор пишет:
Я всегда был творческой студией, состоящей из одного человека, поэтому существовали ограничения на то, что я мог создать в одиночку. С Sora я чувствую, что могу рассказывать истории в таких масштабах, которые раньше мне казались невозможными.
Ждем открытия новых инди-студий. И сокращения штатов у мейджоров.
Держите очередную порцию новых нормальных видео. Промпты в титрах.
И знаете, что мне нравится - демократизация. Автор пишет:
Я всегда был творческой студией, состоящей из одного человека, поэтому существовали ограничения на то, что я мог создать в одиночку. С Sora я чувствую, что могу рассказывать истории в таких масштабах, которые раньше мне казались невозможными.
Ждем открытия новых инди-студий. И сокращения штатов у мейджоров.
🔥61👍10👎5
Forwarded from Derp Learning
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и куда же без пятничного кека над айфонами
👍49🔥23