This media is not supported in your browser
VIEW IN TELEGRAM
FateZero: Fusing Attentions for Zero-shot Text-based Video Editing
Редактирование видео по текстовому запросу.
Код
#text2video #video2video
Редактирование видео по текстовому запросу.
Код
#text2video #video2video
Компания Anthropic основана выходцами из OpenAI. На днях Anthropic представила своего чат-бота Claude — по сути, конкурента ChatGPT. С ним можно общаться, просить решать задачи: суммаризовать текст, кодить, находить информацию и т.п.
Anthropic уже сотрудничают с Notion, Quora, Juni Learning и DuckDuckGo, внедряют свой продукт в эти сервисы. И некоторые отзывы пользователей этих сервисов выглядят так:
- “Claude кажется более разговорчивым, чем ChatGPT”
- “Я нахожу, что Claude более интерактивен и креативен в рассказывании историй”
Запись в early access Claude тут
#chat #LLM #NLP
Anthropic уже сотрудничают с Notion, Quora, Juni Learning и DuckDuckGo, внедряют свой продукт в эти сервисы. И некоторые отзывы пользователей этих сервисов выглядят так:
- “Claude кажется более разговорчивым, чем ChatGPT”
- “Я нахожу, что Claude более интерактивен и креативен в рассказывании историй”
Запись в early access Claude тут
#chat #LLM #NLP
Anthropic
Introducing Claude
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Восхитительная новость!
Нейронки разработали вакцину от всех вариантов коронавируса сразу, её уже испытали на мышах и результаты радуют.
Вакцина MIT-T-COVID, которая содержит генетический материал наиболее консервативных частей вируса. Иммунитет от такого препарата будет сохраняться дольше и действовать даже на мутировавшие виды инфекции.
Подробные результаты исследования опубликованы здесь. Кратко — вакцина может стать самой эффективной на сегодняшний день, но нужны дополнительные исследования и тесты.
Нейронки разработали вакцину от всех вариантов коронавируса сразу, её уже испытали на мышах и результаты радуют.
Вакцина MIT-T-COVID, которая содержит генетический материал наиболее консервативных частей вируса. Иммунитет от такого препарата будет сохраняться дольше и действовать даже на мутировавшие виды инфекции.
Подробные результаты исследования опубликованы здесь. Кратко — вакцина может стать самой эффективной на сегодняшний день, но нужны дополнительные исследования и тесты.
Frontiers
Frontiers | A pan-variant mRNA-LNP T cell vaccine protects HLA transgenic mice from mortality after infection with SARS-CoV-2 Beta
Licensed COVID-19 vaccines ameliorate viral infection by inducing production of neutralizing antibodies that bind the SARS-CoV-2 Spike protein and inhibit vi...
🔥1
Новость которую запостили все маркето-рекламо-каналы, но никто не дал ни ссылку, ни объяснение технологии. Так что, все это неточно.
В Бразилии продемонстрировал концертных цифровых аватаров.
Они повторяют движения за владельцем и отрисованы до мельчайших деталей.
#humanavatar #3Davatar
В Бразилии продемонстрировал концертных цифровых аватаров.
Они повторяют движения за владельцем и отрисованы до мельчайших деталей.
#humanavatar #3Davatar
🔥1
BREAKING NEWS
Stability AI с радостью объявляет о запуске Stable Diffusion Reimagine! Мы приглашаем пользователей поэкспериментировать с изображениями и "переосмыслить" свой дизайн с помощью стабильной диффузии.
Stable Diffusion Reimagine - это новый инструмент Clipdrop, который позволяет пользователям создавать множество вариантов одного изображения без ограничений. Нет необходимости в сложных подсказках: пользователи могут просто загрузить изображение в алгоритм, чтобы создать столько вариантов, сколько они захотят.
Можно играть со стилем. Есть апскейлер
Код скоро выложат
#stablediffusion
Stability AI с радостью объявляет о запуске Stable Diffusion Reimagine! Мы приглашаем пользователей поэкспериментировать с изображениями и "переосмыслить" свой дизайн с помощью стабильной диффузии.
Stable Diffusion Reimagine - это новый инструмент Clipdrop, который позволяет пользователям создавать множество вариантов одного изображения без ограничений. Нет необходимости в сложных подсказках: пользователи могут просто загрузить изображение в алгоритм, чтобы создать столько вариантов, сколько они захотят.
Можно играть со стилем. Есть апскейлер
Код скоро выложат
#stablediffusion
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ответочка Гуглу от китайского опен сорса: text2video.
Много ограничений - "модель не была обучена реалистичному представлению людей или событий, поэтому ее использование для создания такого контента выходит за рамки возможностей модели."
С text2video будет всегда примерно так, сделать универсальную модель сложно и позволено только Гуглу, у которого Ютюб под матрасом.
Но эксперимент интересный, большинство деталей тут:
https://modelscope.cn/models/damo/text-to-video-synthesis/summary
web demo: https://huggingface.co/spaces/hysts/modelscope-text-to-video-synthesis
huggingface model: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
А вот тут человек уже делает новые звёздные войны. Пачками по 20 сек на шот на А10G.
It takes less than 20 sec to create a new video! If you use it for ~30 minutes it will generate a lot of clips and cost you ~$1.5!
Данные для обучения включают LAION5B, ImageNet, Webvid и другие общедоступные наборы данных. Поэтому шаттерсток там гарцует в пол экрана.
Ну, за звёздные войны!
https://twitter.com/victormustar/status/1637461621541949441?s=20
Много ограничений - "модель не была обучена реалистичному представлению людей или событий, поэтому ее использование для создания такого контента выходит за рамки возможностей модели."
С text2video будет всегда примерно так, сделать универсальную модель сложно и позволено только Гуглу, у которого Ютюб под матрасом.
Но эксперимент интересный, большинство деталей тут:
https://modelscope.cn/models/damo/text-to-video-synthesis/summary
web demo: https://huggingface.co/spaces/hysts/modelscope-text-to-video-synthesis
huggingface model: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
А вот тут человек уже делает новые звёздные войны. Пачками по 20 сек на шот на А10G.
It takes less than 20 sec to create a new video! If you use it for ~30 minutes it will generate a lot of clips and cost you ~$1.5!
Данные для обучения включают LAION5B, ImageNet, Webvid и другие общедоступные наборы данных. Поэтому шаттерсток там гарцует в пол экрана.
Ну, за звёздные войны!
https://twitter.com/victormustar/status/1637461621541949441?s=20
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Скоро в Automatic1111 подвезут ControlNet для лица. Типа маркеров на лице, которые будут определять позицию и "выражение" лица.
Модель уже есть, пилят препроцессор.
Пока модель отрабатывает не очень, см. картинку.
Но всё идёт к метахуманам внутри Stable Diffusion.
https://www.reddit.com/r/StableDiffusion/comments/11v3dgj/new_controlnet_model_trained_on_face_landmarks/
Модель уже есть, пилят препроцессор.
Пока модель отрабатывает не очень, см. картинку.
Но всё идёт к метахуманам внутри Stable Diffusion.
https://www.reddit.com/r/StableDiffusion/comments/11v3dgj/new_controlnet_model_trained_on_face_landmarks/
👍2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Text-2-Video - ответочка от RunwayML!
Gen-2: The Next Step Forward for Generative AI
Олдскульные софты обновлются раз в год. Maya 2022, Adobe CC2023.
А мы живем в ускоренной вселенной. Счет идет на недели...
Только что мы охреневали от GEN-1.
Вот держите GEN-2!
Никакого видео на входе. Только текст, только хардкор.
Mediascope рыдает..
Кипит все отчаянно, но лучше, чем все, что было до этого.
Ну и only text as input - это безумие и отвага.
https://research.runwayml.com/gen2
Gen-2: The Next Step Forward for Generative AI
Олдскульные софты обновлются раз в год. Maya 2022, Adobe CC2023.
А мы живем в ускоренной вселенной. Счет идет на недели...
Только что мы охреневали от GEN-1.
Вот держите GEN-2!
Никакого видео на входе. Только текст, только хардкор.
Mediascope рыдает..
Кипит все отчаянно, но лучше, чем все, что было до этого.
Ну и only text as input - это безумие и отвага.
https://research.runwayml.com/gen2
❤1
Zero-1-to-3: Zero-shot One Image to 3D Object
Генератор 3D объектов по одному фото. Вернее, он выдает на выходе не 3D объект, а вид объекта с заданного ракурса, некое подобие рендера
На сайте проекта есть интерактивная демка с ограниченным выбором объектов.
Код
#imageto3D #novelview #rendering
Генератор 3D объектов по одному фото. Вернее, он выдает на выходе не 3D объект, а вид объекта с заданного ракурса, некое подобие рендера
На сайте проекта есть интерактивная демка с ограниченным выбором объектов.
Код
#imageto3D #novelview #rendering
❤5
https://www.seedscienceai.com/artists/slideshow
Залипательный сайт с генерациями SD разбитым по художникам, в виде слайдшоу.
То что надо для вдохновения и поиска стиля.
#tools #artiststudy
Залипательный сайт с генерациями SD разбитым по художникам, в виде слайдшоу.
То что надо для вдохновения и поиска стиля.
#tools #artiststudy
❤2
Авторы выложили код и демо Video-P2P
Демо запустить не удалось, вылетает с ошибкой. Надо подождать пока починят.
Код
Демо
#text2video #video2video #videop2p
Демо запустить не удалось, вылетает с ошибкой. Надо подождать пока починят.
Код
Демо
#text2video #video2video #videop2p
Telegram
Нейронавт | Нейросети в творчестве
Video-P2P
Нейросеть для редактирования видео по тексту от Adobe и Гонконгского китайского Университета. Информации мало.
Код обещают позже с намеками на публичный доступ к модели.
[UPDATE]
Код
Демо
#text2video #video2video #videop2p
Нейросеть для редактирования видео по тексту от Adobe и Гонконгского китайского Университета. Информации мало.
Код обещают позже с намеками на публичный доступ к модели.
[UPDATE]
Код
Демо
#text2video #video2video #videop2p
🔥1
Пытался сгенерить видео на huggingface Modelscope text2video
Бесполезно, слишком много алчущих синтетического видео.
Тем временем умелец с реддит собрал колаб. Из репозитория он не запускается, его надо скачать и загрузить себе в колаб. Файл в коментах.
Другой умелец собрал для нее GUI под Windows
При первом запуске GUI загрузит 13 Гб весов модели.
Ну что, го тестить и делитесь генерациями в коментах!
Бесполезно, слишком много алчущих синтетического видео.
Тем временем умелец с реддит собрал колаб. Из репозитория он не запускается, его надо скачать и загрузить себе в колаб. Файл в коментах.
Другой умелец собрал для нее GUI под Windows
При первом запуске GUI загрузит 13 Гб весов модели.
Ну что, го тестить и делитесь генерациями в коментах!
AdverseCleaner
16 строк кода Python для удаления нежелательного шума с изображений сгенерированных ИИ.
Изображению 1024px требуется менее 3 секунд на процессоре ноутбука, что бы избавится от шума.
#tools #denoise
16 строк кода Python для удаления нежелательного шума с изображений сгенерированных ИИ.
Изображению 1024px требуется менее 3 секунд на процессоре ноутбука, что бы избавится от шума.
#tools #denoise
🔥2