Нейронавт | Нейросети в творчестве – Telegram
Нейронавт | Нейросети в творчестве
10.6K subscribers
4.45K photos
3.72K videos
41 files
4.76K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus

Заявка на регистрацию в РКН № 6309426111
Download Telegram
BREAKING NEWS

Stability AI с радостью объявляет о запуске Stable Diffusion Reimagine! Мы приглашаем пользователей поэкспериментировать с изображениями и "переосмыслить" свой дизайн с помощью стабильной диффузии.

Stable Diffusion Reimagine - это новый инструмент Clipdrop, который позволяет пользователям создавать множество вариантов одного изображения без ограничений. Нет необходимости в сложных подсказках: пользователи могут просто загрузить изображение в алгоритм, чтобы создать столько вариантов, сколько они захотят.
Можно играть со стилем. Есть апскейлер

Код скоро выложат

#stablediffusion
👍1
развели ChatGPT на анекдоты
🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ответочка Гуглу от китайского опен сорса: text2video.
Много ограничений - "модель не была обучена реалистичному представлению людей или событий, поэтому ее использование для создания такого контента выходит за рамки возможностей модели."

С text2video будет всегда примерно так, сделать универсальную модель сложно и позволено только Гуглу, у которого Ютюб под матрасом.

Но эксперимент интересный, большинство деталей тут:

https://modelscope.cn/models/damo/text-to-video-synthesis/summary

web demo: https://huggingface.co/spaces/hysts/modelscope-text-to-video-synthesis

huggingface model: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main

А вот тут человек уже делает новые звёздные войны. Пачками по 20 сек на шот на А10G.
It takes less than 20 sec to create a new video! If you use it for ~30 minutes it will generate a lot of clips and cost you ~$1.5!

Данные для обучения включают LAION5B, ImageNet, Webvid и другие общедоступные наборы данных. Поэтому шаттерсток там гарцует в пол экрана.

Ну, за звёздные войны!

https://twitter.com/victormustar/status/1637461621541949441?s=20
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Скоро в Automatic1111 подвезут ControlNet для лица. Типа маркеров на лице, которые будут определять позицию и "выражение" лица.
Модель уже есть, пилят препроцессор.
Пока модель отрабатывает не очень, см. картинку.
Но всё идёт к метахуманам внутри Stable Diffusion.
https://www.reddit.com/r/StableDiffusion/comments/11v3dgj/new_controlnet_model_trained_on_face_landmarks/
👍2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Text-2-Video - ответочка от RunwayML!

Gen-2: The Next Step Forward for Generative AI

Олдскульные софты обновлются раз в год. Maya 2022, Adobe CC2023.

А мы живем в ускоренной вселенной. Счет идет на недели...
Только что мы охреневали от GEN-1.

Вот держите GEN-2!

Никакого видео на входе. Только текст, только хардкор.
Mediascope рыдает..

Кипит все отчаянно, но лучше, чем все, что было до этого.
Ну и only text as input - это безумие и отвага.
https://research.runwayml.com/gen2
1
Zero-1-to-3: Zero-shot One Image to 3D Object

Генератор 3D объектов по одному фото. Вернее, он выдает на выходе не 3D объект, а вид объекта с заданного ракурса, некое подобие рендера
На сайте проекта есть интерактивная демка с ограниченным выбором объектов.

Код

#imageto3D #novelview #rendering
5
https://www.seedscienceai.com/artists/slideshow
Залипательный сайт с генерациями SD разбитым по художникам, в виде слайдшоу.
То что надо для вдохновения и поиска стиля.

#tools #artiststudy
2
Пытался сгенерить видео на huggingface Modelscope text2video
Бесполезно, слишком много алчущих синтетического видео.

Тем временем умелец с реддит собрал колаб. Из репозитория он не запускается, его надо скачать и загрузить себе в колаб. Файл в коментах.

Другой умелец собрал для нее GUI под Windows
При первом запуске GUI загрузит 13 Гб весов модели.

Ну что, го тестить и делитесь генерациями в коментах!
AdverseCleaner

16 строк кода Python для удаления нежелательного шума с изображений сгенерированных ИИ.

Изображению 1024px требуется менее 3 секунд на процессоре ноутбука, что бы избавится от шума.

#tools #denoise
🔥2
FIREFLY
Adobe показала свой ИИ-генератор изображений.
Для его обучения не использовали чужие работы без разрешения: тренировали только на лицензированном контенте или без авторских прав.

Сначала инструмент можно будет попробовать в браузере. Скоро нейронку встроят в Photoshop, After Effects и Premiere Pro.

Подать заявку

#text2image #image2image #image2video #text2font #image2font #Adobe
👍3
Google открыл доступ к чат-боту Bard
Но есть нюанс.
Начинают с США и Великобритании и со временем расширят до большего количества стран и языков.
Включаем VPN на UK или США и идем записываться в вейтлист

#LLM #NLP #chatbot
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 Партийная ChatGPT

Собрал небольшой colab с вышедшей на днях открытой китайской версией ChatGPT — 🇨🇳 ChatGLM 6B.

🔸 Сделали те же люди из Tshinghua University, что ранее выкладывали CogView — генерацию видео по тексту.
🔸 Работает на удивление неплохо — решает творческие задачи на написание текстов и email'ов, составление списков чего-либо. Можно передавать историю чата и вести с ней общение.
🔸 Выдает длинные ответы.
🔸 Обучалась на китайском, соответственно передать в нее что-то специфическое будет трудно.
🔸 Как собрать бомбу или коктейль Молотова не отвечает, китайские коллеги все-таки решили выровнять ее в этическом плане (надо тестить дальше).
🔸 Для английского тоже работает, иногда вставляя в текст слова на китайском. Добавил в колаб автоперевод с китайского на русский.

〰️ Как тренировали?

Пропустили через нее 1T токенов (прямо как в LLaMA). За основу взяли свой же претрейн GLM, дообучили на инструкциях, затем RLHF. Контекст 2048 токенов.

Квантованная версия занимает 6Gb памяти, вместо ~26Gb в fp32, так что можно поиграться в бесплатном colab'е.

👉 Colab | Huggingface | GitHub
🔥1