Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Собрал новую порцию генераций SORA, я бы конечно многое отдал чтобы в бету напроситься 😢 хочу свой кино Сэм памани
Обратите внимание на руку парня на пляже
Обратите внимание на руку парня на пляже
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Смотрел сейчас @daisy_avatarbot, иногда получается годно. Хотя я и не знаю где и как можно применять вот эти нейронные аватары. Хз что там под капотом, но похоже на самописный фейс-своп, (или всё же лора какая-то??)
Особенно вкатил стиль "киберпанк".
Особенно вкатил стиль "киберпанк".
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Уже немного баян, но это очень смешно. 11 месяцев назад(всего!), у нас было вот такое качество ИИ-видео.
Сейчас мы лицезреем SORA.
Уилл Смит устал смотреть на свое кринжовое спагеттопоедание и записал видос у себя на кухне.
В принципе это начало нового жанра - кожаные снимают реальные видео, повторяющие ИИ-генератив.
Постметаирония? Цикл замкнулся?
Сейчас мы лицезреем SORA.
Уилл Смит устал смотреть на свое кринжовое спагеттопоедание и записал видос у себя на кухне.
В принципе это начало нового жанра - кожаные снимают реальные видео, повторяющие ИИ-генератив.
Постметаирония? Цикл замкнулся?
This media is not supported in your browser
VIEW IN TELEGRAM
Ладно, нейровидосы на которых Уилл Смит ест спагетти уже были.
Настало время нейровидосов, на которых спагетти едят Уилла Смита
Настало время нейровидосов, на которых спагетти едят Уилла Смита
Forwarded from CGIT_Vines (Marvin Heemeyer)
Заанонсили Stable Diffusion3!
Набор моделей варьируется от 800M до 8B параметров.
Безопасность в анонсе на первом месте! Как бы генерации хуже не стали.
Вейтлист тут
Даты выхода пока нет.
Набор моделей варьируется от 800M до 8B параметров.
Безопасность в анонсе на первом месте! Как бы генерации хуже не стали.
Вейтлист тут
Даты выхода пока нет.
Forwarded from addmeto (Grigory Bakunov)
Mistral выложили свою новую, самую большую их модель, Mistral Large. Модель, которая по своим характеристикам находится между игроком #1 (GPT-4) и #3 (Claude 2) пока не доступна в виде весов и исходников, а только в виде API на платформе La Plateforme и беты ассистента le Chat.
👁️👁️ https://mistral.ai/news/mistral-large/
👁️👁️ https://mistral.ai/news/mistral-large/
mistral.ai
Au Large | Mistral AI
Mistral Large is our flagship model, with top-tier reasoning capacities. It is also available on Azure.
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Transparent Image Layer Diffusion
Очень горячо.
Автор КонтролНета, господин Жанг, выпустил новую модель для генерации (внимание) изображений с прозрачностью.
Такими темпами в Stable Diffusion завезут слои как в Фотошопе (интересно, какой адовый интерфейс наворотят в Automatic1111).
И это немного сложнее, чем Remove Background. Кто хочет мяса, почитайте про Foreground LoRa, Background LoRa и прочие подробности тут:
https://arxiv.org/html/2402.17113v1
Мы показываем, что такая прозрачность может быть применена в различных генераторах изображений с открытым исходным кодом или адаптирована для достижения таких целей, как генерация слоев с учетом переднего/заднего плана, совместная генерация слоев, структурный контроль содержимого слоев и т. д.
Код на гитхабе будет завтра. Туда заливаются модели прямо сейчас.
https://github.com/layerdiffusion/LayerDiffusion
Из любопытного для гиков:
We train the model with 1M transparent image layer pairs collected using a human-in-the-loop collection scheme
We further extend our {text, transparent image} dataset into a {text, foreground layer, background layer} dataset, so as to train the multi-layer models. We ask GPTs (we used ChatGPT for 100k requests and then moved to LLAMA2 for 900k requests) to generate structured prompts pairs for foreground like “a cute cat”, entire image like “cat in garden”, and background like “nothing in garden” (we ask GPT to add the word “nothing” to the background prompt). The foreground prompt is processed by our trained transparent image generator to obtain the transparent images. Then, we use Diffusers Stable Diffusion XL Inpaint model to inpaint all pixels with alpha less than one to obtain intermediate images using the prompt for the entire images.
Очень горячо.
Автор КонтролНета, господин Жанг, выпустил новую модель для генерации (внимание) изображений с прозрачностью.
Такими темпами в Stable Diffusion завезут слои как в Фотошопе (интересно, какой адовый интерфейс наворотят в Automatic1111).
И это немного сложнее, чем Remove Background. Кто хочет мяса, почитайте про Foreground LoRa, Background LoRa и прочие подробности тут:
https://arxiv.org/html/2402.17113v1
Мы показываем, что такая прозрачность может быть применена в различных генераторах изображений с открытым исходным кодом или адаптирована для достижения таких целей, как генерация слоев с учетом переднего/заднего плана, совместная генерация слоев, структурный контроль содержимого слоев и т. д.
Код на гитхабе будет завтра. Туда заливаются модели прямо сейчас.
https://github.com/layerdiffusion/LayerDiffusion
Из любопытного для гиков:
We train the model with 1M transparent image layer pairs collected using a human-in-the-loop collection scheme
We further extend our {text, transparent image} dataset into a {text, foreground layer, background layer} dataset, so as to train the multi-layer models. We ask GPTs (we used ChatGPT for 100k requests and then moved to LLAMA2 for 900k requests) to generate structured prompts pairs for foreground like “a cute cat”, entire image like “cat in garden”, and background like “nothing in garden” (we ask GPT to add the word “nothing” to the background prompt). The foreground prompt is processed by our trained transparent image generator to obtain the transparent images. Then, we use Diffusers Stable Diffusion XL Inpaint model to inpaint all pixels with alpha less than one to obtain intermediate images using the prompt for the entire images.
Media is too big
VIEW IN TELEGRAM
Я чот оказывается пропустил, что sora от Openai умеет не только в генерацию видео, но и в комбинацию двух видосов подобно стайлтрансферам img2img.
Просто отрыв башки
Просто отрыв башки