Старшая модель Mistral - Mistral Large доступна по API и в бете ассистента le Chat. Эта модель по характеристикам конкурирует с GPT-4 и Claude 2.
API (для России недоступно)
le Chat
#llm #assistant #chatbot
API (для России недоступно)
le Chat
#llm #assistant #chatbot
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Вот держите гибридный пайплайн от генерации 3D-модели персонажа, до рига, анимации и нейрорендера. Без всякого ретопа, текстурирования и шейдинга.
Берется Luma AI для того чтобы сгенерить десяток вариантов 3Д-персонажа по текстовому промпту.
Получается довольно обмылочный персонаж в духе PS1 с кривой топологией и кашей вместо головы и рук.
Дальше он тащится в Mixamo и там на него тупо кидается авториг. А потом и анимация в духе Hadouken!
Дальше превью анимации с этим болваном кормится в КонтролНет, чтобы достать оттуда позу и объем с глубиной - для дальнейшего нейрорендеринга с помощью AnimateDiff.
Ну то есть идея такая - генерим низкокачественного болвана персонажа с помощью ИИ, кладем болт на топологию и качественный риг, просто одеваем его в скелет и наваливаем нужную нам анимацию (пусть с заломами и косяками на сгибах). На этапе нейрорендеринга все эти косяки сгладятся в процессе переноса стиля из промпта или картинки.
Одна засада - надо знать Mixamo, анимацию и вот это ваше дурацкое 3Д.
Впрочем нажать кнопку Autorig и потом выбрать из библиотеки анимацию (или сгенерить промптом, или забрать по эклеру из видео с помощью open pose) может любой, даже не знакомый с 3Д. Осталось эти кнопки вструмить внутрь ComfyUI или A1111 и спрятать подальше эти ацкие настройки ControlNet - вот и будет вам AIMixamo.
P.S. Качество ИИ-генерации 3Д настолько плохое, что чувак отдельно потом генерит голову и руки для персонажа и пришивает их к полигональному мешу и начинает все сначала (иначе КонтролНет не хавает уродца). И вот тут уже надо знать 3Д, сорян.
Но проблески будущих однокнопочных пайплайнов отчетливо проступают из шума диффузии.
P.S.S. Была такая поговорка у продакшенов - "на посте все поправят". Теперь на посте сидят такие: "зачем моделить правильно, на нейрорендеринге все поправится".
Короче, расслабляем булки, ИИ все поправит. За вас.
Автор обещает полный тутор тут:
https://twitter.com/8bit_e/status/1761111050420727895
Берется Luma AI для того чтобы сгенерить десяток вариантов 3Д-персонажа по текстовому промпту.
Получается довольно обмылочный персонаж в духе PS1 с кривой топологией и кашей вместо головы и рук.
Дальше он тащится в Mixamo и там на него тупо кидается авториг. А потом и анимация в духе Hadouken!
Дальше превью анимации с этим болваном кормится в КонтролНет, чтобы достать оттуда позу и объем с глубиной - для дальнейшего нейрорендеринга с помощью AnimateDiff.
Ну то есть идея такая - генерим низкокачественного болвана персонажа с помощью ИИ, кладем болт на топологию и качественный риг, просто одеваем его в скелет и наваливаем нужную нам анимацию (пусть с заломами и косяками на сгибах). На этапе нейрорендеринга все эти косяки сгладятся в процессе переноса стиля из промпта или картинки.
Одна засада - надо знать Mixamo, анимацию и вот это ваше дурацкое 3Д.
Впрочем нажать кнопку Autorig и потом выбрать из библиотеки анимацию (или сгенерить промптом, или забрать по эклеру из видео с помощью open pose) может любой, даже не знакомый с 3Д. Осталось эти кнопки вструмить внутрь ComfyUI или A1111 и спрятать подальше эти ацкие настройки ControlNet - вот и будет вам AIMixamo.
P.S. Качество ИИ-генерации 3Д настолько плохое, что чувак отдельно потом генерит голову и руки для персонажа и пришивает их к полигональному мешу и начинает все сначала (иначе КонтролНет не хавает уродца). И вот тут уже надо знать 3Д, сорян.
Но проблески будущих однокнопочных пайплайнов отчетливо проступают из шума диффузии.
P.S.S. Была такая поговорка у продакшенов - "на посте все поправят". Теперь на посте сидят такие: "зачем моделить правильно, на нейрорендеринге все поправится".
Короче, расслабляем булки, ИИ все поправит. За вас.
Автор обещает полный тутор тут:
https://twitter.com/8bit_e/status/1761111050420727895
🔥4👍2
Multi-LoRA Composition for Image Generation
Метод контроля генерации изображений позволяет обойти ограничение обычных LoRa, которые при слиянии спорят друг с другом и теряют детали.
Пишут, что работает без дообучения
Код
#conditioning #text2image #image2image
Метод контроля генерации изображений позволяет обойти ограничение обычных LoRa, которые при слиянии спорят друг с другом и теряют детали.
Пишут, что работает без дообучения
Код
#conditioning #text2image #image2image
👍15
This media is not supported in your browser
VIEW IN TELEGRAM
From Skin to Skeleton: Towards Biomechanically Accurate 3D Digital Humans
Биомеханически корректное восстановление позы, скелета, меша по видео.
Код там же, три ссылки внизу
#video2pose #videoto3D #image2pose
Биомеханически корректное восстановление позы, скелета, меша по видео.
Код там же, три ссылки внизу
#video2pose #videoto3D #image2pose
🔥8👍3
Инструкция по локальному запуску SUPIR на 10-11 GB VRAM
Подробнее на гитхабе
git clone https://github.com/Fanghua-Yu/SUPIR.git (Клонирование репозитория)
cd SUPIR (перейдите к каталогу)
установка pip -r requirements.txt (При этом будут установлены отсутствующие пакеты, но будьте осторожны, некоторые версии могут быть удалены, если они не совпадают, или используются conda или venv)
Загрузите SDXL CLIP Encoder-1 (Вам нужен полный каталог, вы можете выполнить git clone https://huggingface.co/openai/clip-vit-large-patch14)
Скачать https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k/blob/main/open_clip_pytorch_model.bin (только этот файл)
Загрузите модель SDXL, Juggernaut работает хорошо (https://civitai.com/models/133005?modelVersionId=348913) Без Lightning или LCM
Пропустите материалы LLaVA (они большие и требуют много памяти, она создает промт из вашего исходного изображения, но если ваше изображение сгенерировано, вы можете использовать тот же промт)
Скачать SUPIR-v0Q (https://drive.google.com/drive/folders/1yELzm5SvAi9e7kPcO_jPp2XkTs4vK6aR?usp=sharing)
Скачать SUPIR-v0F (https://drive.google.com/drive/folders/1yELzm5SvAi9e7kPcO_jPp2XkTs4vK6aR?usp=sharing)
Измените CKPT_PTH.py локальные пути для загруженных вами файлов SDXL CLIP (каталог для CLIP1 и файл .bin для CLIP2).
Измените SUPIR_v0.yaml в качестве локальных путей для других загруженных вами файлов, в конце файла SDXL_CKPT, SUPIR_CKPT_F, SUPIR_CKPT_Q (расположение файлов для всех 3-х)
Перейдите в каталог SUPIR в командной строке и запустите "python gradio_demo.py --use_tile_vae --no_llava --use_image_slider --loading_half_params"
#upscale
Подробнее на гитхабе
git clone https://github.com/Fanghua-Yu/SUPIR.git (Клонирование репозитория)
cd SUPIR (перейдите к каталогу)
установка pip -r requirements.txt (При этом будут установлены отсутствующие пакеты, но будьте осторожны, некоторые версии могут быть удалены, если они не совпадают, или используются conda или venv)
Загрузите SDXL CLIP Encoder-1 (Вам нужен полный каталог, вы можете выполнить git clone https://huggingface.co/openai/clip-vit-large-patch14)
Скачать https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k/blob/main/open_clip_pytorch_model.bin (только этот файл)
Загрузите модель SDXL, Juggernaut работает хорошо (https://civitai.com/models/133005?modelVersionId=348913) Без Lightning или LCM
Пропустите материалы LLaVA (они большие и требуют много памяти, она создает промт из вашего исходного изображения, но если ваше изображение сгенерировано, вы можете использовать тот же промт)
Скачать SUPIR-v0Q (https://drive.google.com/drive/folders/1yELzm5SvAi9e7kPcO_jPp2XkTs4vK6aR?usp=sharing)
Скачать SUPIR-v0F (https://drive.google.com/drive/folders/1yELzm5SvAi9e7kPcO_jPp2XkTs4vK6aR?usp=sharing)
Измените CKPT_PTH.py локальные пути для загруженных вами файлов SDXL CLIP (каталог для CLIP1 и файл .bin для CLIP2).
Измените SUPIR_v0.yaml в качестве локальных путей для других загруженных вами файлов, в конце файла SDXL_CKPT, SUPIR_CKPT_F, SUPIR_CKPT_Q (расположение файлов для всех 3-х)
Перейдите в каталог SUPIR в командной строке и запустите "python gradio_demo.py --use_tile_vae --no_llava --use_image_slider --loading_half_params"
#upscale
Reddit
From the StableDiffusion community on Reddit: SUPIR (Super Resolution) - Tutorial to run it locally with around 10-11 GB VRAM
Explore this post and more from the StableDiffusion community
👍4❤2
sd-forge-layerdiffusion
Поддержка layerdiffusion в Forge
Не забудьте обновить Forge командой
#text2image
Поддержка layerdiffusion в Forge
Не забудьте обновить Forge командой
git pull#text2image
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Ideogram 1.0
Уже известный нам генератор картинок от гугла обновился до версии 1.0 и теперь доступен всем.
Фишки: хорошо справляется с генерацией текста на изображении, хорошо понимает промты, ну и Magic Prompt - улучшайзер промта
Генерим здесь, хвастаемся в коментах
#text2image
Уже известный нам генератор картинок от гугла обновился до версии 1.0 и теперь доступен всем.
Фишки: хорошо справляется с генерацией текста на изображении, хорошо понимает промты, ну и Magic Prompt - улучшайзер промта
Генерим здесь, хвастаемся в коментах
#text2image
👍9🔥4
AUTOMATIC1111 stable-diffusion-webui 1.8.0
Вышла обновка автоматика.
Если будете обновляться, сделайте бэкап сначала. У людей уже ломается отображение результатов
#news #text2image
Вышла обновка автоматика.
Если будете обновляться, сделайте бэкап сначала. У людей уже ломается отображение результатов
#news #text2image
🔥4
CCSR: Improving the Stability of Diffusion Models for Content Consistent Super-Resolution
Менее известный апскейлер изображений. Он меньше галлюцинирует, чем SUPIR, но и результат выдает не такой интересный. Менее прожорлив к ресурсам.
Следующим постом сравнение
Код
Демо
Колаб
ComfyUI- CCSR upscaler node
#upscale
Менее известный апскейлер изображений. Он меньше галлюцинирует, чем SUPIR, но и результат выдает не такой интересный. Менее прожорлив к ресурсам.
Следующим постом сравнение
Код
Демо
Колаб
ComfyUI- CCSR upscaler node
#upscale
👍9
CCSR vs SUPIR (реддит)
Не забудьте посмотреть и бонусы - SUPIR уделывает даже хваленый Magnific
#upscale #comparison #shootout
Не забудьте посмотреть и бонусы - SUPIR уделывает даже хваленый Magnific
#upscale #comparison #shootout
👍17❤1
Самое важное о чем я не успел вам рассказать на прошлой неделе
Groq - самая быстрая альтернатива ChatGPT, быстый - 500 токенов/сек
Chateq - чатбот спорщик, поможет спорить в интернете
Pika научился делать липсинк. Загружаем запись речи и получаем видео с говорящим персонажем
Suno.ai V3 научился генерить музыку без вокала с отменным качеством, до 2 минут
Adobe анонсировали Project Music GenAI Control - генератор/редактор аудио с помощью текстовых указаний.
#llm #assistant #chatbot #news #lipsync #text2music #music2music #audio2aidio
Groq - самая быстрая альтернатива ChatGPT, быстый - 500 токенов/сек
Chateq - чатбот спорщик, поможет спорить в интернете
Pika научился делать липсинк. Загружаем запись речи и получаем видео с говорящим персонажем
Suno.ai V3 научился генерить музыку без вокала с отменным качеством, до 2 минут
Adobe анонсировали Project Music GenAI Control - генератор/редактор аудио с помощью текстовых указаний.
#llm #assistant #chatbot #news #lipsync #text2music #music2music #audio2aidio
Groq
Groq is fast, low cost inference.
The Groq LPU delivers inference with the speed and cost developers need.
👍4
Differential Diffusion: Giving Each Pixel Its Strength
Контроль количества изменений на сгенерированных изображениях на пиксель или на область изображения.
Интегрируется в существующие генераторы изображений, работает без обучения.
Код
Колаб
Демо
#image2image
Контроль количества изменений на сгенерированных изображениях на пиксель или на область изображения.
Интегрируется в существующие генераторы изображений, работает без обучения.
Код
Колаб
Демо
#image2image
🔥9👍3