Forwarded from Reddit
r/ #gaming
Пользователь Reddit с помощью нейросети Stable Diffusion улучшил модели персонажей из Fallout 2
Для улучшения качества моделей персонажей из Fallout 2 автор использовал нейросеть Stable Diffusion, которая может создавать изображения по текстовым описаниям — на манер более популярной DALL-E 2.
Плюс к этому, Misha_Vozduh поделился текстовым запросом, который он написал для создания девушки в броне:
«Женщина в металлическом доспехе в стиле Mad Max и Fallout, современная стилистика, детализированное и красивое лицо, в стиле Грега Рутковски и Альфонс Мухи, персонаж D&D, на фоне города, цифровая живопись, концепт-арт, гладкое и чёткое изображение, artstation hq».
Пользователь Reddit с помощью нейросети Stable Diffusion улучшил модели персонажей из Fallout 2
Для улучшения качества моделей персонажей из Fallout 2 автор использовал нейросеть Stable Diffusion, которая может создавать изображения по текстовым описаниям — на манер более популярной DALL-E 2.
Плюс к этому, Misha_Vozduh поделился текстовым запросом, который он написал для создания девушки в броне:
«Женщина в металлическом доспехе в стиле Mad Max и Fallout, современная стилистика, детализированное и красивое лицо, в стиле Грега Рутковски и Альфонс Мухи, персонаж D&D, на фоне города, цифровая живопись, концепт-арт, гладкое и чёткое изображение, artstation hq».
👍32🔥8
Forwarded from ЭйАйЛера
Нейросети и Блендер записал новое видео-туториал по тому, как обращаться с колабом Stable Diffusion. Как всегда спокойное, четкое и информативное.
Подойдет всем начинающим, чтобы привыкнуть к колабу и слезть с иглы DreamStudio.
Подойдет всем начинающим, чтобы привыкнуть к колабу и слезть с иглы DreamStudio.
Telegram
Нейросети и Блендер
Дизайн и искусство в Blender и в AI
Тренирую модели, людей и себя
Поддержать канал — patreon.com/monkeyinlaw_patreon
Стрим канал — https://news.1rj.ru/str/motivationarts
https://linktr.ee/monkeyinlaw — Связь
Чата в канале нет с 13.07.2025
Тренирую модели, людей и себя
Поддержать канал — patreon.com/monkeyinlaw_patreon
Стрим канал — https://news.1rj.ru/str/motivationarts
https://linktr.ee/monkeyinlaw — Связь
Чата в канале нет с 13.07.2025
👍6
Forwarded from я обучала одну модель
Text Inversion is the next big thing? 🤔
Относительно недавно вышла статья от NVIDIA – An Image is Worth One Word. В ней они показывают, как можно тот или иной концепт преобразовать в псевдо-слово, то есть создать в латентном пространстве эмбеддинг несуществующего токена, который будет максимально точно отражать заданный концепт, основываясь на примерах, которые вы предоставите
Так можно натренировать модель всегда генерить именно тот объект, который вы задумали, при чем в любом сеттинге, стиле и с любыми атрибутами. В пейпере авторы заставляют модель запомнить по нескольким фотографиям определенную фигурку полосатого котенка как некий объект S*, чтобы потом генерить “Banksy art of S∗”, “A S∗ themed lunchbox” и так далее
Подробно пр метод можно почитать в статье, в целом идея такова:
– Берем входное описание ‘A photo of zubabobr’. Здесь zubabobr – несуществующий токен. Параллельно заготавливаем несколько картинок с примерами zubabobr. Слово zubabobr получает эмбеддинг v*, его мы обучаем
– Прогоняем эмбеддинги через трансформер, с помощью них кондишеним генерацию Stable Diffusion из случайного шума. Плюс, на каждом этапе позволяем модели подсматривать примеры картинок с zubabobr
– ???
– Profit, теперь мы можем генерить zubabobr и знаем его эмбеддинг
Идея очень быстро была реализована:
✨На huggingface есть Concepts Library – там можно через их UI по нескольким примерам натренировать свои концепты, а также посмотреть концепты других юзеров в открытом доступе
Что самое прикольное, концепты могут обозначать еще и стиль, так что можно генерить что-то типа «A photo of <my_concepts/zubabobr> in a style of <sd-concepts-library/80s-anime-ai-being>»
✨Или можно по харду – не тюнить свой эмбеддинг, а тюнить всю модель с помощью DreamBooth (смысл тот же, это позволяет создать identifier вашего собственного класса). Более подробный пост про него есть у тоже моушн
Относительно недавно вышла статья от NVIDIA – An Image is Worth One Word. В ней они показывают, как можно тот или иной концепт преобразовать в псевдо-слово, то есть создать в латентном пространстве эмбеддинг несуществующего токена, который будет максимально точно отражать заданный концепт, основываясь на примерах, которые вы предоставите
Так можно натренировать модель всегда генерить именно тот объект, который вы задумали, при чем в любом сеттинге, стиле и с любыми атрибутами. В пейпере авторы заставляют модель запомнить по нескольким фотографиям определенную фигурку полосатого котенка как некий объект S*, чтобы потом генерить “Banksy art of S∗”, “A S∗ themed lunchbox” и так далее
Подробно пр метод можно почитать в статье, в целом идея такова:
– Берем входное описание ‘A photo of zubabobr’. Здесь zubabobr – несуществующий токен. Параллельно заготавливаем несколько картинок с примерами zubabobr. Слово zubabobr получает эмбеддинг v*, его мы обучаем
– Прогоняем эмбеддинги через трансформер, с помощью них кондишеним генерацию Stable Diffusion из случайного шума. Плюс, на каждом этапе позволяем модели подсматривать примеры картинок с zubabobr
– ???
– Profit, теперь мы можем генерить zubabobr и знаем его эмбеддинг
Идея очень быстро была реализована:
✨На huggingface есть Concepts Library – там можно через их UI по нескольким примерам натренировать свои концепты, а также посмотреть концепты других юзеров в открытом доступе
Что самое прикольное, концепты могут обозначать еще и стиль, так что можно генерить что-то типа «A photo of <my_concepts/zubabobr> in a style of <sd-concepts-library/80s-anime-ai-being>»
✨Или можно по харду – не тюнить свой эмбеддинг, а тюнить всю модель с помощью DreamBooth (смысл тот же, это позволяет создать identifier вашего собственного класса). Более подробный пост про него есть у тоже моушн
👍12🔥3❤2
Forwarded from ЭйАйЛера
Media is too big
VIEW IN TELEGRAM
Deforum Stable Diffusion обновился и теперь параметры движения камеры и, например, параметр strength можно довольно просто задавать функциями сокращенно, без множества числовых значений.
Краткое руководство о том, зачем вообще математика в колабе здесь
Сделала небольшой тест с новыми «волнами»
Краткое руководство о том, зачем вообще математика в колабе здесь
Сделала небольшой тест с новыми «волнами»
❤14
Stablediffusion, затюненный на Arcane с помощью Unfrozen Model Textual Inversion & Training with prior-preservation loss
Модель на 🤗
Модель на 🤗
👍22🤩3🎉2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Принёс вам несколько результатов генерации видео с помощью Make-A-Video по запросу "two kangaroos busy cooking dinner in a kitchen" 😉.
@ai_newz
@ai_newz
🎉21🔥8❤4👍4😱3😁2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
"Pointcloud Occlusion Inpainting with Stable Diffusion"
Пока мамкины диффюзеры бесхитростно, но с восторгом склеивают кадры из Stable Diffusion с помощью дефорума, пацаны с опытом постпродакшена достают грубину, композят инпайнтингом и работают с камерой. Поглядите, что творит Дима Точилкин.
Основная идея алгоритма состоит в том, чтобы сохранить нетронутыми части изображения, известные по предыдущему кадру, и закрасить только те области изображения, которые отсутствуют. Мы можем определить, что известно, а чего не хватает, по карте глубины и преобразованию камеры.
Он в значительной степени зависит от качества карт глубины и использует предположение, что SD имеет неявные знания о геометрии сцены на изображении. Таким образом, он может правдоподобно закрашивать недостающие части без явного знания трехмерных сеток сцены.
Он интерполирует отсутствующую информацию, «деформируя» пространство, что хорошо для художественных или триповых видео, но не подходит для реалистичной анимации.
Если хотите узнать больше про "Pointcloud Occlusion Inpainting with Stable Diffusion" и анимацию, читайте тред в Твитторе - пример того, как AI Filmmaking приобретает черты технологии, а не только восторженных демок в телеграмме.
https://twitter.com/cut_pow/status/1576748595109593088
Пока мамкины диффюзеры бесхитростно, но с восторгом склеивают кадры из Stable Diffusion с помощью дефорума, пацаны с опытом постпродакшена достают грубину, композят инпайнтингом и работают с камерой. Поглядите, что творит Дима Точилкин.
Основная идея алгоритма состоит в том, чтобы сохранить нетронутыми части изображения, известные по предыдущему кадру, и закрасить только те области изображения, которые отсутствуют. Мы можем определить, что известно, а чего не хватает, по карте глубины и преобразованию камеры.
Он в значительной степени зависит от качества карт глубины и использует предположение, что SD имеет неявные знания о геометрии сцены на изображении. Таким образом, он может правдоподобно закрашивать недостающие части без явного знания трехмерных сеток сцены.
Он интерполирует отсутствующую информацию, «деформируя» пространство, что хорошо для художественных или триповых видео, но не подходит для реалистичной анимации.
Если хотите узнать больше про "Pointcloud Occlusion Inpainting with Stable Diffusion" и анимацию, читайте тред в Твитторе - пример того, как AI Filmmaking приобретает черты технологии, а не только восторженных демок в телеграмме.
https://twitter.com/cut_pow/status/1576748595109593088
🔥17👍4😱4❤2
Forwarded from Ai molodca (Dobrokotov)
Literally me.
Обучил #StableDiffusion на СЕБЕ.
Теперь обучить можно на чем угодно, хоть на валенке, хоть на любимом коте. И попросить Грега Рутковски его нарисовать. О открывающихся возможностях даже не говорю.
Существует множество способов это сделать, например коллаб. Или собрать супермощный ПК. Но покажу самый простой — для технических рукожопов (сам такой), чтобы генерировать даже с телефона.
https://www.strmr.com/ — здесь всего за три доллара вы можете обучить сетку. Достаточно 8-10 фотографий. Только читайте HowTo, это важно. А затем — искусство промт инжиниринга.
Have fun🤩
Обучил #StableDiffusion на СЕБЕ.
Теперь обучить можно на чем угодно, хоть на валенке, хоть на любимом коте. И попросить Грега Рутковски его нарисовать. О открывающихся возможностях даже не говорю.
Существует множество способов это сделать, например коллаб. Или собрать супермощный ПК. Но покажу самый простой — для технических рукожопов (сам такой), чтобы генерировать даже с телефона.
https://www.strmr.com/ — здесь всего за три доллара вы можете обучить сетку. Достаточно 8-10 фотографий. Только читайте HowTo, это важно. А затем — искусство промт инжиниринга.
Have fun
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩25🔥13👍4
Forwarded from AI для Всех
ИИ-изображения - новый клип-арт.
Microsoft добавляет DALL-E в свой пакет Office, таким образом картинки сгенерированные ИИ скоро появятся в каждой PowerPoint презентации.
Заметка на The Verge
Microsoft добавляет DALL-E в свой пакет Office, таким образом картинки сгенерированные ИИ скоро появятся в каждой PowerPoint презентации.
Заметка на The Verge
🔥6👍1😱1
Forwarded from Мишин Лернинг
This media is not supported in your browser
VIEW IN TELEGRAM
🛼 Microsoft представили Designer — первый профессиональный Text-to-Image инструмент основанный на DALL•E2
Представьте, “ламантины группой плещутся на закате”. Или “старый слепой китаец красиво делает свое ушу.” Добавьте artstation и 4K, Выберите шрифты и стили, создавайте открытки, постеры, иллюстрации и слайды за мгновения!
Microsoft 🛼 Designer является частью пакета Office 365! То есть он находится в одном ряду с Microsoft Word, Microsoft Excel, и обладает тесной интеграцией с PowerPoint!
А еще вдумайтесь в то, насколько громкое это название — 🛼 Designer! AI революция наступила, это уже не будущее, это уже сейчас.
И изменения ландшафта рабочих мест — лишь одно проявление этой революции. Такие инструменты как 🛼 Designer привнесут AI в массы и сделают Text-to-Image новым стандартом, новой нормой создания визуального контента.
К тому же поговаривают, что скоро в открытом доступе появитсянечто на голову превосходящее DALL•E 2, не говоря уже о стебле . Так что 🛼 Designer не будет единственным таким инструментом.
🛼 Designer (уже можно оставить заявку)
🤖🎓 м и ш и н л е р н и н г
Представьте, “ламантины группой плещутся на закате”. Или “старый слепой китаец красиво делает свое ушу.” Добавьте artstation и 4K, Выберите шрифты и стили, создавайте открытки, постеры, иллюстрации и слайды за мгновения!
Microsoft 🛼 Designer является частью пакета Office 365! То есть он находится в одном ряду с Microsoft Word, Microsoft Excel, и обладает тесной интеграцией с PowerPoint!
А еще вдумайтесь в то, насколько громкое это название — 🛼 Designer! AI революция наступила, это уже не будущее, это уже сейчас.
И изменения ландшафта рабочих мест — лишь одно проявление этой революции. Такие инструменты как 🛼 Designer привнесут AI в массы и сделают Text-to-Image новым стандартом, новой нормой создания визуального контента.
К тому же поговаривают, что скоро в открытом доступе появится
🛼 Designer (уже можно оставить заявку)
🤖🎓 м и ш и н л е р н и н г
👍11🔥3❤1