Вводный пост
Скачивание, установка и запуск portable ComfyUI:
1. Переходим на GitHub по ссылке: https://github.com/comfyanonymous/ComfyUI.
2. Спускаемся до раздела Installing, Windows, и хуячим по Direct link to download.
3. Пока скачивается, создаем отдельную папку на своем диске C или D и называем, например «SD» (в пути папки не использовать кириллицу).
4. Вставляем и распаковываем в созданную папку скачанный архив.
5. После разархивации, заходим в полученную папку и запускаем:
а) если у вас Nvidia, то run_nvidia_gpu;
б) если у вас не Nvidia, то run_cpu.
6. После запуска откроется командная строка и просто ждем, пока запустится интерфейс в браузере.
Поздравляю! Вы прекрасны
Скачивание, установка и запуск portable ComfyUI:
1. Переходим на GitHub по ссылке: https://github.com/comfyanonymous/ComfyUI.
2. Спускаемся до раздела Installing, Windows, и хуячим по Direct link to download.
3. Пока скачивается, создаем отдельную папку на своем диске C или D и называем, например «SD» (в пути папки не использовать кириллицу).
4. Вставляем и распаковываем в созданную папку скачанный архив.
5. После разархивации, заходим в полученную папку и запускаем:
а) если у вас Nvidia, то run_nvidia_gpu;
б) если у вас не Nvidia, то run_cpu.
6. После запуска откроется командная строка и просто ждем, пока запустится интерфейс в браузере.
Поздравляю! Вы прекрасны
❤2👍2🔥2
Теория
С первым запуском мы имеем базовую систему нод, в каждую записан код, выполняющий определенную функцию.
Разберем по порядку:
1. Загрузить контрольную точку. Загружает модель Stable Diffusion, используемую для генерации изображений. Это «движок» создания изображений. Моделей огромное множество и обучены они под разные задачи.
2. Кодирование текста Clip. Туда вписывает текстовый запрос (промт). Позитивный (хотим видеть) и негативный (не хотим видеть). Данная нода преобразует язык человеческий в язык, понятный для нейросети.
3. Ksampler. Управляющий пульт генерации. Генерирует изображение на основе выбранной модели, промта и заданных параметров. Это - «художник».
4. Пустое латентное изображение. Создает «Холст» для генерации изображения с заданными размерами. Для начала стоит выбирать 512х512.
5. Декодирование VAE. Преобразует латентное изображение, с которым работает модель в готовое изображение. Визуальный переводчик для человека.
6. Сохранить изображение. Выводит готовое изображение.
С первым запуском мы имеем базовую систему нод, в каждую записан код, выполняющий определенную функцию.
Разберем по порядку:
1. Загрузить контрольную точку. Загружает модель Stable Diffusion, используемую для генерации изображений. Это «движок» создания изображений. Моделей огромное множество и обучены они под разные задачи.
2. Кодирование текста Clip. Туда вписывает текстовый запрос (промт). Позитивный (хотим видеть) и негативный (не хотим видеть). Данная нода преобразует язык человеческий в язык, понятный для нейросети.
3. Ksampler. Управляющий пульт генерации. Генерирует изображение на основе выбранной модели, промта и заданных параметров. Это - «художник».
4. Пустое латентное изображение. Создает «Холст» для генерации изображения с заданными размерами. Для начала стоит выбирать 512х512.
5. Декодирование VAE. Преобразует латентное изображение, с которым работает модель в готовое изображение. Визуальный переводчик для человека.
6. Сохранить изображение. Выводит готовое изображение.
❤2👍2
#Проблема:
нет главной синей кнопки "Выполнить" в интерфейсе.
Решение:
1. Очистить историю, куки файлы и кеш браузера, в котором запускается ComfyUI.
2. Отключить блокировщики рекламы.
3. Очистить компьютер от мусора через Ccleaner или аналог.
4. Перезагрузка машины.
нет главной синей кнопки "Выполнить" в интерфейсе.
Решение:
1. Очистить историю, куки файлы и кеш браузера, в котором запускается ComfyUI.
2. Отключить блокировщики рекламы.
3. Очистить компьютер от мусора через Ccleaner или аналог.
4. Перезагрузка машины.
❤2
Stable Diffusion (SD)
Самая популярная версия модели для генерации изображений - Stable Diffusion 1.5.
Она стала основой для множества моделей (checkpoints), которые были дообучены под конкретные задачи.
Например, существуют модели, специализирующиеся на: архитектуре, портретах, киберпанке.
Модели SD обучаются на наборах данных, которые включают изображения и текстовые описания.
Обычно изображения имеют разрешение 512x512, что является стандартом для обучения моделей на основе SD 1.5.
Также существуют модели, поддерживающие генерацию 1024х1024 и выше (SD XL).
В процессе обучения модель изучает характерные черты изображений:
атмосфера (настроение, эмоции), композиция (расположение объектов в кадре), цветовая палитра (сочетание цветов), свет и тени (освещение, контраст), стиль (реализм, абстракция и т.д.).
Еще существуют LoRa (кастомизатор) — это метод дообучения нейросетей, который позволяет адаптировать большую модель, такую как SD, к новым стилям, персонажам или объектам, не изменяя основной чекпоинт (меньше весит, гибкость без изменения основной модели, возможность комбинации нескольких LoRa.)
Минимальные системные требования для генерации:
оперативная память от 8 ГБ. Видеокарта с памятью от 6 ГБ. Свободное место на диске: от 20 ГБ.
Библиотека с моделями SD:
https://civitai.com/
Фильтры при поиске: Model Type – Checkpoint либо LoRa Base Model – SD 1.5.
После выбора необходимой модели скачиваем файл.
Скачанный файл вставляем по следующему пути: Твой_Диск\Твоя_папка\ComfyUI_windows_portable\ComfyUI\models\checkpoints
В следующем посте рассмотрим генерацию Text to Image, напишем первый промт, выставим необходимые параметры генерации и получим изображение.
Самая популярная версия модели для генерации изображений - Stable Diffusion 1.5.
Она стала основой для множества моделей (checkpoints), которые были дообучены под конкретные задачи.
Например, существуют модели, специализирующиеся на: архитектуре, портретах, киберпанке.
Модели SD обучаются на наборах данных, которые включают изображения и текстовые описания.
Обычно изображения имеют разрешение 512x512, что является стандартом для обучения моделей на основе SD 1.5.
Также существуют модели, поддерживающие генерацию 1024х1024 и выше (SD XL).
В процессе обучения модель изучает характерные черты изображений:
атмосфера (настроение, эмоции), композиция (расположение объектов в кадре), цветовая палитра (сочетание цветов), свет и тени (освещение, контраст), стиль (реализм, абстракция и т.д.).
Еще существуют LoRa (кастомизатор) — это метод дообучения нейросетей, который позволяет адаптировать большую модель, такую как SD, к новым стилям, персонажам или объектам, не изменяя основной чекпоинт (меньше весит, гибкость без изменения основной модели, возможность комбинации нескольких LoRa.)
Минимальные системные требования для генерации:
оперативная память от 8 ГБ. Видеокарта с памятью от 6 ГБ. Свободное место на диске: от 20 ГБ.
Библиотека с моделями SD:
https://civitai.com/
Фильтры при поиске: Model Type – Checkpoint либо LoRa Base Model – SD 1.5.
После выбора необходимой модели скачиваем файл.
Скачанный файл вставляем по следующему пути: Твой_Диск\Твоя_папка\ComfyUI_windows_portable\ComfyUI\models\checkpoints
В следующем посте рассмотрим генерацию Text to Image, напишем первый промт, выставим необходимые параметры генерации и получим изображение.
Civitai
Civitai: The Home of Open-Source Generative AI
Explore thousands of high-quality Stable Diffusion & Flux models, share your AI-generated art, and engage with a vibrant community of creators
❤4
Text to image.
Вызвать библиотеку шаблонов генераций:
В интерфейсе ComfyUI «W» на клавиатуре -> посмотреть примеры шаблонов -> image generation
Позитивный промт (нода кодирование текста CLIP Text Encode): основной объект, детали объекта, стиль изображения, атмосфера, дополнительные элементы, технические параметры.
Негативный промт (нода кодирование текста CLIP): размытые детали, низкое качество, искаженные пропорции, артефакты.
Для перевода промта используй DeepL.
KSampler:
Steps (количество шагов, итераций при генерации):
20–30 шагов: Быстрая генерация.
50–80 шагов: Оптимальный баланс.
100+ шагов: Максимальная детализация.
CFG Scale (Чем выше значение, тем строже модель следует промту):
7–12: Стандартный диапазон.
>12: Может привести к переобучению и артефактам.
<7: Результат будет более креативным, но менее соответствующим промту.
Sampler (Алгоритм, который используется для генерации изображения):
Euler a: Быстрый и качественный, подходит для большинства задач.
DPM++ 2M Karras: Хорош для детализации, работает на среднем количестве шагов.
DDIM: Медленнее, но даёт чёткие результаты, особенно на большом количестве шагов.
Scheduler (Алгоритм, который управляет процессом генерации на каждом шаге):
normal: Стандартная схема.
karras: Улучшенная схема для более плавной генерации.
Seed (Число, которое определяет начальное состояние генератора случайных чисел)
Denoise (Параметр, который контролирует уровень шума в изображении):
1.0: Полная генерация с нуля.
<1.0: Частичная генерация (например, для доработки существующего изображения).
Вызвать библиотеку шаблонов генераций:
В интерфейсе ComfyUI «W» на клавиатуре -> посмотреть примеры шаблонов -> image generation
Позитивный промт (нода кодирование текста CLIP Text Encode): основной объект, детали объекта, стиль изображения, атмосфера, дополнительные элементы, технические параметры.
Негативный промт (нода кодирование текста CLIP): размытые детали, низкое качество, искаженные пропорции, артефакты.
Для перевода промта используй DeepL.
KSampler:
Steps (количество шагов, итераций при генерации):
20–30 шагов: Быстрая генерация.
50–80 шагов: Оптимальный баланс.
100+ шагов: Максимальная детализация.
CFG Scale (Чем выше значение, тем строже модель следует промту):
7–12: Стандартный диапазон.
>12: Может привести к переобучению и артефактам.
<7: Результат будет более креативным, но менее соответствующим промту.
Sampler (Алгоритм, который используется для генерации изображения):
Euler a: Быстрый и качественный, подходит для большинства задач.
DPM++ 2M Karras: Хорош для детализации, работает на среднем количестве шагов.
DDIM: Медленнее, но даёт чёткие результаты, особенно на большом количестве шагов.
Scheduler (Алгоритм, который управляет процессом генерации на каждом шаге):
normal: Стандартная схема.
karras: Улучшенная схема для более плавной генерации.
Seed (Число, которое определяет начальное состояние генератора случайных чисел)
Denoise (Параметр, который контролирует уровень шума в изображении):
1.0: Полная генерация с нуля.
<1.0: Частичная генерация (например, для доработки существующего изображения).
❤3
Positive Promt:
architectural photo of modern minimalist white stone villa with large glazing and flat roof, clean geometry, simple composition, Alvar Aalto style, ArchDaily, clear lines, sunny day, soft light, trees around, high detail, photorealism, rich colors, 4K.
Negative Promt:
people, artifacts, low quality, blurred details, distorted proportions.
Model: ArchitectureRealMix_v11.safetensors.
Steps - 35
CFG scale - 7,6
Sampler - euler
Scheduler - carras
denoise - 0.99
architectural photo of modern minimalist white stone villa with large glazing and flat roof, clean geometry, simple composition, Alvar Aalto style, ArchDaily, clear lines, sunny day, soft light, trees around, high detail, photorealism, rich colors, 4K.
Negative Promt:
people, artifacts, low quality, blurred details, distorted proportions.
Model: ArchitectureRealMix_v11.safetensors.
Steps - 35
CFG scale - 7,6
Sampler - euler
Scheduler - carras
denoise - 0.99
❤2🔥2
Text to image cоветы:
1. Чем конкретнее, тем лучше.
2. Используй слова-триггеры: фотореализм, высокое качество, высокая детализация и т.д.
3. Нейросеть понимает стили, например в позитивный промт можно вписывать имена известных архитекторов.
4. Экспериментируй с порядком слов в промте, это может давать хорошие результаты.
5. Экспериментируй с sampler, пробуй разные, это влияет на результат.
6. Оптимальное соотношение CGF Scale и Steps подбирается ситуативно в указанных рамках.
1. Чем конкретнее, тем лучше.
2. Используй слова-триггеры: фотореализм, высокое качество, высокая детализация и т.д.
3. Нейросеть понимает стили, например в позитивный промт можно вписывать имена известных архитекторов.
4. Экспериментируй с порядком слов в промте, это может давать хорошие результаты.
5. Экспериментируй с sampler, пробуй разные, это влияет на результат.
6. Оптимальное соотношение CGF Scale и Steps подбирается ситуативно в указанных рамках.
❤2🔥2
Image to image.
Вызвать библиотеку шаблонов генераций:
В интерфейсе ComfyUI «W» на клавиатуре -> посмотреть примеры шаблонов -> image to image.
В контексте генерации image to image рассматривается использование базового изображения, на основании которого генерируется последующее.
Принцип остается аналогичным: пишем позитивный и негативный промты, выставляем начальные параметры в ноде KSampler.
НО
Ключевым параметром в таком виде генерации является параметр Denoise.
В данном случае Denoise используется на значениях >0,3, но <1.0, так как позволяет частично сохранить базовое изображение при генерации последующего.
Используем ноду «Масштабировать изображение» для масштабирования базовой картинки до 512х512 (два раза ЛКМ по интерфейсу и в поиске пишем наименование ноды).
Отличие в построение нод в данном случае является то, что вместо ноды «латентное изображение», в ноду KSampler подключается базовое изображение через «масштабировать изображение» и «кодировать VAE».
Рассмотрим это на примере «преобразования».
Используем модель interiordesignsuperm_v2
За базовое изображение возьму один из проунов Эля Лисицкого и преобразую его в интерьер библиотеки.
Данный инструмент может пригодится на этапе поиска концепции и вдохновения.
Советую поэкспериментировать со значением Denoise.
Вызвать библиотеку шаблонов генераций:
В интерфейсе ComfyUI «W» на клавиатуре -> посмотреть примеры шаблонов -> image to image.
В контексте генерации image to image рассматривается использование базового изображения, на основании которого генерируется последующее.
Принцип остается аналогичным: пишем позитивный и негативный промты, выставляем начальные параметры в ноде KSampler.
НО
Ключевым параметром в таком виде генерации является параметр Denoise.
В данном случае Denoise используется на значениях >0,3, но <1.0, так как позволяет частично сохранить базовое изображение при генерации последующего.
Используем ноду «Масштабировать изображение» для масштабирования базовой картинки до 512х512 (два раза ЛКМ по интерфейсу и в поиске пишем наименование ноды).
Отличие в построение нод в данном случае является то, что вместо ноды «латентное изображение», в ноду KSampler подключается базовое изображение через «масштабировать изображение» и «кодировать VAE».
Рассмотрим это на примере «преобразования».
Используем модель interiordesignsuperm_v2
За базовое изображение возьму один из проунов Эля Лисицкого и преобразую его в интерьер библиотеки.
Данный инструмент может пригодится на этапе поиска концепции и вдохновения.
Советую поэкспериментировать со значением Denoise.
🔥6
Positive promt
Professional architectural photograph of the atrium of a huge brutalist library hall, book racks, tables, chairs, sofas, concrete, wooden floor, large windows, soft daylight, high detail, Louis Kahn style, archdaily, architectural aesthetics, saturated colors
Negative promt:
people, artifacts, low quality, blurred details, distorted proportions.
Model: interiordesignsuperm_v2
Steps - 35
CFG - 8,0
Sampler - Euler_ancestral
Scheduler - Karras
Denoise - 0,45 – 0,55 – 0,65 – 0,75
Professional architectural photograph of the atrium of a huge brutalist library hall, book racks, tables, chairs, sofas, concrete, wooden floor, large windows, soft daylight, high detail, Louis Kahn style, archdaily, architectural aesthetics, saturated colors
Negative promt:
people, artifacts, low quality, blurred details, distorted proportions.
Model: interiordesignsuperm_v2
Steps - 35
CFG - 8,0
Sampler - Euler_ancestral
Scheduler - Karras
Denoise - 0,45 – 0,55 – 0,65 – 0,75
🔥10⚡1
Inpaint.
Маски используются для точечной генерации частей изображения. Маски можно либо загружать, либо рисовать на изображении (Inpaint).
В таком случае следует менять модель генерации. Например, я сгенерировал первичное изображение на модели, обученной для архитектуры, а для генерации ландшафтного дизайна по маске использую модель, обученную для ландшафтного дизайна.
1. Создаем Workflow как на 1-ом скриншоте.
2. Для того чтобы нарисовать маску, ПКМ по начальному изображению => open in a MaskEditor.
3. Закрашиваем область на изображении, которую хотим перегенерировать черным цветом, регулируем opacity (чем меньше прозрачность, тем меньше влияние первичного изображения) и нажимаем Save.
4. Пишем позитивный и негативный промты.
5. Генерируем изображение.
Маски используются для точечной генерации частей изображения. Маски можно либо загружать, либо рисовать на изображении (Inpaint).
В таком случае следует менять модель генерации. Например, я сгенерировал первичное изображение на модели, обученной для архитектуры, а для генерации ландшафтного дизайна по маске использую модель, обученную для ландшафтного дизайна.
1. Создаем Workflow как на 1-ом скриншоте.
2. Для того чтобы нарисовать маску, ПКМ по начальному изображению => open in a MaskEditor.
3. Закрашиваем область на изображении, которую хотим перегенерировать черным цветом, регулируем opacity (чем меньше прозрачность, тем меньше влияние первичного изображения) и нажимаем Save.
4. Пишем позитивный и негативный промты.
5. Генерируем изображение.
❤2👍1
Positive promt
A minimalist landscape design with a small, modern pond surrounded by neatly trimmed bushes, smooth pebbles, and a few carefully placed ornamental grasses. The scene is clean and elegant, with a focus on simplicity and symmetry. Soft sunlight enhances the calm atmosphere. Highly detailed, 4K, realistic style.
Negative promt:
blurry details, low quality, distorted proportions, unnatural colors, messy composition, overcrowded plants, artificial lighting, unrealistic textures
Model: LandscapeSuperMix
Steps - 20
CFG - 7,5
Sampler - dpm_2_ancestral
Scheduler - Karras
Denoise - 0,99
A minimalist landscape design with a small, modern pond surrounded by neatly trimmed bushes, smooth pebbles, and a few carefully placed ornamental grasses. The scene is clean and elegant, with a focus on simplicity and symmetry. Soft sunlight enhances the calm atmosphere. Highly detailed, 4K, realistic style.
Negative promt:
blurry details, low quality, distorted proportions, unnatural colors, messy composition, overcrowded plants, artificial lighting, unrealistic textures
Model: LandscapeSuperMix
Steps - 20
CFG - 7,5
Sampler - dpm_2_ancestral
Scheduler - Karras
Denoise - 0,99
❤6