Привет!
Данный канал задуман мной как заметки по работе с нейросетями для архитектора:
https://news.1rj.ru/str/aartneural
Сюда я буду выкладывать полезные ссылки на модели, информацию по последовательности работы с нейросетями и результаты работы.
Также есть чат для обсуждения и общения:
https://news.1rj.ru/str/+INGKLNPcjlpiNmU6
Данный канал задуман мной как заметки по работе с нейросетями для архитектора:
https://news.1rj.ru/str/aartneural
Сюда я буду выкладывать полезные ссылки на модели, информацию по последовательности работы с нейросетями и результаты работы.
Также есть чат для обсуждения и общения:
https://news.1rj.ru/str/+INGKLNPcjlpiNmU6
Telegram
AART.NEURAL
Заметки о использовании нейросетей для архитектора.
🔥4
Весь процесс будет происходить в интерфейсе ComfyUI на моделях Stable Diffusion + ControlNET:
https://github.com/comfyanonymous/ComfyUI
Ссылка на скачивание ControlNET:
https://huggingface.co/lllyasviel/ControlNet/tree/main/models
Основные используемые модели:
https://civitai.com/models/84958?modelVersionId=431755 - Архитектура
https://civitai.com/models/85691?modelVersionId=93152 - Интерьер
https://civitai.com/models/86963?modelVersionId=116095 - Ландшафт
https://civitai.com/models/31479?modelVersionId=51144 - Архитектурная графика
https://github.com/comfyanonymous/ComfyUI
Ссылка на скачивание ControlNET:
https://huggingface.co/lllyasviel/ControlNet/tree/main/models
Основные используемые модели:
https://civitai.com/models/84958?modelVersionId=431755 - Архитектура
https://civitai.com/models/85691?modelVersionId=93152 - Интерьер
https://civitai.com/models/86963?modelVersionId=116095 - Ландшафт
https://civitai.com/models/31479?modelVersionId=51144 - Архитектурная графика
GitHub
GitHub - comfyanonymous/ComfyUI: The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface.
The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface. - comfyanonymous/ComfyUI
Вводный пост
Скачивание, установка и запуск portable ComfyUI:
1. Переходим на GitHub по ссылке: https://github.com/comfyanonymous/ComfyUI.
2. Спускаемся до раздела Installing, Windows, и хуячим по Direct link to download.
3. Пока скачивается, создаем отдельную папку на своем диске C или D и называем, например «SD» (в пути папки не использовать кириллицу).
4. Вставляем и распаковываем в созданную папку скачанный архив.
5. После разархивации, заходим в полученную папку и запускаем:
а) если у вас Nvidia, то run_nvidia_gpu;
б) если у вас не Nvidia, то run_cpu.
6. После запуска откроется командная строка и просто ждем, пока запустится интерфейс в браузере.
Поздравляю! Вы прекрасны
Скачивание, установка и запуск portable ComfyUI:
1. Переходим на GitHub по ссылке: https://github.com/comfyanonymous/ComfyUI.
2. Спускаемся до раздела Installing, Windows, и хуячим по Direct link to download.
3. Пока скачивается, создаем отдельную папку на своем диске C или D и называем, например «SD» (в пути папки не использовать кириллицу).
4. Вставляем и распаковываем в созданную папку скачанный архив.
5. После разархивации, заходим в полученную папку и запускаем:
а) если у вас Nvidia, то run_nvidia_gpu;
б) если у вас не Nvidia, то run_cpu.
6. После запуска откроется командная строка и просто ждем, пока запустится интерфейс в браузере.
Поздравляю! Вы прекрасны
❤2👍2🔥2
Теория
С первым запуском мы имеем базовую систему нод, в каждую записан код, выполняющий определенную функцию.
Разберем по порядку:
1. Загрузить контрольную точку. Загружает модель Stable Diffusion, используемую для генерации изображений. Это «движок» создания изображений. Моделей огромное множество и обучены они под разные задачи.
2. Кодирование текста Clip. Туда вписывает текстовый запрос (промт). Позитивный (хотим видеть) и негативный (не хотим видеть). Данная нода преобразует язык человеческий в язык, понятный для нейросети.
3. Ksampler. Управляющий пульт генерации. Генерирует изображение на основе выбранной модели, промта и заданных параметров. Это - «художник».
4. Пустое латентное изображение. Создает «Холст» для генерации изображения с заданными размерами. Для начала стоит выбирать 512х512.
5. Декодирование VAE. Преобразует латентное изображение, с которым работает модель в готовое изображение. Визуальный переводчик для человека.
6. Сохранить изображение. Выводит готовое изображение.
С первым запуском мы имеем базовую систему нод, в каждую записан код, выполняющий определенную функцию.
Разберем по порядку:
1. Загрузить контрольную точку. Загружает модель Stable Diffusion, используемую для генерации изображений. Это «движок» создания изображений. Моделей огромное множество и обучены они под разные задачи.
2. Кодирование текста Clip. Туда вписывает текстовый запрос (промт). Позитивный (хотим видеть) и негативный (не хотим видеть). Данная нода преобразует язык человеческий в язык, понятный для нейросети.
3. Ksampler. Управляющий пульт генерации. Генерирует изображение на основе выбранной модели, промта и заданных параметров. Это - «художник».
4. Пустое латентное изображение. Создает «Холст» для генерации изображения с заданными размерами. Для начала стоит выбирать 512х512.
5. Декодирование VAE. Преобразует латентное изображение, с которым работает модель в готовое изображение. Визуальный переводчик для человека.
6. Сохранить изображение. Выводит готовое изображение.
❤2👍2
#Проблема:
нет главной синей кнопки "Выполнить" в интерфейсе.
Решение:
1. Очистить историю, куки файлы и кеш браузера, в котором запускается ComfyUI.
2. Отключить блокировщики рекламы.
3. Очистить компьютер от мусора через Ccleaner или аналог.
4. Перезагрузка машины.
нет главной синей кнопки "Выполнить" в интерфейсе.
Решение:
1. Очистить историю, куки файлы и кеш браузера, в котором запускается ComfyUI.
2. Отключить блокировщики рекламы.
3. Очистить компьютер от мусора через Ccleaner или аналог.
4. Перезагрузка машины.
❤2
Stable Diffusion (SD)
Самая популярная версия модели для генерации изображений - Stable Diffusion 1.5.
Она стала основой для множества моделей (checkpoints), которые были дообучены под конкретные задачи.
Например, существуют модели, специализирующиеся на: архитектуре, портретах, киберпанке.
Модели SD обучаются на наборах данных, которые включают изображения и текстовые описания.
Обычно изображения имеют разрешение 512x512, что является стандартом для обучения моделей на основе SD 1.5.
Также существуют модели, поддерживающие генерацию 1024х1024 и выше (SD XL).
В процессе обучения модель изучает характерные черты изображений:
атмосфера (настроение, эмоции), композиция (расположение объектов в кадре), цветовая палитра (сочетание цветов), свет и тени (освещение, контраст), стиль (реализм, абстракция и т.д.).
Еще существуют LoRa (кастомизатор) — это метод дообучения нейросетей, который позволяет адаптировать большую модель, такую как SD, к новым стилям, персонажам или объектам, не изменяя основной чекпоинт (меньше весит, гибкость без изменения основной модели, возможность комбинации нескольких LoRa.)
Минимальные системные требования для генерации:
оперативная память от 8 ГБ. Видеокарта с памятью от 6 ГБ. Свободное место на диске: от 20 ГБ.
Библиотека с моделями SD:
https://civitai.com/
Фильтры при поиске: Model Type – Checkpoint либо LoRa Base Model – SD 1.5.
После выбора необходимой модели скачиваем файл.
Скачанный файл вставляем по следующему пути: Твой_Диск\Твоя_папка\ComfyUI_windows_portable\ComfyUI\models\checkpoints
В следующем посте рассмотрим генерацию Text to Image, напишем первый промт, выставим необходимые параметры генерации и получим изображение.
Самая популярная версия модели для генерации изображений - Stable Diffusion 1.5.
Она стала основой для множества моделей (checkpoints), которые были дообучены под конкретные задачи.
Например, существуют модели, специализирующиеся на: архитектуре, портретах, киберпанке.
Модели SD обучаются на наборах данных, которые включают изображения и текстовые описания.
Обычно изображения имеют разрешение 512x512, что является стандартом для обучения моделей на основе SD 1.5.
Также существуют модели, поддерживающие генерацию 1024х1024 и выше (SD XL).
В процессе обучения модель изучает характерные черты изображений:
атмосфера (настроение, эмоции), композиция (расположение объектов в кадре), цветовая палитра (сочетание цветов), свет и тени (освещение, контраст), стиль (реализм, абстракция и т.д.).
Еще существуют LoRa (кастомизатор) — это метод дообучения нейросетей, который позволяет адаптировать большую модель, такую как SD, к новым стилям, персонажам или объектам, не изменяя основной чекпоинт (меньше весит, гибкость без изменения основной модели, возможность комбинации нескольких LoRa.)
Минимальные системные требования для генерации:
оперативная память от 8 ГБ. Видеокарта с памятью от 6 ГБ. Свободное место на диске: от 20 ГБ.
Библиотека с моделями SD:
https://civitai.com/
Фильтры при поиске: Model Type – Checkpoint либо LoRa Base Model – SD 1.5.
После выбора необходимой модели скачиваем файл.
Скачанный файл вставляем по следующему пути: Твой_Диск\Твоя_папка\ComfyUI_windows_portable\ComfyUI\models\checkpoints
В следующем посте рассмотрим генерацию Text to Image, напишем первый промт, выставим необходимые параметры генерации и получим изображение.
Civitai
Civitai: The Home of Open-Source Generative AI
Explore thousands of high-quality Stable Diffusion & Flux models, share your AI-generated art, and engage with a vibrant community of creators
❤4
Text to image.
Вызвать библиотеку шаблонов генераций:
В интерфейсе ComfyUI «W» на клавиатуре -> посмотреть примеры шаблонов -> image generation
Позитивный промт (нода кодирование текста CLIP Text Encode): основной объект, детали объекта, стиль изображения, атмосфера, дополнительные элементы, технические параметры.
Негативный промт (нода кодирование текста CLIP): размытые детали, низкое качество, искаженные пропорции, артефакты.
Для перевода промта используй DeepL.
KSampler:
Steps (количество шагов, итераций при генерации):
20–30 шагов: Быстрая генерация.
50–80 шагов: Оптимальный баланс.
100+ шагов: Максимальная детализация.
CFG Scale (Чем выше значение, тем строже модель следует промту):
7–12: Стандартный диапазон.
>12: Может привести к переобучению и артефактам.
<7: Результат будет более креативным, но менее соответствующим промту.
Sampler (Алгоритм, который используется для генерации изображения):
Euler a: Быстрый и качественный, подходит для большинства задач.
DPM++ 2M Karras: Хорош для детализации, работает на среднем количестве шагов.
DDIM: Медленнее, но даёт чёткие результаты, особенно на большом количестве шагов.
Scheduler (Алгоритм, который управляет процессом генерации на каждом шаге):
normal: Стандартная схема.
karras: Улучшенная схема для более плавной генерации.
Seed (Число, которое определяет начальное состояние генератора случайных чисел)
Denoise (Параметр, который контролирует уровень шума в изображении):
1.0: Полная генерация с нуля.
<1.0: Частичная генерация (например, для доработки существующего изображения).
Вызвать библиотеку шаблонов генераций:
В интерфейсе ComfyUI «W» на клавиатуре -> посмотреть примеры шаблонов -> image generation
Позитивный промт (нода кодирование текста CLIP Text Encode): основной объект, детали объекта, стиль изображения, атмосфера, дополнительные элементы, технические параметры.
Негативный промт (нода кодирование текста CLIP): размытые детали, низкое качество, искаженные пропорции, артефакты.
Для перевода промта используй DeepL.
KSampler:
Steps (количество шагов, итераций при генерации):
20–30 шагов: Быстрая генерация.
50–80 шагов: Оптимальный баланс.
100+ шагов: Максимальная детализация.
CFG Scale (Чем выше значение, тем строже модель следует промту):
7–12: Стандартный диапазон.
>12: Может привести к переобучению и артефактам.
<7: Результат будет более креативным, но менее соответствующим промту.
Sampler (Алгоритм, который используется для генерации изображения):
Euler a: Быстрый и качественный, подходит для большинства задач.
DPM++ 2M Karras: Хорош для детализации, работает на среднем количестве шагов.
DDIM: Медленнее, но даёт чёткие результаты, особенно на большом количестве шагов.
Scheduler (Алгоритм, который управляет процессом генерации на каждом шаге):
normal: Стандартная схема.
karras: Улучшенная схема для более плавной генерации.
Seed (Число, которое определяет начальное состояние генератора случайных чисел)
Denoise (Параметр, который контролирует уровень шума в изображении):
1.0: Полная генерация с нуля.
<1.0: Частичная генерация (например, для доработки существующего изображения).
❤3
Positive Promt:
architectural photo of modern minimalist white stone villa with large glazing and flat roof, clean geometry, simple composition, Alvar Aalto style, ArchDaily, clear lines, sunny day, soft light, trees around, high detail, photorealism, rich colors, 4K.
Negative Promt:
people, artifacts, low quality, blurred details, distorted proportions.
Model: ArchitectureRealMix_v11.safetensors.
Steps - 35
CFG scale - 7,6
Sampler - euler
Scheduler - carras
denoise - 0.99
architectural photo of modern minimalist white stone villa with large glazing and flat roof, clean geometry, simple composition, Alvar Aalto style, ArchDaily, clear lines, sunny day, soft light, trees around, high detail, photorealism, rich colors, 4K.
Negative Promt:
people, artifacts, low quality, blurred details, distorted proportions.
Model: ArchitectureRealMix_v11.safetensors.
Steps - 35
CFG scale - 7,6
Sampler - euler
Scheduler - carras
denoise - 0.99
❤2🔥2
Text to image cоветы:
1. Чем конкретнее, тем лучше.
2. Используй слова-триггеры: фотореализм, высокое качество, высокая детализация и т.д.
3. Нейросеть понимает стили, например в позитивный промт можно вписывать имена известных архитекторов.
4. Экспериментируй с порядком слов в промте, это может давать хорошие результаты.
5. Экспериментируй с sampler, пробуй разные, это влияет на результат.
6. Оптимальное соотношение CGF Scale и Steps подбирается ситуативно в указанных рамках.
1. Чем конкретнее, тем лучше.
2. Используй слова-триггеры: фотореализм, высокое качество, высокая детализация и т.д.
3. Нейросеть понимает стили, например в позитивный промт можно вписывать имена известных архитекторов.
4. Экспериментируй с порядком слов в промте, это может давать хорошие результаты.
5. Экспериментируй с sampler, пробуй разные, это влияет на результат.
6. Оптимальное соотношение CGF Scale и Steps подбирается ситуативно в указанных рамках.
❤2🔥2