Нейронично – Telegram
Есть выбор из двух вариантов – “Hell yeah” или «No». Простого “Yes” не существует.
Если отклик внутри не “Hell yeah”, значит, это "No".
Forwarded from Dora
Очень красивая работа получается 🤩
Кстати, почему многие художники сейчас переходят на Криту?
Адоб сливает все данные пользователей в свои ИИ-датасеты, и нельзя отказаться и отжать эту галку. А когда хочешь отменить эти рабские условия, то штраф 150 баксов за раннюю отмену подписки. Или самозаменяешься, обучая сетки, или платишь штрафы 🤯

За адоб нужно держаться, если повязан на остальном пакете - премьере, афтер эффектсе и тд, понятно, что никуда не денешься. Но если только фотошоп, то до свидания.

У Криты прозрачное пользовательское соглашение, они не знают, что ты рисуешь в их программе, и никому не продают этапы и финал твоей работы. Плюс самые передовые ИИ-инструменты, которые позволяют и генерить, и рисовать, и, как сегодня выяснилось, нормально апскейлить сразу в одной программе.
КонтролНет. Часть 1. Установка.

Контрол нет – это расширение для стейбла и основной инструмент, чтобы генерить то, что нужно, а не то, что сетке захотелось. В связке с гравити скетч это главное преимущество стейбла по сравнению с другими нейросетями.

Установка

1. Extensions – Load from – в списке внизу найти sd-webui-controlnet – Install.

Искать в длинном списке sd-webui-controlnet неудобно, нажмите ctrl+F для поиска по странице и вбейте controlnet без пробела, у меня он был в самом концу списка.

2. Перезагрузить стейбл
#StableDiffusion_Aironically
#ControlNet_Aironically
Пример использования Контрол Нета

#StableDiffusion_Aironically
#ControlNet_Aironically
КонтролНет. Часть 2. Настройки.

1. Включить галку Enable.
2. Вгрузить с помощью Ctrl+V в поле Single Image картинку-скрин 3д сцены, скетч или фото-основу как реф для контрол нета.
3. Control Type – я использую только Canny и Depth.
4. Preprocessor – тут чисто тесты, я использую depth_midas, depth_zoe and depth_anything.
5. Control Weight, Starting Control Point, Ending Control отвечают за то, насколько сильно сетке опираться на вгруженный реф, а насколько и с какого шаг идти сочинять. Иногда ставлю Control Weight и Ending Control Stop на 0.8.
6. Control Mode – Balanced норм. Если нужен упор на стиль, то ставить My prompt is more important.
Если наоборот важнее сохранить ровные края, очертания предметов и композу – ControlNet is more important.
7. Нажать Generate.

Базовая сборка ControlNet готова. Можно почитать про каждый Control Type по отдельности, потестить адаптеры и комбинирование нескольких контрол нетов, но я использую вот этот минимальный набор для всех задач.

#StableDiffusion_Aironically
За 20-30 минут GravitySketch + ControlNet получаем вот такую основу, которую начинаем собирать, башить и рисовать.

Если ставить на ночь батч процесс(по тегу #Batch_Aironically на канале можно посмотреть серию постов, как это делается), то к утру будут готовы 80-90 процентов всех нужных элементов.

Руками потом делались чепчик, волосы, руки девочки, кукла в розовом платье и надпись - значимые по ТЗ элементы.

#StableDiffusion_Aironically
#ControlNet_Aironically
Forwarded from Egor S.
А про GravitySketch уже было? Очень интересно
Это хороший вопрос, потому что для знающих 3д и у кого есть виар, показывать нечего, потому что все интуитивно понятно. Сам гравити скетч учится за вечер, на нормальное освоение вообще всех фишек нужно дня 3-4.

А кто не занимался ни 3д, ни виаром, не может понять, надо ли вкатываться, покупать дорогой шлем и что для этого нужно. Сейчас разберемся.

У меня вообще вся работа завязана на пайплайне Gravity Sketch + Stable Diffusion:
1. Это убирает полноценное 3д, а я не люблю моделить.
2. Это дает режиссерскую свободу поставить сцену, полетать в ней камерой и выбрать ракурс. И в виаре это значительно быстрее, чем в блендере.
3. Мне не нравится работать с 3д-болванами, потому что после того, как поза поставлена в дазе и перекинута в блендер или збраш, чтобы что-то поменять, снова придется лезть и переставлять в дазе и перевыгружать. Гравити дает больше свободы, если я хочу добавить еще 5 персонажей и скорректировать уже имеющихся, то это дело нескольких минут.

Что нужно сделать, чтобы понять, нужен ли вам виар шлем для арта или нет?

1. Посмотреть вот эти каналы, где гравити используется для создания произведений искусства самих по себе:
https://www.youtube.com/@MinGuen
https://www.youtube.com/watch?v=UVHvdMJc0jU

2. Посмотреть более прикладные пайплайны для создания болванок, где в виаре собираются сцены и модели из китбашей:
https://www.youtube.com/watch?v=P5yIpPRVOF8
https://www.youtube.com/watch?v=H8xoL62Q1zQ&t=1643s

Любые видео с Джамой Джурабаевым про гравити ок.

3. Моделинг в гравити:
https://www.youtube.com/watch?v=EJLBCiQjJ_E&t=867s

4. Кроме гравити есть другие проги для моделинга и лепки, посмотреть, что еще можно делать, например, вот у этих ребят:
https://www.artstation.com/artwork/n0r1gK
https://www.youtube.com/watch?v=YfU6wI4kfw4&t=1233s

5. Чтобы выжать из шлема максимум, придется пройти базовое обучение 3д. Я ничего не моделю руками, только перевыгружаю форматы .fbx и .obj, скачиваю готовые модельки и китбаши, подгружаю материалы, отрезаю и склеиваю куски, флипаю нормали, закрываю дырки в моделях, зеркалю части. Это даже не джунский уровень, а чисто навигация и работа с форматами, на освоение нужно две-три недели, если совсем с нуля - посмотреть пару вводных курсов по блендеру.

6. Проверить физиологическую реакцию на шлем. Мой первый арт-директор блевал через 4 минуты в шлеме, а я могу 6 часов там рисовать и моделить, вообще не снимая. К какой категории относитесь вы, желательно узнать до покупки шлема)) Для этого пойти в виар-клуб поиграть, попросить поставить гравити, если возможно. Или у друзей. Или у меня 😅

Если есть какие-то вопросы, постараюсь ответить.

#VR_Aironically
Красивое для сомневающихся 💔
Но это Substance Modeler, не Gravity Sketch
"Как и в мифе о Пигмалионе, художнике, который презирал настоящих женщин, но влюбился в идеальную скульптуру, мы сможем найти глубокое удовлетворение в общении с ИИ, чья бездушность откроет нам простор для вкладывания в него нашей собственной идеи об идеальной душе."

Читаю совершенно великолепную книгу об ИИ, еще поговорим о ней подробнее. Мы потонули в "нейросети снова вас заменили" и "Уилл Смит ест шавуху", и очень не хватает прозрачной риторики, а чем вообще сейчас занимаются ученые, а тест Тьюринга уже пройден или нет и какие виды теста бывают, что такое искусственная эстетика, неантропоцентричная агентность - это ок или нет?


Цитата меня сильно зацепила, потому что часто думаю о точке невозврата.

Как только DeepBlue выиграл в шахматы у Гарри Каспарова, люди больше никогда не будут играть в шахматы лучше ИИ.
Как только AlphaGo выиграла партию в го у Ли Седоля, люди навсегда проиграли эту игру компьютеру.

Стейбл генерит 7 тысяч картинок за ночь на моем компьютере. Еще не проиграли по качеству(или наивно верим в это), но уже навсегда проиграли по количеству картинок.

*Вы сейчас здесь*

Как только ИИ обгонит человека в эмпатии, активном слушании, флирте, подстройке под собеседника, то человеку ИИ будет интереснее, чем живой человек. Массово и навсегда.

Частично это уже произошло - все ИИ-идолы, ИИ-онлифансы и ИИ-дейтинги.

Как думаете, человеку нужен человек или неантропоцентричный агент скоро тоже подойдет? 💔

#Aironically
Так-то неантропоцентричный агент это еще богомол или робот-пылесос, а не только чатбот. Впрочем, оставим так. 😅
В доме всего четыре комнаты.

В первой факир лежит на гвоздях, ходит по углям и сидит в ледяной ванне. Через тридцать лет он подчиняет себе тело, что оно больше не устает и не чувствует боли и голода. И тогда ему даётся первый ключ.

Во второй комнате монах переписывает писание, учит молитвы, постится, отрешается. Через десять лет он подчиняет себе эмоции и чувства, что гнев, печаль, зависть, сладострастие навсегда уходят из его сердца. И тогда ему даётся второй ключ.

В третьей комнате йог медитирует. Через год он подчиняет себе свой разум, все субличности приходят в согласие, и его мысли становятся ясными и чистыми. И тогда ему даётся третий ключ.

Но ключа от четвертой комнаты ни у кого не было. Поэтому один человек сделал отмычку и отпер её силой. Четвёртая комната оказалась пуста. В ней не было ни людей, ни предметов, ни ключа. Бессмертия, как в первых трех комнатах, тоже не было.

#Tale_Aironically
Как починить мыльные текстуры? Часть 1. Способы генерации.

Разберем проблему генераций, когда всё встало на место по композе и по смыслу, но остается мыльное качество.

Несколько способов решить эту проблему. Зависит от задачи, и часто приходится их комбинировать. Способы расположены в порядке удобства использования:

1. Krea Enhancer.
2. Через использование стилей и батч генерацию.
3. Через лок сида, промпт и контрол нет.
4. Через добавление текстур руками в шопе.

Krea Enhancer предназначен для апскейла, но дает жирную текстуру, которую при правильном режиме наложения и опасити поменьше дает хорошую основу.

Стили я ставлю на ночь сразу на несколько картинок на батч, иногда выстреливает идеально, и тогда других выкрутасов не потребуется.

Если картинка всего одна, то лок сида и контрол нет будет самым быстрым вариантом.

В фотошопе завершающий этап сборки, и заодно накладывание текстурок руками. Стейбл всегда мылит землю, дороги, дерево, любые ржавчины и разводы, всё это добашить руками часто быстрее.

Первый способ понятен – нагенерить на сайте Enhancer и кинуть получившуюся генерацию поверх в фотошопе. Про стили и лок сида напишу отдельные посты, а для последнего способа скину свои текстуры.

#StableDiffusion_Aironically