Для следующего проекта нужен профессиональный пианист. Формат обсуждаем - творческий коллаб, оплачиваемая работа или работа по бартеру.
Половина - видеонейронки, половина реальные съёмки от первого лица рук, играющих на пианино. Вовлечённость обсуждаема - как композитор, как исполнитель-актёр, как соавтор сценария или всё вместе.
В идеале я ищу соавтора из Москвы, который хотел бы создать визуал для своего музыкального произведения.
Если вы тот самый человек или знаете того самого человека, напишите, пожалуйста, в личку @KseniaGalushkina. Буду рада любым контактам!
#Aironically
Половина - видеонейронки, половина реальные съёмки от первого лица рук, играющих на пианино. Вовлечённость обсуждаема - как композитор, как исполнитель-актёр, как соавтор сценария или всё вместе.
В идеале я ищу соавтора из Москвы, который хотел бы создать визуал для своего музыкального произведения.
Если вы тот самый человек или знаете того самого человека, напишите, пожалуйста, в личку @KseniaGalushkina. Буду рада любым контактам!
#Aironically
Хочу сделать ресерч-доску про креативность.
Во-первых, у меня много материалов на эту тему.
Во-вторых, пора идти в глубину, потому что ощущается тупик смыслов - "гарри поттер в стиле гибли" и "вон та хрень в стиле гибли" с умножением на скорость и доступность нейросетей обнажили вторичность и третичность смыслов. Сериалов, музыки, игр и фильмов выходит всё больше, а смотреть нечего, играть не во что. Ремиксовый способ на меня больше вообще не работает. Любые гробы с гжелью, советские игрушки, скрещённые с чужим или симпсонами и мебель в стиле ван гога забываются раньше, чем я долистываю пост до конца. Удивляет редко, хорошо шерится и вирусится часто, забывается через 3 секунды всегда.
Печально было бы обнаружить воплощение теории мёртвого интернета. Но мёртвого не из-за ботов. "Напиши мне промпт, улучши, скомбинируй гробы и гжель" тоже будет рано или поздно автоматизировано. Весь контент будет замиксован и закомбинирован до смерти. Это в чём-то хорошо, что быстрее можно найти нужную идею. В чём-то плохо, потому что что, если не там ищем, не то миксуем и простым перебором нужную идею в принципе не найти?
Поэтому предложу такие вопросы, а благодаря результатам заодно будет возможность посмотреть что-то совсем новое за гранью привычного контента и рекомендаций от алгоритмов.
1. Что зацепило в последнее время? Что вы считаете по-настоящему креативным?
Любой формат - музыка, графика, видео, клипы, архитектура. Слова. Личный опыт. Что-то, что не вписывается ни в какие из этих рамок. Что-то, что было "ВАУ, а что, так можно было?".
2. Если у вас есть любые материалы по теме, присылайте в комменты или в личку, пожалуйста 🙌
3. Если по каким-то причинам не можете ответить в комментариях тут, то вот анонимная форма-опрос. Регистрация не нужна, вопросы по желанию, отвечайте на понравившиеся. В самом конце есть поле для ответа в свободной форме.
https://forms.gle/H6JZxYnZwzDFGq3KA
Другие мои доски поизучать на майских:
Доска по сторителлингу - https://news.1rj.ru/str/Aironically/416
Доска по монтажу - https://news.1rj.ru/str/Aironically/436
Доска со сравнением текстовых нейронок - https://news.1rj.ru/str/Aironically/421
Доска по психологии - https://news.1rj.ru/str/TelepathyRead/15
Доска по режиссуре(пока в зачаточном состоянии как есть, у кого-то открывается, у кого-то нет, как будет время - выгружу заново и дополню) - https://news.1rj.ru/str/Aironically/311
Пошерьте, пожалуйста, если знаете кого-то, кому актуально. Эта информация, упакованная на досках, вызвала отклик у сотен людей, а опрос позволит начать двигаться от ремиксов к чему-то новому дальше.
#Aironically
Во-первых, у меня много материалов на эту тему.
Во-вторых, пора идти в глубину, потому что ощущается тупик смыслов - "гарри поттер в стиле гибли" и "вон та хрень в стиле гибли" с умножением на скорость и доступность нейросетей обнажили вторичность и третичность смыслов. Сериалов, музыки, игр и фильмов выходит всё больше, а смотреть нечего, играть не во что. Ремиксовый способ на меня больше вообще не работает. Любые гробы с гжелью, советские игрушки, скрещённые с чужим или симпсонами и мебель в стиле ван гога забываются раньше, чем я долистываю пост до конца. Удивляет редко, хорошо шерится и вирусится часто, забывается через 3 секунды всегда.
Печально было бы обнаружить воплощение теории мёртвого интернета. Но мёртвого не из-за ботов. "Напиши мне промпт, улучши, скомбинируй гробы и гжель" тоже будет рано или поздно автоматизировано. Весь контент будет замиксован и закомбинирован до смерти. Это в чём-то хорошо, что быстрее можно найти нужную идею. В чём-то плохо, потому что что, если не там ищем, не то миксуем и простым перебором нужную идею в принципе не найти?
Поэтому предложу такие вопросы, а благодаря результатам заодно будет возможность посмотреть что-то совсем новое за гранью привычного контента и рекомендаций от алгоритмов.
1. Что зацепило в последнее время? Что вы считаете по-настоящему креативным?
Любой формат - музыка, графика, видео, клипы, архитектура. Слова. Личный опыт. Что-то, что не вписывается ни в какие из этих рамок. Что-то, что было "ВАУ, а что, так можно было?".
2. Если у вас есть любые материалы по теме, присылайте в комменты или в личку, пожалуйста 🙌
3. Если по каким-то причинам не можете ответить в комментариях тут, то вот анонимная форма-опрос. Регистрация не нужна, вопросы по желанию, отвечайте на понравившиеся. В самом конце есть поле для ответа в свободной форме.
https://forms.gle/H6JZxYnZwzDFGq3KA
Другие мои доски поизучать на майских:
Доска по сторителлингу - https://news.1rj.ru/str/Aironically/416
Доска по монтажу - https://news.1rj.ru/str/Aironically/436
Доска со сравнением текстовых нейронок - https://news.1rj.ru/str/Aironically/421
Доска по психологии - https://news.1rj.ru/str/TelepathyRead/15
Доска по режиссуре(пока в зачаточном состоянии как есть, у кого-то открывается, у кого-то нет, как будет время - выгружу заново и дополню) - https://news.1rj.ru/str/Aironically/311
Пошерьте, пожалуйста, если знаете кого-то, кому актуально. Эта информация, упакованная на досках, вызвала отклик у сотен людей, а опрос позволит начать двигаться от ремиксов к чему-то новому дальше.
#Aironically
Это нормальная реакция, потому что открывает место для рефлексии и как раз своевременной корректировки своего пути.
Нейросеть - это инструмент для меня? Или я обслуживаю нейросеть, соглашаясь на каждом этапе "придумай, что сделать, придумай промпт, придумай стиль, сочини музыку, смонтажь, придумай продающий текст для выкладывания в сеть"? Где здесь я?
У некоторых компаний, причём довольно крупных, в ТЗ бывает скетч от арт-директора и сразу инструкция, как в нейронке догенерить арт до финала. Где здесь я? То есть у меня отбирают и креативное начало работы, и художественную финализацию. Это не плохо и не хорошо, кому-то такая работа подходит, кому-то нет, просто надо отдавать отчёт себе, что работа и дальше будет трансформироваться.
Почему художники были так недовольны нейронками? Уберём сейчас всю лирику про душу и одно из самых непростых многолетных обучений профессии. Нормальный арт требует по времени от недели до полутора месяцев. А нейроарты выкладываются по 6 постов по 9 картинок каждый день. Как ни старайся, нарисованные от руки работы теряются в этом потоке нейроарта, даже если они намного круче идейно и технически. То есть от одного арта мы уже перешли к серии нейроартов под запрос. Не одна картинка раз в месяц, а набор из минимум 9 картинок каждые несколько часов, чтобы зритель выбрал себе одну, идеально ему подходящую на аватар, для ДнД или для перегенеривания.
Пинтерест стал нейроночным порталом, там так сходу рукотворный арт и не встретишь.
У меня есть знакомый сеньор из близзарда, который и для райотов, и для CDproject Red, и много где поработал, с которым пару дней назад общались, как там процессы на нейронки ставить, потому что за вырисовывание деталек на полотнах с 40 персонажами даже там уже не хотят платить, как раньше.
Давайте в будущее чуть-чуть заглянем. Момент, когда история повторится и всё то же самое случится с нейроартом, - вопрос времени. ИИ-агенты будут лучше анализировать статистику, лайки, тренды, сами писать промпт, сами генерить картинки и видео и сами выкладывать. Всё лучше человека и без человека. Нейроарт так же потеряется, но уже в агентовом потоке. Агентарт, или как будем это называть? Поэтому я и написала, что ремиксовый подход - тупиковый, пора от него отчаливать, делать ресерчи, искать новые смыслы, качать не только нейросети, но и сети человеческие. И делать это сейчас.
Но есть же и позитивная сторона. Сейчас почти любой может создавать новые произведения почти на коленке, быстро тестить идеи, пробовать себя в музыке, видео, архитектуре, моде. У меня наконец-то появились инструменты для воплощения идей, которые я и не мечтала воплотить в этой жизни. И для этого больше не нужно продавать обе почки, учиться 6 лет или собирать команду в 36 человек. Теперь можно вкладываться только в главное, рисовать только самое важное, а не мизинцы 43-его тролля на заднике, искать в себе самое глубокое. Так давайте в эту сторону и копать. И не забывать задавать себе главный вопрос "Где здесь я?".
Нейросеть - это инструмент для меня? Или я обслуживаю нейросеть, соглашаясь на каждом этапе "придумай, что сделать, придумай промпт, придумай стиль, сочини музыку, смонтажь, придумай продающий текст для выкладывания в сеть"? Где здесь я?
У некоторых компаний, причём довольно крупных, в ТЗ бывает скетч от арт-директора и сразу инструкция, как в нейронке догенерить арт до финала. Где здесь я? То есть у меня отбирают и креативное начало работы, и художественную финализацию. Это не плохо и не хорошо, кому-то такая работа подходит, кому-то нет, просто надо отдавать отчёт себе, что работа и дальше будет трансформироваться.
Почему художники были так недовольны нейронками? Уберём сейчас всю лирику про душу и одно из самых непростых многолетных обучений профессии. Нормальный арт требует по времени от недели до полутора месяцев. А нейроарты выкладываются по 6 постов по 9 картинок каждый день. Как ни старайся, нарисованные от руки работы теряются в этом потоке нейроарта, даже если они намного круче идейно и технически. То есть от одного арта мы уже перешли к серии нейроартов под запрос. Не одна картинка раз в месяц, а набор из минимум 9 картинок каждые несколько часов, чтобы зритель выбрал себе одну, идеально ему подходящую на аватар, для ДнД или для перегенеривания.
Пинтерест стал нейроночным порталом, там так сходу рукотворный арт и не встретишь.
У меня есть знакомый сеньор из близзарда, который и для райотов, и для CDproject Red, и много где поработал, с которым пару дней назад общались, как там процессы на нейронки ставить, потому что за вырисовывание деталек на полотнах с 40 персонажами даже там уже не хотят платить, как раньше.
Давайте в будущее чуть-чуть заглянем. Момент, когда история повторится и всё то же самое случится с нейроартом, - вопрос времени. ИИ-агенты будут лучше анализировать статистику, лайки, тренды, сами писать промпт, сами генерить картинки и видео и сами выкладывать. Всё лучше человека и без человека. Нейроарт так же потеряется, но уже в агентовом потоке. Агентарт, или как будем это называть? Поэтому я и написала, что ремиксовый подход - тупиковый, пора от него отчаливать, делать ресерчи, искать новые смыслы, качать не только нейросети, но и сети человеческие. И делать это сейчас.
Но есть же и позитивная сторона. Сейчас почти любой может создавать новые произведения почти на коленке, быстро тестить идеи, пробовать себя в музыке, видео, архитектуре, моде. У меня наконец-то появились инструменты для воплощения идей, которые я и не мечтала воплотить в этой жизни. И для этого больше не нужно продавать обе почки, учиться 6 лет или собирать команду в 36 человек. Теперь можно вкладываться только в главное, рисовать только самое важное, а не мизинцы 43-его тролля на заднике, искать в себе самое глубокое. Так давайте в эту сторону и копать. И не забывать задавать себе главный вопрос "Где здесь я?".
Потестила florafauna.ai.
Очень удобно, что в одном месте хранятся промпты, картинки, видео и всё через ноды миксуется друг с другом как угодно. Как доска miro, только и все анимации сразу наглядно. Добавить персонажа в сцену, соединить две картинки в одну, растянуть формат, поменять стиль, добавить ещё одного персонажа и всё тут же проанимировать. И можно одновременно ставить в очередь генерить 4 локации, 4 персонажей и тд. То есть Comfy для простых смертных, где хотя и меньше управления, зато сразу сел и делаешь - нода текста, нода картинки и нода видео - сиди миксуй.
Однако детали и внешность всё равно медленно слетают со временем. Девушка вросла в диван, а не встала за диваном.
Цена неадекватная - 60 баксов в месяц за 2400 картинок ещё ок, но такая цена за 120 видео - это смешно. Из 120 видео даже один ролик можно и не собрать, учитывая процент брака из видеонейронок. Если идти делать видео в других нейронках или ии-агрегаторах, то смысл этой платформы теряется.
Там 500 кредитов дают бесплатно, можно потестить.
Наблюдаем, пока не соберут такой же нодовый user-friendly опенсорс аналог или не сделают более адекватную ценовую политику.
#ImageAi_Aironically
Очень удобно, что в одном месте хранятся промпты, картинки, видео и всё через ноды миксуется друг с другом как угодно. Как доска miro, только и все анимации сразу наглядно. Добавить персонажа в сцену, соединить две картинки в одну, растянуть формат, поменять стиль, добавить ещё одного персонажа и всё тут же проанимировать. И можно одновременно ставить в очередь генерить 4 локации, 4 персонажей и тд. То есть Comfy для простых смертных, где хотя и меньше управления, зато сразу сел и делаешь - нода текста, нода картинки и нода видео - сиди миксуй.
Однако детали и внешность всё равно медленно слетают со временем. Девушка вросла в диван, а не встала за диваном.
Цена неадекватная - 60 баксов в месяц за 2400 картинок ещё ок, но такая цена за 120 видео - это смешно. Из 120 видео даже один ролик можно и не собрать, учитывая процент брака из видеонейронок. Если идти делать видео в других нейронках или ии-агрегаторах, то смысл этой платформы теряется.
Там 500 кредитов дают бесплатно, можно потестить.
Наблюдаем, пока не соберут такой же нодовый user-friendly опенсорс аналог или не сделают более адекватную ценовую политику.
#ImageAi_Aironically
Продолжаю тесты florafauna.ai.
Неадекватная цена - беру свои слова обратно, и вот почему.
На первом примере соединила актрису, задник и сумку. Как только внешность начинает слетать, можно снова подключить самую первую ноду с внешностью актрисы и подмешать её ещё раз. Результат неидеальный, но и в ChatGPT внешность тоже слетает. В комменты кину сравнение.
На втором примере во флоре сделала разные ракурсы персонажа, и попросила сделать портрет в улучшенном качестве. Всё за пару минут! Это так удобно! С Гемини были бы тоскливые уговоры "ну сделай", "ну сгенерь", "нет, ты умеешь генерить картинки, и ты это сделаешь для меня". Тоже скину в комменты, какой стыд мне выдали официальные гемини и ChatGPT по этому же запросу.
Какие плюсы во флоре:
1. Не переключаться между доской в миро(или вимсикал), чатгпт, гемини, флюксом и топазом. Текст, раскадровка, промпты, картинки, апскейл, видео - всё в одном месте. Хотя видео там и не очень выгодно делать.
2. Реюз прошлых картинок. В чате гпт бывает, что чат wasted, то есть его заносит, и откатить его отсебятину нельзя. Он будет тащить ошибку или какой-то свой новый стиль дальше во все генерации. Приходится создавать новый чат и ещё раз объяснять ТЗ. Во флоре финальную ноду с отсебятиной можно просто отключить, сохранив весь предыдущий прогресс. Как если бы ChatGPT можно было разделить на отдельные ветки. Или вести несколько чатов в одном.
3. Улучшитель промпта. Обычно промпты нужно адаптировать под задачу, иногда в отдельном чате. Тут не вылезая из флоры пишу "девушка держит сумку", и флора расписывает на 2 абзаца про сохранение деталей, цвет, положение рук и тд одной кнопкой за 1 сек.
4. Есть встроенное обучение лор, в одном месте можно и сгенерить датасет, и обучить за 10 минут. Пока сама не попробовала.
5. Можно ставить в очередь много картинок. В ChatGPT делается одна картинка, и чтобы ускорить процесс, нужно создавать одновременно несколько чатов для одной задачи или последовательных задач. Например, тут в разных чатах генерятся варианты одной картинки, там в разных чатах вторая и третья картинка, ещё дальше правки по четвертой. Это быстро превращается в хаос, если генерить много. Эта проблема решена во флоре благодаря нодам и возможности ставить много картинок в очередь.
6 Gemini на официальном сайте в последнее время у меня постоянно говорит, что не умеет генерить картинки или сейчас не может. Надо поуговаривать "Нет, ты сможешь, я в тебя верю!". В ChatGPT такое тоже бывает. И несмотря на "generate in widescreen", "generate in wide", "make 3:2 format", ChatGPT иногда срывается и генерит квадратный и вертикальный формат по своему желанию. Во флоре обе эти проблемы решены.
7. Неиспользованные кредиты не сгорают и переносятся на следующий месяц.
Минусы:
1. Нужно всё равно дорабатывать картинки. Но это общая проблема, из коробки одной кнопкой идеально 100 картинок с консистентным задником, несколькими персонажами и стилем пока нигде не сделать. Возможно, в Midjourney благодаря вчерашнему обновлению Omni-Reference будет прогресс, но там тоже свои приколы с анатомией, текстурами и тд. Нужно сравнить.
2. Делать видео невыгодно из-за неадекватной цены.
Осталось посмотреть, как работает встроенное обучение лор и как понимает раскадровку.
Следующий проект буду собирать во флоре.
#ImageAi_Aironically
Неадекватная цена - беру свои слова обратно, и вот почему.
На первом примере соединила актрису, задник и сумку. Как только внешность начинает слетать, можно снова подключить самую первую ноду с внешностью актрисы и подмешать её ещё раз. Результат неидеальный, но и в ChatGPT внешность тоже слетает. В комменты кину сравнение.
На втором примере во флоре сделала разные ракурсы персонажа, и попросила сделать портрет в улучшенном качестве. Всё за пару минут! Это так удобно! С Гемини были бы тоскливые уговоры "ну сделай", "ну сгенерь", "нет, ты умеешь генерить картинки, и ты это сделаешь для меня". Тоже скину в комменты, какой стыд мне выдали официальные гемини и ChatGPT по этому же запросу.
Какие плюсы во флоре:
1. Не переключаться между доской в миро(или вимсикал), чатгпт, гемини, флюксом и топазом. Текст, раскадровка, промпты, картинки, апскейл, видео - всё в одном месте. Хотя видео там и не очень выгодно делать.
2. Реюз прошлых картинок. В чате гпт бывает, что чат wasted, то есть его заносит, и откатить его отсебятину нельзя. Он будет тащить ошибку или какой-то свой новый стиль дальше во все генерации. Приходится создавать новый чат и ещё раз объяснять ТЗ. Во флоре финальную ноду с отсебятиной можно просто отключить, сохранив весь предыдущий прогресс. Как если бы ChatGPT можно было разделить на отдельные ветки. Или вести несколько чатов в одном.
3. Улучшитель промпта. Обычно промпты нужно адаптировать под задачу, иногда в отдельном чате. Тут не вылезая из флоры пишу "девушка держит сумку", и флора расписывает на 2 абзаца про сохранение деталей, цвет, положение рук и тд одной кнопкой за 1 сек.
4. Есть встроенное обучение лор, в одном месте можно и сгенерить датасет, и обучить за 10 минут. Пока сама не попробовала.
5. Можно ставить в очередь много картинок. В ChatGPT делается одна картинка, и чтобы ускорить процесс, нужно создавать одновременно несколько чатов для одной задачи или последовательных задач. Например, тут в разных чатах генерятся варианты одной картинки, там в разных чатах вторая и третья картинка, ещё дальше правки по четвертой. Это быстро превращается в хаос, если генерить много. Эта проблема решена во флоре благодаря нодам и возможности ставить много картинок в очередь.
6 Gemini на официальном сайте в последнее время у меня постоянно говорит, что не умеет генерить картинки или сейчас не может. Надо поуговаривать "Нет, ты сможешь, я в тебя верю!". В ChatGPT такое тоже бывает. И несмотря на "generate in widescreen", "generate in wide", "make 3:2 format", ChatGPT иногда срывается и генерит квадратный и вертикальный формат по своему желанию. Во флоре обе эти проблемы решены.
7. Неиспользованные кредиты не сгорают и переносятся на следующий месяц.
Минусы:
1. Нужно всё равно дорабатывать картинки. Но это общая проблема, из коробки одной кнопкой идеально 100 картинок с консистентным задником, несколькими персонажами и стилем пока нигде не сделать. Возможно, в Midjourney благодаря вчерашнему обновлению Omni-Reference будет прогресс, но там тоже свои приколы с анатомией, текстурами и тд. Нужно сравнить.
2. Делать видео невыгодно из-за неадекватной цены.
Осталось посмотреть, как работает встроенное обучение лор и как понимает раскадровку.
Следующий проект буду собирать во флоре.
#ImageAi_Aironically
This media is not supported in your browser
VIEW IN TELEGRAM
Наглядный пример, как всё работает во флоре 🔥
Media is too big
VIEW IN TELEGRAM
Video to 3d в блендере
Каждый день что-нибудь крышесносное 😅
https://superhivemarket.com/products/video-depth-ai
#3d_Aironically
Каждый день что-нибудь крышесносное 😅
https://superhivemarket.com/products/video-depth-ai
#3d_Aironically
ИИ-учитель по рисованию
Отвлечёмся от генераций и настроим must-have инструмент для художников, которые продолжают рисовать руками. Нужна платная подписка ChatGPT Plus за 20 баксов.
1. Загрузить референс-оригинал или работу художника, на кого равняетесь по качеству.
2. Загрузить свой стадик или просто свою работу.
3. Дальше просим найти все слабые места и объяснить, как дотянуть работу до референса промптом такого типа:
you are a professional artist with 30 years of experience
the first image is the original painting
the second image is my study after this work
please write me bullet points what should be improved
where are my weak points
what should i do to improve
ответь на русском языке
4. На картинке пример, как ChatGPT сам разобрал мою работу по тону, цвету, тёпло-холодности, качеству края и текстуре штриха. Сам перевёл в ч/б, сам предложил последовательность разбора и дополнительные упражнения, чтобы исправить именно мои проблемы. Но если вдруг чат куда-то занесёт не туда, то верните его в нужное русло:
Make suggestions what should be improved in Value Structure, Color, Edge Control, Color Temperature and Transitions, Material Definition, Brushwork / Painterly Rhythm. Find my weakest points and explain how to fix them. Ответь на русском языке.
Получаем подробную инструкцию вроде:
-дальняя щека персонажа должна быть холоднее
-тень на стыке стула и пола недостаточно тёмная
-гипсовый бюст на заднике должен быть светлее на 2 тона
5. Бонусом пропишите в конце, чтобы ChatGPT сделал выжимку чек-лист с пунктами, что конкретно нужно исправить:
Make a focused checklist of your critiques with all the necessary revisions. Ответь на русском языке.
Плюсы:
-персональный разбор в любое время дня и ночи за копейки
-разработка персонального плана упражнений, чтобы поправить причину проблем, а не только косяки одной этой работы
-объективно сравнивает с референсом, нет человеческого фактора предрасположенности учителя к какому-то определённому стилю или хамских комментариев, с которыми хотя бы раз в жизни сталкивался каждый, кто учился рисовать
-можно делать разбор бесконечное количество раз и просить оценку, насколько хорошо у вас получается вносить правки, пока не доберетесь до нужного качества
Минусы:
-В силу опыта все правки мне были понятны и в виде текста, но новичкам может быть трудно. Все непонятные места можно попросить разобрать ещё подробнее и даже сделать кисти(!!) или подходящие инструменты внутри чата, но один раз увидеть эффективнее, чем вчитываться в текст с правками. Начинающим рекомендую комбинировать - из ChatGPT доставать разбор и список ошибок, а с человеческим преподавателем разбирать непонятное и воплощать.
-ChatGPT первый раз выдал мне бета-режим интерактивной диаграммы, который пока не заработал. В комментах скину, как выглядит. Он изо всех сил пытался выделить области, где конкретно нужны мягкие края, а где жёсткие, где теплее, а где холоднее и тд. Я так понимаю, что это предвестник оверпеинта, что ChatGPT сможет выдавать правки визуально в виде стрелок, обводок, пометок или даже обрисовки поверх картинки. Ждём!
#ImageAi_Aironically
Отвлечёмся от генераций и настроим must-have инструмент для художников, которые продолжают рисовать руками. Нужна платная подписка ChatGPT Plus за 20 баксов.
1. Загрузить референс-оригинал или работу художника, на кого равняетесь по качеству.
2. Загрузить свой стадик или просто свою работу.
3. Дальше просим найти все слабые места и объяснить, как дотянуть работу до референса промптом такого типа:
you are a professional artist with 30 years of experience
the first image is the original painting
the second image is my study after this work
please write me bullet points what should be improved
where are my weak points
what should i do to improve
ответь на русском языке
4. На картинке пример, как ChatGPT сам разобрал мою работу по тону, цвету, тёпло-холодности, качеству края и текстуре штриха. Сам перевёл в ч/б, сам предложил последовательность разбора и дополнительные упражнения, чтобы исправить именно мои проблемы. Но если вдруг чат куда-то занесёт не туда, то верните его в нужное русло:
Make suggestions what should be improved in Value Structure, Color, Edge Control, Color Temperature and Transitions, Material Definition, Brushwork / Painterly Rhythm. Find my weakest points and explain how to fix them. Ответь на русском языке.
Получаем подробную инструкцию вроде:
-дальняя щека персонажа должна быть холоднее
-тень на стыке стула и пола недостаточно тёмная
-гипсовый бюст на заднике должен быть светлее на 2 тона
5. Бонусом пропишите в конце, чтобы ChatGPT сделал выжимку чек-лист с пунктами, что конкретно нужно исправить:
Make a focused checklist of your critiques with all the necessary revisions. Ответь на русском языке.
Плюсы:
-персональный разбор в любое время дня и ночи за копейки
-разработка персонального плана упражнений, чтобы поправить причину проблем, а не только косяки одной этой работы
-объективно сравнивает с референсом, нет человеческого фактора предрасположенности учителя к какому-то определённому стилю или хамских комментариев, с которыми хотя бы раз в жизни сталкивался каждый, кто учился рисовать
-можно делать разбор бесконечное количество раз и просить оценку, насколько хорошо у вас получается вносить правки, пока не доберетесь до нужного качества
Минусы:
-В силу опыта все правки мне были понятны и в виде текста, но новичкам может быть трудно. Все непонятные места можно попросить разобрать ещё подробнее и даже сделать кисти(!!) или подходящие инструменты внутри чата, но один раз увидеть эффективнее, чем вчитываться в текст с правками. Начинающим рекомендую комбинировать - из ChatGPT доставать разбор и список ошибок, а с человеческим преподавателем разбирать непонятное и воплощать.
-ChatGPT первый раз выдал мне бета-режим интерактивной диаграммы, который пока не заработал. В комментах скину, как выглядит. Он изо всех сил пытался выделить области, где конкретно нужны мягкие края, а где жёсткие, где теплее, а где холоднее и тд. Я так понимаю, что это предвестник оверпеинта, что ChatGPT сможет выдавать правки визуально в виде стрелок, обводок, пометок или даже обрисовки поверх картинки. Ждём!
#ImageAi_Aironically
Стрим по ИИ-3дшке в четверг 08.05 в 20:00 Мск 💫
Что будет?
-ответы на вопросы
-посмотрим обновления 3д-генераторов, как зарегиться, сколько стоят подписки
-погенерим в локальных и сервисных генераторах
-сравним качество на органике и хард-сёрфасе
-запись, ссылки на все ресурсы и блендер-файл будет
-в конце в виаре что-нибудь поделаем
Пожалуйста, задавайте вопросы под этим постом. Если хотите потестить что-то вместе в 3д на стриме, скиньте картинки в комменты под этим постом заранее. Если персонаж, то идеально в Т-позе без длинных волос, плащей, прозрачных материалов и слишком сложного снаряжения.
#Stream_Aironically
Что будет?
-ответы на вопросы
-посмотрим обновления 3д-генераторов, как зарегиться, сколько стоят подписки
-погенерим в локальных и сервисных генераторах
-сравним качество на органике и хард-сёрфасе
-запись, ссылки на все ресурсы и блендер-файл будет
-в конце в виаре что-нибудь поделаем
Пожалуйста, задавайте вопросы под этим постом. Если хотите потестить что-то вместе в 3д на стриме, скиньте картинки в комменты под этим постом заранее. Если персонаж, то идеально в Т-позе без длинных волос, плащей, прозрачных материалов и слишком сложного снаряжения.
#Stream_Aironically
Как написать бриф на ИИ-ролик?
Необходимая информация, чтобы значительно упростить и ускорить общение между заказчиком и исполнителем:
1. Хрон ролика(сколько минут-секунд)
2. Есть ли сценарий? В работу входит креативная часть и доработка/переработка сценария или нет?
3. Количество роликов(3 ролика или 30 роликов - цена за один ролик может быть и в идеале должна быть разной)
4. Цель ролика и целевая аудитория(реклама, социальный проект, тестирование рынка, музыкальный клип)
5. Формат и платформа размещения(Вертикаль / горизонталь, 9:16, 1:1, 16:9, ютуб, тик-ток, медиа для концерта)
6. Пример стиля(фоторил, кинематографический стиль, стилизация, мультяшный стиль, авторский стиль - приложить пример)
7. В работу входит работа со звуком и музыкой?(в половине случаев подразумевают, что да, а в половине, что нет, потому что уже есть свой другой исполнитель на звук)
8. Нужна ли озвучка? На одном языке или нескольких?
9. В ролике будет продукт, который должен выглядеть консистентно?(приложить пример продукта или аналог продукта сразу)
10. В ролике будет персонаж, который должен выглядеть консистентно?(в некоторых проектах достаточно попасть в типаж, в других - только конкретный персонаж, всегда одинаково выглядящий, что дороже)
11. Сколько консистентных персонажей в ролике?(чем больше, тем дороже, потому что даже с новыми нейроночными инструментами типа Omni-reference сделать много консистентных персонажей одновременно - это дополнительное время)
12. Нужна ли дополнительная графика любого типа - логотип, моушн, 3д, титры?
13. Будет ли совмещение с реальными съёмками любого типа(досъём актёра, продукта, главы компании, съёмки на зелёном экране)?
14. Если в ролике используются реальные люди, согласовано ли их участие в ролике юридически.
15. Сроки выполнения и дедлайн.
16. Подписки на все необходимые платные нейронки выносятся в смету отдельно, и их оплачивает заказчик, а не исполнитель. Подбор нейронок рассчитывается индивидуально под конкретную задачу.
Давайте беречь время друг друга и решать большую часть вопросов в первом же сообщении благодаря ТЗ.
#VideoAi_Aironically
Необходимая информация, чтобы значительно упростить и ускорить общение между заказчиком и исполнителем:
1. Хрон ролика(сколько минут-секунд)
2. Есть ли сценарий? В работу входит креативная часть и доработка/переработка сценария или нет?
3. Количество роликов(3 ролика или 30 роликов - цена за один ролик может быть и в идеале должна быть разной)
4. Цель ролика и целевая аудитория(реклама, социальный проект, тестирование рынка, музыкальный клип)
5. Формат и платформа размещения(Вертикаль / горизонталь, 9:16, 1:1, 16:9, ютуб, тик-ток, медиа для концерта)
6. Пример стиля(фоторил, кинематографический стиль, стилизация, мультяшный стиль, авторский стиль - приложить пример)
7. В работу входит работа со звуком и музыкой?(в половине случаев подразумевают, что да, а в половине, что нет, потому что уже есть свой другой исполнитель на звук)
8. Нужна ли озвучка? На одном языке или нескольких?
9. В ролике будет продукт, который должен выглядеть консистентно?(приложить пример продукта или аналог продукта сразу)
10. В ролике будет персонаж, который должен выглядеть консистентно?(в некоторых проектах достаточно попасть в типаж, в других - только конкретный персонаж, всегда одинаково выглядящий, что дороже)
11. Сколько консистентных персонажей в ролике?(чем больше, тем дороже, потому что даже с новыми нейроночными инструментами типа Omni-reference сделать много консистентных персонажей одновременно - это дополнительное время)
12. Нужна ли дополнительная графика любого типа - логотип, моушн, 3д, титры?
13. Будет ли совмещение с реальными съёмками любого типа(досъём актёра, продукта, главы компании, съёмки на зелёном экране)?
14. Если в ролике используются реальные люди, согласовано ли их участие в ролике юридически.
15. Сроки выполнения и дедлайн.
16. Подписки на все необходимые платные нейронки выносятся в смету отдельно, и их оплачивает заказчик, а не исполнитель. Подбор нейронок рассчитывается индивидуально под конкретную задачу.
Давайте беречь время друг друга и решать большую часть вопросов в первом же сообщении благодаря ТЗ.
#VideoAi_Aironically
Media is too big
VIEW IN TELEGRAM
Первая часть стрима по 3д-нейронкам
Тестируем разные генераторы, смотрим плюсы и минусы, стоимость. В следующем посте прикреплю блендер-файл, в котором сложены все сгенеренные модельки, чтобы вы могли покрутить сами и посмотреть сетку.
Ссылки на упомянутые 3д-генераторы:
Krea 3D - https://www.krea.ai/3d
//3д-модельки
Krea real-time - https://www.krea.ai/realtime
//сгенерить объект в 3д, подкрутить под нужный ракурс, поставить фон и догенерить в одном месте для 2д-концепта
Krea stages - https://www.krea.ai/stage
//сделать сразу много объектов сцены по текстовому описанию
Midi3d - https://huggingface.co/spaces/VAST-AI/MIDI-3D
//умеет сегментировать модель на разные части
Meshy - https://www.meshy.ai/workspace
//умеет ремешить, можно выбрать из нескольких драфтов
CommonSenseMashines - https://3d.csm.ai/dashboard/asset/ASSET_SESSION_1746456533_3902386
//на мой взгляд, пока самый слабый 3д-генератор
Hi3DGen - https://huggingface.co/spaces/Stable-X/Hi3DGen
//генерация через предварительную генерацию нормалки
Trellis demo - https://trellis3d.co/online
Генераторы, которые уже юзаются в продакшене:
Tripo SF demo - https://huggingface.co/spaces/VAST-AI/TripoSG
Tripo web - https://www.tripo3d.ai/app/home
Rodin ai - https://hyper3d.ai/
//много бесплатных попыток перегенерации, можно сегментировать на части, есть режим omnicraft для бесплатной генерации hdri, vector to 3d
Локальные генераторы:
Trellis - https://github.com/if-ai/ComfyUI-IF_Trellis
Hunyuan 2.0 - https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
Самый топовый 3д-генератор:
Hunyuan 2.5 - https://3d.hunyuan.tencent.com/login?redirect_url=https://3d.hunyuan.tencent.com/lab
Все посты по тегу #3d_Aironically
Пост-сравнение разных 3д-генераторов - https://news.1rj.ru/str/Aironically/411
Пост-сравнение бесплатных локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/418
Блендер-файл с модельками из локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/419
Пост про плагин, как смотреть видео на скорости х2, х3, х5 - https://news.1rj.ru/str/Aironically/77
Видео можно смело ускорять в 2 раза.
Артстейшн - https://www.artstation.com/sentimenthol
Ютуб, если хотите посмотреть там - https://www.youtube.com/watch?v=IEbApbMD3Bs
Твич, где будут следующие стримы - https://www.twitch.tv/aironically
Во второй части стрима посмотрим 3д для энвиры, погенерим локально, подключим бесплатного MCP-агента в блендер и соберём сцену из нагенеренных ассетов в VR в Gravity Sketch.
#Aironically
Тестируем разные генераторы, смотрим плюсы и минусы, стоимость. В следующем посте прикреплю блендер-файл, в котором сложены все сгенеренные модельки, чтобы вы могли покрутить сами и посмотреть сетку.
Ссылки на упомянутые 3д-генераторы:
Krea 3D - https://www.krea.ai/3d
//3д-модельки
Krea real-time - https://www.krea.ai/realtime
//сгенерить объект в 3д, подкрутить под нужный ракурс, поставить фон и догенерить в одном месте для 2д-концепта
Krea stages - https://www.krea.ai/stage
//сделать сразу много объектов сцены по текстовому описанию
Midi3d - https://huggingface.co/spaces/VAST-AI/MIDI-3D
//умеет сегментировать модель на разные части
Meshy - https://www.meshy.ai/workspace
//умеет ремешить, можно выбрать из нескольких драфтов
CommonSenseMashines - https://3d.csm.ai/dashboard/asset/ASSET_SESSION_1746456533_3902386
//на мой взгляд, пока самый слабый 3д-генератор
Hi3DGen - https://huggingface.co/spaces/Stable-X/Hi3DGen
//генерация через предварительную генерацию нормалки
Trellis demo - https://trellis3d.co/online
Генераторы, которые уже юзаются в продакшене:
Tripo SF demo - https://huggingface.co/spaces/VAST-AI/TripoSG
Tripo web - https://www.tripo3d.ai/app/home
Rodin ai - https://hyper3d.ai/
//много бесплатных попыток перегенерации, можно сегментировать на части, есть режим omnicraft для бесплатной генерации hdri, vector to 3d
Локальные генераторы:
Trellis - https://github.com/if-ai/ComfyUI-IF_Trellis
Hunyuan 2.0 - https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
Самый топовый 3д-генератор:
Hunyuan 2.5 - https://3d.hunyuan.tencent.com/login?redirect_url=https://3d.hunyuan.tencent.com/lab
Все посты по тегу #3d_Aironically
Пост-сравнение разных 3д-генераторов - https://news.1rj.ru/str/Aironically/411
Пост-сравнение бесплатных локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/418
Блендер-файл с модельками из локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/419
Пост про плагин, как смотреть видео на скорости х2, х3, х5 - https://news.1rj.ru/str/Aironically/77
Видео можно смело ускорять в 2 раза.
Артстейшн - https://www.artstation.com/sentimenthol
Ютуб, если хотите посмотреть там - https://www.youtube.com/watch?v=IEbApbMD3Bs
Твич, где будут следующие стримы - https://www.twitch.tv/aironically
Во второй части стрима посмотрим 3д для энвиры, погенерим локально, подключим бесплатного MCP-агента в блендер и соберём сцену из нагенеренных ассетов в VR в Gravity Sketch.
#Aironically
Aironically-StreamFile_02.blend
1 GB
Блендер-файл со стрима по 3д-нейронкам со сгенеренными модельками из Krea, Midi3d, Meshy, Hi3dGen, CSM, Trellis, Tripo, Rodin и Hunyuan 2.5.
The Midnight Walk.
Лучший виар-экспириенс со времён Alyx. Один из лучших миров, где хочется снова и снова зажечь спичку, чтобы ещё разок сесть у костра и послушать таких странных существ. И самому побыть странным.
И одна из лучших концовок.
#Games_Aironically
Лучший виар-экспириенс со времён Alyx. Один из лучших миров, где хочется снова и снова зажечь спичку, чтобы ещё разок сесть у костра и послушать таких странных существ. И самому побыть странным.
И одна из лучших концовок.
#Games_Aironically
Forwarded from ИИгорь
Media is too big
VIEW IN TELEGRAM
После недавнего Ксюшиного стрима про 3д нейронки, многие снова спрашивали, как поставить Hunyuan3d локально. Решил записать коротенький видос, в котором показываю подробно весь процесс.
Ссылки на ресурсы:
https://git-scm.com/
https://github.com/comfyanonymous/ComfyUI
https://github.com/Comfy-Org/ComfyUI-Manager
https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
https://civitai.com/models
Ссылки на ресурсы:
https://git-scm.com/
https://github.com/comfyanonymous/ComfyUI
https://github.com/Comfy-Org/ComfyUI-Manager
https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
https://civitai.com/models
Media is too big
VIEW IN TELEGRAM
Вторая часть стрима по 3д-нейронкам
Смотрим приёмы для генерации окружения, как работать с MCP Claude в блендере, генерим в локальном Hunyuan 2.0, собираем из нагенеренных моделей сцену в VR, обсуждаем перспективы развития ИИ в 3д.
Первая часть стрима - https://news.1rj.ru/str/Aironically/588
Meshy для сборки локаций - https://www.youtube.com/watch?v=MToaRTRsyM8
Сборка зданий из плашек - https://www.youtube.com/watch?v=5c_6WXY_wkE&t=1s
Как установить MCP Claude к блендеру - https://www.youtube.com/watch?v=PBSvqfx4gwQ
//для Claude нужен иностранный номер телефона. Claude, MCP и генерации бесплатны, в Claude есть ограничение по количеству сообщений в чате, после которого нужно делать новый чат или подождать. По картинкам Claude не генерит, только txt-to-3d.
Есть смысл или брать платный MCP и получать качество и скорость(нарядные демо "Вау, генерим шикарные модельки сразу в блендере" так и сделаны с платным MCP), или работать с локальными генераторами, где контроль благодаря img-to-3d выше.
Сборка компа, чтобы комфортно генерить 3д локально - https://news.1rj.ru/str/Aironically/56
//у меня одна моделька генерится 30-40 сек
Локальный Hunyuan 2.0 - https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
Пост, как поставить Hunyuan 2.0 - https://news.1rj.ru/str/AIgor3D/106
Gravity Sketch - https://gravitysketch.com/
Все посты по тегу #3d_Aironically
Пост-сравнение разных 3д-генераторов - https://news.1rj.ru/str/Aironically/411
Пост-сравнение бесплатных локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/418
Блендер-файл с модельками из локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/419
Блендер-файл со стрима со сгенеренными модельками из Krea, Midi3d, Meshy, Hi3dGen, CSM, Trellis, Tripo, Rodin и Hunyuan 2.5 - https://news.1rj.ru/str/Aironically/589
Чат канала - https://news.1rj.ru/str/AironicallyChat
Пост про плагин, как смотреть видео на скорости х2, х3, х5 - https://news.1rj.ru/str/Aironically/77
Видео можно смело ускорять в 2 раза.
Артстейшн - https://www.artstation.com/sentimenthol
Ютуб, если хотите посмотреть там - https://www.youtube.com/watch?v=3HS0Lto135A
Твич, где будут следующие стримы - https://www.twitch.tv/aironically
#Aironically
Смотрим приёмы для генерации окружения, как работать с MCP Claude в блендере, генерим в локальном Hunyuan 2.0, собираем из нагенеренных моделей сцену в VR, обсуждаем перспективы развития ИИ в 3д.
Первая часть стрима - https://news.1rj.ru/str/Aironically/588
Meshy для сборки локаций - https://www.youtube.com/watch?v=MToaRTRsyM8
Сборка зданий из плашек - https://www.youtube.com/watch?v=5c_6WXY_wkE&t=1s
Как установить MCP Claude к блендеру - https://www.youtube.com/watch?v=PBSvqfx4gwQ
//для Claude нужен иностранный номер телефона. Claude, MCP и генерации бесплатны, в Claude есть ограничение по количеству сообщений в чате, после которого нужно делать новый чат или подождать. По картинкам Claude не генерит, только txt-to-3d.
Есть смысл или брать платный MCP и получать качество и скорость(нарядные демо "Вау, генерим шикарные модельки сразу в блендере" так и сделаны с платным MCP), или работать с локальными генераторами, где контроль благодаря img-to-3d выше.
Сборка компа, чтобы комфортно генерить 3д локально - https://news.1rj.ru/str/Aironically/56
//у меня одна моделька генерится 30-40 сек
Локальный Hunyuan 2.0 - https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
Пост, как поставить Hunyuan 2.0 - https://news.1rj.ru/str/AIgor3D/106
Gravity Sketch - https://gravitysketch.com/
Все посты по тегу #3d_Aironically
Пост-сравнение разных 3д-генераторов - https://news.1rj.ru/str/Aironically/411
Пост-сравнение бесплатных локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/418
Блендер-файл с модельками из локальных Trellis и Hunyuan - https://news.1rj.ru/str/Aironically/419
Блендер-файл со стрима со сгенеренными модельками из Krea, Midi3d, Meshy, Hi3dGen, CSM, Trellis, Tripo, Rodin и Hunyuan 2.5 - https://news.1rj.ru/str/Aironically/589
Чат канала - https://news.1rj.ru/str/AironicallyChat
Пост про плагин, как смотреть видео на скорости х2, х3, х5 - https://news.1rj.ru/str/Aironically/77
Видео можно смело ускорять в 2 раза.
Артстейшн - https://www.artstation.com/sentimenthol
Ютуб, если хотите посмотреть там - https://www.youtube.com/watch?v=3HS0Lto135A
Твич, где будут следующие стримы - https://www.twitch.tv/aironically
#Aironically