Нейрохакатон и Слёт аниматоров
На тех выходных я была в жюри на Нейрохакатоне, и сегодня дошли руки ещё раз пересмотреть все присланные работы.
Что мы имеем:
-на одном из главных си джи мероприятий - отдельный зал для нейроанимации
-уважение к участникам: у каждого была возможность презентовать свою работу, рассказать об идее и использованных инструментах
-приятные денежные призы и приглашение на работу для победителей
-среди участников как вчерашние подростки, которые с ноги с первой работой залетают на призовые места, так и матёрые команды по 3-5 профессиональных сиджишников с 10-15 годами опыта в 3д, композе, виртуальном продакшене
-прозрачные критерии оценки по сценарию, арту и техничке
-трансляция и медийные эксперты
-просмотр номинантов и большинства работ на большом экране
Я пишу это не потому, что мы тут про нейронки, а потому что это грамотно проведённое мероприятие, местами не хуже других залов, а местами и лучше. Несмотря на скепсис, формируется новая маленькая индустрия.
Что нужно улучшать:
-типичный нейронный шум-сетка и смазы это техническая проблема, которая ни авторов, ни жюри не парит, все всё понимают, просто ждём, что в течение пары лет всё это починят.
-нейронность работ видна в первую очередь не из-за нейронных инструментов, а из-за звука и типографики. Для этих задач нужны отдельные специалисты, или стоит посвятить отдельное время обучению этим дисциплинам.
-проблемы с монтажом(это одновременно и техническая, и смысловая проблема. Техничка решается 3д-ИИ, комфи и нано бананой, а лучше комбинацией этих инструментов, смысловая часть упирается в базу по режиссуре)
Хочу показать работы, которые мне понравились.
-Syntez25 "Самый живучий вид"
-Keyframe and Elementfx "Edem"
-Iliya Pronin "Grandmother's lunch"
-Игнатий Ложкин "Memory Mode On"
Если вы автор или знаете автора, присылайте в комменты ссылку на ютуб-канал или ТГ.
Всех финалистов можно посмотреть здесь.
Все работы нейрохакатона можно посмотреть здесь.
Из ненейронного самое важное на Слёте, естественно, студия Lihtar.
На тех выходных я была в жюри на Нейрохакатоне, и сегодня дошли руки ещё раз пересмотреть все присланные работы.
Что мы имеем:
-на одном из главных си джи мероприятий - отдельный зал для нейроанимации
-уважение к участникам: у каждого была возможность презентовать свою работу, рассказать об идее и использованных инструментах
-приятные денежные призы и приглашение на работу для победителей
-среди участников как вчерашние подростки, которые с ноги с первой работой залетают на призовые места, так и матёрые команды по 3-5 профессиональных сиджишников с 10-15 годами опыта в 3д, композе, виртуальном продакшене
-прозрачные критерии оценки по сценарию, арту и техничке
-трансляция и медийные эксперты
-просмотр номинантов и большинства работ на большом экране
Я пишу это не потому, что мы тут про нейронки, а потому что это грамотно проведённое мероприятие, местами не хуже других залов, а местами и лучше. Несмотря на скепсис, формируется новая маленькая индустрия.
Что нужно улучшать:
-типичный нейронный шум-сетка и смазы это техническая проблема, которая ни авторов, ни жюри не парит, все всё понимают, просто ждём, что в течение пары лет всё это починят.
-нейронность работ видна в первую очередь не из-за нейронных инструментов, а из-за звука и типографики. Для этих задач нужны отдельные специалисты, или стоит посвятить отдельное время обучению этим дисциплинам.
-проблемы с монтажом(это одновременно и техническая, и смысловая проблема. Техничка решается 3д-ИИ, комфи и нано бананой, а лучше комбинацией этих инструментов, смысловая часть упирается в базу по режиссуре)
Хочу показать работы, которые мне понравились.
-Syntez25 "Самый живучий вид"
-Keyframe and Elementfx "Edem"
-Iliya Pronin "Grandmother's lunch"
-Игнатий Ложкин "Memory Mode On"
Если вы автор или знаете автора, присылайте в комменты ссылку на ютуб-канал или ТГ.
Всех финалистов можно посмотреть здесь.
Все работы нейрохакатона можно посмотреть здесь.
Из ненейронного самое важное на Слёте, естественно, студия Lihtar.
Veo 3 fast стал безлимитным на подписке Ultra
Раньше у меня за спиной стоял нейроколлектор. Одна его ледяная рука на моём плече, вторая достаёт денежку у меня из кошелька за каждую генерацию и поджигает на моих глазах.
Теперь со спокойной душой можно генерить хоть 40 попыток на каждый кадр, пока всё не получится так, как нужно. Я не знаю, как передать это чувство радости и облегчения.
Большую часть задач по видео теперь скорее всего Veo 3 fast себе и заберёт.
И только точечно использовать:
-Kling(обновленный первый и последний кадр в Kling 2.1)
-Runway(Aleph)
-Hailuoai(анимационные задачи и нормальная физика объектов и камеры)
-Higgsfield(продакт плейсмент)
-Pixverse(анимационные штуки)
-Luma-Pika(не знаю для чего, у меня там ничего нормального не выходит)
-Midjourney(extend video - длинные бесшовные шоты до 21 секунды, чтобы разбить проблему нейронного эпилептического монтажа по 3 сек)
-Wan(локальный полный контроль, Infinite talk и всякие лоры)
-Seedance(пока руки не дошли попробовать)
Раньше у меня за спиной стоял нейроколлектор. Одна его ледяная рука на моём плече, вторая достаёт денежку у меня из кошелька за каждую генерацию и поджигает на моих глазах.
Теперь со спокойной душой можно генерить хоть 40 попыток на каждый кадр, пока всё не получится так, как нужно. Я не знаю, как передать это чувство радости и облегчения.
Большую часть задач по видео теперь скорее всего Veo 3 fast себе и заберёт.
И только точечно использовать:
-Kling(обновленный первый и последний кадр в Kling 2.1)
-Runway(Aleph)
-Hailuoai(анимационные задачи и нормальная физика объектов и камеры)
-Higgsfield(продакт плейсмент)
-Pixverse(анимационные штуки)
-Luma-Pika(не знаю для чего, у меня там ничего нормального не выходит)
-Midjourney(extend video - длинные бесшовные шоты до 21 секунды, чтобы разбить проблему нейронного эпилептического монтажа по 3 сек)
-Wan(локальный полный контроль, Infinite talk и всякие лоры)
-Seedance(пока руки не дошли попробовать)
This media is not supported in your browser
VIEW IN TELEGRAM
В крее анонс реал-тайм редактирования видео. Пока на простеньких примерах, но огромный потенциал очевиден.
Запишитесь в бета-тестирование.
https://www.krea.ai/blog/announcing-realtime-video
Запишитесь в бета-тестирование.
https://www.krea.ai/blog/announcing-realtime-video
This media is not supported in your browser
VIEW IN TELEGRAM
Comfy + Photoshop
Контролируемые скетчи с нейронкой и крутилка 360 в конце.
Думаю, что следующий шаг - концептеры ещё и какой-то превиз анимаций будут делать с ваном прямо внутри фотошопа типа походки, анимационные рефы на мимику, ставить ключевые кадры и тд.
https://www.youtube.com/watch?v=gmQbRlbnbXU
Контролируемые скетчи с нейронкой и крутилка 360 в конце.
Думаю, что следующий шаг - концептеры ещё и какой-то превиз анимаций будут делать с ваном прямо внутри фотошопа типа походки, анимационные рефы на мимику, ставить ключевые кадры и тд.
https://www.youtube.com/watch?v=gmQbRlbnbXU
Прикручиваем комфи и нано банану к фотошопу 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ИИгорь
Media is too big
VIEW IN TELEGRAM
Видос про установку и тест 2х плагинов с нейронками для фотошопа, а именно Nano-Banana И ComfyUi. Записан экспромтом в моем обычном стиле, поэтому лучше смотреть на 1.5 скорости.
Установка Nano-Banana на 6:30.
Начало про Comfy на 14:50.
🍌 Скрипт для Nano-Banana и Flux Context: Гамроуд
🎷 Плагин c Comfy UI: Гитхаб
Тут надо скачать Required Files, сам плагин отсюда качать на надо, т.к. он старый, кривой и больше не пашет.
🐪 Вот тут починенный мной плагин: Гугол диск
Там 2 папки и файл json.
Папку comfyui-photoshop кладем в
\ComfyUI\custom_nodes
Папку Ai-Comfy кладем в
c:\Program Files\Adobe\Adobe Photoshop 2025\Plug-ins
Воркфлоу кладем либо сюда, либо перетаскиваем в комфи и сохраняем.
\ComfyUI\user\default\workflows\PHOTOSHOP.json
Ну и, конечно, надо будет обновить сам комфи до последней версии и установить недостающие ноды через менеджер.
Установка Nano-Banana на 6:30.
Начало про Comfy на 14:50.
🍌 Скрипт для Nano-Banana и Flux Context: Гамроуд
🎷 Плагин c Comfy UI: Гитхаб
Тут надо скачать Required Files, сам плагин отсюда качать на надо, т.к. он старый, кривой и больше не пашет.
🐪 Вот тут починенный мной плагин: Гугол диск
Там 2 папки и файл json.
Папку comfyui-photoshop кладем в
\ComfyUI\custom_nodes
Папку Ai-Comfy кладем в
c:\Program Files\Adobe\Adobe Photoshop 2025\Plug-ins
Воркфлоу кладем либо сюда, либо перетаскиваем в комфи и сохраняем.
\ComfyUI\user\default\workflows\PHOTOSHOP.json
Ну и, конечно, надо будет обновить сам комфи до последней версии и установить недостающие ноды через менеджер.
Forwarded from VAI
Как я писал ранее, с появлением новых инструментов многие вещи приходится переосмысливать — и далеко не всё лежит на поверхности. 🧐
Я уже давно экспериментировал с ИИ в работе с текстурами для 3D-моделей. Напрямую добиться хорошего результата было сложно: приходилось делать массу итераций. Да, даже в таком виде пайплайн ускорял процесс, когда нужно было собрать текстуру из кусков, но всё это казалось муторным и малозначительным.
С выходом Nano Banana я решил проверить: а может ли она править текстуры? И к моему удивлению — получилось! Можно быстро менять фактуру, цвет, добавлять логотипы и прочее. Это действительно ускоряет работу с текстурами в разы.
На примере выше попросил убрать ржавчину и покрасить в синий цвет. Неплохо да?🤓
Проблемы, конечно, есть. На сложных развертках ИИ периодически «тупит» и наносит правки некорректно (но на той же машине развертка не такая и простая и все получилось). Тут выручает такой подход: из двух-трёх генераций собирается нужная текстура.
Кстати, нейросеть отлично понимает графические подсказки: можно стрелкой указать, что перекрасить и во что, или куда поставить логотип — и Nano Banana это делает. Настоящая магия!✨
Также о проблемах. На развертках часто надписи оказываются перевёрнутыми вверх ногами или отзеркаленными. Это пока не понимает ни одна нейросеть. Например, когда просишь заменить название, ИИ его меняет, но при этом автоматически переворачивает и отзеркаливает в правильное положение. В такие моменты я просто подаю ИИ уже перевёрнутое и отзеркаленное изображение, чтобы слово или лого было читаемым, и проблем не возникает. После этого я просто возвращаю изображение в исходное положение.
В целом подход нестандартный, простые задачи Nano Banana закрывает хорошо. С более сложными развертками приходится немного повозиться, но и это заметно ускоряет работу.
Пользуйтесь!🔥
P.S. Не знаю как у вас, а у меня неделя на одном дыхании пролетела. Заранее всем отличных выходных!
@VAI_ART
#VAI_Gallery
Я уже давно экспериментировал с ИИ в работе с текстурами для 3D-моделей. Напрямую добиться хорошего результата было сложно: приходилось делать массу итераций. Да, даже в таком виде пайплайн ускорял процесс, когда нужно было собрать текстуру из кусков, но всё это казалось муторным и малозначительным.
С выходом Nano Banana я решил проверить: а может ли она править текстуры? И к моему удивлению — получилось! Можно быстро менять фактуру, цвет, добавлять логотипы и прочее. Это действительно ускоряет работу с текстурами в разы.
На примере выше попросил убрать ржавчину и покрасить в синий цвет. Неплохо да?
Проблемы, конечно, есть. На сложных развертках ИИ периодически «тупит» и наносит правки некорректно (но на той же машине развертка не такая и простая и все получилось). Тут выручает такой подход: из двух-трёх генераций собирается нужная текстура.
Кстати, нейросеть отлично понимает графические подсказки: можно стрелкой указать, что перекрасить и во что, или куда поставить логотип — и Nano Banana это делает. Настоящая магия!
Также о проблемах. На развертках часто надписи оказываются перевёрнутыми вверх ногами или отзеркаленными. Это пока не понимает ни одна нейросеть. Например, когда просишь заменить название, ИИ его меняет, но при этом автоматически переворачивает и отзеркаливает в правильное положение. В такие моменты я просто подаю ИИ уже перевёрнутое и отзеркаленное изображение, чтобы слово или лого было читаемым, и проблем не возникает. После этого я просто возвращаю изображение в исходное положение.
В целом подход нестандартный, простые задачи Nano Banana закрывает хорошо. С более сложными развертками приходится немного повозиться, но и это заметно ускоряет работу.
Пользуйтесь!
P.S. Не знаю как у вас, а у меня неделя на одном дыхании пролетела. Заранее всем отличных выходных!
@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Экстрактор отдельных элементов
Видно, что пока ошибается и не понимает асимметрию. Но за несколько круток можно достать некоторые детали для 3Д-генерации.
На стандартных моделях и обычной одежде работает лучше.
Попробовать тут:
https://aistudio.google.com/apps/drive/1U9xDutUGtL6m2z45iI0YWUnnR5l2pTXh?showPreview=true&showAssistant=true
Видно, что пока ошибается и не понимает асимметрию. Но за несколько круток можно достать некоторые детали для 3Д-генерации.
На стандартных моделях и обычной одежде работает лучше.
Попробовать тут:
https://aistudio.google.com/apps/drive/1U9xDutUGtL6m2z45iI0YWUnnR5l2pTXh?showPreview=true&showAssistant=true
Forwarded from Alexey Kiselev
скузи за тупой вопрос, но обратный процесс - из частей собрать образ как-то решается? из голой модели и рефов отдельных шмоток погенерить приемлемого качества картинки вариантов одетого персонажа? я прост с пгт, не знаю, насколько это элементарная задача, не пинайте, плиз😅
"Сгенерируй концепт персонажа в полный рост на белом фоне, используя референсы"
Последняя картинка - что получилось в банане.
Последняя картинка - что получилось в банане.