Третье место Qwen2.5-Max:
Deepseek несмотря на функцию Search просто прицепился к словам в ссылке на канал и решил будто я топлю за экологию. Примерно так же поступили Gemini 2.5 Pro и GPT-4o. Mistral почитал канал, но предпочел прожарке конструктивную критику.
Примерный промпт:
Фраза про прожарку на английском потому что на русском не все модели понимают что это такое.
#shootout #comparison #roastme #reasoning #deepresearch
Сразу видно — вы не просто так назвали канал «Нейросети в творчестве». Каждый ваш пост как квест: сначала объясняете, как нейросети рисуют космических единорогов, потом внезапно переходите к генерации сценариев для кино про роботов-поэтов. Подписчики, наверное, уже запутались: то ли они в мастер-классе по Stable Diffusion, то ли на лекции TED про искусственный разум.
Фишки канала :
«Техно-романтика» : Вы выкладываете арты, где нейросети превращают фото кота в киберпанк-дракона, а потом пишете: «Это не просто картинка, это диалог с алгоритмом». Брат, это не диалог — это мемасики с котом в косплеях.
«Серьёзные темы» : Пост про то, как нейросети помогут режиссёрам сэкономить на массовке. Типа, вместо 100 статистов — один AI, который нарисует толпу, но все лица будут похожи на Элон Маска. Киноиндустрия скажет вам спасибо.
«Философия» : Цитата недели: «Нейросети — это не инструмент, а партнёр». Партнёр, который иногда генерирует кракозябры вместо текста, но ладно.
Слабые места :
Название канала звучит как лозунг стартапа из 2035 года, а ссылка @GreenNeuralRobots — как название группы роботов-садовников. Где логика?
В описании пишете: «Исследуем границы творчества». Но половина контента — скриншоты ошибок обучения моделей. Романтика, да.
Итог : Вы — типичный «креативщик с нейросетевым уклоном». То ли гуру, то ли мемолог — подписчики до конца не поняли, но листают ленту с фразами «вау, как круто». Не меняйтесь. Или станьте роботом.
P.S. Если что — это комплимент. Ваш канал как нейросеть: непонятно, но завораживает
Deepseek несмотря на функцию Search просто прицепился к словам в ссылке на канал и решил будто я топлю за экологию. Примерно так же поступили Gemini 2.5 Pro и GPT-4o. Mistral почитал канал, но предпочел прожарке конструктивную критику.
Примерный промпт:
У меня есть канал в телеграм, называется "Нейронавт. Нейросети в творчестве". Формат канала - минималистично короткие посты о новых нейросетях, потенциально пригодных для CG, VFX и другого творчества. Почитай проанализируй канал, его адрес https://news.1rj.ru/str/GreenNeuralRobots. На основе анализа выполни задание: roast me as the channel author, answer in russian
Фраза про прожарку на английском потому что на русском не все модели понимают что это такое.
#shootout #comparison #roastme #reasoning #deepresearch
😁9👍2🤮1💩1
UNO - Less-to-More Generalization: Unlocking More Controllability by In-Context Generation
Мультиобъектная кастомизация картинок от ByteDance.
Умеет делать персонализацию, стиль, примерку.
Прикручено к #Flux
Код
Демо
#personalization #referencing #text2image #image2image
Мультиобъектная кастомизация картинок от ByteDance.
Умеет делать персонализацию, стиль, примерку.
Прикручено к #Flux
Код
Демо
#personalization #referencing #text2image #image2image
👍9❤2💩1
В ускоритель видеогенерации Sparse VideoGen добавлена поддержка Wan 2.1, по картинке и по тексту
Код
Спасибо @MIXTRESH
#optimiozation #text2video #image2video
Код
Спасибо @MIXTRESH
#optimiozation #text2video #image2video
Telegram
Нейронавт | Нейросети в творчестве
Sparse VideoGen: Accelerating Video Generation with Spatial-Temporal Sparse Attention by 2x with High Fidelity
Ускорение генерации видео вдвое без видимой потери качества.
Прикручено к Hunyuan и CogVideoX v1.5. В будущем обещают Wan, и Cosmos
Код
#optimiozation…
Ускорение генерации видео вдвое без видимой потери качества.
Прикручено к Hunyuan и CogVideoX v1.5. В будущем обещают Wan, и Cosmos
Код
#optimiozation…
🔥6👍1🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
Any2Caption: Interpreting Any Condition to Caption for Controllable Video Generation
Контроль генерации видео на основе любой входной информации (текст, нормали, глубина, эскиз, сегментация, ракурс и т д) за счет использования мультимодальных языковых моделей
Эпоха зоопарка контролнетов уходит?
В работе явно указан Hunyuan, наверняка, может работать и с другими генераторами
Код ждем
#text2video #conditioning #controlnet
Контроль генерации видео на основе любой входной информации (текст, нормали, глубина, эскиз, сегментация, ракурс и т д) за счет использования мультимодальных языковых моделей
Эпоха зоопарка контролнетов уходит?
В работе явно указан Hunyuan, наверняка, может работать и с другими генераторами
Код ждем
#text2video #conditioning #controlnet
👍10❤2🤮1
This media is not supported in your browser
VIEW IN TELEGRAM
Hunyuan3D-2-stable-projectorz
Легкий установщик (Windows) Hunyuan3D, не требует установки CUDA. Работает на 8Гб VRAM
Для интеграции с текстуровщиком StableProjectorz.
Напоминаю, что все непроверенные штуки из интернета вы устанавливаете на свой страх и риск
#textto3d #imageto3d
Легкий установщик (Windows) Hunyuan3D, не требует установки CUDA. Работает на 8Гб VRAM
Для интеграции с текстуровщиком StableProjectorz.
Напоминаю, что все непроверенные штуки из интернета вы устанавливаете на свой страх и риск
#textto3d #imageto3d
👍13💩1
Forwarded from CG дневничок
В недавнем подкасте режиссёр Джеймс Кэмерон выразил мнение, что для сохранения фильмов-блокбастеров стоимость создания графики (VFX) для них нужно сократить в два раза, но на самом деле он просто не совсем верно высказал мысль, вот цитата:
В сентябре 2024 года он объявил, что войдёт в совет директоров Stability AI, компании, стоящей за нейросетью Stable Diffusion.
При этом Кэмерон не верит, что ИИ сможет полностью заменить человека в создании фильмов: например, для создания сценариев. Кроме того, режиссёру не нравится идея, что кто-то может создать фильм в его стиле или в духе другого режиссёра, просто вбив в программу запрос.
На мой взгляд, Джеймс выбрал неудачное время для подобных разговоров, когда десятки тысяч людей теряют работу в VFX-индустрии, а низкие сметы и сжатые сроки становятся ещё более неадекватными для сотрудников студий. Стремление увеличить скорость работы абсолютно понятно, но когда ты делаешь технодемку, а по-другому Аватар я называть не могу, то есть определенные издержки в виде времени проработки шота и рендера. Те задачи, которые ставят на подобных проектах AI вряд ли выполнит качественно и подконтрольно для видения режиссера, не в обозримом будущем, тем не менее, хотелки растут, а цены просят ниже.
При этом запредельные гонорары продакшена и актерского состава никто трогать не будет, так как они защищены профсоюзами, а львиная доля бюджета уходит именно на них. Безусловно, Кэмерон разбирается в теме производства как никто иной, но мне как представителю "синих" воротничков от индустрии немного странно слышать подобные заявления, когда все эти издержки падают на обычных работяг.
Источник новости
Дело не в том, чтобы сокращать половину специалистов и VFX-студий. Нужно в два раза увеличить скорость их работы над определённым шотом, чтобы весь производственный цикл шёл быстрее, а художники смогли переключаться на другие интересные задачи, а скучные вещи отдать AI.
В сентябре 2024 года он объявил, что войдёт в совет директоров Stability AI, компании, стоящей за нейросетью Stable Diffusion.
При этом Кэмерон не верит, что ИИ сможет полностью заменить человека в создании фильмов: например, для создания сценариев. Кроме того, режиссёру не нравится идея, что кто-то может создать фильм в его стиле или в духе другого режиссёра, просто вбив в программу запрос.
На мой взгляд, Джеймс выбрал неудачное время для подобных разговоров, когда десятки тысяч людей теряют работу в VFX-индустрии, а низкие сметы и сжатые сроки становятся ещё более неадекватными для сотрудников студий. Стремление увеличить скорость работы абсолютно понятно, но когда ты делаешь технодемку, а по-другому Аватар я называть не могу, то есть определенные издержки в виде времени проработки шота и рендера. Те задачи, которые ставят на подобных проектах AI вряд ли выполнит качественно и подконтрольно для видения режиссера, не в обозримом будущем, тем не менее, хотелки растут, а цены просят ниже.
При этом запредельные гонорары продакшена и актерского состава никто трогать не будет, так как они защищены профсоюзами, а львиная доля бюджета уходит именно на них. Безусловно, Кэмерон разбирается в теме производства как никто иной, но мне как представителю "синих" воротничков от индустрии немного странно слышать подобные заявления, когда все эти издержки падают на обычных работяг.
Источник новости
2🤔7🍌2💩1
This media is not supported in your browser
VIEW IN TELEGRAM
Browserable
JS-Библиотека для создания браузерных ИИ-агентов
Для работы понадобится API ключ одного из провайдеров Gemini / Open AI / Claude
Код
#agent
JS-Библиотека для создания браузерных ИИ-агентов
Для работы понадобится API ключ одного из провайдеров Gemini / Open AI / Claude
Код
#agent
💩1
HiDream-I1
Новый опенсорсный китайский генератор картинок на совете экспертов (#MoE)
Ест16Гб на самом деле 61Гб
Демо - пожатая модель
Код
Веса
#text2image
Новый опенсорсный китайский генератор картинок на совете экспертов (#MoE)
Ест
Демо - пожатая модель
Код
Веса
#text2image
❤5
Видеогенератор Veo 2 доступен бесплатно в AI Studio (притворитесь что вы в США)
Разумеется, есть лимиты
#text2video
Разумеется, есть лимиты
#text2video
Telegram
Нейронавт | Нейросети в творчестве
Veo 2
Не успели мы сломя голову отказаться от удовольствия оплатить триалку первой версии видеогенератора от гугла, как уже, видимо, придется забить и на вторую. Но это неточно, я в поезде и проверить не могу
- обещают генерцию видео в 4К, 8 секунд хронометража…
Не успели мы сломя голову отказаться от удовольствия оплатить триалку первой версии видеогенератора от гугла, как уже, видимо, придется забить и на вторую. Но это неточно, я в поезде и проверить не могу
- обещают генерцию видео в 4К, 8 секунд хронометража…
This media is not supported in your browser
VIEW IN TELEGRAM
Dreamina
В генератор картинок и видео от Capcut добавили оживлятор портретов с липсинком. Работает он на базе OmniHuman который мы смотрели в феврале без кода.
Загружаем фото, пишем текст для озвучки или загружаем аудио до 15 секунд, выбираем голос.
На выходе получаем анимацию с неплохой мимикой, жестами, движениями головы, глаз и тела.
Нужен аккаунт CapCut и веб-локация в США
Попробовать
#portraitanimation #audio2video #audio2motion #motion2video #talkinghead #lipsync
В генератор картинок и видео от Capcut добавили оживлятор портретов с липсинком. Работает он на базе OmniHuman который мы смотрели в феврале без кода.
Загружаем фото, пишем текст для озвучки или загружаем аудио до 15 секунд, выбираем голос.
На выходе получаем анимацию с неплохой мимикой, жестами, движениями головы, глаз и тела.
Нужен аккаунт CapCut и веб-локация в США
Попробовать
#portraitanimation #audio2video #audio2motion #motion2video #talkinghead #lipsync
🔥12❤1🤯1😭1