Метаверсище и ИИще – Telegram
Метаверсище и ИИще
46.7K subscribers
5.93K photos
4.34K videos
45 files
6.82K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Комфи - великий и ужасный.

Сейчас рискну навлечь на себя гнев умных подписчиков, фанатов Комфи.

Тут я хотел написать, что ничего не имею против Комфи, но понял, что нет, имею. Что сказать.

Да, это ассемблер в мире GenAI, но давайте посмотрим на него глазами нового нормального пользователя.

1. Установка. Ну ок, с выходом десктоп-версии стало получше. Но все равно, на вас могут выскочить проблемы с:
- установкой питонговской виртуальной среды (ашоэто?)
- отсутствием у вас Гита (ашоэто?)
- зависимости поломались при установке (ашоэто?)
- Please install ComfyUI on your system drive (eg. C:\). Drives with different file systems(what?) may cause unpredicable issues - этшта?
- версии под Линукс нет, но линуксоидов не напугаешь проблемами выше. Но все равно странно.

2. И вот вы все-таки поставили и даже запустили пахнущий краской и бобрами Комфи.

И вам умные коллеги говорят, там все просто, вот держи рабочий воркфлоу, просто открой его в Комфи.
Вы такие думаете, это наверное как в фотошопе, щас открою и ну слои править да картинки делать.

Не тут то было.

У вас с вероятностью 90% ошибка Missing Nodes. Чего-то не хватат.

3. Тут я проведу аналогию с 3ДМаксом. Представьте, что вам прислали сцену из Макса. Вы ея открываете, а вам пишут: у тебя, брат, не такого плагина, и вот такого, и еще десятка вот таких. Иди ставь, потом придешь после уроков. А пока это нерабочая сцена.

4. Вы такие, ну ок, вот тут кнопка есть Открыть Менеджер и "Скачать эти сраные ноды". Проблема в том, что она помогает в 50% случаев. А если вы полугик, и даже знаете где они лежат на гитхабе, то вас все равно пошлют лесом - безопасность не позволяет их ставить. Закрывайте шарманку и идите в командную строку. Удобно ведь?

[Installation Errors]
'ComfyUI-WanVideoWrapper': With the current security level configuration, only custom nodes from the "default channel" can be installed.

5. А потом вы начитались этого канала и видите новую модель. И ну ея качать. Скачали. А куда ея положить? Тут умные коллеги бросают через плечо: да там просто, ваешник в VAE, клип в text_encoders, а модельку в unet. Вы такие: шо? Коллеги: ну или в чекпойнты, если модель старая. Вы такие: шо?

Робко спрашиваете: я вот научился с Hugging Face скачивать сразу папку и подпапки с моделями, все разложено аккуратно, можно я просто куда-то это положу и назову именем с HuggingFace?. Так на гитхабе делают...
- Нет! Ваешник в VAE, клип в text_encoders, а модельку в unet, пёс!

6. Пройдет пара дней(недель) и вы откроете наконец воркфлоу, который вас скинули коллеги. И поймете, что это ассемблерный код. Он - write only. Написать можно, прочитать(кому-то) нет.

7. За сим - странный совет.
Хотите разобраться - собирайте свой воркфлоу с нуля. Изучая доки, реддиты, гитхабы. Сначала будете переводить все слова со словарем, но через пару недель полегчает. Или вы пошлете Comfy на UI.

Копаться в чужих вокфлоу, это как изучать 3ДМакс по чьим-то сценам, увешанным плагинами.

Давайте, наваливайте на вентилятор в защиту Комфи.

@cgevent
8👍10425😁18👎12🙏5😱1
Для тупых.

Интересную штуку сделал Гугл (на основе Gemini).

При просмотре статьи в приложении Гугла Discover, выделение текста, в котором используется жаргон или технические понятия, с которыми вы не знакомы, откроет новую опцию "Упростить" в контекстном меню (наряду с "Поиск" и "Перевод").

ИИ вам на пальцах пояснит за сложные вещи.

Вот пример.

Оригинал: Сложная патология этого состояния включает эмфизематозное разрушение паренхимы легких, диффузный интерстициальный фиброз, изменения в составе иммунных клеток легких, повышенную продукцию иммуномодулирующих факторов и выраженное ремоделирование легочной сосудистой сети

Упрощение: Это сложное заболевание включает в себя повреждение легочной ткани в результате эмфиземы - болезни, при которой повреждаются воздушные мешки в легких, и широко распространенное рубцевание легочной ткани, называемое фиброзом. Иммунные клетки в легких изменяются, и организм вырабатывает больше иммуномодулирующих факторов - веществ, контролирующих иммунную систему. Кровеносные сосуды в легких также сильно изменяются.


Я уже писал, что интернетик стремительно пухнет на стероидах нового ИИ-контента всех модальностей (тексты, звук, видео). Вы не в силах более переваривать контент, у нас нейроферментов не хватает.

Поэтому тот же ИИ придет к нам на помощь. Одни кожаные с помощью ИИ плодят умный и не очень контент, другие кожаные с помощью ИИ его сжимают обратно, суммаризируют, упрощают. Никто больше сам контент не потребляет. Потребляют производные - вытяжки из бобровой ИИ-струи.

Любопытно видеть как в рекламе Эппле поясняют за фичу "раскучерявим ваш имейл" и тут же продвигают фичу "устали читать огромные письма из школы, мы их пожмем для вас".

Ну вы поняли.

Примечательно, что фича с упрощением контента сделана только для пользователей айфонов. Видать Гугл что-то знает про них и про IQ пользователей андроида.

https://9to5google.com/2025/05/06/google-app-simplify-ios/

@cgevent
😁75🔥21👍149👎4
HeyGen Avatar IV - это просто огнищще.

На входе ОДНА фотка и ваш текст.

Всё.

Похоже тема липсинка близка к закрытию.

Но это еще не все. Оно работает с анимационными персонажами, и даже с животными! Как они это сделали, не понимаю.

И да, русский поддерживается.

https://x.com/HeyGen_Official/status/1919824467821551828

@cgevent
🔥82👍23👎75
Media is too big
VIEW IN TELEGRAM
HeyGen Avatar IV - вот держите версию с животными. Это же просто космос.

Я помню был такой фильм "Кошки против собак" и Женя Вендровский рассказывал в конце нулевых, как они мучились, чтобы заставить тварей говорить (у них челюсти не подходят для этого). Риг был на миллион, а бюджет на графику и того дороже.

А сейчас - апажалста!

Версия в 4K для любителей кино:
https://www.youtube.com/watch?v=dpbP3Kj79ig

@cgevent
2🔥98👍199😁6👎1
Какое (авторское) видео вам интереснее в мае 2025?
Anonymous Poll
39%
ИИ-аватары с хорошей мимикой, озвучкой и липсинком
61%
Живые люди
😱8👍6😁3
А так ведь хорошо всё начиналось... потом набежали кожаные..
Голосуем и помним, что всё зачтётся...
😁899🙏5👍4
Аватары: Есть две новости, обе хорошие. Даже три

Вчера отлично проголосовали за аватаров (где еще взять аналитику на 1000+ человек).

Вопрос был о том, какие аватары вам интереснее: кожаные или ИИ-шные?

Новость 1. За кожаных выпивать пока рано. 61%, то есть больше половины предпочитают белковые лица и формы.

Новость 2. 39% алкают ИИ-аватаров - это очень много. Это уже не просто ниша, это багровеющий океан низковисящих кораллов. Не зря там идет такая движуха.

А я напомню, что на этой полянке, кроме Хейгена, аватары которого мы вчера рассматривали, есть еще пара игроков (closed source). Это уже матерая Хедра и молодая Дримина с липсинком наперевес.

Вот нашел сравнение. Первое видео - Хейген, второе(А) - Дримина, третье(В) - Хедра.

Как вам?

Хедра добавляет наверное больше всего "живости" (ну или "шевеляжа" - языком аниматоров). Хейген поругивают на мертвые неподвижные глаза (что правда), но у Хедры они порой становятся безумными и живут сами по себе. Но это дело вкуса. Плюс Хедра до сих пор подмыливает видео. Дримина в этом смысле удачно находится где-то посередине.

В опен-сорсе, ничего сравнимого по качеству (чтобы на минуту-другую оживлять и липсинкать) к сожалению нет.

Хотя... есть третья хорошая новость! Для Fantasy Talking, о котором я писал, появился код!
https://github.com/Fantasy-AMAP/fantasy-talking

Го пробовать весь этот адъ.

@cgevent
🔥32👍189
Forwarded from Education Scaling Club (Alexander Laryanovskiy)
Мой мир опять рухнул.

И сейчас я пытаюсь для себя переосмыслить роль AI-учителя в новой парадигме.

Что я думал раньше: «он мне не ровня, а значит не может ничему научить».

Ну то есть одна из важнейших задач учителя — мотивация ученика. В самых широких смыслах. От ожидания на урок до похвалы.

Если вас на урок ждет учитель, то урок состоится куда с большей вероятностью, чем если там программка нас зовет уведомлениями прийти на занятие.

Когда препод меня хвалит, это не то же самое, когда меня хвалит софтина.

То есть я думал, что отсутствие субъектности огромная преграда для AI-учителя.

Что происходит на самом деле, что перевернуло мой мир.

Отсутствие этой самой субъектности оказывается не только слабостью, но и — внезапно — сильной стороной алгоритмов.

Во-первых, ученики (взрослые и дети) не стесняются алгоритмов. Банально? Да, но нет.

Тут есть несколько инсайтов для меня.

Люди не стесняются делать ошибки и это помогает им учиться. С людьми — стесняются. С алгоритмами — нет.

AI снижает порог для людей с зависимостью от внешних оценок.

[Тут въедливый критик ИИ скажет, что они так и научатся без преград разговаривать с ботами, но не с людьми. Но нет, оттачивая механики навыков в устной речи, порог боязни разговора с живыми собеседниками падает].

Второй инсайт еще похлеще: люди говорят алгоритмам то, что никогда не скажут знакомым и близким людям.

Я прямо знатно фалломорфировал, когда впервые столкнулся с этим эффектом: люди доверяют алгоритмам вещи, о которых никогда не заговорили бы с близкими.

Один ученик произнёс: «Эх, железка, да разве ты можешь меня понять, если меня каждый день дома бьют…» — и я завис.

Это был тот самый «эффект попутчика в купе»: короткое окно доверия, созданное анонимностью и отсутствием оценки.

Я честно не понимаю пока что с этим делать, но пока кажется, что этот уровень открытости сильно повышает мотивацию продолжать общаться с бездушной софтиной. А это заметный кусочек поддержания мотивации.

Во-вторых, и это видно больше на детях и подростках, алгоритмы не давят на людей своим присутствием.

То есть формат «учитель-на-минутку-мне-только-спросить» когда ты решаешь задачку и надо подтолкнуть наводящим вопросом — он многим ребятам заходит намного больше, чем живой учитель (в классе или онлайн).

Да, тут важно оговориться, что под AI-учителем я не подразумеваю полноценную замену живого человека (это если и случится, то не завтра).

Я называю этим термином набор агентов, то есть специализированных программок, способных решать конкретные прикладные задачи.

Бот, с которым можно тренировать аудирование и речь, он строит диалог по теме, собирает и анализирует ошибки в устной речи.

Бот, который может увидеть ошибку в письменном задании и сократовским методом будет задавать вопросы, пока человек не поймет в чем дело.

Ну и т.д. То есть не «говорящая голова», а набор мелких инструментов, тащящих на себе огромную рутину.

Ну так вот, они, эти mother little helpers оказываются сильно комфортнее.

Их ключевое преимущество — ненавязчивость. Они не требуют постоянного присутствия, их можно вызывать по необходимости. Это делает взаимодействие более «добровольным».

И тут это отсутствие субъектности играет в плюс алгоритмам.

И добила меня ситуация, когда я сам в ходе какого-то диалога с GPT задумался. Она задала уточняющий вопрос и у меня был выбор, ответить коротко, но соврать или ответить правду, но длинным ответом.

В этот момент я поймал себя на мысли, что мне неловко врать железке.

Приплыли, ага.

Это странное и новое ощущение — испытывать моральный дискомфорт перед алгоритмом.
5👍15253🔥35👎6😁3
Media is too big
VIEW IN TELEGRAM
Upscale видео прямо в Krea.ai

Если вы пропустили, то в Krea Enhancer завезли сам Topaz. Можно разгонять до 8К и 120FPS.

@cgevent
👍42🔥26😱4👎32
Управление камерой для генерации картинок в chatGPT.

Получается такой одновременный отлет и outpaint картинки.

Промпт: Представь себе вид с дрона с высоты 200 метров, смотрящего прямо вниз. Подумайте, сколько деталей ты увидишь с такой высоты. А теперь напиши промпт, который четко описывает эту сцену, и создай изображение.

Imagine a drone view from 500 feet above, looking straight down. Think of all the details you'd see from that height. Now, write a prompt that describes this scene clearly and create an image.

Можете попробовать другие виды камер\ракурсов вместо drone view.

Тут забрал

@cgevent
👍4716🔥9👎7
This media is not supported in your browser
VIEW IN TELEGRAM
Вы наверное не будете смеяться, но у нас новая видеоМодель.

Это HunyuanCustom - и это скорее огромный ControlNet поверх(спереди?) HunyuanVideo-13B.

Они постулируют, что полностью переделали модуль работы с текстом и токенами на базе LLaVa и сделали его мультимодальным, да, можно на вход подавать текст, картинки(много), видео, и даже звук:

Вuilt upon HunyuanVideo, our model first addresses the image-text conditioned generation task by introducing a text-image fusion module based on LLaVA for enhanced multi-modal understanding, along with an image ID enhancement module that leverages temporal concatenation to reinforce identity features across frames. To enable audio- and video-conditioned generation, we further propose modality-specific condition injection mechanisms.

По идее модель должна в разы лучше слушаться промпта и понимать ваши фантазии.
Как следствие нас ждут вот такие ништяки:
1️⃣Single-Subject Video: Upload an image + text (e.g., “He’s walking a dog”) to create coherent videos with new actions, outfits, and scenes.
2️⃣Multi-Subject Video: Generate videos with multiple subjects (e.g., a man drinking coffee in a cozy room) from separate image inputs.
3️⃣Audio-Driven Video: Sync audio with visuals for talking or singing in any scene—perfect for digital avatars, virtual customer service, and more.
4️⃣Video-Driven Video: Seamlessly insert or replace subjects into any video for creative enhancements.

Потестить сегодня не успеваю, но для алкающих скажу, что вам понадобиться 80GB VRAM для 720px1280px129f и 60GB для 512px896px129f. С чем вас и поздравляю. Говорят, что будет работать на 24GB, но ооочень медленно.
Наверное к понедельнику уже появятся пожатые веса и магия от Киджая.

Код есть (Линукс): https://github.com/Tencent/HunyuanCustom
Описание и проект: https://hunyuancustom.github.io/

А вот тут пожете попробовать попробовать: https://hunyuan.tencent.com/modelSquare/home/play?modelId=192
Выбирайте регистрацию имейлом. И пишите в чат, что получилось.
(у меня уже полтора часа как "Задачи поставлены в очередь...")

@cgevent
5🔥22👍7😁5👎1