Метаверсище и ИИще – Telegram
Метаверсище и ИИще
46.7K subscribers
5.93K photos
4.34K videos
45 files
6.82K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Чапаев и пустота.

Вчера пока игрался с Flux в SD.Next насчитал некоторое количество забавных картинок.
В общем, если у вас нет кожаного вдохновения и в голове абсолютная пустота, просто оставляете промпт пустым и говорите:
Флюкс, братан, покажи мне то, не знаю что и пришедшее незнамо откуда.
Флюкс: апажался, только CFGScale поставь пониже, 2.5 где-то, чтобы я мог дать волю некожаной фантазии.

Откидываетесь в кресле и смотрите на чертоги ИИ-шного разума.
И там можно увидеть отличные идеи, стимулирующие ваше подусохшее вдохновение. Возникшие из ниоткуда и не обусловленные даже крохотным промптом. Просто идеи. Точно также как с Suno - свежие ходы и риффы.

Кстати, с SDXL получался довольно бессмысленный шум.
О причинах явления предлагаю перетолковать в коментах, а пока у меня гипотеза, что в датасетах Флюкса было очень много синтетики.
Отобрал лучшие галюцинации, остальное доброшу в коменты.

@cgevent
6🔥51👍141
Первый чип собственной разработки OpenAI будет разработан TSMC по ее технологическому процессу A16 Angstrom и в первую очередь будет использоваться для генерации видео в Sora.

Инсайдеры отрасли сообщают, что OpenAI вела активные переговоры с TSMC о разработке специализированного литейного завода для своего собственного чипа, но эти планы были отменены.

Дальше интереснее:
Говорят, что внутренний чип усилит возможности генерации видео Sora, что может помочь увеличить продажи устройств Apple, поскольку эта функция будет интегрирована в набор функций генеративного ИИ компании.

Возможно, OpenAI и Apple тесно сотрудничают в этом проекте, поскольку у последней есть многолетний опыт разработки чипсетов, которые опережают конкурентов, но пока ничего не подтверждено.

https://wccftech.com/openai-developing-custom-chip-on-tsmc-a16-angstrom-process/

@cgevent
51🔥28👍7👎5
Как тренировать нейросети быстрее, ускорить машинное обучение и визуализацию данных?

Серверы с GPU ускоряют вычисления, проведение ML-экспериментов и анализа больших данных, а еще легко справляются с классификацией изображений и распознаванием речи. Необязательно иметь собственный сервер, можно арендовать GPU в облаке в Selectel.

В 2024 году облако Selectel вошло в топ-3 лучших российских провайдеров рейтинга GPU Cloud, по версии CNews.

Преимущества аренды облачного сервера с GPU в Selectel:

- Гибкие конфигурации. Возможность выбрать сервер как готовой, так и произвольной конфигурации с нужной видеокартой. Мгновенное масштабирование под растущие нагрузки.
- Большой выбор карт в наличии : А2, А30, A100, A2000, A5000, Tesla T4, GTX1080 и RTX 2080.
- Оплата за фактически использованные ресурсы от 29 ₽/час
- Безопасность хранения и обработки данных. Облачные серверы соответствуют 152-ФЗ (УЗ-1), есть сертификаты PCI DSS, а также ISO 27001, 27017, 27018 и другие

Арендуйте серверы с GPU с почасовой оплатой: https://slc.tl/q1aip

Реклама АО «Селектел». ИНН: 7810962785 Erid: 2VtzqvWkZt2
👎44👍20🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Тут я бы приподнечокнулся за будущий геймдев, Виар и даже vfx.

Как вам темпорально стабильные 4д видео на сплатах, которые стримятся с ссд лаптопа и рендерятся 500 фпс.

Как пишет мне Андрей Володин, скоро уже будут в проде.

По ссылке почитайте подробный тред, как они дошли до жизни такой, почему весь опенсорс надо переписывать, как добиться темпоральной стабильности, особенности тренировки моделей, квантизацию и прочий фарш.

И все это сплаты, Карл! Включая волосы.

Ну, за часть пайплайнов VFX и gamedev.

https://x.com/s1ddok/status/1830680881050046756

@cgevent
3👍71🔥10👎4
Ну за риггеров и моделлеров, а также текстурщиков. Еще остается место на корабле для аниматоров, но LivePortait заберет часть связанную с захватом движения.

Я уже начинал наливать за риггеров вот тут и тут. И надо сказать, процесс пошел.

Вот держите первые прототипы нейрорига, которые народ пилит для своих нужд. И это уже не китайские аспиранты с бумагами наперевес. Это взрослые мальчики из VFX индустрии.

Следуюшим постом дам еще более приближенный к VFX кейс по нейроригу.
А пока задумайтесь - на входе - одна картинка - фото, генерация, рендер, что-угодно.
Весь традиционный пайплайн типа моделинг-анимация-эффекты-рендеринг разворачивается вспять. На первом месте картинка, то бишь рендер. И на него мы наваливаем эффекты, анимацию и если надо перемоделинг (просто перегенерируем картинку).
Я об этом говорил лет 12 назад на закрытиях CG EVENT, но не думал, что это будут нейросетки, тогда Юнити и Унриал начинали взрывать 3Д.

В общем вода и жара в VFX-пайплайне пошли в обратную сторону.

@cgevent
2🔥75👍8
This media is not supported in your browser
VIEW IN TELEGRAM
Есть такой чувак - Тиаго Порто и у него вот такой вот послужной список.
ML/CV model research + 2D Comp
at:
Mill VFX
Deep Voodoo LA
MPC Moving Picture Company NY
Technicolor
Glassworks Europe
ClanVfx
Tribbo

В общем это не студент из хуньдуня или аккаунт с гитхаба.

Взрослые пацаны из постпродакшена уже берут и прикручивают все эти liveportrait-игрушки и репы с гитхаба к реальным задачам и тестируют их на композе в кино.

Тиаго даже запилил бесплатную площадку на своем собственном компьюте. Правда Expression Editor там щас прикрыт логином.

В общем это я к тому, что наконец-то анимация котиков и пляшущих тянок заползает в реальные пайплайны.
И к тому, что риггерам надо срочно переучиваться с метахьюманов на .... эээ.. кхгм... этот канал.

Иначе будем наливать за них.

Смотрим сюда
https://www.instagram.com/tpocomp/


@cgevent
🔥49👍10
Этот текст написан 8(восемь) лет назад. Буду повторять его раз в год.

Там я притапливал за то, что производство контента ускоряется благодаря игровым движкам. И про то, что рассказывание историй стремительно демократизируется.
Прошедший год показал, что рассказывать истории, теперь умеют не только кожаные сценаристы, а переводить истории в промпты для Midjourney может любой пользователь с клавиатурой наперевес. И вот уже синтетические аватары зачитывают тексты, эмпатично шевеля лицом. ИИ-Шевеляж конечностей в такт истории тоже на подходе, правда пока для традиционного 3Д.
Кнопка "сделать красиво" и "рассказать историю" все ближе и путь к ней иногда сворачивает в неожиданные террИИтории, о которых мы и не подозревали.

В конце 90-х мы с коллегами, включив рейтрейсинг в Power Animator, решили посчитать, а когда можно будет рендерить кино в реальном времени. Взяли за основу время счета текущего кадра, 24 кадра в секунду и закон Мура(с прогнозом Хауса), грозящий, что время счета будет уполовиниваться каждые полтора года. Вышло, что через сорок лет. Про закон Блина мы еще не знали.
Прошло двадцать лет. На экране крутится полная версия фильма ADAM сделанного в Юнити. 30 кадров в секунду в разрешении 1440p на GeForce GTX980. Увидев это 20 лет назад, я бы пошел к врачу, проверять зрение и психику. Или не пошел, потому что сошел бы с ума прямо на месте.
Многие сейчас начнут морщить носик и говорить про качество, про моушен блюр, про доф, про ги, окклюжены и скатеринг. А я думаю вот что.
Увиденного мною качества хватает, чтобы Рассказывать Истории. Не делать модный лук, атмосферную картинку или ацкий колокоррекшен, а рассказывать истории.
И считать их в реальном времени, 30 кадров в секунду.
Вопрос в том, насколько нужны истории и насколько важна атмосферная картинка сейчас в 2016 году. И кто, если так можно коряво выразиться, нужнее?
Тут дискуссия норовит слинять в русло "кому нужнее, для чего нужнее и тд". А мне тем временем приходит в голову аналогия с сериалами, которые в пику ацким бессмысленым и дорогим "блокбастерам", научились рассказывать великолепные истории за в разы меньшие деньги.
Значит спрос на истории все же есть. И теперь уже есть инструменты, чтобы считать это в реальном времени.
Ждем историй...
Не тех, где один кадр считается 132 часа на тысяче нод, а просто хороших историй, без того, чтобы меряться у кого глубже рейтресинг или длиннее окклюжен.
Дисклаймер.
Аниматорам. Это пост не про анимацию. Не про анимацию в АДАМ и не про анимацию в анимационных сериалах. Это про истории и рендеринг.
Эффыксерам. Это пост не по симуляцию конца света с помощью миллиарда частиц, бесконечных флюидов, многослойного композитинга и Худини. Это про истории, где нет конца света. Или есть, но о нем рассказано по-другому.


@cgevent
2👍74🔥24👎1
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
Luma: добавили управление камерой в генератор видео Dream Machine V 1.6.

Пишем в промт Camera и выбираем из вариантов:
* Move — влево/вправо/вверх/вниз
* Push/Pull — отдалить/приблизить
* Pan — панорама влево/вправо
* Orbit — поворот по/против часовой стрелки
* Crane — кран вверх/вниз

Сайт
👍67🔥22
В прошлую пятницу позвал великолепного Сашу Ларьяновского поговорить про образование. Саша зашёл с козырей: "Предикторы успеха человека в карьере".
Я присоседился к нему с темой использования ИИ в этом процессе.
Но каково было мое изумление, когда из Ларнаки в месте с Сашей приехал .... Андрей Себрант! Директор по маркетингу сервисов Яндекса и вообще человек-легенда.
Я читаю его канал Tech Sparks с незапамятных времён, когда ещё не то что ИИ, но и никакого метаверса в помине не было. И слушаю Трёп Себранта (особенно хорош с Ваней Ямщиковым) регулярно.

И получилась у нас просто шаблоноразрывательная дискуссия на троих. Нас носило от психологии ИИ и кожаных до зефирных тестов и нейрофизиологии.

Оказалось, что ИИ видит нас с Андреем примерно одинаково (см. генерации от Идеограм). Бородатые чуваки с хвостиком, вещающие про ИИ и тех.

Закончили мы далеко за полночь в баре Beon:Ray в глубинах Пафоса.

И никакой онлайн и метаверс не даст и сотой доли процента удовольствия от живого общения. Особенно с умными людьми.

Жутко рад был наконец-то пообщаться вживую. Технооптимисты нашли друг друга.

@cgevent
31👍115🔥52👎5