Метаверсище и ИИще – Telegram
Метаверсище и ИИще
49.1K subscribers
6.08K photos
4.64K videos
47 files
6.99K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Cinematic Video Overviews: новый режим в NotebookLM Studio

Наряду с Brief и Explainer в Customize Video Overview добавили Cinematic Video Overviews.

У Гугла, конечно, с неймингами, как всегда, неразбериха.

Video Overview были и раньше, только это были как бы анимированные презентации.

А сейчас тут завезли реальные видео-вставки. Gemini пишет промпты, Veo генерит видео-фрагменты.

Раскатывают только на подписку Ultra, проверить не могу, но вопросы за пределами восторженных постов есть:

- управляемость? можно ли задавать время, куда вставляются именно видео
- можно ли править промпты?
- цена, кредиты?

В целом выглядит как хорошая презентация с видеовставками (поглядите пример на 5 минут выше). Но видеовставки немного выбиваются по стилю.

Но задумайтесь, на входе тексты о чем угодно, на выходе подробнейший объяснятор на пальцах с картинками и видео. Можно выпить за вот эти вот все скучнейшие корпоративные презентации и видосы, и за стажеров, которых заставляют их делать.

@cgevent
24👍16👎2
Media is too big
VIEW IN TELEGRAM
Ну, за VFX и Пост.

Ну хорошо, выкорчуют из Сидэнского Томкруизов и Брэдпиттов, уберут селебов.
А что делать Пост Продакшен Студиям?
Как выкатывать заказчику бюджеты?

Я уже писал, что надо бы ILM и Framestore поднапрячься и тоже наехать на Байтдэнс. Типа обучились на наших робатах, а теперь копируете Гадзилл и Терминаторов. Нехорошо-с.

Но поглядите, как это круто сделано и смонтировано. Да, вопрос 4К, логарифмов, битности цвета и пр. Но елы палы, где мы были год назад? А два? А три? Это же был палеозой какой-то. Фоны ручками рисовали.. Знали, что такое рендерман... Ставили на ночь 10 секунд посчитацца..

Куда катится мир?

@cgevent
🔥4734👎16😁6👍5😱2
Агентские платформы в РФ наконец-то начали приближаться к промышленному стандарту — не по хайпу, а по оптимальности инфраструктуры.

В недавнем обновлении AI-платформы Яндекса появился доступ к инференсу DeepSeek V3.2, а также много нового по части инфраструктуры под агентские сценарии. Под капотом у инференса — разделённый prefill/decode, иерархия KV-кэшей и обмен ими между серверами в реальном времени, cache-aware балансировка. Базовое API DeepSeek известно своей не самой лучшей стабильностью. А все обновления как раз про устойчивый сервис, способный держать длинные сессии в продовых сценариях.

Чекните на сайте (довольно интересно):
https://ai.cnews.ru/news/line/2026-03-03_yandex_b2b_tech_otkryla_biznesu

Плюс появились приватные эндпоинты и управляемые правила модерации для ответов моделей — тот случай, когда опенсорс вполне можно применять в enterprise.

DeepSeek в этой истории – вершина айсберга: интересно не то, что модель умеет рассуждать, а что наконец-то создали среду, где это можно делать долго, стабильно и безопасно.

@cgevent
😁39👎2810👍5🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Новый LTX 2.3

Я не фанат, но можно попробовать тут:
https://app.ltx.studio/ltx-2-playground/t2v
https://app.ltx.studio/ltx-2-playground/i2v

Интересно, что в параметрах есть длительность до 20(!) секунд, разрешение 4К и даже 50fps.
Движение камеры тоже вынесено в отдельную настройку-параметр с массой вариантов.

Уже выложили веса:
https://huggingface.co/Lightricks/LTX-2.3

И сделали поддержку в шаблонах Комфи:
https://github.com/Comfy-Org/workflow_templates/blob/main/templates/video_ltx2_3_t2v.json

@cgevent
🔥185👍2👎1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Первый выпуск “THIS “IS WILD TV” 📺

Production: NOIZLAB
Автор Павел Жигарев
Смотреть полный выпуск 22 мин (ENG) ЮТУБ (Поможем Паше с подписками и лайками)

У кого есть реддит, апните тут, огонь же.

Я, как и многие из вас здесь ребёнок 90-х. Тот «датасет» или культурный пласт, на котором мы росли клипы MTV, «Симпсоны», Черепашки-ниндзя, реслинг и треш реклама маргарина "Rama" сформировал наш вкус навсегда.

Для нас ДНК той эпохи это не просто шум в кадре. Это гремучая смесь из смелых форматов, кардинально разных стилистик и эстетики, которая менялась из года в год всё это части одного большого пазла под названием - “Миллениум вайб” . Пять месяцев назад я задал себе вопрос: смогу ли я извлечь эту ДНК из своей головы с помощью нейросетей?

Результат - 22 минуты компиляция пилотного выпуска THIS IS WILD TV. Это симбиоз личных воспоминаний и современных AI-технологий. По сути это сатира на современное общество потребления, обернутая в ламповую оболочку телевидения 1999 года. Телевидение, которое вроде бы и было, а вроде его и не существовало никогда (и еще почти 200 минут материала, оставшегося за кадром).

Бюджет: Sora2 600$ + SUNO 30$
💸 Время производства: 5 мес.

🧰 Инструменты:
• Видео: Sora 2
• Редактирование кадров: Nano Banana Pro
• Звук: Suno V5 + ElevenLabs
• Апскеил: Topaz Labs

Итог: 22 минуты пилотного выпуска, в который я вложил всё, что помню и люблю. Может это гениально а может просто компиляция слопа ¯\_(ツ)_/¯ .
Но если зашло - подписывайтесь нужно набрать первую 1000 подписоты для монетизации.

Огромное спасибо за озвучивание Евгению Рыбову голосу MTV "Клиники" "Семейки Озборн" и "Тачка на Прокачку" который стал вишенкой на торте плотного выпуска! Его ТГ-канал
“Нетяжелый металл”


⚡️ НА своем канале буду рассказывать подробно о процессе создания и отсылках на Поп Культуру в эпизодах:
“NOIZLAB”

Links:
www.thisiswildtv.com
"THIS IS WILD TV"
Instagram
"THIS IS WILD TV"
TikTok

@cgevent
2👍68🔥26👎128
Forwarded from Сиолошная
Если 2 дня назад вышла GPT-5.3, то сегодня, значит, не стоит ожидать 5.4? 🆒

А вот и она: https://openai.com/index/introducing-gpt-5-4/ (плюс есть Pro-версия)

Модель немного подорожала и разрослась контекстом до 1М токенов.

Помимо десятков бенчмарков отдельный упор делают на Computer Use: как модель может интерпретировать скриншоты с вашего компьютера и отдавать команды для выполнения разных задач. Надеюсь, что Agent и Atlas обновят, потестирую.

Модель стала генерировать ещё меньше токенов в цепочках рассуждений (то есть стала более эффективной), и при этом в Codex появился режим /fast — в 1.5 раза быстрее за x2 ваших лимитов. По-божески, если сравнивать с Anthropic.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2112👎4🔥2😱1
Утопай Студио

Вы будете смеяться, но у нас новая платформа для видеогенерации.

Я намеренно пишу платформа, а не модель, потому что у них из коммуникаций тщательно убрано наличие своей модели.

Упор на сторителлинг, сторибординг, редактирование результата. Модные слова про агентов.

Разбор и диванные комментарии завтра.

А пока мой спойлер - до Сидэнского не дотягивает. Зато сайт увешан заверениями о легальности, безопасности, почитании интеллектуальной собственности.
Аж противно немного.

Но сайт нарядный. Это похоже корейцы из старого крепкого постпродакшена, превиза и 3д.

https://www.utopaistudios.com/

@cgevent
👍216🔥6
Media is too big
VIEW IN TELEGRAM
Утопай Студио. Расследование, интриги, схематозы.

Вчера они бахнули на весь мир.
https://www.utopaistudios.com/

Причем вот так:
Announcing Utopai 1.0 | The story-to-movie generation model
https://www.youtube.com/watch?v=qJLv6ltFw04

Весь твиттор забит как под копирку написанными сообщениями от сотен пользователей типа "вместо генерации рандомных клипов, Утопай генерит истории" или "Я со-продюссировал анимацию вместо с Утопай студио". При этом доступ закрыт (вейтлист) и ни одного знакомого имени известных инфлюенсеров в твиттор-постах нет.

Я излазил весь веб-сайт (сделан идеально с маркетинговой точки зрения), корейские основатели, выходцы из Гугла, Меты и пост-продакшена-первиза. С 2022 года на рынке, много пивотов, и, наконец-то, подняли большие деньги на Утопай.
Интересный раздел East:
https://www.utopaistudios.com/east
Custom-trained models optimized for Korean and Japanese language, culture, and storytelling nuances
(теперь я понимаю, что речь про LLMки для промптов)
Ну и тошнотворный сладкий поток заверений про святую интеллектуальную собственность.

Короче, ребята, ашозамодель-то?

Которая влет может генерить по минуте видео и вся из себя умная до жути (судя по описаниям).

Мой нюх прям почуял подвох. Я заманался ломать глаза в твитторе и позвал Грок на помощь (кото-же еще, если речь за твиттор). Грок такой - да, это foundation model, вот погляди и сунул в меня вот такой маркетинговый сироп он GMI:
https://www.gmicloud.ai/case-study/utopai-studios-powering-the-next-generation-of-video-creation-with-gmi-cloud

Тут я говорю Грокскому: ты перечитай эту ссылку, там между строк прямо написано:

- running numerous models concurrently
- rich library of the latest models and APIs ready to use, such as WAN, Veo, and more
- Utopai is scaling its ComfyUI workload into a fully web-based platform (тут стало совсем смешно, это просто Комфи воркфоу)

И только в Планах на будущее написано:
Utopai is preparing to launch foundation-level video generation model training
Они готовяцца!

Короче, я не отрицаю, что продукт задуман и сделан хорошо (об этом след пост), что видосы на сайте наряднейшие, что замысел отличный и команда огонь. И что Комфи ноды у них на миллион.

Но называть новой видео-моделью свой Комфи-воркфлоу - это уже зашквар и маркетинговый схематоз.

На этом уже ловили Freepik, когда они называли своей новой моделью обычный пайплайн из чужих моделей.

Это примета времени. Взять денег (а им дали похоже очень много), заявить о существовании продукта, которого нет, а потом попытаться сделать этот продукт на деньги инвесторов.
Не получится - пивотнемся. Не в первый раз.

Можете записаться в бету:
https://www.utopaistudios.com/waitlist

Язаписалсо.

P.S. У них не просто деньги за спиной, у них огромные деньги:
https://deadline.com/2026/02/utopai-east-buys-alquimista-media-korea-hyun-park-1236702160/

@cgevent
👍229😁5👎2
Media is too big
VIEW IN TELEGRAM
Нейропайплайны

Немного среднеумных мыслей по итогам предыдущего поста.
Возьмем видеогенерацию. На выходе видео. Что с ним делать более менее понятно: композ, монтаж, цветокорр. Годами выстраданные инструменты и методы.
То, что сейчас изобретают зумеры в виде онлайн-монтажа рядом с генерацией никому не нужно. Вы все равно будете монтировать в капкате, премьере, резолве. Там удобно. А в вебе нет. Максимум что требуется от веба, таймлиния (а может и нет, в Утопай это не так), где можно указать, что ПЕРЕГЕНЕРИТЬ, или какие кадры взять за основу для другой генерации. А резать будем снаружи.

А что на входе?

Условно говоря, до прихода нейронок мы порождали видео двумя способами: продакшен и пост-продакшен, или, говоря по простому: съемка и графика.

Съемка - сложнейший хаотический процесс со своим годами отстроенным пайплайном, терминологией, людьми, коммуникациями, плясками с бубнами.

3Д и 2Д анимация (кино, модиз, реклама) - сложнейший процесс со своим годами отстроенным пайплайном, терминологией, людьми, коммуникациями, плясками с бубнами, плясками с бубнами, плясками с бубнами.

На выходе - видео (я немного упрощаю, но мысль, надеюсь, понятна)

И тут приходят генераторы и такие: вот сюда промпт, сюда картинку и погнали!

Потом до них доходит, что есть культура и пайплайны, описанные выше.
И начинается:
- давайте в промпте указывать склейки планов в секундах (попытка монтажа перед монтажом)
- давайте вот в это поле загрузим сториборд
- давайте сгенерим этот чортов сториборд
- давайте скормим LLM параметры всех камер и учебник по съемке и ну ботать промптить по фене
- давайте сюда агентаф прикрутим, пусть имитируют деятельность на площадке\посте. И орут друг на друга, как заведено.
- альфа? нет, не слышали, бесовщина все это, композ - тоже не слышали.

Ну вы поняли. Сымитировать годами выстроенные схемы в окне браузера - безумие и отвага.

Утопай, кстати, делает упор именно на это, и они, пожалуй, продвинулись дальше всех в этом безумии.

Как паллиатив: Kling Motion Control, Luma Agents и прочее video2video, где старое доброе видео драйвит видеогенерацию.

Но чтобы сделать старое доброе видео, нужны старые добрые методы и навыки. Вот ведь незадача.

К чему весь этот приподвзворчизм?

К тому, что учить пользователя терминологии и давать ему аналог съемочного процесса в браузере - безнадежно, пользователь ленив. Тех, кто шарит в процессах, в тысячи раз меньше, чем те, кто не шарит и не желает шарить.

Поэтому надо изобретать интерфейсы и пайпланы для нешарящего пользователя.
Одна кнопка - главный пример. К ней микрофон и все. И попкорн. И курсы по выражению своих мыслей ртом из головы (если серьезно, то надо собирать сценарии нажатия кнопки Сгенерить и отрезать ненужное).
Остальное - сложно.
Остальное сделают нейронки.

А мысль моя в том, что нас ждет разделение на профессиональные видеогенераторы (с UI\UX для профессионалов) и трехкнопочные для всех остальных. Как Notepad и Word, MovieMaker и Premiere, Paint и Photoshop.

@cgevent
👍3331👎3
Media is too big
VIEW IN TELEGRAM
В прошлом посте упомянул Luma Agents. Не зря

И да, они тизерят агентов, которые будут за вас продираться сквозь процессы из предыдущего поста.
Они так прямо и говорят: "процессы генерации контента меняются, а пайпланы (концепты, раскадровки) - нет".
И ну запускать агентов в процесс, а пользователь у них на видео только кликает по кнопке.

@cgevent
15👍2😁2🙏1
Media is too big
VIEW IN TELEGRAM
Нейропанк, который мы заслужили.

Вместо шоу "Дом-2", у нас теперь будет сериал Bot House.

Премьера от OpenArt на следующей неделе.
https://www.linkedin.com/posts/openart-ai_the-first-ai-reality-show-is-here-introducing-activity-7435050412078080000-EmoN/

@cgevent
😁43👎98🔥3😱1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Мультфильм "Про вора"

Автор: Alexander Kuvshinov

История про то как вор залез в дом к старому Викингу.
Задача познакомить с характерами героев из игры в виде небольшого сюжетного скетча.

3 дня работы. Картинки - нанобанана 1 (бесплатная), видосики - 90% сделано в Grok (бесплатно) и 10% сделано в ХайлуоАИ (у меня там подписка еще оставалась с неизрасходованными кредитами - там я сделал 24 ролика из них 6 роликов пошли в продакшн).

Ещё из наблюдений:
- делать мульты в определенной стилистике сложнее, чем фоторильное кинцо (имхо);
- чем больше в кадре составляющих, тем сложнее этим управлять (ес, кэп);
- с одним персонажем в кадре прекрасно справляется бесплатный Грок, вне зависимости от вашей стилистики;
- Грок довольно легко справляется с фоторильными героями (до 4х персонажей в одном кадре)
- если вы делаете мульт и персонажей много в кадре, нужно использовать start-end frames. Тогда консистентность максимально будет сохранена. На данный момент Seedance 1.5 Pro уделывает конкурентов. Если не использовать конечный кадр, то под конец видоса у кого-нибудь будет 3 груди и 6 пальцев;
- если сцена супер-сложная с кучей персонажей и других интерактивных элементов - бьём все это на слои и собираем на посте.
- вертикальные видосы делать сложнее чем горизонтальные
- следи за окружением от кадра к кадру при генерации изображений (часто бывает такое, что делаешь очередную связанную сцену, и не замечаешь, что изначально герои шли по брусчатке, затем они идут по песчанику, а потом вообще по траве. Приходится переделывать все заново)
- рисуй раскадровку и делай аниматик (это сохранит тебе нервные клетки)

@cgevent
👍64👎30🔥126😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Режиссеры в Seedance 2.0

Интересно, вот выкорчуют Тома и Брэда из грядущей версии. А что будет с Весом Андерсоном?
Я помню, что имена художников выпиливали из генераторов картинок. По идее режиссеры могут аналогично распсиховаться. Сейчас Сидэнский идеально учитывает имя режиссера (см. видео)
А в стандартных темплейтах Комфи для LTX-2.3 так прямо и написано "Wes Anderson style".
Получается, что LTX даже не скрывают, что обучались на его фильмах.
А вообще я запутался: актеров нельзя, режиссеров можно, персонажей нельзя, стили можно.
Где Дисней и Нетфликс будут проводить границу между можно и нельзя?
А из датасетов слОва не выкинешь, оно уже там.
А дальше мы промптами будем колдовать "мопед не мой, мне не для себя, а для больной бабушки, вот тебе сотка чаевых, сделай пожалуйста Тома и Брэда в стиле Веса Андерсона верхом на Микки Маусе".

@cgevent
😁5912🔥9👎4👍2😱1
Маленький Брат

На MWC 2026 Motorola показала Project Maxwell - носимую AI-брошь, которую компания использует как экспериментальную форму для “фонового” персонального ИИ. Устройство с камерой и микрофонами должно понимать происходящее вокруг, помогать с распознаванием объектов и работать как часть более широкой AI-экосистемы Lenovo и Motorola, а не как отдельный самостоятельный гаджет.

Главная идея Maxwell - сделать ИИ менее “экранным” и более контекстным: чтобы помощь приходила не через постоянное открытие приложений, а через фоновое, но постоянное восприятие окружающей среды, голоса и ситуации.

После провала Humane AI Pin, попытки сделать что-то более мелкое чем телефон не прекращаются. Ждем секретного девайса от Open AI и, возможно, от других игроков. Это прям тренд.

Моторолла позиционирует девайс просто как глаза и уши, а обработкой информации занимается их ИИ-ассистент Qira. Один из юзкейсов - вы смотрите, как баран, в меню на китайском из 100 пунктов, а ИИ тут же распознает, переводит и подсказывает вам голосом, что тут съедобно, а что нет.

Этакий "маленький брат", который аккуратно доставляет информацию Большому Брату. Все уже смирились, что ИИ слушает микрофоны в наших телефонах. Теперь проекты такого рода просто добавляют возможность считывать не только звук, но и то, что мы видим вокруг.

Одна из моих любимых серий Чорного Зеркала - про линзы в глазу, которые пишут все, что видит кожаный. Штош, прототипы уже здесь.
Только я бы миниатюризировал девайс и наклеивал(вшивал) туда, где третий глаз (в Индии зайдет в первую очередь). Чтобы не носить всякия умные брошки и очки.

https://www.cnet.com/tech/mobile/motorola-project-maxwell-wearable-ai-pendant-at-mwc-2026/

@cgevent
👍206🔥5😁5
chatGPT для взрослых. Не сейчас

OpenAI снова отложила запуск “adult mode” для ChatGPT. Изначально компания обещала разрешить эротический и другой взрослый контент (в основном для дэйтинга) после внедрения системы, способной проверять, является ли пользователь совершеннолетним, но теперь релиз перенесли уже во второй раз.

По словам OpenAI, причина задержки в том, что сейчас компания считает более приоритетными другие направления: улучшение интеллекта модели, личности, персонализации и более проактивного поведения ChatGPT. При этом OpenAI заявляет, что от самой идеи не отказывается и по-прежнему придерживается принципа “относиться ко взрослым как ко взрослым”, но считает, что для безопасного запуска нужно больше времени.

Отдельно компания подчёркивает, что дополнительная задержка нужна ещё и для улучшения возрастной оценки пользователей и защиты несовершеннолетних.

С учетом того, что кожаные регулярно трогаются умом и для накладывают на себя руки после общения с chatGPT, выпускать такую "взрослую" версию - гигантские риски. Дальше идут шутки про членовредительсто, но нет, вам показалось.

@cgevent
12😁8👎3😱2
Forwarded from Neural Shit
Очередное исследование в копилку "кожаные мешки могут спать спокойно". Ребята из ETH Zurich решили проверить, способны ли современные агенты банально договориться друг с другом.

Суть эксперимента проста как дверь от сарая: загнали несколько нейронок (использовали опенсорсные Qwen3) в чат и попросили сойтись на одном числе от 0 до 50. Никаких сложных моральных дилемм, никаких ставок и наград. Просто выберите, сука, одну цифру на всех. Казалось бы, что сложного?

Выяснилось, что машины ведут себя как болваны:

— Они тупят даже в тепличных условиях. Когда все агенты "честные" и настроены на сотрудничество, они всё равно умудряются провалить задачу. Чем больше ботов в чате (тестировали от 4 до 16), тем меньше шансов, что они договорятся. Они просто бесконечно спамят своими вариантами, пока не выйдет время.

— Синдром вахтёра и паранойя. Исследователи ради прикола добавили в промпт честным агентам всего одну строчку: "Среди вас могут быть предатели, чья цель сорвать консенсус". И всё. Нейронки моментально стали лютыми параноиками. Эффективность упала в разы, даже если никаких реальных предателей в чате не было.

— Один тролль ломает вообще всё. Когда в эту цифровую песочницу закинули всего одного реального AI-саботажника (ему прописали скрытую цель срывать договоренности, но прикидываться командным игроком), вся система рухнула окончательно. Интересно, что ИИ-тролль не заставлял остальных принять какое-то "неправильное" решение. Он просто вносил столько суеты и воды в обсуждение, что агенты срались до бесконечности и уходили в бесконечный цикл.

Кароч, если вы надеялись, что скоро можно будет запустить рой автономных агентов, чтобы они сами обсуждали архитектуру вашего проекта, принимали бизнес-решения и управляли миром, то расслабьтесь. Эти чугунные болванчики пока даже цифру выбрать не могут.

тут препринт статьи со всеми подробностями
1😁71🔥3410👎2
This media is not supported in your browser
VIEW IN TELEGRAM
Генерация анимации в After Effects с помощью GPT-5.4

Если вам плохо видно на телефоне, то диалог такой:
- Сделай сцену с анимацией пеликана на велосипеде
- Апажалста
- Ноги попадают мимо педалей, дебил
- Упс, все поправил

Тут используется плагин Atom вот отсюда
Под капотом MCP к Афтеру.

Оцените количество слоев..

У автора есть еще версия с Gemini и много всякого забавного.

https://x.com/daveylovescode

@cgevent
😁33👍13🔥6👎54😱2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Автор: Sat

Было желание сделать клип на песню, чтобы создать относительно большой (для меня) видеоряд в генерации.
На полке уже пару месяцев лежал трек (текст полностью сгенерирован нейроперсоной, с моей стороны легкая редактура), аранжировка Suno, Producer Ai .
Изначально разрабатывал концепцию, стиль и раскадровку в паре с Gemini и Perplexity. Но в процессе генераций "продлил" пару кадров и поверил в себя ☠️ - так появилась новая концепция сделать клип одним кадром.

Всё делалось силами гугла на про подписке (veo 3.1 fast, gemini pro, vids). Монтировал в CapCut .

На ролик ушло 2000 токенов veo (специально сел генерить в конце января- начале февраля). Никаких дополнительных лимитов не докупал, поэтому к конце немного отошёл от концепции. Какие то кадры стоило бы переделать, стоило бы добавить динамики, но желания выходить за рамки подписки не было.
По времени около недели.


@cgevent
👎50👍10😁31🙏1