Грин еще не робот 🤖 - AI vs Human – Telegram
Грин еще не робот 🤖 - AI vs Human
5.37K subscribers
1.01K photos
430 videos
2 files
416 links
Здесь я исследую, как ИИ, роботы и биотех постепенно превращают нас из простых смертных в нечто более продвинутое.

Серьезно-ироничный анализ , иногда немного научпопа.

Давай вместе понаблюдаем за последней битвой человечества за форму и содержание.
Download Telegram
Помните kiss cam на концерте Coldplay в Бостоне. Камера ловит CEO Astronomer Энди Байрона. Рядом его HR‑директор Кристин Кэбот. Объятия, растерянные лица, три секунды на джамботроне, а дальше миллионы просмотров и отставка.

Теперь представьте, вы на похожем концерте с друзьями. Утром открываете ленту и видите ролик, где вы якобы целуетесь с бывшей. Вас там не было. Этот сюжет собрали промптом. Фото. Видео. Голос. Точно так же это прилетает и звёздам.

Брайан Крэнстон, тот самый Уолтер Уайт (Во все тяжкие), обнаруживает в Sora 2 «селфи» с Майклом Джексоном и другие видео с «собой». Согласия не давал. OpenAI извиняется и заявляет, что вместе с профсоюзом актёров США SAG‑AFTRA (Screen Actors Guild and American Federation of Television and Radio Artists) и голливудскими агентствами усилит фильтры Sora 2. Плюс поддержка федерального NO FAKES Act, который защищает право на голос и внешность.
Что по фактам. Заявление подписали OpenAI, SAG‑AFTRA, крупные агентства и сам Крэнстон.

Компания признала «непреднамеренные генерации» и заявила о переходе к жёсткой модели opt‑in: без явного согласия — никаких «цифровых близнецов». Глава союза Шон Астин прямо говорит: Крэнстон — не исключение, под ударом тысячи артистов, и «opt‑in — единственный рабочий формат» для сделок с ИИ.

Контекст рынка. Виральность Sora во многом строилась на серой зоне с цифровыми портретами, пока отдельные звёзды вроде Марка Кьюбана действительно не давали согласие. Параллельно растёт давление со стороны правопреемников исторических персон — идущие иски по «праву гласности» и попытки федеральной унификации через NO FAKES.

Почему сейчас и для кого. Порог «снял клип за вечер» опустился до нуля — значит, риск массовых нарушений для студий, брендов и платформ взлетел. Согласования, whitelists и водяные знаки становятся обязательной инфраструктурой для рекламных кампаний и продакшенов.

И что?

Суть. Рынок сдвигается к жёсткому «только с согласия»: OpenAI + SAG‑AFTRA и давление NO FAKES превращают лицо и голос в лицензируемый ресурс. Sora 2 получит фильтры, брендам и студиям придётся подтянуть процессы — иначе штрафы, тейкдауны и сожжённые кампании.

Для бизнеса. Применяем это сегодня. Держим реестр согласий: кто разрешил, на что именно, срок и территория, кто наследник. Включаем провенанс: C2PA‑подпись на каждый файл и логи изменений, чтобы показать происхождение по запросу. Промпты и референсы пускаем через белый список имён и тембров, всё мимо — режем. Жалобы закрываем в 24–48 часов, держим E&O‑страховку. Кейс: клип с «камео» умершего артиста — без документа от наследников в Нью‑Йорке прилетит тейкдаун по §50‑f (право на образ 40 лет). В Теннесси чужой «голос» — ELVIS Act, до 11 месяцев и штраф до $2,5k. Метрики: ноль инцидентов за квартал, ≥95% материалов с C2PA, среднее время реакции ≤24 часа.

Для инвесторов. Меняется юнит‑экономика: появляется платный слой «согласие + провенанс». База поставки — ~160k актёров SAG‑AFTRA. Доход — лицензии на голос/лик, проверки личности, хранение метаданных, страховые услуги. Себестоимость растёт из‑за модерации и комплаенса, но бюджеты брендов уйдут к тем, у кого это «по умолчанию». Риск — иски и стоп‑релизы; апсайд — платформы, которые быстрее соберут согласия и встроят провенанс, заберут интеграции студий.

Для людей. В ленте станет меньше «звёздных» фейков; там, где синтетика, появятся метки и понятная кнопка жалобы с обязательной реакцией. Плюс вы получаете право официально запретить использование своего образа и добиваться удаления.

🚨 Нам 3.14здец

в комментариях. потому что не влезло.
8👍7🙏1
Представьте выбор «лучшего» эмбриона при ЭКО. Пять кандидатов и один шанс. Что умеем сейчас. PGT-A — это проверка хромосом: всё ли на месте. Она ловит крупные поломки вроде лишней или недостающей хромосомы, но про долгосрочные риски — рак, Альцгеймер, диабет — почти ничего не говорит.
Почему так. Эти болезни не включает один «сломанный» ген.

Работают тысячи маленьких «выключателей» в ДНК — SNP. По-человечески: крошечные буквы в коде, которые по отдельности почти ни на что не влияют, а в сумме двигают вероятность. «Полигенный риск» — это как раз такая сумма. Раньше компании считали её в закрытых моделях: веса — секрет, обучающие базы — секрет, проверить точность сложно. Родители получают PDF «риск выше/ниже», на вопрос «почему?» — тишина и NDA.

Что произошло. Nucleus Genomics запустила Origin — набор ИИ-моделей для эмбрионального скрининга при ЭКО. Модели просматривают ~7 млн генетических маркеров, обучены на ~1,5 млн человек и выдают полигенные оценки по 9 заболеваниям (рак груди/простаты, Альцгеймер, диабет 1/2, сердечно-сосудистые и др.) и по >2 000 признаков. Коммерческий пакет «IVF+» стоит от $30 000 и уже подключается в ряде крупных клиник. Параллельно компания открыла веса моделей и запустила Genetic Optimization Hub — репозиторий с данными, метриками и самими весами для независимой проверки. Для IVF это первый кейс «открытых весов».

Что меняет Origin. Вместо «поверьте на слово» — проверяемая математика: открытые веса и публичные метрики. Любая клиника или исследователь могут скачать модель, посмотреть, как она устроена, и перепроверить точность на своей выборке.
Как это выглядит в клинике. Пара получила несколько эмбрионов. Раньше выбор делали по хромосомам и нескольким явным мутациям. Теперь добавляется слой полигенных рисков — по Альцгеймеру, онкологии, диабету, сердечно-сосудистым. Origin заявляет, что выбор эмбриона с более низким скором способен снизить вероятность отдельных болезней на 50% и больше. В «IVF+» — девять состояний и >2 000 признаков. Цена — от $30k, сеть партнёров уже разворачивается в крупных городах.

Зачем открывать «мозг» модели. В медицине доверяют тому, что можно проверить. Открытые веса = воспроизводимость: клиники видят, как модель ведёт себя в разных этносах и возрастах, учёные ловят смещения и чинят. Пациентам дают не просто «низкий/высокий риск», а методику, которую можно оспорить и улучшить.
Ограничения и этика — по-простому. Это не «выбор внешности» и не гарантия здоровья. Это вероятности, а не приговор. Риски — в неверной калибровке под популяции и соблазне использовать скор вне медицины. Значит, вместе с открытыми весами нужен открытый протокол: что считаем, на каких данных обучено, как обновляем, кто проверяет качество.
И что? Для бизнеса. Клиники получают проверяемый инструмент выбора между несколькими здоровыми эмбрионами. Внедрение: пилот на 20 пациентов, публичный аудит метрик через Genetic Optimization Hub, жёсткое информированное согласие, запрет немедицинских признаков. Для инвесторов. Открытые веса снижают стоимость R&D за счёт внешних валидаций. Монетизация — премиальный «IVF+» и сети клиник. Риски — регуляторика и этика; апсайд — шанс стать стандартом де-факто для полигенных скорингов. Для людей. Меньше лотереи и больше прозрачности при тяжёлом выборе. Это дорого и не для всех, но наконец объяснимо: видно методику и её ограничения.

🚨 Нам 3.14здец Неравенство — 9/10 — пакет $30k: у тех, у кого есть деньги, есть выбор; у остальных — лотерея.

Религия — 6/10 — выбор эмбриона конфликтует с догматами; возможны запреты и давление на клиники.

Евгеника — 9/10 — >2k трейтов и открытые веса провоцируют отбор «по вкусу» и дискриминацию; риск появление людей «второго сорта».
7👍6
🤖 Помните момент, когда Apple ровно сказала: айфон — тысяча долларов. Потом спокойно подняла планку до полутора — и все привыкли. Теперь новый холодный душ: гуманоид стоит как айфон. Noetix Bumi — примерно $1,3k. Между «айфоном-ботом» и «роботом-как-авто» уже выстроилась лестница: Unitree R1 — $4,9–5,9k для обучения и простых задач, 1X NEO — $20k или подписка $499 в месяц, Apptronik Apollo целится в ~$50k при серийности. Agility Robotics тестирует Digit с ритейлом и логистикой, Figure качает партнёрства с автопромом и ИИ-командами. Европа двигает ко-роботов (PAL, NEURA), Канада фокусируется на скорости «донаучивания» (Sanctuary). Китай давит ценой и темпом. Впервые за 20 лет «железо из фильма» превращается в розницу.

США — про индустриализацию: пилоты на складах, линии комплектования, инспекции, «человек в петле» как норма. Китай — про масштаб и ценовой таран: учебные наборы, массовые поставки в университеты и кружки, дешёвые шасси и быстрая итерация софта. Европа — про безопасность и кооперацию человека и машины: сертификация, стабильность, аккуратная интеграция. Кривая цен уже как у дронов и 3D-принтеров: низ — $1–2k, мид — $5–20k, верх — $50k+, а маржа переезжает из «железа» в навыки, сервис и данные движений. Чистой автономии пока мало, поэтому реальные кейсы строятся ступенчато: телесупервизия → полуавтономия → «сам».

И что?

Для бизнеса: перестраивайте процессы под «робот+человек», а не под мифическую полную автономию. Считайте экономику в $/час при заданном аптайме, а не по цене покупки. Стартовая тройка задач понятна: переместить, донести, проверить. Дальше — ваш внутренний «магазин навыков» с каталогом команд вроде «убери стол», «подвези комплект», «инвентаризация полки». Ключевые метрики пилота — автономные минуты без вмешательства, MTBF, доля успешно закрытых задач, время до восстановления после сбоя. Без локального сервиса и запчастей пилот не взлетает.

Для инвесторов: ориентиры простые — коэффициент автономии, аптайм в реальном объекте, повторяемая выручка от навыков и сервиса. Слой данных и симуляции ценнее механики. Риски — операционные: зависимость от «человека в петле» дольше прогнозов, сервисный хвост, капекс на развёртывание. Драйвер апсайда — каналы с фабриками, 3PL и автопромом, плюс платформенная модель «скиллы по подписке». Дисциплина кэшфлоу важнее рассказов про «AGI завтра».

Для людей: порог входа в робототехнику падает до цены смартфона. Школы и хакспейсы получают живых гуманоидов, а не видео с выставок. Появляются новые роли — оператор, тренер навыков, техник сервиса, интегратор. Домам и классам придётся жить с камерами и микрофонами — значит, нужны офлайн-режимы, локальное хранение и прозрачные настройки приватности. База для апгрейда — Python/ROS, безопасность и «операторское мышление».

🚨 Нам 3.14здец

Склад и ритейл — 8/10. Монотонные переносы, инспекции, пополнение полок — идеальная добыча для гуманоидов с телесупервизией. Что делать: переучивать персонал в операторов и тренеров, фиксировать KPI на задачу, строить смены вокруг робо-флота.

Страны с дешёвым трудом — 7/10. «Автоматизация у потребителя» ускоряет релакацию производств ближе к рынкам сбыта. Что делать: уходить в инженерные, сервисные и интеграционные компетенции вокруг роботизации.

Приватность и безопасность — 9/10. Камеры, микрофоны и манипуляторы в домах и школах — новый класс рисков. Что делать: требовать локальные профили доступа, офлайн-режимы, запрет телеметрии без согласия, независимые аудиты и журнал действий робота.

Итог простой: цена падает, задачи упрощаются, экосистема навыков дорожает. Кто успеет превратить «железо за цену айфона» в повторяемые сценарии и сервис — закрепит новый слой рынка.
👍119
Поздний вечер, комната переговоров. На столе — финальные правки двух бумаг: новая структура OpenAI и новый договор с Microsoft. Переход завершён: for-profit теперь OpenAI Group PBC (public benefit corp), «старый» НКО стал OpenAI Foundation и держит ~$130 млрд акций. Из них $25 млрд обещаны на медицину и «инфраструктуру устойчивости к ИИ».

Доля Microsoft срезана с 32,5% до ~27%, но пакет оценивается в ~$135 млрд. Любые заявления «мы достигли AGI» теперь подтверждает независимая панель; права Microsoft на модели и продукты сохраняются до 2032 года — даже если AGI случится раньше.

Эксклюзивность по облаку снята: OpenAI обязуется выкупить Azure на ~$250 млрд, но может докупать мощности у других провайдеров; обе стороны вправе гнаться за AGI с кем угодно. Для контекста: фонд с $130 млрд — это лига крупнейших благотворителей в мире ИИ/медицинских исследований.       

И что?

Для бизнеса: контрактная стабильность и понятные права «даже после AGI», длинный горизонт на Azure плюс право резервировать мощность у других — снижает риски сбоев и даёт рычаг на цену. 
Для инвесторов: управленческий и IP-риск декомпозирован; в модели — предсказуемые COGS за счёт крупного облачного контракта, в истории — независимая валидация AGI, что уменьшает регуляторную турбулентность. 
Для людей: крупные деньги уходят в медицину и защиту от ИИ-сбоёв; прозрачнее процедура «объявили AGI — докажите». 

🚨 Нам 3.14здец

xAI и Илон Маск — 8/10 — почему больно: OpenAI снимает правовую неопределённость, закрепляет права партнёра до 2032 и получает гигантский облачный лимит; это режет аргумент «они неуправляемы» и укрепляет позиции в гонке за AGI. Что делать: уходить в уникальные данные/железо и агрессивные партнёрства по вычислениям. 

Независимые AI-лаборатории в медицине/безопасности — 7/10 — почему больно: $25 млрд целевых грантов от нового гига-фонда меняют рынок финансирования и конкуренцию за кадры. Что делать: фокус на узкие ниши и со-гранты с клиниками/регуляторами. 
This media is not supported in your browser
VIEW IN TELEGRAM
Офисный герой из «Офиса»: таблица на 12 вкладок, ночь перед дедлайном, кофе остывает. Теперь к нему подсаживают напарника умнее — Claude для Excel (бета). Это боковая панель, которая читает листы, объясняет, чинит формулы, заполняет шаблоны и, при желании, собирает новую книгу с нуля.

Для финансов подъехали 7 прямых связок с данными: Aiera — стенограммы созвонов по отчётности, LSEG — рынок в реальном времени, Moody’s — рейтинги. Плюс готовые “умения” под финансы: кэшфлоу-модели, анализ компаний, отчёты по покрытию. Запуск как research-preview для Max, Enterprise и Teams, дальше шире.

И что?

Для бизнеса: ускоряется закрытие месяца и подготовка к совету. Сценарий: вы кидаете шаблон P&L/CF, Claude подтягивает свежие цифры из связок, подсвечивает расхождения и правит формулы, вы проверяете и жмёте «готово». Меньше ручного копипаста — больше времени на выводы и сценарии «что если».

Для инвесторов: ресёрч и покрытие обновляются быстрее. Конкурент выходит с отчётом — вы за час обновляете мультипликаторы, рейтинги и цитаты из транскриптов в одной книге. Риски: права доступа и качество источников. Что считать: долю обновлений, прошедших без ручных правок, и время от события до обновлённой модели.

Для людей: Excel наконец начинает объяснять сам себя. Сложные формулы раскладываются на шаги, шаблоны заполняются автоматически, концентрация — на смысле, а не на охоте за ячейками.

🚨 Нам 3.14здец

Джуны в IB/консалтинге — 7/10 — почему: ночная рутина (чистка данных, правки формул, обновления драйверов) уезжает ассистенту. Что делать: расти в интерпретацию, отраслевые инсайты, общение с бизнесом.
SaaS-плагины «помощник для

Excel» — 8/10 — почему: нативная панель + финансовые связки закрывают типовые кейсы «объясни/исправь/обнови». Что делать: уходить в ниши (ESG, private markets, альтернативные данные) и становиться источником внутри Claude.

Оформление Halloween 👻. Без паники и стремительных отписок.
3🔥3
Media is too big
VIEW IN TELEGRAM
Пятничный контент. Прикольно, что они тоже меняются.
🔥12
⁉️Внимание вопрос
Please open Telegram to view this post
VIEW IN TELEGRAM
Правильный ответ. Генерить контент , как оказалось можно без нейронок, компьютера. Голова еще пока в цене, если конечно на ее месте случайно не окажется тыква 🎃
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25🍾42🤪1
Два часа ночи. Человек завис в чате с ботом, мысли скачут, сердце колотится. Нужен живой, спокойный диалог и быстрый мост к реальной помощи — без сюсюканья и без опасных советов. OpenAI подкрутил GPT-5 под такие моменты: модель распознаёт психоз/манию и суицидальные сигналы лучше, отвечает мягко, но не подыгрывает бреду, подсказывает, когда взять паузу, и кидает к горячим линиям. Работали с 170+ клиницистами, сеть экспертов — ~300 врачей из 60 стран. 

Фактура. На тяжёлых кейсах по суициду автооценки: 91% соответствия протоколам у нового GPT-5 против 77% у прошлой версии GPT-5; клиницисты видят −52% нежелательных ответов vs 4o.

По широкой «психоз/мания» — 92% vs 27% (автооценки на сложных наборах), и −39% нежелательных ответов vs 4o.  Превалентность низкая, но масштаб огромный: ~0,07% weekly-юзеров показывают признаки психоза/мании, ~0,15% — явные индикаторы суицидального планирования.

При 800 млн weekly пользователей это миллионы тревожных диалогов.  Давление растёт: иски от семей, вопросы от штатов, спор о границах ответственности. 

Почему сейчас и для кого. Чем больше охват — тем больше редких, но критичных кейсов в проде. Это апдейт для школ, телемед-платформ, саппорта, маркетплейсов психотерапии: сразу включать маршрутизацию, скрипты и эскалацию.

И что?

Для бизнеса: если у вас есть чат с пользователями — от школы до маркетплейса — обновите сценарии на «острые случаи», подключите локальные горячие линии и человека на подхват ночью; цель простая: за минуту довести до живого специалиста и сохранить запись разговора для разбора.

Для инвесторов: рынок массовых AI-диалогов входит в фазу регулирования; ценность в клинической валидации (внешние врачи подтверждают поведение модели), в партнёрствах с кризисными службами и в «следах» (аудит-лог — журнал инцидентов) — это снижает юридические риски.

Для людей: ответы станут мягче и точнее на сложных темах, а путь к реальной помощи — короче и понятнее; бот чаще подскажет, когда сделать паузу и как быстро выйти на специалиста рядом.

🚨 Нам 3.14здец

Соцсети, мессенджеры, школьные платформы — 9/10 — почему больно: при аудитории около 50 млн активных в месяц это десятки тысяч кризисных диалогов каждую неделю; часть идёт ночью и в личке, где модерации почти нет. Что делать: встроить выявление триггеров простыми фразами, держать дежурного человека ночью, подключить локальные горячие линии по географии, вести журнал инцидентов (аудит-лог) и хранить его для проверок. Кейс: школьная платформа с 10 млн пользователей ловит примерно 7 тысяч таких диалогов в неделю — без маршрутизации и «красной кнопки» прилетят иски и проверки.

Телемедицина и приложения про ментальное здоровье — 8/10 — почему больно: страховые и магазины приложений требуют чётких протоколов и отчётности; без этого режут трафик и выплаты. Что делать: внешнее клиническое ревью (врачи подтверждают, что ответы безопасны), договорённое время реакции (SLA — простыми словами «за сколько минут подключаем живого специалиста»), регулярные отчёты по инцидентам, обучение модераторов. Кейс: приложение на 5 млн активных в месяц получает примерно 3,5 тысячи кризисных разговоров в неделю — без дежурной линии и маршрутизации по локации это прямой юридический риск.
1👍54
This media is not supported in your browser
VIEW IN TELEGRAM
Розово-алый обод плазмы скользит по магнитному «бублику», камера пишет 16 тысяч кадров в секунду, зелёные треки лития как неоновые нитки подсказывают траекторию, а тёмное ядро сияет жаром, который не видит глаз — картинка гипнотизирует, но если твой бизнес — генерация энергии, в этот момент у тебя начинает подёргиваться глаз: на экране не арт-перформанс, а прямая трансляция конца старой электроэнергетики.

👇🏼 Читать дальше
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14🤬1
Может ли Tesla с FSD ездить без живого водителя за рулем. Правильный ответ появится через полтора часа
Anonymous Quiz
66%
Да
34%
Нет
Media is too big
VIEW IN TELEGRAM
Может ли Tesla ездить без водителя? Правильный ответ.
This media is not supported in your browser
VIEW IN TELEGRAM
Ладно. Еще один пост про Tesla, и все. В Калифорнии теперь преступников будут ловить на Cybertruck. Без автопилота. Но это не точно. Завтра никаких постов. Хороших выходных.
👍42
В американской семье находят в телефоне сына переписку с «девушкой», а это бот. Родители читают и охреневают: советы про саморазрушение, «эмпатия», зависимость. Политики слышат такие истории каждую неделю и начинают давить.

На этом фоне Character.AI режет доступ: с 25 ноября подросткам закрывают открытые чаты с персонажами, а до даты живёт переходный режим с лимитами.

Чат — ядро продукта, так что шаг болезненный. Оставляют только «безопасные» штуки: видео, истории, стримы на базе персонажей.

Параллельно запускают собственную «age assurance» — модель определяет возраст по поведению и типам персонажей, а ошибочно помеченным взрослым предлагают пройти стороннюю верификацию через ID. Компания также открывает некоммерческую AI Safety Lab. 

Контекст рынка: на уровне штатов уже пошли законы про защиту детей от вредных ответов и суицида — Калифорния вводит требования с 1 января 2026. На федеральном уровне внесён GUARD Act: запрет «AI-компаньонов» для несовершеннолетних, обязательная верификация возраста «не датой рождения», периодические напоминания «я не человек», до $100k штрафа за доступ к опасным сценариям.

За месяцы до этого OpenAI выкатывала «родительский контроль» и систему определения возраста; тренд очевиден — романтические/терапевтические чаты с подростками уезжают в прошлое. 

Почему сейчас и для кого: давление от семей и двупартийной инициативы сенаторов + иски. Для игровых и «фэндомных» экосистем это перелом: нужно мигрировать от «диалог-компаньон» к «творческим тулзам» для тинейджеров — иначе регулятор искажет юнит-экономику. 

И что?

Для бизнеса: источники роста у сервисов-компаньонов смещаются во взрослую аудиторию; B2B и креативные инструменты для подростков становятся основным «белым» каналом монетизации.

Для инвесторов: риск-апдейт по TAM «компаньонов»: сегмент <18 лет вырезают законом/политикой; ценность возрастной верификации и модерации превращается в moat и мультипликатор.

Для людей: для родителей — меньше шансов на «липкие» токсичные диалоги; для подростков — доступ остаётся к видео/историям, но без симуляции близких отношений с ботом. 

🚨 Нам 3.14здец

Приложения-компаньоны, жившие на подростковом ретеншне — 8/10 — окно роста закрывается: чаты для <18 либо запрещены, либо «обезжирены» регуляторикой и верификацией. 

Маркетинг под тинейджеров в «эмоциональных» чатах — 7/10 — каналы вовлечения схлопываются, фрикция регистрации через ID бьёт по воронке. 
Команды, делавшие «романтические/терапевтические» боты — 8/10 — рисковый рынок исчезает из-за GUARD Act и исков; путь к выручке через 18+ и признанные практики ментального здоровья, а не «тёплые» диалоги с детьми.
👍43
Счёт за электричество в дата-центре растёт быстрее, чем вы нанимаете MLE. Команда пытается ужать инференс, CFO злится, а GPU греют улицу. В этот момент Extropic выкатывает железо, которое вместо умножения матриц «выстреливает» вероятные ответы прямо из физики.

Фактура. Extropic представила TSU — термодинамические sampling-юниты, где «п-биты» генерят выборки из распределений. По расчётам в их препринте и техпосте, такие чипы на генеративных задачах дают до 10 000× меньшего энергопотребления против GPU на сопоставимом качестве.

Стартап уже разослал первый dev-кит XTR-0 в AI-лаборатории и метеокомпаниям (например, Atmo), а для разработчиков выложил открытый TRHML в JAX, чтобы гонять модели и эмулировать TSU на обычных видеокартах. В 2026 запланирован Z-1 — «производственный» чип с ~250 k п-бит и поддержкой нового диффузионного подхода, где картинки и видео восстанавливаются из шума через цепочки простых «шагов-сэмплов».

Основатели — экс-гугловские квантовики; CEO — Гийом Вердон (тот самый @BasedBeffJezos). 
Контекст. Денег в кремний вбухивают миллиардами, но упираются в электромощности и счета. TSU бьют ровно по этой боли: вычисления идут при комнатной температуре, на стандартном CMOS, фокус — вероятностные задачи (генерация, погода, финансы, научные симуляции). Если масштабирование выйдет, это альтернатива паркам из тысяч GPU. 

Почему сейчас и для кого. Узкое горлышко — энергия на инференс. Первые кейсы — погода и генеративка, дальше — всё, где решают Монте-Карло и графовые модели. Z-1 даст реальный полигон для алгоритмов и бенчей в 2026.

И что?

Для бизнеса: если заявленная энерго-эффективность подтвердится хотя бы частично, энергобюджет инференса падает на порядки — те же стойки тянут больше моделей, появляется реальная генерация на краю (ритейл, заводы, дроны) без счёта за мегаватты.

Для инвесторов: передел CAPEX/OPEX — фокус смещается с «докупать GPU» к «сколько ватт на выборку». Преимущество у тех, у кого доступ к дешёвой энергии и кто строит IP вокруг вероятностных вычислений; риск — останется на уровне демо.

Для людей: быстрее и дешевле генеративка локально — видео, ассистенты и точная погода едут к вам на устройство, а не в дальний дата-центр.

🚨 Нам 3.14здец

Провайдеры GPU-ренты и перекупы железа — 8/10 — маржа на дефиците мощности сдувается; закрывается окно сверхдоходов «за доступ к видеокартам».

Продукты, завязанные на CUDA-оптимизацию LLM-инференса — 7/10 — если пайплайны уйдут в сэмплинговые архитектуры, ценность «ускоряем FLOPS» проседает; закрывается возможность продавать это как главный дифференциатор.

Хард-стартапы без дешёвой энергии — 6/10 — при энергоповороте капитал идёт в ватт-эффективность; закрывается лёгкий доступ к деньгам под «мы построим ещё один GPU-кластер».

Мегапроекты уровня Stargate — 7/10 — если энерго-выигрыш TSU (даже 10–100×) подтвердится «в проде», стратегия «заливать задачу гигава́ттами под GPU» теряет смысл. Закрывается окно на бесконечные CAPEX в однотипные GPU-мегакластеры: окупаемость $100B-проектов со стартом ближе к 2028 становится туманнее. 

Nvidia — 8/10 — при сдвиге рынка к вероятностным ускорителям падает уникальность CUDA-моноэкосистемы и «налог на дефицит» топ-GPU; давление усиливается на фоне уже потерянного рынка Китая и рекордной доли выручки из дата-центров. Закрывается премия «только GPU = рост без потолка».
11🔥4
Гуманитариев ждёт нищая старость, и вот почему.

Анализ 180 миллионов вакансий с 2023 по 2025 год показывает: рынок в среднем просел на 8%, но творческие профессии валятся в два–три раза быстрее. Вакансий для VFX и 3D-художников стало меньше на 33%. Фотографы и райтеры потеряли по 28%. Журналисты — минус 22%. Видеографы — минус 14%. Дизайнеры и креативные продюсеры проседают на 7–9%. Чуть держатся только креативные директора и менеджеры: плюс 1–6% за счёт того, что управляют бюджетами, а не делают руками.

На этом фоне ИТ живёт в другом мире. Спрос на ML-инженеров за год вырос почти на 40%, за два года — около 80%. Дата-инженеры плюс 9%. Бэкенд — плюс 4%. Дата-саентисты — плюс 3,5%. DevOps и QA понемногу растут. Проседают только фронтенд и мобила — до 10% минус, но на графике они всё равно смотрятся прилично рядом с гуманитарными минус 30%.

Кому пока «норм» тем , кто умеет работать с кодом, данными и моделями, рынок сейчас как лифт: зашёл на уровне «мидл», через пару лет вышел в топ-зону. ML-инженер сегодня — это новая элита, рядом с директорами по data engineering, софтверными директорами и юристами, которые тоже показывают рост вакансий на 20%+.

🚨Нам 3.14здец.

Гуманитарии 9/10 Если ты зарабатываешь текстами, картинками и «оформлением смысла», твой рынок просто сжимается. Любой бизнес смотрит на цифры и видит: вместо фотографа, копирайтера и дизайнера можно собрать один ИИ-конвейер и пару людей, которые понимают продукт и деньги. Гуманитарий без технологии превращается в дешёвого исполнителя на подхвате, который конкурирует не с коллегами, а с генеративкой. Перспектива на пенсию понятная: случайные заказы, вечный демпинг и надежда, что в следующий кризис сокращать будут кого-то ещё.
1🔥15👍5🤪42🖕2