Media is too big
VIEW IN TELEGRAM
Пробки на дорогах всё. А причём тут пробки, спросите вы. Объясняю.
Это Tesla Gigafactory Berlin. Новая машина выезжает на парковку завода. Дальше она едет не к дилеру, не в шоурум. Она едет к новому владельцу, который купил её на сайте.
Потом машина сама уезжает на ТО. Сама заезжает на мойку, робот её моет. Ставит себя на зарядку, робот её заряжает. Едет за продуктами, робот грузит пакеты в багажник. Список покупок сделал ИИ по твоим привычкам: сколько взять и куда заехать по короткому маршруту.
Машина забирает тебя с работы. Забирает ребёнка из парка. Забирает семью из аэропорта. Когда она тебе не нужна — она катает людей как такси и зарабатывает.
и что?
Дальше важно не «может ли она так делать». Уже может. Дальше важно — когда это разрешат массово.
Три тормоза:
1. Регуляторы должны подписать, кто отвечает в аварии: владелец, производитель, автопилот. Пока нет схемы ответственности — это не выпускают на улицу в полном режиме.
2. Город должен дать инфраструктуру: места для высадки и загрузки, чтобы машина не вставала во второй ряд «я на минутку» и не резала полосу. Плюс синхронизация со светофорами, чтобы поток ехал плавно, без рваного «тормоз-газ».
3. Доля таких машин на дороге должна стать критической, а не одна умная машина в толпе хаоса.
Почему после этого пробкам конец.
Пробка сейчас рождается не из «много машин». Пробка рождается из людей:
– дернул тормоз без причины,
– полез носом в сужение «я первый»,
– поцеловал бампер, перекрыл полосу, пошёл фоткать,
– встал вторым рядом с аварийкой «я быстро»,
– светофор льёт трафик в уже забитый участок.
Когда машины управляются синхронно, этого не происходит. Поток идёт ровно, без волн торможения, без мелких аварий, без самопарковки посреди проезда, без локальных закупорок на слияниях. Город распределяет нагрузку как логистику, а не как драку характеров.
В этот момент пробка как явление умирает. Руль остаётся в салоне чисто как аксессуар.
Это Tesla Gigafactory Berlin. Новая машина выезжает на парковку завода. Дальше она едет не к дилеру, не в шоурум. Она едет к новому владельцу, который купил её на сайте.
Потом машина сама уезжает на ТО. Сама заезжает на мойку, робот её моет. Ставит себя на зарядку, робот её заряжает. Едет за продуктами, робот грузит пакеты в багажник. Список покупок сделал ИИ по твоим привычкам: сколько взять и куда заехать по короткому маршруту.
Машина забирает тебя с работы. Забирает ребёнка из парка. Забирает семью из аэропорта. Когда она тебе не нужна — она катает людей как такси и зарабатывает.
и что?
Дальше важно не «может ли она так делать». Уже может. Дальше важно — когда это разрешат массово.
Три тормоза:
1. Регуляторы должны подписать, кто отвечает в аварии: владелец, производитель, автопилот. Пока нет схемы ответственности — это не выпускают на улицу в полном режиме.
2. Город должен дать инфраструктуру: места для высадки и загрузки, чтобы машина не вставала во второй ряд «я на минутку» и не резала полосу. Плюс синхронизация со светофорами, чтобы поток ехал плавно, без рваного «тормоз-газ».
3. Доля таких машин на дороге должна стать критической, а не одна умная машина в толпе хаоса.
Почему после этого пробкам конец.
Пробка сейчас рождается не из «много машин». Пробка рождается из людей:
– дернул тормоз без причины,
– полез носом в сужение «я первый»,
– поцеловал бампер, перекрыл полосу, пошёл фоткать,
– встал вторым рядом с аварийкой «я быстро»,
– светофор льёт трафик в уже забитый участок.
Когда машины управляются синхронно, этого не происходит. Поток идёт ровно, без волн торможения, без мелких аварий, без самопарковки посреди проезда, без локальных закупорок на слияниях. Город распределяет нагрузку как логистику, а не как драку характеров.
В этот момент пробка как явление умирает. Руль остаётся в салоне чисто как аксессуар.
1🔥28❤10👍8💩2🤬1🖕1
This media is not supported in your browser
VIEW IN TELEGRAM
Пока все спорят, кто первым соберёт наземный кластер на миллион H100 и сожжёт половину энергосистемы Европы, стартап Starcloud делает вообще другую ставку: «давайте увезём вычисления с планеты». В прямом смысле. Они вместе с Nvidia отправляют ускорители H100 в космос и хотят развернуть дата-центр на орбите. Не лабораторный кубик для науки, а инфраструктуру под ИИ. Энергия — от собственных солнечных панелей, модель — Gemma от Google, то есть реальный LLM-инференс прямо в вакууме. Это первый шаг к идее «орбитальных AI-кластеров», и ребята даже называют цифры масштаба: через пару лет — спутники с полноценной облачной платформой, а в горизонте проекта — орбитальные центры на гигаватты мощности, с солнечными и радиаторными панелями размером километр на километр и больше. По их словам, такие штуки могут дать до десятикратного снижения стоимости энергии и CO₂-выбросов по сравнению с дата-центром на Земле, включая доставку железа на орбиту.
Читать дальше
Читать дальше
2👍33❤4🤬3🤷♂1
Все ждут, что ИИ освободит людей от рутины и подарит четыре часа работы в день. А на самом деле зумерам готовят старый добрый режим «работай больше, получай меньше и молчи».
Читать дальше
Читать дальше
1💯8🤷♂3❤2
Ура! Нас уже 5005 🎉
Вторая круглая тысяча за октябрь! Значит, я всё делаю не зря — вы читаете, комментируете, шлёте в репост — и я стараюсь ещё больше. Спасибо 💚
В этот день хочу попросить об одном.
В Telegram появились Boost’ы — это способ поддержать канал, а ещё открыть прикольные фишки:
— эмодзи в реакциях 😎
— кастомные эмодзи и стикеры 🤖
— тематические иконки канала
— и приоритет в поиске!
Если у вас есть бусты, и вы ими не пользуетесь — поддержите мой канал, это лучший способ сказать “спасибо” за контент. Вот ссылка:
👉 https://news.1rj.ru/str/robotless?boost
И да, я вижу каждого, кто нажал. Спасибо, что вы здесь ✊
Вторая круглая тысяча за октябрь! Значит, я всё делаю не зря — вы читаете, комментируете, шлёте в репост — и я стараюсь ещё больше. Спасибо 💚
В этот день хочу попросить об одном.
В Telegram появились Boost’ы — это способ поддержать канал, а ещё открыть прикольные фишки:
— эмодзи в реакциях 😎
— кастомные эмодзи и стикеры 🤖
— тематические иконки канала
— и приоритет в поиске!
Если у вас есть бусты, и вы ими не пользуетесь — поддержите мой канал, это лучший способ сказать “спасибо” за контент. Вот ссылка:
👉 https://news.1rj.ru/str/robotless?boost
И да, я вижу каждого, кто нажал. Спасибо, что вы здесь ✊
8❤21👍5
Неделю назад OpenAI выкатил Atlas — AI‑браузер с ChatGPT «внутри бортовой панели». Это превью на macOS для Plus/Pro/Business: боковая ассистент‑панель, «память» посещённых сайтов по желанию пользователя и Agent mode, который может сам кликать и выполнять цепочки действий на сайтах. На «чувствительных» ресурсах агент тормозится и просит явное разрешение. Windows и мобильные обещаны позже.
Как это работает. Читать дальше
Как это работает. Читать дальше
👍2👨💻1
Помните Napster. Ровесник нулевых, который перевернул музыку, вошёл в легенду, отдал Шона Паркера к Facebook, но сам так и не стал корпорацией‑монстром. Двадцать шесть лет спустя — новый comeback. Вот кто настоящий a’ll be back.
Что произошло. Napster 26 - это разворот из музыки в платформу ассистентов с «голографическим» дисплеем View за $99.
Читать дальше
Что произошло. Napster 26 - это разворот из музыки в платформу ассистентов с «голографическим» дисплеем View за $99.
Читать дальше
👍10❤2
18 лет. Алма-Ата. Школьник. Его выгоняют с урока математики — не потому что он ничего не знает, а потому что он прямо на парте разговаривает с инвестором. Учитель в шоке, директор в шоке, ему вообще всё равно. В какой-то момент школа для него становится просто помехой графику созвона с фондом. Он вылетает из школы и даже не делает вид, что будет сдавать экзамены. Он идёт строить компанию. Не «когда-нибудь потом», а сразу.
Дальше он пробивает себе дорогу в Y Combinator. Это та самая фабрика, откуда вышли Stripe, Airbnb, вся тяжелая лига Кремниевой долины, и которой руководил Сем Альтман. С первой попытки его не берут. Со второй —
Читать дальше
Дальше он пробивает себе дорогу в Y Combinator. Это та самая фабрика, откуда вышли Stripe, Airbnb, вся тяжелая лига Кремниевой долины, и которой руководил Сем Альтман. С первой попытки его не берут. Со второй —
Читать дальше
🔥9🤪4
🤑 Nvidia только что взяла планету за горло и сказала: я стою пять триллионов долларов. Прямо сейчас. 29 октября 2025 года Nvidia стала первой компанией в истории, чей ценник на бирже перевалил за 5 трлн.
Акции на NASDAQ улетели к примерно 210 долларам за штуку, плюс почти пять процентов за утро, и это двинуло капитализацию выше отметки, которая ещё вчера казалась фантастикой. Nvidia — то есть фабрика GPU для ИИ — официально номер один по стоимости. Microsoft сейчас вторая.
Apple третья. Apple вчера, 28 октября, впервые вообще потрогала 4 трлн. Да, компания, которая продаёт айфоны. Это уже клуб, куда пускают только тех, кто считает деньги триллионами.
И что?
Бизнесу, инвесторам и всем нам
Это значит, что ИИ перестал быть «трендом», и стал новой нефтью. Nvidia — это не про игры и видеокарты мальчикам. Это инфраструктура смысла «кто будет владеть вычислениями — тот будет владеть экономикой». Когда инфраструктура оценивается дороже любой другой компании в истории, это сигнал, что рынок верит в один сценарий: всё автоматизируем, людей заменим, маржу оставим себе. Microsoft и Apple висят рядом на уровне от четырёх триллионов не потому что у них красивые логотипы, а потому что им есть куда встроить этот ИИ — софт, облако, устройства в руках у миллиардов. Они не конкуренты, они экосистема, которая уже поделила будущее и теперь просто спорит, кто будет лицом, а кто будет мотором.
🚨Нам 3.14здец.
Работникам 10/10 - Потому что пяти триллионам пофиг на людей, которым платят по часам. Когда вычислительная мощность становится самым дорогим активом на Земле, рабочая сила превращается в расходник. Если рынку комфортно оценивать производителя чипов дороже, чем любую живую экосистему с реальными сотрудниками, офисами, логистикой, — рынок вслух сказал: «человек был временным решением, спасибо, дальше без вас». Следующая волна оптимизации будет не про уволить десять процентов. Следующая волна — про «у нас больше нет этой профессии как класса». И это уже в теории, это бизнес-план, оценённый в пять триллионов.
Акции на NASDAQ улетели к примерно 210 долларам за штуку, плюс почти пять процентов за утро, и это двинуло капитализацию выше отметки, которая ещё вчера казалась фантастикой. Nvidia — то есть фабрика GPU для ИИ — официально номер один по стоимости. Microsoft сейчас вторая.
Apple третья. Apple вчера, 28 октября, впервые вообще потрогала 4 трлн. Да, компания, которая продаёт айфоны. Это уже клуб, куда пускают только тех, кто считает деньги триллионами.
И что?
Бизнесу, инвесторам и всем нам
Это значит, что ИИ перестал быть «трендом», и стал новой нефтью. Nvidia — это не про игры и видеокарты мальчикам. Это инфраструктура смысла «кто будет владеть вычислениями — тот будет владеть экономикой». Когда инфраструктура оценивается дороже любой другой компании в истории, это сигнал, что рынок верит в один сценарий: всё автоматизируем, людей заменим, маржу оставим себе. Microsoft и Apple висят рядом на уровне от четырёх триллионов не потому что у них красивые логотипы, а потому что им есть куда встроить этот ИИ — софт, облако, устройства в руках у миллиардов. Они не конкуренты, они экосистема, которая уже поделила будущее и теперь просто спорит, кто будет лицом, а кто будет мотором.
🚨Нам 3.14здец.
Работникам 10/10 - Потому что пяти триллионам пофиг на людей, которым платят по часам. Когда вычислительная мощность становится самым дорогим активом на Земле, рабочая сила превращается в расходник. Если рынку комфортно оценивать производителя чипов дороже, чем любую живую экосистему с реальными сотрудниками, офисами, логистикой, — рынок вслух сказал: «человек был временным решением, спасибо, дальше без вас». Следующая волна оптимизации будет не про уволить десять процентов. Следующая волна — про «у нас больше нет этой профессии как класса». И это уже в теории, это бизнес-план, оценённый в пять триллионов.
🔥9🤪5❤3
Помните kiss cam на концерте Coldplay в Бостоне. Камера ловит CEO Astronomer Энди Байрона. Рядом его HR‑директор Кристин Кэбот. Объятия, растерянные лица, три секунды на джамботроне, а дальше миллионы просмотров и отставка.
Теперь представьте, вы на похожем концерте с друзьями. Утром открываете ленту и видите ролик, где вы якобы целуетесь с бывшей. Вас там не было. Этот сюжет собрали промптом. Фото. Видео. Голос. Точно так же это прилетает и звёздам.
Брайан Крэнстон, тот самый Уолтер Уайт (Во все тяжкие), обнаруживает в Sora 2 «селфи» с Майклом Джексоном и другие видео с «собой». Согласия не давал. OpenAI извиняется и заявляет, что вместе с профсоюзом актёров США SAG‑AFTRA (Screen Actors Guild and American Federation of Television and Radio Artists) и голливудскими агентствами усилит фильтры Sora 2. Плюс поддержка федерального NO FAKES Act, который защищает право на голос и внешность.
Что по фактам. Заявление подписали OpenAI, SAG‑AFTRA, крупные агентства и сам Крэнстон.
Компания признала «непреднамеренные генерации» и заявила о переходе к жёсткой модели opt‑in: без явного согласия — никаких «цифровых близнецов». Глава союза Шон Астин прямо говорит: Крэнстон — не исключение, под ударом тысячи артистов, и «opt‑in — единственный рабочий формат» для сделок с ИИ.
Контекст рынка. Виральность Sora во многом строилась на серой зоне с цифровыми портретами, пока отдельные звёзды вроде Марка Кьюбана действительно не давали согласие. Параллельно растёт давление со стороны правопреемников исторических персон — идущие иски по «праву гласности» и попытки федеральной унификации через NO FAKES.
Почему сейчас и для кого. Порог «снял клип за вечер» опустился до нуля — значит, риск массовых нарушений для студий, брендов и платформ взлетел. Согласования, whitelists и водяные знаки становятся обязательной инфраструктурой для рекламных кампаний и продакшенов.
И что?
Суть. Рынок сдвигается к жёсткому «только с согласия»: OpenAI + SAG‑AFTRA и давление NO FAKES превращают лицо и голос в лицензируемый ресурс. Sora 2 получит фильтры, брендам и студиям придётся подтянуть процессы — иначе штрафы, тейкдауны и сожжённые кампании.
Для бизнеса. Применяем это сегодня. Держим реестр согласий: кто разрешил, на что именно, срок и территория, кто наследник. Включаем провенанс: C2PA‑подпись на каждый файл и логи изменений, чтобы показать происхождение по запросу. Промпты и референсы пускаем через белый список имён и тембров, всё мимо — режем. Жалобы закрываем в 24–48 часов, держим E&O‑страховку. Кейс: клип с «камео» умершего артиста — без документа от наследников в Нью‑Йорке прилетит тейкдаун по §50‑f (право на образ 40 лет). В Теннесси чужой «голос» — ELVIS Act, до 11 месяцев и штраф до $2,5k. Метрики: ноль инцидентов за квартал, ≥95% материалов с C2PA, среднее время реакции ≤24 часа.
Для инвесторов. Меняется юнит‑экономика: появляется платный слой «согласие + провенанс». База поставки — ~160k актёров SAG‑AFTRA. Доход — лицензии на голос/лик, проверки личности, хранение метаданных, страховые услуги. Себестоимость растёт из‑за модерации и комплаенса, но бюджеты брендов уйдут к тем, у кого это «по умолчанию». Риск — иски и стоп‑релизы; апсайд — платформы, которые быстрее соберут согласия и встроят провенанс, заберут интеграции студий.
Для людей. В ленте станет меньше «звёздных» фейков; там, где синтетика, появятся метки и понятная кнопка жалобы с обязательной реакцией. Плюс вы получаете право официально запретить использование своего образа и добиваться удаления.
🚨 Нам 3.14здец
в комментариях. потому что не влезло.
Теперь представьте, вы на похожем концерте с друзьями. Утром открываете ленту и видите ролик, где вы якобы целуетесь с бывшей. Вас там не было. Этот сюжет собрали промптом. Фото. Видео. Голос. Точно так же это прилетает и звёздам.
Брайан Крэнстон, тот самый Уолтер Уайт (Во все тяжкие), обнаруживает в Sora 2 «селфи» с Майклом Джексоном и другие видео с «собой». Согласия не давал. OpenAI извиняется и заявляет, что вместе с профсоюзом актёров США SAG‑AFTRA (Screen Actors Guild and American Federation of Television and Radio Artists) и голливудскими агентствами усилит фильтры Sora 2. Плюс поддержка федерального NO FAKES Act, который защищает право на голос и внешность.
Что по фактам. Заявление подписали OpenAI, SAG‑AFTRA, крупные агентства и сам Крэнстон.
Компания признала «непреднамеренные генерации» и заявила о переходе к жёсткой модели opt‑in: без явного согласия — никаких «цифровых близнецов». Глава союза Шон Астин прямо говорит: Крэнстон — не исключение, под ударом тысячи артистов, и «opt‑in — единственный рабочий формат» для сделок с ИИ.
Контекст рынка. Виральность Sora во многом строилась на серой зоне с цифровыми портретами, пока отдельные звёзды вроде Марка Кьюбана действительно не давали согласие. Параллельно растёт давление со стороны правопреемников исторических персон — идущие иски по «праву гласности» и попытки федеральной унификации через NO FAKES.
Почему сейчас и для кого. Порог «снял клип за вечер» опустился до нуля — значит, риск массовых нарушений для студий, брендов и платформ взлетел. Согласования, whitelists и водяные знаки становятся обязательной инфраструктурой для рекламных кампаний и продакшенов.
И что?
Суть. Рынок сдвигается к жёсткому «только с согласия»: OpenAI + SAG‑AFTRA и давление NO FAKES превращают лицо и голос в лицензируемый ресурс. Sora 2 получит фильтры, брендам и студиям придётся подтянуть процессы — иначе штрафы, тейкдауны и сожжённые кампании.
Для бизнеса. Применяем это сегодня. Держим реестр согласий: кто разрешил, на что именно, срок и территория, кто наследник. Включаем провенанс: C2PA‑подпись на каждый файл и логи изменений, чтобы показать происхождение по запросу. Промпты и референсы пускаем через белый список имён и тембров, всё мимо — режем. Жалобы закрываем в 24–48 часов, держим E&O‑страховку. Кейс: клип с «камео» умершего артиста — без документа от наследников в Нью‑Йорке прилетит тейкдаун по §50‑f (право на образ 40 лет). В Теннесси чужой «голос» — ELVIS Act, до 11 месяцев и штраф до $2,5k. Метрики: ноль инцидентов за квартал, ≥95% материалов с C2PA, среднее время реакции ≤24 часа.
Для инвесторов. Меняется юнит‑экономика: появляется платный слой «согласие + провенанс». База поставки — ~160k актёров SAG‑AFTRA. Доход — лицензии на голос/лик, проверки личности, хранение метаданных, страховые услуги. Себестоимость растёт из‑за модерации и комплаенса, но бюджеты брендов уйдут к тем, у кого это «по умолчанию». Риск — иски и стоп‑релизы; апсайд — платформы, которые быстрее соберут согласия и встроят провенанс, заберут интеграции студий.
Для людей. В ленте станет меньше «звёздных» фейков; там, где синтетика, появятся метки и понятная кнопка жалобы с обязательной реакцией. Плюс вы получаете право официально запретить использование своего образа и добиваться удаления.
🚨 Нам 3.14здец
в комментариях. потому что не влезло.
❤8👍7🙏1
Представьте выбор «лучшего» эмбриона при ЭКО. Пять кандидатов и один шанс. Что умеем сейчас. PGT-A — это проверка хромосом: всё ли на месте. Она ловит крупные поломки вроде лишней или недостающей хромосомы, но про долгосрочные риски — рак, Альцгеймер, диабет — почти ничего не говорит.
Почему так. Эти болезни не включает один «сломанный» ген.
Работают тысячи маленьких «выключателей» в ДНК — SNP. По-человечески: крошечные буквы в коде, которые по отдельности почти ни на что не влияют, а в сумме двигают вероятность. «Полигенный риск» — это как раз такая сумма. Раньше компании считали её в закрытых моделях: веса — секрет, обучающие базы — секрет, проверить точность сложно. Родители получают PDF «риск выше/ниже», на вопрос «почему?» — тишина и NDA.
Что произошло. Nucleus Genomics запустила Origin — набор ИИ-моделей для эмбрионального скрининга при ЭКО. Модели просматривают ~7 млн генетических маркеров, обучены на ~1,5 млн человек и выдают полигенные оценки по 9 заболеваниям (рак груди/простаты, Альцгеймер, диабет 1/2, сердечно-сосудистые и др.) и по >2 000 признаков. Коммерческий пакет «IVF+» стоит от $30 000 и уже подключается в ряде крупных клиник. Параллельно компания открыла веса моделей и запустила Genetic Optimization Hub — репозиторий с данными, метриками и самими весами для независимой проверки. Для IVF это первый кейс «открытых весов».
Что меняет Origin. Вместо «поверьте на слово» — проверяемая математика: открытые веса и публичные метрики. Любая клиника или исследователь могут скачать модель, посмотреть, как она устроена, и перепроверить точность на своей выборке.
Как это выглядит в клинике. Пара получила несколько эмбрионов. Раньше выбор делали по хромосомам и нескольким явным мутациям. Теперь добавляется слой полигенных рисков — по Альцгеймеру, онкологии, диабету, сердечно-сосудистым. Origin заявляет, что выбор эмбриона с более низким скором способен снизить вероятность отдельных болезней на 50% и больше. В «IVF+» — девять состояний и >2 000 признаков. Цена — от $30k, сеть партнёров уже разворачивается в крупных городах.
Зачем открывать «мозг» модели. В медицине доверяют тому, что можно проверить. Открытые веса = воспроизводимость: клиники видят, как модель ведёт себя в разных этносах и возрастах, учёные ловят смещения и чинят. Пациентам дают не просто «низкий/высокий риск», а методику, которую можно оспорить и улучшить.
Ограничения и этика — по-простому. Это не «выбор внешности» и не гарантия здоровья. Это вероятности, а не приговор. Риски — в неверной калибровке под популяции и соблазне использовать скор вне медицины. Значит, вместе с открытыми весами нужен открытый протокол: что считаем, на каких данных обучено, как обновляем, кто проверяет качество.
И что? Для бизнеса. Клиники получают проверяемый инструмент выбора между несколькими здоровыми эмбрионами. Внедрение: пилот на 20 пациентов, публичный аудит метрик через Genetic Optimization Hub, жёсткое информированное согласие, запрет немедицинских признаков. Для инвесторов. Открытые веса снижают стоимость R&D за счёт внешних валидаций. Монетизация — премиальный «IVF+» и сети клиник. Риски — регуляторика и этика; апсайд — шанс стать стандартом де-факто для полигенных скорингов. Для людей. Меньше лотереи и больше прозрачности при тяжёлом выборе. Это дорого и не для всех, но наконец объяснимо: видно методику и её ограничения.
🚨 Нам 3.14здец Неравенство — 9/10 — пакет $30k: у тех, у кого есть деньги, есть выбор; у остальных — лотерея.
Религия — 6/10 — выбор эмбриона конфликтует с догматами; возможны запреты и давление на клиники.
Евгеника — 9/10 — >2k трейтов и открытые веса провоцируют отбор «по вкусу» и дискриминацию; риск появление людей «второго сорта».
Почему так. Эти болезни не включает один «сломанный» ген.
Работают тысячи маленьких «выключателей» в ДНК — SNP. По-человечески: крошечные буквы в коде, которые по отдельности почти ни на что не влияют, а в сумме двигают вероятность. «Полигенный риск» — это как раз такая сумма. Раньше компании считали её в закрытых моделях: веса — секрет, обучающие базы — секрет, проверить точность сложно. Родители получают PDF «риск выше/ниже», на вопрос «почему?» — тишина и NDA.
Что произошло. Nucleus Genomics запустила Origin — набор ИИ-моделей для эмбрионального скрининга при ЭКО. Модели просматривают ~7 млн генетических маркеров, обучены на ~1,5 млн человек и выдают полигенные оценки по 9 заболеваниям (рак груди/простаты, Альцгеймер, диабет 1/2, сердечно-сосудистые и др.) и по >2 000 признаков. Коммерческий пакет «IVF+» стоит от $30 000 и уже подключается в ряде крупных клиник. Параллельно компания открыла веса моделей и запустила Genetic Optimization Hub — репозиторий с данными, метриками и самими весами для независимой проверки. Для IVF это первый кейс «открытых весов».
Что меняет Origin. Вместо «поверьте на слово» — проверяемая математика: открытые веса и публичные метрики. Любая клиника или исследователь могут скачать модель, посмотреть, как она устроена, и перепроверить точность на своей выборке.
Как это выглядит в клинике. Пара получила несколько эмбрионов. Раньше выбор делали по хромосомам и нескольким явным мутациям. Теперь добавляется слой полигенных рисков — по Альцгеймеру, онкологии, диабету, сердечно-сосудистым. Origin заявляет, что выбор эмбриона с более низким скором способен снизить вероятность отдельных болезней на 50% и больше. В «IVF+» — девять состояний и >2 000 признаков. Цена — от $30k, сеть партнёров уже разворачивается в крупных городах.
Зачем открывать «мозг» модели. В медицине доверяют тому, что можно проверить. Открытые веса = воспроизводимость: клиники видят, как модель ведёт себя в разных этносах и возрастах, учёные ловят смещения и чинят. Пациентам дают не просто «низкий/высокий риск», а методику, которую можно оспорить и улучшить.
Ограничения и этика — по-простому. Это не «выбор внешности» и не гарантия здоровья. Это вероятности, а не приговор. Риски — в неверной калибровке под популяции и соблазне использовать скор вне медицины. Значит, вместе с открытыми весами нужен открытый протокол: что считаем, на каких данных обучено, как обновляем, кто проверяет качество.
И что? Для бизнеса. Клиники получают проверяемый инструмент выбора между несколькими здоровыми эмбрионами. Внедрение: пилот на 20 пациентов, публичный аудит метрик через Genetic Optimization Hub, жёсткое информированное согласие, запрет немедицинских признаков. Для инвесторов. Открытые веса снижают стоимость R&D за счёт внешних валидаций. Монетизация — премиальный «IVF+» и сети клиник. Риски — регуляторика и этика; апсайд — шанс стать стандартом де-факто для полигенных скорингов. Для людей. Меньше лотереи и больше прозрачности при тяжёлом выборе. Это дорого и не для всех, но наконец объяснимо: видно методику и её ограничения.
🚨 Нам 3.14здец Неравенство — 9/10 — пакет $30k: у тех, у кого есть деньги, есть выбор; у остальных — лотерея.
Религия — 6/10 — выбор эмбриона конфликтует с догматами; возможны запреты и давление на клиники.
Евгеника — 9/10 — >2k трейтов и открытые веса провоцируют отбор «по вкусу» и дискриминацию; риск появление людей «второго сорта».
❤7👍6
🤖 Помните момент, когда Apple ровно сказала: айфон — тысяча долларов. Потом спокойно подняла планку до полутора — и все привыкли. Теперь новый холодный душ: гуманоид стоит как айфон. Noetix Bumi — примерно $1,3k. Между «айфоном-ботом» и «роботом-как-авто» уже выстроилась лестница: Unitree R1 — $4,9–5,9k для обучения и простых задач, 1X NEO — $20k или подписка $499 в месяц, Apptronik Apollo целится в ~$50k при серийности. Agility Robotics тестирует Digit с ритейлом и логистикой, Figure качает партнёрства с автопромом и ИИ-командами. Европа двигает ко-роботов (PAL, NEURA), Канада фокусируется на скорости «донаучивания» (Sanctuary). Китай давит ценой и темпом. Впервые за 20 лет «железо из фильма» превращается в розницу.
США — про индустриализацию: пилоты на складах, линии комплектования, инспекции, «человек в петле» как норма. Китай — про масштаб и ценовой таран: учебные наборы, массовые поставки в университеты и кружки, дешёвые шасси и быстрая итерация софта. Европа — про безопасность и кооперацию человека и машины: сертификация, стабильность, аккуратная интеграция. Кривая цен уже как у дронов и 3D-принтеров: низ — $1–2k, мид — $5–20k, верх — $50k+, а маржа переезжает из «железа» в навыки, сервис и данные движений. Чистой автономии пока мало, поэтому реальные кейсы строятся ступенчато: телесупервизия → полуавтономия → «сам».
И что?
Для бизнеса: перестраивайте процессы под «робот+человек», а не под мифическую полную автономию. Считайте экономику в $/час при заданном аптайме, а не по цене покупки. Стартовая тройка задач понятна: переместить, донести, проверить. Дальше — ваш внутренний «магазин навыков» с каталогом команд вроде «убери стол», «подвези комплект», «инвентаризация полки». Ключевые метрики пилота — автономные минуты без вмешательства, MTBF, доля успешно закрытых задач, время до восстановления после сбоя. Без локального сервиса и запчастей пилот не взлетает.
Для инвесторов: ориентиры простые — коэффициент автономии, аптайм в реальном объекте, повторяемая выручка от навыков и сервиса. Слой данных и симуляции ценнее механики. Риски — операционные: зависимость от «человека в петле» дольше прогнозов, сервисный хвост, капекс на развёртывание. Драйвер апсайда — каналы с фабриками, 3PL и автопромом, плюс платформенная модель «скиллы по подписке». Дисциплина кэшфлоу важнее рассказов про «AGI завтра».
Для людей: порог входа в робототехнику падает до цены смартфона. Школы и хакспейсы получают живых гуманоидов, а не видео с выставок. Появляются новые роли — оператор, тренер навыков, техник сервиса, интегратор. Домам и классам придётся жить с камерами и микрофонами — значит, нужны офлайн-режимы, локальное хранение и прозрачные настройки приватности. База для апгрейда — Python/ROS, безопасность и «операторское мышление».
🚨 Нам 3.14здец
Склад и ритейл — 8/10. Монотонные переносы, инспекции, пополнение полок — идеальная добыча для гуманоидов с телесупервизией. Что делать: переучивать персонал в операторов и тренеров, фиксировать KPI на задачу, строить смены вокруг робо-флота.
Страны с дешёвым трудом — 7/10. «Автоматизация у потребителя» ускоряет релакацию производств ближе к рынкам сбыта. Что делать: уходить в инженерные, сервисные и интеграционные компетенции вокруг роботизации.
Приватность и безопасность — 9/10. Камеры, микрофоны и манипуляторы в домах и школах — новый класс рисков. Что делать: требовать локальные профили доступа, офлайн-режимы, запрет телеметрии без согласия, независимые аудиты и журнал действий робота.
Итог простой: цена падает, задачи упрощаются, экосистема навыков дорожает. Кто успеет превратить «железо за цену айфона» в повторяемые сценарии и сервис — закрепит новый слой рынка.
США — про индустриализацию: пилоты на складах, линии комплектования, инспекции, «человек в петле» как норма. Китай — про масштаб и ценовой таран: учебные наборы, массовые поставки в университеты и кружки, дешёвые шасси и быстрая итерация софта. Европа — про безопасность и кооперацию человека и машины: сертификация, стабильность, аккуратная интеграция. Кривая цен уже как у дронов и 3D-принтеров: низ — $1–2k, мид — $5–20k, верх — $50k+, а маржа переезжает из «железа» в навыки, сервис и данные движений. Чистой автономии пока мало, поэтому реальные кейсы строятся ступенчато: телесупервизия → полуавтономия → «сам».
И что?
Для бизнеса: перестраивайте процессы под «робот+человек», а не под мифическую полную автономию. Считайте экономику в $/час при заданном аптайме, а не по цене покупки. Стартовая тройка задач понятна: переместить, донести, проверить. Дальше — ваш внутренний «магазин навыков» с каталогом команд вроде «убери стол», «подвези комплект», «инвентаризация полки». Ключевые метрики пилота — автономные минуты без вмешательства, MTBF, доля успешно закрытых задач, время до восстановления после сбоя. Без локального сервиса и запчастей пилот не взлетает.
Для инвесторов: ориентиры простые — коэффициент автономии, аптайм в реальном объекте, повторяемая выручка от навыков и сервиса. Слой данных и симуляции ценнее механики. Риски — операционные: зависимость от «человека в петле» дольше прогнозов, сервисный хвост, капекс на развёртывание. Драйвер апсайда — каналы с фабриками, 3PL и автопромом, плюс платформенная модель «скиллы по подписке». Дисциплина кэшфлоу важнее рассказов про «AGI завтра».
Для людей: порог входа в робототехнику падает до цены смартфона. Школы и хакспейсы получают живых гуманоидов, а не видео с выставок. Появляются новые роли — оператор, тренер навыков, техник сервиса, интегратор. Домам и классам придётся жить с камерами и микрофонами — значит, нужны офлайн-режимы, локальное хранение и прозрачные настройки приватности. База для апгрейда — Python/ROS, безопасность и «операторское мышление».
🚨 Нам 3.14здец
Склад и ритейл — 8/10. Монотонные переносы, инспекции, пополнение полок — идеальная добыча для гуманоидов с телесупервизией. Что делать: переучивать персонал в операторов и тренеров, фиксировать KPI на задачу, строить смены вокруг робо-флота.
Страны с дешёвым трудом — 7/10. «Автоматизация у потребителя» ускоряет релакацию производств ближе к рынкам сбыта. Что делать: уходить в инженерные, сервисные и интеграционные компетенции вокруг роботизации.
Приватность и безопасность — 9/10. Камеры, микрофоны и манипуляторы в домах и школах — новый класс рисков. Что делать: требовать локальные профили доступа, офлайн-режимы, запрет телеметрии без согласия, независимые аудиты и журнал действий робота.
Итог простой: цена падает, задачи упрощаются, экосистема навыков дорожает. Кто успеет превратить «железо за цену айфона» в повторяемые сценарии и сервис — закрепит новый слой рынка.
👍11❤9
Поздний вечер, комната переговоров. На столе — финальные правки двух бумаг: новая структура OpenAI и новый договор с Microsoft. Переход завершён: for-profit теперь OpenAI Group PBC (public benefit corp), «старый» НКО стал OpenAI Foundation и держит ~$130 млрд акций. Из них $25 млрд обещаны на медицину и «инфраструктуру устойчивости к ИИ».
Доля Microsoft срезана с 32,5% до ~27%, но пакет оценивается в ~$135 млрд. Любые заявления «мы достигли AGI» теперь подтверждает независимая панель; права Microsoft на модели и продукты сохраняются до 2032 года — даже если AGI случится раньше.
Эксклюзивность по облаку снята: OpenAI обязуется выкупить Azure на ~$250 млрд, но может докупать мощности у других провайдеров; обе стороны вправе гнаться за AGI с кем угодно. Для контекста: фонд с $130 млрд — это лига крупнейших благотворителей в мире ИИ/медицинских исследований.
И что?
Для бизнеса: контрактная стабильность и понятные права «даже после AGI», длинный горизонт на Azure плюс право резервировать мощность у других — снижает риски сбоев и даёт рычаг на цену.
Для инвесторов: управленческий и IP-риск декомпозирован; в модели — предсказуемые COGS за счёт крупного облачного контракта, в истории — независимая валидация AGI, что уменьшает регуляторную турбулентность.
Для людей: крупные деньги уходят в медицину и защиту от ИИ-сбоёв; прозрачнее процедура «объявили AGI — докажите».
🚨 Нам 3.14здец
xAI и Илон Маск — 8/10 — почему больно: OpenAI снимает правовую неопределённость, закрепляет права партнёра до 2032 и получает гигантский облачный лимит; это режет аргумент «они неуправляемы» и укрепляет позиции в гонке за AGI. Что делать: уходить в уникальные данные/железо и агрессивные партнёрства по вычислениям.
Независимые AI-лаборатории в медицине/безопасности — 7/10 — почему больно: $25 млрд целевых грантов от нового гига-фонда меняют рынок финансирования и конкуренцию за кадры. Что делать: фокус на узкие ниши и со-гранты с клиниками/регуляторами.
Доля Microsoft срезана с 32,5% до ~27%, но пакет оценивается в ~$135 млрд. Любые заявления «мы достигли AGI» теперь подтверждает независимая панель; права Microsoft на модели и продукты сохраняются до 2032 года — даже если AGI случится раньше.
Эксклюзивность по облаку снята: OpenAI обязуется выкупить Azure на ~$250 млрд, но может докупать мощности у других провайдеров; обе стороны вправе гнаться за AGI с кем угодно. Для контекста: фонд с $130 млрд — это лига крупнейших благотворителей в мире ИИ/медицинских исследований.
И что?
Для бизнеса: контрактная стабильность и понятные права «даже после AGI», длинный горизонт на Azure плюс право резервировать мощность у других — снижает риски сбоев и даёт рычаг на цену.
Для инвесторов: управленческий и IP-риск декомпозирован; в модели — предсказуемые COGS за счёт крупного облачного контракта, в истории — независимая валидация AGI, что уменьшает регуляторную турбулентность.
Для людей: крупные деньги уходят в медицину и защиту от ИИ-сбоёв; прозрачнее процедура «объявили AGI — докажите».
🚨 Нам 3.14здец
xAI и Илон Маск — 8/10 — почему больно: OpenAI снимает правовую неопределённость, закрепляет права партнёра до 2032 и получает гигантский облачный лимит; это режет аргумент «они неуправляемы» и укрепляет позиции в гонке за AGI. Что делать: уходить в уникальные данные/железо и агрессивные партнёрства по вычислениям.
Независимые AI-лаборатории в медицине/безопасности — 7/10 — почему больно: $25 млрд целевых грантов от нового гига-фонда меняют рынок финансирования и конкуренцию за кадры. Что делать: фокус на узкие ниши и со-гранты с клиниками/регуляторами.
This media is not supported in your browser
VIEW IN TELEGRAM
Офисный герой из «Офиса»: таблица на 12 вкладок, ночь перед дедлайном, кофе остывает. Теперь к нему подсаживают напарника умнее — Claude для Excel (бета). Это боковая панель, которая читает листы, объясняет, чинит формулы, заполняет шаблоны и, при желании, собирает новую книгу с нуля.
Для финансов подъехали 7 прямых связок с данными: Aiera — стенограммы созвонов по отчётности, LSEG — рынок в реальном времени, Moody’s — рейтинги. Плюс готовые “умения” под финансы: кэшфлоу-модели, анализ компаний, отчёты по покрытию. Запуск как research-preview для Max, Enterprise и Teams, дальше шире.
И что?
Для бизнеса: ускоряется закрытие месяца и подготовка к совету. Сценарий: вы кидаете шаблон P&L/CF, Claude подтягивает свежие цифры из связок, подсвечивает расхождения и правит формулы, вы проверяете и жмёте «готово». Меньше ручного копипаста — больше времени на выводы и сценарии «что если».
Для инвесторов: ресёрч и покрытие обновляются быстрее. Конкурент выходит с отчётом — вы за час обновляете мультипликаторы, рейтинги и цитаты из транскриптов в одной книге. Риски: права доступа и качество источников. Что считать: долю обновлений, прошедших без ручных правок, и время от события до обновлённой модели.
Для людей: Excel наконец начинает объяснять сам себя. Сложные формулы раскладываются на шаги, шаблоны заполняются автоматически, концентрация — на смысле, а не на охоте за ячейками.
🚨 Нам 3.14здец
Джуны в IB/консалтинге — 7/10 — почему: ночная рутина (чистка данных, правки формул, обновления драйверов) уезжает ассистенту. Что делать: расти в интерпретацию, отраслевые инсайты, общение с бизнесом.
SaaS-плагины «помощник для
Excel» — 8/10 — почему: нативная панель + финансовые связки закрывают типовые кейсы «объясни/исправь/обнови». Что делать: уходить в ниши (ESG, private markets, альтернативные данные) и становиться источником внутри Claude.
Оформление Halloween 👻. Без паники и стремительных отписок.
Для финансов подъехали 7 прямых связок с данными: Aiera — стенограммы созвонов по отчётности, LSEG — рынок в реальном времени, Moody’s — рейтинги. Плюс готовые “умения” под финансы: кэшфлоу-модели, анализ компаний, отчёты по покрытию. Запуск как research-preview для Max, Enterprise и Teams, дальше шире.
И что?
Для бизнеса: ускоряется закрытие месяца и подготовка к совету. Сценарий: вы кидаете шаблон P&L/CF, Claude подтягивает свежие цифры из связок, подсвечивает расхождения и правит формулы, вы проверяете и жмёте «готово». Меньше ручного копипаста — больше времени на выводы и сценарии «что если».
Для инвесторов: ресёрч и покрытие обновляются быстрее. Конкурент выходит с отчётом — вы за час обновляете мультипликаторы, рейтинги и цитаты из транскриптов в одной книге. Риски: права доступа и качество источников. Что считать: долю обновлений, прошедших без ручных правок, и время от события до обновлённой модели.
Для людей: Excel наконец начинает объяснять сам себя. Сложные формулы раскладываются на шаги, шаблоны заполняются автоматически, концентрация — на смысле, а не на охоте за ячейками.
🚨 Нам 3.14здец
Джуны в IB/консалтинге — 7/10 — почему: ночная рутина (чистка данных, правки формул, обновления драйверов) уезжает ассистенту. Что делать: расти в интерпретацию, отраслевые инсайты, общение с бизнесом.
SaaS-плагины «помощник для
Excel» — 8/10 — почему: нативная панель + финансовые связки закрывают типовые кейсы «объясни/исправь/обнови». Что делать: уходить в ниши (ESG, private markets, альтернативные данные) и становиться источником внутри Claude.
Оформление Halloween 👻. Без паники и стремительных отписок.
❤3🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
В какой нейронке сделана эта фотка
Anonymous Quiz
4%
Seedream 4
3%
Flux
2%
Mystic
4%
Ideogram 3
15%
Nano Banana
4%
GPT
2%
Runway
65%
Да вы что. Это реальная фотка
❤4
✅Правильный ответ. Генерить контент , как оказалось можно без нейронок, компьютера. Голова еще пока в цене, если конечно на ее месте случайно не окажется тыква 🎃
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25🍾4❤2🤪1
Два часа ночи. Человек завис в чате с ботом, мысли скачут, сердце колотится. Нужен живой, спокойный диалог и быстрый мост к реальной помощи — без сюсюканья и без опасных советов. OpenAI подкрутил GPT-5 под такие моменты: модель распознаёт психоз/манию и суицидальные сигналы лучше, отвечает мягко, но не подыгрывает бреду, подсказывает, когда взять паузу, и кидает к горячим линиям. Работали с 170+ клиницистами, сеть экспертов — ~300 врачей из 60 стран.
Фактура. На тяжёлых кейсах по суициду автооценки: 91% соответствия протоколам у нового GPT-5 против 77% у прошлой версии GPT-5; клиницисты видят −52% нежелательных ответов vs 4o.
По широкой «психоз/мания» — 92% vs 27% (автооценки на сложных наборах), и −39% нежелательных ответов vs 4o. Превалентность низкая, но масштаб огромный: ~0,07% weekly-юзеров показывают признаки психоза/мании, ~0,15% — явные индикаторы суицидального планирования.
При 800 млн weekly пользователей это миллионы тревожных диалогов. Давление растёт: иски от семей, вопросы от штатов, спор о границах ответственности.
Почему сейчас и для кого. Чем больше охват — тем больше редких, но критичных кейсов в проде. Это апдейт для школ, телемед-платформ, саппорта, маркетплейсов психотерапии: сразу включать маршрутизацию, скрипты и эскалацию.
И что?
Для бизнеса: если у вас есть чат с пользователями — от школы до маркетплейса — обновите сценарии на «острые случаи», подключите локальные горячие линии и человека на подхват ночью; цель простая: за минуту довести до живого специалиста и сохранить запись разговора для разбора.
Для инвесторов: рынок массовых AI-диалогов входит в фазу регулирования; ценность в клинической валидации (внешние врачи подтверждают поведение модели), в партнёрствах с кризисными службами и в «следах» (аудит-лог — журнал инцидентов) — это снижает юридические риски.
Для людей: ответы станут мягче и точнее на сложных темах, а путь к реальной помощи — короче и понятнее; бот чаще подскажет, когда сделать паузу и как быстро выйти на специалиста рядом.
🚨 Нам 3.14здец
Соцсети, мессенджеры, школьные платформы — 9/10 — почему больно: при аудитории около 50 млн активных в месяц это десятки тысяч кризисных диалогов каждую неделю; часть идёт ночью и в личке, где модерации почти нет. Что делать: встроить выявление триггеров простыми фразами, держать дежурного человека ночью, подключить локальные горячие линии по географии, вести журнал инцидентов (аудит-лог) и хранить его для проверок. Кейс: школьная платформа с 10 млн пользователей ловит примерно 7 тысяч таких диалогов в неделю — без маршрутизации и «красной кнопки» прилетят иски и проверки.
Телемедицина и приложения про ментальное здоровье — 8/10 — почему больно: страховые и магазины приложений требуют чётких протоколов и отчётности; без этого режут трафик и выплаты. Что делать: внешнее клиническое ревью (врачи подтверждают, что ответы безопасны), договорённое время реакции (SLA — простыми словами «за сколько минут подключаем живого специалиста»), регулярные отчёты по инцидентам, обучение модераторов. Кейс: приложение на 5 млн активных в месяц получает примерно 3,5 тысячи кризисных разговоров в неделю — без дежурной линии и маршрутизации по локации это прямой юридический риск.
Фактура. На тяжёлых кейсах по суициду автооценки: 91% соответствия протоколам у нового GPT-5 против 77% у прошлой версии GPT-5; клиницисты видят −52% нежелательных ответов vs 4o.
По широкой «психоз/мания» — 92% vs 27% (автооценки на сложных наборах), и −39% нежелательных ответов vs 4o. Превалентность низкая, но масштаб огромный: ~0,07% weekly-юзеров показывают признаки психоза/мании, ~0,15% — явные индикаторы суицидального планирования.
При 800 млн weekly пользователей это миллионы тревожных диалогов. Давление растёт: иски от семей, вопросы от штатов, спор о границах ответственности.
Почему сейчас и для кого. Чем больше охват — тем больше редких, но критичных кейсов в проде. Это апдейт для школ, телемед-платформ, саппорта, маркетплейсов психотерапии: сразу включать маршрутизацию, скрипты и эскалацию.
И что?
Для бизнеса: если у вас есть чат с пользователями — от школы до маркетплейса — обновите сценарии на «острые случаи», подключите локальные горячие линии и человека на подхват ночью; цель простая: за минуту довести до живого специалиста и сохранить запись разговора для разбора.
Для инвесторов: рынок массовых AI-диалогов входит в фазу регулирования; ценность в клинической валидации (внешние врачи подтверждают поведение модели), в партнёрствах с кризисными службами и в «следах» (аудит-лог — журнал инцидентов) — это снижает юридические риски.
Для людей: ответы станут мягче и точнее на сложных темах, а путь к реальной помощи — короче и понятнее; бот чаще подскажет, когда сделать паузу и как быстро выйти на специалиста рядом.
🚨 Нам 3.14здец
Соцсети, мессенджеры, школьные платформы — 9/10 — почему больно: при аудитории около 50 млн активных в месяц это десятки тысяч кризисных диалогов каждую неделю; часть идёт ночью и в личке, где модерации почти нет. Что делать: встроить выявление триггеров простыми фразами, держать дежурного человека ночью, подключить локальные горячие линии по географии, вести журнал инцидентов (аудит-лог) и хранить его для проверок. Кейс: школьная платформа с 10 млн пользователей ловит примерно 7 тысяч таких диалогов в неделю — без маршрутизации и «красной кнопки» прилетят иски и проверки.
Телемедицина и приложения про ментальное здоровье — 8/10 — почему больно: страховые и магазины приложений требуют чётких протоколов и отчётности; без этого режут трафик и выплаты. Что делать: внешнее клиническое ревью (врачи подтверждают, что ответы безопасны), договорённое время реакции (SLA — простыми словами «за сколько минут подключаем живого специалиста»), регулярные отчёты по инцидентам, обучение модераторов. Кейс: приложение на 5 млн активных в месяц получает примерно 3,5 тысячи кризисных разговоров в неделю — без дежурной линии и маршрутизации по локации это прямой юридический риск.
1👍5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Розово-алый обод плазмы скользит по магнитному «бублику», камера пишет 16 тысяч кадров в секунду, зелёные треки лития как неоновые нитки подсказывают траекторию, а тёмное ядро сияет жаром, который не видит глаз — картинка гипнотизирует, но если твой бизнес — генерация энергии, в этот момент у тебя начинает подёргиваться глаз: на экране не арт-перформанс, а прямая трансляция конца старой электроэнергетики.
👇🏼 Читать дальше
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14🤬1
Может ли Tesla с FSD ездить без живого водителя за рулем. Правильный ответ появится через полтора часа
Anonymous Quiz
66%
Да
34%
Нет