Все любят прогнозы. Их каждый декабрь столько, что можно топить камин распечатками. И вдруг редкий случай: глава Microsoft не устроил гадание на бенчмарках, а нормально разложил, почему 2026 будет годом, когда хайп начнут менять на результат.
Что случилось:
•29 декабря 2025 Наделла выпустил “Looking Ahead to 2026”.
•Его тезисы: discovery -> diffusion, model overhang, “ценность не в моделях, а в системах и оркестрации”, и “общественное разрешение” на AI будет только через реальную пользу.
Разбор прогноза - коротко:
1. Model overhang = “ум уже есть, пользы мало”
Модели обгоняют компании по скорости. В 2026 начнут резать не AI, а хаос вокруг AI: пилоты без владельца, без метрик, без внедрения.
2. Diffusion = главное теперь масштабирование
Не “найти магию”, а “встроить в работу”: обучение людей, изменение ролей, правила использования, контроль качества. Если этого нет - AI останется игрушкой в отдельных командах.
3. “Системы важнее моделей”
Наделла продаёт очень правильную мысль: деньги будут в оркестрации - когда AI подключён к данным и инструментам, но с правами доступа, логированием, тестами, ограничениями и понятными сценариями.
Перевод: один чат в корпоративном периметре не даёт эффекта. Эффект дают связки “процесс -> агент -> инструмент -> контроль -> отчёт”.
4. Societal permission = “пока не докажешь пользу, тебя прикроют”
Речь не про мораль. Речь про разрешение работать с данными, доступами, энергетикой и рынком труда. Если AI приносит мусор, ошибки и скандалы - гайки закрутят быстрее.
И что?
Для бизнеса: план на 2026 выглядит так:
•выбрать 3-5 процессов, где есть деньги (продажи, поддержка, закупки, аналитика)
•поставить метрики “до/после” (время цикла, стоимость, качество, ошибки)
•построить систему: права доступа, журнал действий, тесты качества, откат
•назначить владельца результата, а не “команду инноваций”.
Для инвесторов: смотреть не на “какая модель внутри”, а на:
•где покупатель, какой процесс, какой KPI
•есть ли оркестрация, безопасность, контроль, интеграции
•сколько стоит внедрение и удержание (а не демо).
Для людей: AI станет меньше “вау” и больше “сделай работу”. И больше случаев, где ошибка будет реальной проблемой, потому что AI подключён к системам и данным.
🚨 Нам 3.14здец:
Компаниям с пилотами “ради отчёта” - 8/10 - в 2026 это начнут закрывать как бесполезные расходы - спасение в жёстких KPI и владельце процесса.
Стартапам “обёртка над моделью” - 7/10 - покупатель будет платить за систему и внедрение - спасение в вертикали с измеримым эффектом и контролем качества.
Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🟢 Nvidia забирает TPU-папу из Google - зачем это перед 2026.
🤝 Meta покупает Manus под ёлку - что там за сделка на $2B+.
💸 SoftBank заносит OpenAI $40 млрд - кому купили время.
И ещё +11 новостей - быстрых, как ИИ:
xAI и третий мегадатацентр почти до 2GW, Zhipu AI размещение в HK на $560M при оценке $6.6B, Alibaba MAI-UI агент на смартфоне, Tencent Hunyuan Motion 1.0 для 3D-анимаций, Adobe тянет Runway в Firefly, Claude Code пишет сам себя, Karpathy про “рефакторинг” профессии программиста, SimilarWeb про падение доли ChatGPT и рост Gemini, Liquid AI on-device модель LFM2-2.6B-Exp, Китай про правила для AI-личностей и зависимости, Epoch AI про отставание китайских open-weights по математике на ~7 месяцев.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
Что случилось:
•29 декабря 2025 Наделла выпустил “Looking Ahead to 2026”.
•Его тезисы: discovery -> diffusion, model overhang, “ценность не в моделях, а в системах и оркестрации”, и “общественное разрешение” на AI будет только через реальную пользу.
Разбор прогноза - коротко:
1. Model overhang = “ум уже есть, пользы мало”
Модели обгоняют компании по скорости. В 2026 начнут резать не AI, а хаос вокруг AI: пилоты без владельца, без метрик, без внедрения.
2. Diffusion = главное теперь масштабирование
Не “найти магию”, а “встроить в работу”: обучение людей, изменение ролей, правила использования, контроль качества. Если этого нет - AI останется игрушкой в отдельных командах.
3. “Системы важнее моделей”
Наделла продаёт очень правильную мысль: деньги будут в оркестрации - когда AI подключён к данным и инструментам, но с правами доступа, логированием, тестами, ограничениями и понятными сценариями.
Перевод: один чат в корпоративном периметре не даёт эффекта. Эффект дают связки “процесс -> агент -> инструмент -> контроль -> отчёт”.
4. Societal permission = “пока не докажешь пользу, тебя прикроют”
Речь не про мораль. Речь про разрешение работать с данными, доступами, энергетикой и рынком труда. Если AI приносит мусор, ошибки и скандалы - гайки закрутят быстрее.
И что?
Для бизнеса: план на 2026 выглядит так:
•выбрать 3-5 процессов, где есть деньги (продажи, поддержка, закупки, аналитика)
•поставить метрики “до/после” (время цикла, стоимость, качество, ошибки)
•построить систему: права доступа, журнал действий, тесты качества, откат
•назначить владельца результата, а не “команду инноваций”.
Для инвесторов: смотреть не на “какая модель внутри”, а на:
•где покупатель, какой процесс, какой KPI
•есть ли оркестрация, безопасность, контроль, интеграции
•сколько стоит внедрение и удержание (а не демо).
Для людей: AI станет меньше “вау” и больше “сделай работу”. И больше случаев, где ошибка будет реальной проблемой, потому что AI подключён к системам и данным.
🚨 Нам 3.14здец:
Компаниям с пилотами “ради отчёта” - 8/10 - в 2026 это начнут закрывать как бесполезные расходы - спасение в жёстких KPI и владельце процесса.
Стартапам “обёртка над моделью” - 7/10 - покупатель будет платить за систему и внедрение - спасение в вертикали с измеримым эффектом и контролем качества.
Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🟢 Nvidia забирает TPU-папу из Google - зачем это перед 2026.
🤝 Meta покупает Manus под ёлку - что там за сделка на $2B+.
💸 SoftBank заносит OpenAI $40 млрд - кому купили время.
И ещё +11 новостей - быстрых, как ИИ:
xAI и третий мегадатацентр почти до 2GW, Zhipu AI размещение в HK на $560M при оценке $6.6B, Alibaba MAI-UI агент на смартфоне, Tencent Hunyuan Motion 1.0 для 3D-анимаций, Adobe тянет Runway в Firefly, Claude Code пишет сам себя, Karpathy про “рефакторинг” профессии программиста, SimilarWeb про падение доли ChatGPT и рост Gemini, Liquid AI on-device модель LFM2-2.6B-Exp, Китай про правила для AI-личностей и зависимости, Epoch AI про отставание китайских open-weights по математике на ~7 месяцев.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
❤6
Media is too big
VIEW IN TELEGRAM
Двадцать пятый год стал точкой, где мир окончательно перешёл на ИИ-рельсы. Не как эксперимент, не как опцию и не как отдельную индустрию. ИИ вошёл во все области жизни. Работа, бизнес, финансы, образование, медицина, творчество, быт. Он встроен в процессы. Он в инфраструктуре. Он уже никуда не уйдёт.
И что?
Меняется сама логика мира. Скорость решений. Стоимость ошибок. Ценность навыков. Старые правила перестают работать, даже если формально ещё существуют. Игнорировать ИИ теперь означает жить в другой реальности, с другими ограничениями.
Для бизнеса.
Процессы пересобираются. Команды уменьшаются. Производительность растёт не линейно. Конкуренция усиливается не из-за рынка, а из-за снижения порога входа. Делать медленно и дорого становится фатально.
Для инвесторов.
ИИ больше не отдельная категория. Он внутри почти всех компаний. Ценность смещается к тем, кто умеет строить системы и быстро адаптироваться, а не к тем, у кого просто есть технология.
Для людей.
Профессии меняются. Роль человека смещается от исполнения к мышлению, выбору и ответственности. Придётся пересобирать себя не один раз и не по учебнику.
🚨И нам 3.14здец.
Потому что в этом году может прийти AGI. Мы не знаем, как именно изменится мир. Но понятно одно. Это необратимо. И это будет очень интересно.
C Новым 2026! годом. 🦾
И что?
Меняется сама логика мира. Скорость решений. Стоимость ошибок. Ценность навыков. Старые правила перестают работать, даже если формально ещё существуют. Игнорировать ИИ теперь означает жить в другой реальности, с другими ограничениями.
Для бизнеса.
Процессы пересобираются. Команды уменьшаются. Производительность растёт не линейно. Конкуренция усиливается не из-за рынка, а из-за снижения порога входа. Делать медленно и дорого становится фатально.
Для инвесторов.
ИИ больше не отдельная категория. Он внутри почти всех компаний. Ценность смещается к тем, кто умеет строить системы и быстро адаптироваться, а не к тем, у кого просто есть технология.
Для людей.
Профессии меняются. Роль человека смещается от исполнения к мышлению, выбору и ответственности. Придётся пересобирать себя не один раз и не по учебнику.
🚨И нам 3.14здец.
Потому что в этом году может прийти AGI. Мы не знаем, как именно изменится мир. Но понятно одно. Это необратимо. И это будет очень интересно.
C Новым 2026! годом. 🦾
🍾12🔥6👍4
2025 собрал индустрию в одну простую реальность: модели, инфраструктура, агенты, право и сделки начали влиять друг на друга каждый месяц. Это 25 точек, где индустрия реально повернула.
1. 21 Jan 2025 - The Stargate Project Факт: OpenAI объявила Stargate - проект AI-инфры на $500B с SoftBank и Oracle.
И что? Это закрепило простую мысль: гонка теперь не только про модели, а про электричество, датацентры и капекс. У кого меньше железа - тот в 2026 уже “в очереди”.
2. 23 Jan 2025 - OpenAI Operator (первый “веб-агент”) Факт: OpenAI выкатила research preview Operator - агент, который сам лазит по сайтам и делает действия.
И что? Это сделало “агенты” продуктовой категорией, а не слайдом. С этого момента рынок начал мерить не “IQ модели”, а сколько задач она реально закрывает без человека.
3. 27 Jan 2025 - “DeepSeek Moment” Факт: из-за хайпа вокруг DeepSeek R1 Nvidia улетела в исторический минус - около -$600B капитализации за день.
И что? Все ох***и, потому что “дорого = лучше” внезапно перестало быть аксиомой. После этого каждый CEO в AI начал считать: а где мы платим за понты, а где за результат.
4. 3 Feb 2025 - Deep Research в ChatGPT Факт: OpenAI запустила Deep Research - режим для многошагового ресёрча в ChatGPT (старт у Pro, потом расширение).
И что? Это перевело “чатбот” в формат мини-аналитика/ассоциата. Рынок резко ускорил продукты “исследуй-подведи-обоснуй”, и началась гонка за длинные цепочки действий.
5. 27 Feb 2025 - Claude Code Факт: Anthropic показала Claude Code (research preview) - агентный CLI-инструмент для разработки. И что? Это нормально легализовало “CLI-агентов” как рабочий интерфейс. После этого у девтулз начался сдвиг: не чатик, а автономная работа по репо.
Остальные 20 главных событий и резюме прошедшего 2025 года, о том что он нам унаследовал на 2026 и как с этим дальше жить, читайте в первом в этом году выпуске ИИ дайджеста.
Подпишись. Это бесплатно.
1. 21 Jan 2025 - The Stargate Project Факт: OpenAI объявила Stargate - проект AI-инфры на $500B с SoftBank и Oracle.
И что? Это закрепило простую мысль: гонка теперь не только про модели, а про электричество, датацентры и капекс. У кого меньше железа - тот в 2026 уже “в очереди”.
2. 23 Jan 2025 - OpenAI Operator (первый “веб-агент”) Факт: OpenAI выкатила research preview Operator - агент, который сам лазит по сайтам и делает действия.
И что? Это сделало “агенты” продуктовой категорией, а не слайдом. С этого момента рынок начал мерить не “IQ модели”, а сколько задач она реально закрывает без человека.
3. 27 Jan 2025 - “DeepSeek Moment” Факт: из-за хайпа вокруг DeepSeek R1 Nvidia улетела в исторический минус - около -$600B капитализации за день.
И что? Все ох***и, потому что “дорого = лучше” внезапно перестало быть аксиомой. После этого каждый CEO в AI начал считать: а где мы платим за понты, а где за результат.
4. 3 Feb 2025 - Deep Research в ChatGPT Факт: OpenAI запустила Deep Research - режим для многошагового ресёрча в ChatGPT (старт у Pro, потом расширение).
И что? Это перевело “чатбот” в формат мини-аналитика/ассоциата. Рынок резко ускорил продукты “исследуй-подведи-обоснуй”, и началась гонка за длинные цепочки действий.
5. 27 Feb 2025 - Claude Code Факт: Anthropic показала Claude Code (research preview) - агентный CLI-инструмент для разработки. И что? Это нормально легализовало “CLI-агентов” как рабочий интерфейс. После этого у девтулз начался сдвиг: не чатик, а автономная работа по репо.
Остальные 20 главных событий и резюме прошедшего 2025 года, о том что он нам унаследовал на 2026 и как с этим дальше жить, читайте в первом в этом году выпуске ИИ дайджеста.
Подпишись. Это бесплатно.
👍3❤1
X дал пользователям Grok фичу AI-редактирования картинок: загружаешь фото, пишешь промпт, получаешь отредактированный результат. И угадай, что стало самым вирусным use case. Не “сделай красивый фон”. Лента забилась запросами “раздень”, “сделай откровеннее”, включая случаи с несовершеннолетними. Дальше всё банально и грязно - чиновники, угрозы, письма, полиция.
Что случилось:
На X массово начали использовать Grok image editing, чтобы “цифрово раздевать” женщин. В отдельных кейсах всплывали запросы/результаты с несовершеннолетними.
Маск заявил: те, кто делает незаконный контент через Grok, “получат те же последствия, как если бы они сами загрузили незаконный контент”.
Аккаунт X @Safety повторил линию: будут удалять контент, навсегда банить аккаунты, работать с правоохранителями.
Франция, Индия, Малайзия и UK публично осудили ситуацию. Франция отдельно назвала результаты “явно незаконными” в логике европейских правил (DSA).
Проблема в том, что “менее строгий Grok” продавали как фичу. А реальный рынок показал, какой сценарий толпа выберет первым.
Контекст рынка:
Это один из первых публично вирусных кейсов “мощный consumer image-editing в массы”. И самый популярный жанр оказался не про творчество, а про насилие и травлю.
“Мы удалим и забаним” звучит правильно, но технически это война без конца: анонимные аккаунты, перезаливы, зеркала, новые промпты каждый час.
Регуляторы больше не спорят про “этику”. Они заходят через закон: защита детей, интимные дипфейки, ответственность платформ.
И что?
Для бизнеса: если у вас есть AI-редактирование изображений, считайте “интимные дипфейки” дефолт-риском. Нужны ограничения на сексуализацию, отдельные защиты по несовершеннолетним, быстрый takedown, логирование и процесс под запросы правоохранителей. Иначе вас будут нагибать не пользователи, а государства.
Для инвесторов: “safety” перестал быть опцией. Это прямой драйвер расходов, рисков блокировок и репутационного дисконта. Один вирусный кейс превращает “рост фичи” в “комплаенс и юридические издержки”.
Для людей: порог цифрового насилия падает. Сделать фейк стало дешево и быстро, а доказывать и отмываться долго и мучительно.
🚨 Нам 3.14здец:
Consumer-продуктам с image-editing без жёстких ограничений - 9/10 - первым вирусится злоупотребление, а расплата приходит регуляторами - что делать: запускать только с safety-архитектурой и готовым кризисным протоколом.
Платформам, которые продавали “минимум ограничений” - 8/10 - на теме детей компромиссов нет - что делать: резать функциональность и политику доступа, пока это не сделали за вас блокировками.
Что случилось:
На X массово начали использовать Grok image editing, чтобы “цифрово раздевать” женщин. В отдельных кейсах всплывали запросы/результаты с несовершеннолетними.
Маск заявил: те, кто делает незаконный контент через Grok, “получат те же последствия, как если бы они сами загрузили незаконный контент”.
Аккаунт X @Safety повторил линию: будут удалять контент, навсегда банить аккаунты, работать с правоохранителями.
Франция, Индия, Малайзия и UK публично осудили ситуацию. Франция отдельно назвала результаты “явно незаконными” в логике европейских правил (DSA).
Проблема в том, что “менее строгий Grok” продавали как фичу. А реальный рынок показал, какой сценарий толпа выберет первым.
Контекст рынка:
Это один из первых публично вирусных кейсов “мощный consumer image-editing в массы”. И самый популярный жанр оказался не про творчество, а про насилие и травлю.
“Мы удалим и забаним” звучит правильно, но технически это война без конца: анонимные аккаунты, перезаливы, зеркала, новые промпты каждый час.
Регуляторы больше не спорят про “этику”. Они заходят через закон: защита детей, интимные дипфейки, ответственность платформ.
И что?
Для бизнеса: если у вас есть AI-редактирование изображений, считайте “интимные дипфейки” дефолт-риском. Нужны ограничения на сексуализацию, отдельные защиты по несовершеннолетним, быстрый takedown, логирование и процесс под запросы правоохранителей. Иначе вас будут нагибать не пользователи, а государства.
Для инвесторов: “safety” перестал быть опцией. Это прямой драйвер расходов, рисков блокировок и репутационного дисконта. Один вирусный кейс превращает “рост фичи” в “комплаенс и юридические издержки”.
Для людей: порог цифрового насилия падает. Сделать фейк стало дешево и быстро, а доказывать и отмываться долго и мучительно.
🚨 Нам 3.14здец:
Consumer-продуктам с image-editing без жёстких ограничений - 9/10 - первым вирусится злоупотребление, а расплата приходит регуляторами - что делать: запускать только с safety-архитектурой и готовым кризисным протоколом.
Платформам, которые продавали “минимум ограничений” - 8/10 - на теме детей компромиссов нет - что делать: резать функциональность и политику доступа, пока это не сделали за вас блокировками.
❤2🤬1
В мире ИИ есть простая игра: когда у тебя не получается, ты покупаешь скорость за миллиарды. А потом молишься, чтобы никто из своих не вынес наружу, что внутри хаос и цифры “подрихтовали”.
Meta влила $14B в Scale AI и поставила Александра Ванга руководить Superintelligence Labs. И ровно в этот момент главный AI-ресёрчер Meta, Янн Лекун, уходит, запускает свой стартап и публично говорит: Ванг неопытен именно для управления ресёрчем и “суперлабом” - и это автоматом наезд на Цука, потому что это Цук посадил его туда. Плюс Лекун признаёт, что бенчмарки Llama 4 “подкрутили”. Это тот редкий случай, когда проблема Meta звучит не как инсайд, а как публичная фиксация.
Что случилось:
Лекун в интервью FT назвал Ванга “young” и “inexperienced” в контексте управления ресёрчем и исследовательской культурой на таком масштабе.
Важный второй слой: это удар по решению Цука, потому что именно он после сделки со Scale отдал Вангу ключи от Superintelligence Labs.
Лекун признал, что бенчмарки Llama 4 были “fudged a little bit” - то есть метрики приукрасили.
Он сказал, что ждёт новые уходы из GenAI-команды Meta.
Он отдельно прошёлся по свежим наймам Meta как по людям, которые “LLM-pilled”, и повторил свою линию: LLM как путь к “суперразуму” ему кажется тупиком.
Параллельно он раскрыл свой новый проект AMI: он - executive chair, CEO - Alex LeBrun (фаундер Nabla).
Контекст рынка:
Meta сейчас пытается купить скорость и управляемость в AI-вертикали: деньги, реорги, новый лидер, новая структура.
Но в генеративке валюта - доверие к измерениям. Истории про “подкрутили” бьют по всему: найм, партнёрства, продажи, переговоры с платформами.
Публичный выход Лекуна превращает внутреннюю оргбитву “ресёрч против KPI” в тему для всего рынка.
И что?
Для бизнеса: если вы завязаны на Llama или планировали зависеть от Meta-стека, закладывайте турбулентность. Свои eval’ы на своих задачах, план миграции, и меньше веры в бенчмарки как аргумент закупки.
Для инвесторов: риск репутационного дисконта к Meta GenAI плюс риск кадрового оттока. И окно для ставок на “после-LLM” подходы, если Лекун начнёт показывать результат у себя.
Для людей: AI-фичи в продуктах Meta могут качаться по качеству и предсказуемости. Реорги и уходы обычно дают странные апдейты и резкие смены поведения ассистентов.
🚨 Нам 3.14здец:
Командам, которые продают “лучшие бенчмарки” - 9/10 - любая история про “подкрутили” режет доверие и конверсию - спасение в прозрачных eval’ах и метриках под реальные кейсы клиентов.
Корпорациям, которые ставят ресёрч под “быстро и красиво” - 7/10 - сильные люди уходят и уносят направление - разделять продуктовый трек и фундаментальный трек, иначе сгорит оба.
‼️ Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🚫 Grok: фича для картинок внезапно стала уголовкой и политикой.
🩺 ChatGPT: медицина стала массовым ночным сценарием.
💰 xAI: на фоне скандалов они всё равно поднимают деньги
И ещё +11 новостей - быстрых, как ИИ: Claude Code за час повторил год работы команды, Anthropic скупает до 1M TPUv7, ChatGPT в 2026 станет “супер-ассистентом”, Gemini Robotics приходит в Atlas от Boston Dynamics, Falcon H1R 7B обещает математику/код быстрее и дешевле, Recursive Language Models для задач на месяцы, Jerry Tworek уходит из OpenAI, гайд по Claude Code с 15 параллельными сессиями, Microsoft переименовала Office 365 в Microsoft 365 Copilot app, апдейт Grok Imagine и ещё один через 3 недели, Маск объявил “сингулярность” для AI coding.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
Meta влила $14B в Scale AI и поставила Александра Ванга руководить Superintelligence Labs. И ровно в этот момент главный AI-ресёрчер Meta, Янн Лекун, уходит, запускает свой стартап и публично говорит: Ванг неопытен именно для управления ресёрчем и “суперлабом” - и это автоматом наезд на Цука, потому что это Цук посадил его туда. Плюс Лекун признаёт, что бенчмарки Llama 4 “подкрутили”. Это тот редкий случай, когда проблема Meta звучит не как инсайд, а как публичная фиксация.
Что случилось:
Лекун в интервью FT назвал Ванга “young” и “inexperienced” в контексте управления ресёрчем и исследовательской культурой на таком масштабе.
Важный второй слой: это удар по решению Цука, потому что именно он после сделки со Scale отдал Вангу ключи от Superintelligence Labs.
Лекун признал, что бенчмарки Llama 4 были “fudged a little bit” - то есть метрики приукрасили.
Он сказал, что ждёт новые уходы из GenAI-команды Meta.
Он отдельно прошёлся по свежим наймам Meta как по людям, которые “LLM-pilled”, и повторил свою линию: LLM как путь к “суперразуму” ему кажется тупиком.
Параллельно он раскрыл свой новый проект AMI: он - executive chair, CEO - Alex LeBrun (фаундер Nabla).
Контекст рынка:
Meta сейчас пытается купить скорость и управляемость в AI-вертикали: деньги, реорги, новый лидер, новая структура.
Но в генеративке валюта - доверие к измерениям. Истории про “подкрутили” бьют по всему: найм, партнёрства, продажи, переговоры с платформами.
Публичный выход Лекуна превращает внутреннюю оргбитву “ресёрч против KPI” в тему для всего рынка.
И что?
Для бизнеса: если вы завязаны на Llama или планировали зависеть от Meta-стека, закладывайте турбулентность. Свои eval’ы на своих задачах, план миграции, и меньше веры в бенчмарки как аргумент закупки.
Для инвесторов: риск репутационного дисконта к Meta GenAI плюс риск кадрового оттока. И окно для ставок на “после-LLM” подходы, если Лекун начнёт показывать результат у себя.
Для людей: AI-фичи в продуктах Meta могут качаться по качеству и предсказуемости. Реорги и уходы обычно дают странные апдейты и резкие смены поведения ассистентов.
🚨 Нам 3.14здец:
Командам, которые продают “лучшие бенчмарки” - 9/10 - любая история про “подкрутили” режет доверие и конверсию - спасение в прозрачных eval’ах и метриках под реальные кейсы клиентов.
Корпорациям, которые ставят ресёрч под “быстро и красиво” - 7/10 - сильные люди уходят и уносят направление - разделять продуктовый трек и фундаментальный трек, иначе сгорит оба.
‼️ Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🚫 Grok: фича для картинок внезапно стала уголовкой и политикой.
🩺 ChatGPT: медицина стала массовым ночным сценарием.
💰 xAI: на фоне скандалов они всё равно поднимают деньги
И ещё +11 новостей - быстрых, как ИИ: Claude Code за час повторил год работы команды, Anthropic скупает до 1M TPUv7, ChatGPT в 2026 станет “супер-ассистентом”, Gemini Robotics приходит в Atlas от Boston Dynamics, Falcon H1R 7B обещает математику/код быстрее и дешевле, Recursive Language Models для задач на месяцы, Jerry Tworek уходит из OpenAI, гайд по Claude Code с 15 параллельными сессиями, Microsoft переименовала Office 365 в Microsoft 365 Copilot app, апдейт Grok Imagine и ещё один через 3 недели, Маск объявил “сингулярность” для AI coding.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
👍5❤2
Старой школе предпринимателей страшно менять жизнь ровно по одной причине: у тебя раньше был целый этаж — программисты, тестировщики, техподдержка.
А теперь кто-то предлагает “вайбкодить”. И в голове сразу включается взрослая логика: основателю в коде ковыряться странно. Роль другая. Да и ещё хуже — если залезу, меня засосёт. Уйду в это с головой, начну кайфовать от “я сам собрал”, а бизнес останется без человека, который держит стратегию, продажи и решения.
Окей. Страх понятен. Только выводы там уже давно про другое.
Мне в ленте попался пост про то, что “середина в программировании исчезает”. И это выглядит как теория ровно до момента, когда ты начинаешь смотреть на реальность вокруг: простые задачи улетают в агенты.
Типовые фичи улетают в агенты. Черновой код улетает в агенты. И дальше внезапно выясняется, что проблема уже не “написать”, а “собрать систему так, чтобы оно работало, не развалилось, не пробило безопасность и не превратилось в тыкву через неделю”.
Тут и появляется главный сдвиг: сломался лифт, который готовил программистов как массовую профессию. Раньше джун рос на мелочи, набивал руку, получал ревью, становился мидлом. Сейчас “мелочь” исчезает — её съедают модели. Песочницы сужаются. Наставничество деградирует. Средний слой не успевает сформироваться. В итоге остаются два типа: очень сильные инженеры, которые способны держать архитектуру и ответственность, и “дирижёры”, которые управляют агентами, тестами, проверками и сборкой результата. Всё остальное начинает испаряться.
И вот почему эту машину уже не остановить.
На днях разлетелась история: Google Principal Engineer Jaana Dogan написала, что Claude Code за час воспроизвёл то, что её команда в Google делала год — после того как ей дали описание задачи.
Можно сколько угодно спорить про “это прототип, а не прод”. Суть в другом: скорость стала другого порядка. И она уже вошла в бизнес-процессы. Назад дороги нет.
И что?
Программистов “как класса” больше не будет в привычном виде. Массовая середина вымывается, лифт сломан, рынок сдвигается к узкому слою топов и к оркестрации вокруг агентов.
Ты уже конкурируешь не с компаниями, а с компаниями плюс нейросети. Даже если на короткой дистанции ты всё ещё красавчик, расчетная точка ожидания пройдена: те, кто встроил нейронки в работу, уже тебя обогнали.
Просто ты это увидишь с задержкой, когда обгон оформится в ближайшие месяцы — и выглядеть это будет как “что вообще произошло”.
Нам 3.14 здец
Программистам 10/10 как массовому классу.
Предпринимателям, которые не перешли на нейронки в бизнесе 10/10.
P.S. Эта мысль, а ка следствие этот пост родились на мастермайнде BIPIAI — сообщества, которое я запустил в декабре 25. Один из участников проговорил этот страх вслух, а дальше стало ясно, что разговор давно про выводы, а не про страхи.
Хочешь в компанию людей, которые бегут вместе с рынка, почитай по ссылке в комментариях. Может нам по пути.
До конца старого Нового года действует скидка 35% на все тарифы.
А теперь кто-то предлагает “вайбкодить”. И в голове сразу включается взрослая логика: основателю в коде ковыряться странно. Роль другая. Да и ещё хуже — если залезу, меня засосёт. Уйду в это с головой, начну кайфовать от “я сам собрал”, а бизнес останется без человека, который держит стратегию, продажи и решения.
Окей. Страх понятен. Только выводы там уже давно про другое.
Мне в ленте попался пост про то, что “середина в программировании исчезает”. И это выглядит как теория ровно до момента, когда ты начинаешь смотреть на реальность вокруг: простые задачи улетают в агенты.
Типовые фичи улетают в агенты. Черновой код улетает в агенты. И дальше внезапно выясняется, что проблема уже не “написать”, а “собрать систему так, чтобы оно работало, не развалилось, не пробило безопасность и не превратилось в тыкву через неделю”.
Тут и появляется главный сдвиг: сломался лифт, который готовил программистов как массовую профессию. Раньше джун рос на мелочи, набивал руку, получал ревью, становился мидлом. Сейчас “мелочь” исчезает — её съедают модели. Песочницы сужаются. Наставничество деградирует. Средний слой не успевает сформироваться. В итоге остаются два типа: очень сильные инженеры, которые способны держать архитектуру и ответственность, и “дирижёры”, которые управляют агентами, тестами, проверками и сборкой результата. Всё остальное начинает испаряться.
И вот почему эту машину уже не остановить.
На днях разлетелась история: Google Principal Engineer Jaana Dogan написала, что Claude Code за час воспроизвёл то, что её команда в Google делала год — после того как ей дали описание задачи.
Можно сколько угодно спорить про “это прототип, а не прод”. Суть в другом: скорость стала другого порядка. И она уже вошла в бизнес-процессы. Назад дороги нет.
И что?
Программистов “как класса” больше не будет в привычном виде. Массовая середина вымывается, лифт сломан, рынок сдвигается к узкому слою топов и к оркестрации вокруг агентов.
Ты уже конкурируешь не с компаниями, а с компаниями плюс нейросети. Даже если на короткой дистанции ты всё ещё красавчик, расчетная точка ожидания пройдена: те, кто встроил нейронки в работу, уже тебя обогнали.
Просто ты это увидишь с задержкой, когда обгон оформится в ближайшие месяцы — и выглядеть это будет как “что вообще произошло”.
Нам 3.14 здец
Программистам 10/10 как массовому классу.
Предпринимателям, которые не перешли на нейронки в бизнесе 10/10.
P.S. Эта мысль, а ка следствие этот пост родились на мастермайнде BIPIAI — сообщества, которое я запустил в декабре 25. Один из участников проговорил этот страх вслух, а дальше стало ясно, что разговор давно про выводы, а не про страхи.
Хочешь в компанию людей, которые бегут вместе с рынка, почитай по ссылке в комментариях. Может нам по пути.
До конца старого Нового года действует скидка 35% на все тарифы.
👍5
Представь: ты просто поспал одну ночь под датчиками. А утром модель говорит: риск Паркинсона высокий. Не “у тебя апноэ”, а прям “вот список болезней, которые могут прилететь дальше”.
Что случилось:
•Команда Стэнфорда (Stanford Medicine) опубликовала SleepFM в Nature Medicine в январе 2026. Это foundation model для полисомнографии (PSG) - одна ночная запись сна, куча каналов, и дальше прогноз рисков по болезням.
• Обучение: около 585k часов PSG-данных от ~65k участников. Сигналы: мозг (EEG), сердце (ECG), дыхание, движения/мышцы и т.д.
• Они связали PSG с долгими исходами по медкартам клиники Стэнфорда: данные по пациентам с 1999 по 2024, анализировали 1,000+ категорий заболеваний, нашли 130, которые “предсказываются” с приемлемой точностью.
•Идея сигнала: когда системы тела “рассинхронизированы” (мозг в глубоком сне, а сердце как на пробежке) - это красный флаг на будущие проблемы.
• По цифрам (важно: это C-index, то есть качество ранжирования риска, а не “диагноз”):
- Паркинсон - 0.89
- деменция - 0.85
- гипертензивная болезнь сердца - 0.84
• инфаркт - 0.81
• общий риск смерти - 0.84
Контекст рынка:
PSG - золотой стандарт, но дорогой, редкий и “для избранных”. SleepFM говорит простую вещь: сон - это огромный физиологический лог, который медицина десятилетиями собирала, но плохо монетизировала в смысле ранних предупреждений.
Если foundation model реально переносится на разные клиники/оборудование, дальше логика очевидна: следующий шаг - урезанные версии под wearables и домашние сенсоры. Но там битва за качество сигналов, клиническую валидацию и регуляторку.
И что?
Для бизнеса: клиники сна, страховые, digital health и wearable-игроки получают новый продуктовый слой - “risk scoring из сна” для триажа, профилактики и мониторинга. Но готовьтесь: приватность, согласия, аудит данных, медизделие/регуляторка, ответственность за false positive.
Для инвесторов: большой рынок, но moat будет не “модель”, а (1) доступ к качественным PSG/EHR, (2) клинические доказательства, (3) каналы дистрибуции в медицине и reimbursement. Модели без клинической трубы будут гореть.
Для людей: шанс ловить риски раньше и дешевле. Минус - тревожность и “медицина по пуш-уведомлениям”, если продукт сделают без нормальных протоколов интерпретации и маршрутизации к врачу.
🚨 Нам 3.14здец:
Wearable-компаниям - 8/10 - как только появится “прогноз деменции/инфаркта из сна”, начнутся иски и регуляторные вопросы - что делать: разделять wellness vs medical, строить клинические исследования и аккуратные формулировки “risk”, а не “диагноз”.
Медтех-стартапам без доступа к клиническим данным - 7/10 - без PSG+EHR вы не докажете ценность - что делать: партнёрства с клиниками/сетями, фокус на конкретные исходы и протокол внедрения.
Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
💸 Китай запускает глобальную ценовую резню в ИИ.
🚗 Автопилоты теперь можно собирать без бюджета.
🩺 OpenAI лезет в медицину с твоими данными.
И ещё +11 новостей - быстрых, как ИИ:
Китай режет доступ к топовым Nvidia-чипам, Nvidia готовит новое поколение платформы, Amazon тащит чужие товары в своего агента и получает ответку, Anthropic раздувают до космической оценки, JPMorgan автоматизирует голосования акционеров, LM Arena поднимает большой раунд, 4K-видео со звуком из open-source, on-device модели становятся сильнее, AMD обещает 100x рост compute, Dell признаёт что “AI-PC” не продаётся, Anthropic снова топит за scaling.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
Что случилось:
•Команда Стэнфорда (Stanford Medicine) опубликовала SleepFM в Nature Medicine в январе 2026. Это foundation model для полисомнографии (PSG) - одна ночная запись сна, куча каналов, и дальше прогноз рисков по болезням.
• Обучение: около 585k часов PSG-данных от ~65k участников. Сигналы: мозг (EEG), сердце (ECG), дыхание, движения/мышцы и т.д.
• Они связали PSG с долгими исходами по медкартам клиники Стэнфорда: данные по пациентам с 1999 по 2024, анализировали 1,000+ категорий заболеваний, нашли 130, которые “предсказываются” с приемлемой точностью.
•Идея сигнала: когда системы тела “рассинхронизированы” (мозг в глубоком сне, а сердце как на пробежке) - это красный флаг на будущие проблемы.
• По цифрам (важно: это C-index, то есть качество ранжирования риска, а не “диагноз”):
- Паркинсон - 0.89
- деменция - 0.85
- гипертензивная болезнь сердца - 0.84
• инфаркт - 0.81
• общий риск смерти - 0.84
Контекст рынка:
PSG - золотой стандарт, но дорогой, редкий и “для избранных”. SleepFM говорит простую вещь: сон - это огромный физиологический лог, который медицина десятилетиями собирала, но плохо монетизировала в смысле ранних предупреждений.
Если foundation model реально переносится на разные клиники/оборудование, дальше логика очевидна: следующий шаг - урезанные версии под wearables и домашние сенсоры. Но там битва за качество сигналов, клиническую валидацию и регуляторку.
И что?
Для бизнеса: клиники сна, страховые, digital health и wearable-игроки получают новый продуктовый слой - “risk scoring из сна” для триажа, профилактики и мониторинга. Но готовьтесь: приватность, согласия, аудит данных, медизделие/регуляторка, ответственность за false positive.
Для инвесторов: большой рынок, но moat будет не “модель”, а (1) доступ к качественным PSG/EHR, (2) клинические доказательства, (3) каналы дистрибуции в медицине и reimbursement. Модели без клинической трубы будут гореть.
Для людей: шанс ловить риски раньше и дешевле. Минус - тревожность и “медицина по пуш-уведомлениям”, если продукт сделают без нормальных протоколов интерпретации и маршрутизации к врачу.
🚨 Нам 3.14здец:
Wearable-компаниям - 8/10 - как только появится “прогноз деменции/инфаркта из сна”, начнутся иски и регуляторные вопросы - что делать: разделять wellness vs medical, строить клинические исследования и аккуратные формулировки “risk”, а не “диагноз”.
Медтех-стартапам без доступа к клиническим данным - 7/10 - без PSG+EHR вы не докажете ценность - что делать: партнёрства с клиниками/сетями, фокус на конкретные исходы и протокол внедрения.
Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
💸 Китай запускает глобальную ценовую резню в ИИ.
🚗 Автопилоты теперь можно собирать без бюджета.
🩺 OpenAI лезет в медицину с твоими данными.
И ещё +11 новостей - быстрых, как ИИ:
Китай режет доступ к топовым Nvidia-чипам, Nvidia готовит новое поколение платформы, Amazon тащит чужие товары в своего агента и получает ответку, Anthropic раздувают до космической оценки, JPMorgan автоматизирует голосования акционеров, LM Arena поднимает большой раунд, 4K-видео со звуком из open-source, on-device модели становятся сильнее, AMD обещает 100x рост compute, Dell признаёт что “AI-PC” не продаётся, Anthropic снова топит за scaling.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
❤7👍7
Ты сидишь в Cursor, жмёшь привычный хоткей, просишь “почини тесты и сделай рефакторинг” - и внезапно вместо кода получаешь тишину. Не баг, не VPN, не “упал сервис”. Тебе просто выключили модель, потому что твоя компания - конкурент. И это случилось у xAI: Anthropic отрубил им Claude.
Фактура:
Кто: Anthropic отключил xAI доступ к Claude, которым xAI пользовалась через Cursor. Историю вынесла журналистка Kylie Robison; внутри xAI блок подтвердил сооснователь Tony Wu во внутреннем мемо.
Что произошло: Claude через Cursor перестал работать у сотрудников xAI, доступ закрыт на стороне Anthropic.
Почему: в условиях Anthropic запрещено использовать их модели для разработки или обучения конкурирующих ИИ-систем. xAI, судя по всему, попала под этот запрет.
Реакция xAI: Wu обозначил “удар по продуктивности” и подал это как мотивацию ускорить свои инструменты кодинга.
Контекст рынка:
Coding-ассистенты теперь часть станка, на котором делается следующий ИИ. Поэтому доступ к сильным моделям стал конкурентным рычагом, а ToS - инструментом давления.
Это не первый раз: Anthropic уже ограничивал доступ отдельным игрокам и продуктам из-за конкуренции и трактовки условий.
И что?
Для бизнеса: если процессы завязаны на чужую модель через IDE/плагин, у тебя есть риск “рубильника”. Минимальный план - мультивендорность, запасная модель, BYOK, и юридически чистые сценарии.
Для инвесторов: у провайдеров моделей появляется власть отключать конкурентов. У стартапов на прокладках риск зависимости растёт, и это надо закладывать в оценку.
Для людей: у разработчиков будут чаще происходить внезапные смены модели/качества в инструментах. В корпорациях вырастет тяга к закрытым стеком и своим моделям, чтобы не ловить “минуту тишины” в середине релиза.
🚨 Нам 3.14здец
Стартапам, которые строят продукт поверх одного провайдера - 8/10 - выключатель у провайдера - лечится только мультивендорностью и контрактами.
Командам конкурентов, которые тихо используют чужие модели в разработке - 7/10 - это вскрывается и режется - держать критичный контур на своём стеке и не играться с ToS.
‼️ Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🩺 В медицине официально сняли один из главных тормозов
📩 Почта перестаёт быть кладбищем писем
🛒 Покупки переезжают в чаты. Скоро
И ещё +11 новостей - быстрых, как ИИ: ChatGPT for Healthcare, суд Маск vs OpenAI в марте, settlement по Character.AI, атомные контракты Meta, compute удваивается каждые 7 месяцев, ElevenLabs Scribe v2, новый AI Intelligence Index, апгрейд Grok Code в феврале, формализация математики у Tao, оценка Qwen про шансы Китая, acqui-hire Convogo.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
Фактура:
Кто: Anthropic отключил xAI доступ к Claude, которым xAI пользовалась через Cursor. Историю вынесла журналистка Kylie Robison; внутри xAI блок подтвердил сооснователь Tony Wu во внутреннем мемо.
Что произошло: Claude через Cursor перестал работать у сотрудников xAI, доступ закрыт на стороне Anthropic.
Почему: в условиях Anthropic запрещено использовать их модели для разработки или обучения конкурирующих ИИ-систем. xAI, судя по всему, попала под этот запрет.
Реакция xAI: Wu обозначил “удар по продуктивности” и подал это как мотивацию ускорить свои инструменты кодинга.
Контекст рынка:
Coding-ассистенты теперь часть станка, на котором делается следующий ИИ. Поэтому доступ к сильным моделям стал конкурентным рычагом, а ToS - инструментом давления.
Это не первый раз: Anthropic уже ограничивал доступ отдельным игрокам и продуктам из-за конкуренции и трактовки условий.
И что?
Для бизнеса: если процессы завязаны на чужую модель через IDE/плагин, у тебя есть риск “рубильника”. Минимальный план - мультивендорность, запасная модель, BYOK, и юридически чистые сценарии.
Для инвесторов: у провайдеров моделей появляется власть отключать конкурентов. У стартапов на прокладках риск зависимости растёт, и это надо закладывать в оценку.
Для людей: у разработчиков будут чаще происходить внезапные смены модели/качества в инструментах. В корпорациях вырастет тяга к закрытым стеком и своим моделям, чтобы не ловить “минуту тишины” в середине релиза.
🚨 Нам 3.14здец
Стартапам, которые строят продукт поверх одного провайдера - 8/10 - выключатель у провайдера - лечится только мультивендорностью и контрактами.
Командам конкурентов, которые тихо используют чужие модели в разработке - 7/10 - это вскрывается и режется - держать критичный контур на своём стеке и не играться с ToS.
‼️ Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🩺 В медицине официально сняли один из главных тормозов
📩 Почта перестаёт быть кладбищем писем
🛒 Покупки переезжают в чаты. Скоро
И ещё +11 новостей - быстрых, как ИИ: ChatGPT for Healthcare, суд Маск vs OpenAI в марте, settlement по Character.AI, атомные контракты Meta, compute удваивается каждые 7 месяцев, ElevenLabs Scribe v2, новый AI Intelligence Index, апгрейд Grok Code в феврале, формализация математики у Tao, оценка Qwen про шансы Китая, acqui-hire Convogo.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест
Сцена из обычной американской жизни: у тебя стабильная терапия, нужен обычный рефилл на 30-90 дней. А дальше классика - запись, ожидание, “позвоните завтра”. Юта решила: эту рутину можно закрывать ИИ.
Фактура:
Кто: штат Юта, Office of Artificial Intelligence Policy (регуляторная “песочница” штата) и стартап Doctronic.
Дата старта - 6 января 2026.
Что разрешили: ИИ оформляет продление уже назначенных ранее препаратов для хронических состояний, без отдельного подтверждения врача на каждый рефилл. Пилот на 12 месяцев.
Объём: 191 препарат. Примеры категорий - давление/холестерин, психиатрия (в т.ч. SSRIs), контрацепция.
Запреты: контролируемые вещества и “скользкие” классы - обезболивание, ADHD-стимуляторы, инъекционные препараты и т.п.
Как выглядит процесс: проверка личности, клинический опрос, решение ИИ. Спорные кейсы уходят врачу; первые решения в пилоте дополнительно просматриваются клиницистами.
Деньги: $4 за продление.
Качество по тестам: штат/компания заявляют совпадение решений с врачами около 99% в тестовой выборке.
Реакция: AMA публично давит на тему рисков автономии и врачебного надзора.
Контекст рынка:
Юта использует AI regulatory sandbox, который позволяет временно “ослабить” отдельные требования, собрать метрики и потом тащить это в нормальное регулирование. Это быстрый способ легализовать высокорисковые кейсы через пилоты.
На фоне - федеральный сигнал про “меньше надзора” в низкорисковой digital health: FDA на CES 2026 заявил о более мягком подходе к wellness wearables и софту без заявлений про лечение/диагноз. Рынок это считал как зелёный свет.
И что?
Для бизнеса: клиники/телемед, которые жили на “быстрых визитах ради рефилла”, теряют простой поток. План - уход в подписки на ведение хронических, интеграции с аптеками и страховыми, домашний мониторинг.
Для инвесторов: unit $4/refill выглядит понятно, но главная переменная - liability и регуляторка по штатам. Ставка на тех, кто умеет в аудит, страховку ответственности, клинические протоколы, партнёрства с сетями аптек.
Для людей: быстрее получить рутинный рефилл и меньше “провалов” в лечении из-за очередей. Цена ошибки высокая, поэтому важны ограничения по списку и эскалация на врача.
🚨 Нам 3.14здец
Телемед “рефилл за 5 минут” - 7/10 - у них уходит самый лёгкий чек - срочно менять продукт на хронические программы и работу со страховками.
Компании, которые полезут расширять список на контролируемые препараты - 8/10 - один инцидент, и прикроют всем - держаться только low-risk и железного комплаенса.
Фактура:
Кто: штат Юта, Office of Artificial Intelligence Policy (регуляторная “песочница” штата) и стартап Doctronic.
Дата старта - 6 января 2026.
Что разрешили: ИИ оформляет продление уже назначенных ранее препаратов для хронических состояний, без отдельного подтверждения врача на каждый рефилл. Пилот на 12 месяцев.
Объём: 191 препарат. Примеры категорий - давление/холестерин, психиатрия (в т.ч. SSRIs), контрацепция.
Запреты: контролируемые вещества и “скользкие” классы - обезболивание, ADHD-стимуляторы, инъекционные препараты и т.п.
Как выглядит процесс: проверка личности, клинический опрос, решение ИИ. Спорные кейсы уходят врачу; первые решения в пилоте дополнительно просматриваются клиницистами.
Деньги: $4 за продление.
Качество по тестам: штат/компания заявляют совпадение решений с врачами около 99% в тестовой выборке.
Реакция: AMA публично давит на тему рисков автономии и врачебного надзора.
Контекст рынка:
Юта использует AI regulatory sandbox, который позволяет временно “ослабить” отдельные требования, собрать метрики и потом тащить это в нормальное регулирование. Это быстрый способ легализовать высокорисковые кейсы через пилоты.
На фоне - федеральный сигнал про “меньше надзора” в низкорисковой digital health: FDA на CES 2026 заявил о более мягком подходе к wellness wearables и софту без заявлений про лечение/диагноз. Рынок это считал как зелёный свет.
И что?
Для бизнеса: клиники/телемед, которые жили на “быстрых визитах ради рефилла”, теряют простой поток. План - уход в подписки на ведение хронических, интеграции с аптеками и страховыми, домашний мониторинг.
Для инвесторов: unit $4/refill выглядит понятно, но главная переменная - liability и регуляторка по штатам. Ставка на тех, кто умеет в аудит, страховку ответственности, клинические протоколы, партнёрства с сетями аптек.
Для людей: быстрее получить рутинный рефилл и меньше “провалов” в лечении из-за очередей. Цена ошибки высокая, поэтому важны ограничения по списку и эскалация на врача.
🚨 Нам 3.14здец
Телемед “рефилл за 5 минут” - 7/10 - у них уходит самый лёгкий чек - срочно менять продукт на хронические программы и работу со страховками.
Компании, которые полезут расширять список на контролируемые препараты - 8/10 - один инцидент, и прикроют всем - держаться только low-risk и железного комплаенса.
👍8❤5
Сцена: ты живёшь в стране, которая строит “самый крутой ИИ”. А в реальной жизни у людей ИИ просто не стал привычкой. И параллельно в бедных регионах люди массово садятся на бесплатную китайскую модель, потому что она тупо доступна. Без визитов, без подписок, без банковских карт. Вот так и теряют рынки - тихо, без фанфар.
Фактура:
Кто: Microsoft AI Economy Institute, отчёт про фактическое использование ИИ во 2-й половине 2025.
Сколько: глобально ИИ использовали 16,3% людей. Это примерно каждый шестой.
Разрыв: богатые страны - 24,7% среди людей трудоспособного возраста, развивающиеся - 14,1%. Разница уже 10,6 процентного пункта и растёт.
Лидер: ОАЭ - 64% (то есть почти две трети трудоспособных реально пользуются).
США: 28,3% и 24-е место в мире. Да, те самые США, где модели и датацентры.
DeepSeek - не “вау по качеству”, а “вау по распространению”:
Что это: бесплатный чат и открытые веса - можно запускать, встраивать, копировать и разносить без оплаты.
Где прёт: особенно в недообслуженных рынках. В Африке использование оценивают в 2-4 раза выше, чем в других регионах.
Доли по отдельным странам в оценках отчёта выглядят как тревожный звонок: Китай 89%, Беларусь 56%, Куба 49%, Россия 43%.
Почему так: когда у людей нет нормальных платежей, подписок и доступа к дорогим сервисам, “бесплатно и работает” убивает “самое лучшее, но недоступное”. Плюс партнёрства по железу и инфраструктуре (в отчёте упоминаются связки вокруг Huawei) помогают протащить это в каналы.
Контекст рынка:
Тут главная мысль неприятная - лидерство по разработке не означает лидерство по привычке. Можно быть фабрикой ИИ и проиграть массовое внедрение.
Второй слой ещё хуже - “бесплатный дефолт” становится геополитикой. Кто стоит “по умолчанию” в устройстве, в телеком-сети, в местных интеграциях - тот забирает пользователей. А потом забирает деньги, данные и влияние.
И что?
Для бизнеса: если у тебя ИИ-сервис, тебя убивает не конкурент “умнее”, а конкурент “везде и бесплатно”. План - встраивание в каналы (телеком, устройства, крупные сети), локальные языки, простая регистрация без танцев с оплатой.
Для инвесторов: смотреть надо не на “самую умную модель”, а на тех, кто умеет раскидывать продукт массово и дешево. И помнить, что дальше начнутся запреты, санкции, ограничения на модели и железо - это риск прямо в выручку.
Для людей: в бедных регионах ИИ станет доступнее, да. Но “доступнее” часто означает “без понятного надзора, кто как обучал, кто куда утащил данные и кто отвечает за косяки”.
🚨 Нам 3.14здец
Западные ИИ-сервисы без бесплатного входа и местных каналов - 8/10 - тебя не купят, тебя просто не поставят - делай бесплатный слой и партнёрства на дистрибуцию.
Страны и компании, которые забили на развивающиеся рынки - 9/10 - там закрепится дефолт другого лагеря, и потом ты будешь заходить только через запреты и скандалы - заходить сейчас через обучение, инфраструктуру и локальные продукты.
‼️Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🍏 Siri наконец получит мозги - и да, их сдаёт в аренду Google.
⚡️ Meta перестала притворяться VR-компанией
И ещё +11 новостей - быстрых, как ИИ: OpenAI купила Torch, Claude для Healthcare, Nvidia+Eli Lilly $1B lab, Manus Meeting Minutes, AxiomProver 12/12 Putnam, Anthropic Labs, Google MedGemma+MedASR, Claude Cowork сделан агентом за 1.5 недели, Пентагон тащит Grok, Sakana AI выиграла AtCoder, McKinsey 25k агентов.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест. Подпишись!
Фактура:
Кто: Microsoft AI Economy Institute, отчёт про фактическое использование ИИ во 2-й половине 2025.
Сколько: глобально ИИ использовали 16,3% людей. Это примерно каждый шестой.
Разрыв: богатые страны - 24,7% среди людей трудоспособного возраста, развивающиеся - 14,1%. Разница уже 10,6 процентного пункта и растёт.
Лидер: ОАЭ - 64% (то есть почти две трети трудоспособных реально пользуются).
США: 28,3% и 24-е место в мире. Да, те самые США, где модели и датацентры.
DeepSeek - не “вау по качеству”, а “вау по распространению”:
Что это: бесплатный чат и открытые веса - можно запускать, встраивать, копировать и разносить без оплаты.
Где прёт: особенно в недообслуженных рынках. В Африке использование оценивают в 2-4 раза выше, чем в других регионах.
Доли по отдельным странам в оценках отчёта выглядят как тревожный звонок: Китай 89%, Беларусь 56%, Куба 49%, Россия 43%.
Почему так: когда у людей нет нормальных платежей, подписок и доступа к дорогим сервисам, “бесплатно и работает” убивает “самое лучшее, но недоступное”. Плюс партнёрства по железу и инфраструктуре (в отчёте упоминаются связки вокруг Huawei) помогают протащить это в каналы.
Контекст рынка:
Тут главная мысль неприятная - лидерство по разработке не означает лидерство по привычке. Можно быть фабрикой ИИ и проиграть массовое внедрение.
Второй слой ещё хуже - “бесплатный дефолт” становится геополитикой. Кто стоит “по умолчанию” в устройстве, в телеком-сети, в местных интеграциях - тот забирает пользователей. А потом забирает деньги, данные и влияние.
И что?
Для бизнеса: если у тебя ИИ-сервис, тебя убивает не конкурент “умнее”, а конкурент “везде и бесплатно”. План - встраивание в каналы (телеком, устройства, крупные сети), локальные языки, простая регистрация без танцев с оплатой.
Для инвесторов: смотреть надо не на “самую умную модель”, а на тех, кто умеет раскидывать продукт массово и дешево. И помнить, что дальше начнутся запреты, санкции, ограничения на модели и железо - это риск прямо в выручку.
Для людей: в бедных регионах ИИ станет доступнее, да. Но “доступнее” часто означает “без понятного надзора, кто как обучал, кто куда утащил данные и кто отвечает за косяки”.
🚨 Нам 3.14здец
Западные ИИ-сервисы без бесплатного входа и местных каналов - 8/10 - тебя не купят, тебя просто не поставят - делай бесплатный слой и партнёрства на дистрибуцию.
Страны и компании, которые забили на развивающиеся рынки - 9/10 - там закрепится дефолт другого лагеря, и потом ты будешь заходить только через запреты и скандалы - заходить сейчас через обучение, инфраструктуру и локальные продукты.
‼️Это только одна новость из сегодняшнего ИИ-дайджеста.
Еще в последнем в этом году выпуске:
🍏 Siri наконец получит мозги - и да, их сдаёт в аренду Google.
⚡️ Meta перестала притворяться VR-компанией
И ещё +11 новостей - быстрых, как ИИ: OpenAI купила Torch, Claude для Healthcare, Nvidia+Eli Lilly $1B lab, Manus Meeting Minutes, AxiomProver 12/12 Putnam, Anthropic Labs, Google MedGemma+MedASR, Claude Cowork сделан агентом за 1.5 недели, Пентагон тащит Grok, Sakana AI выиграла AtCoder, McKinsey 25k агентов.
Хочешь каждый день БЕСПЛАТНО получать на почту главные ИИ-новости с моей аналитикой формата “И что?” и “Нам 3.14здец”, которые уже читают тысячи ИИ-энтузиастов почти из всех уголков планеты, вместо кучи телеграм-каналов и бесконечной ленты новостей без блокировок и VPN - подпишись в один клик.
Ссылка на дайджест. Подпишись!
👍4
Создатель Claude Code сказал, что Claude Cowork целиком “написал” агент, и всё сделали примерно за 1.5 недели. И что? Если ты продаёшь “простую тулзу для офисных задач”, у тебя проблема: скорость вывода фич у больших ИИ-команд теперь как у блогера в сторис
🔥5
CEO McKinsey сказал: у них “60k сотрудников”, из них 25k - AI-агенты, и хотят “по агенту на каждого консультанта”. И что? Если ты покупаешь консалтинг - требуй результат и артефакты, а не человеко-часы; если ты конкурируешь с консалтингом - продавай “агент+процесс” дешевле и быстрее
🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный контент. Бипедальные роботы, не факт что лучшее решение как универсальный робот для рынка.
❤3
🪖 Глава Пентагона Пит Хегсет заявил: Grok от xAI воткнут в военные сети “до конца месяца”, включая закрытые контуры. И что? Скажи мне кто твой друг, и я помогу расчитать PnL на 26 в G2G
❤2