5 лет назад правительство США было обеспокоено тем, что многие жизнеспособные органы для пересадки пропадают, так и не дойдя до пациентов. Власти приняли меры, чтобы это исправить, но создали новую проблему.
К 2019 г. от нехватки одних только почек для трансплантации в США ежегодно умирало около 43 тыс. человек. У этого было 2 главных причины:
❎ Слишком строгая система отбора органов для пересадки. По подсчетам, ежегодно не использовалось 75 тыс. подходящих органов от умерших доноров.
❎ Пропажа уже извлеченных органов в вопиющих масштабах. Например, в 2023 г. было извлечено 3238 поджелудочных желез, но пациенты получили только 24 из них. В списке ожидающих пересадки пациентов тогда числилось около 800 человек, и, если бы не пропажа, их потребности можно было закрыть разом.
В 2019 г. Трамп ввел новую систему оценки организаций по закупке органов (OPO). OPO действуют как посредники между семьей и больницей умершего донора с одной стороны и списком ожидания трансплантации с другой. По старой системе OPO оценивались по числу извлеченных органов на каждую “приемлемую для донации” смерть. Но, поскольку “приемлемость” смерти определяли сами OPO, это позволяло им работать спустя рукава. Новая система вводила заранее установленные критерии для умерших доноров. Теперь эффективность OPO определялась по тому, сколько органов они получат от всех подходящих доноров моложе 75 лет.
Эта система должна была подстегнуть работу OPO и добилась этого - но не так, как рассчитывали власти. Во-первых, как мы уже писали, OPO теперь пытаются разобрать на органы все еще живых доноров. Во-вторых, пациентов из начала списка ожидания (тех, кто не может ждать) стали обходить в пользу тех, кто был намного ниже, но лечился в более “удобной” для OPO больнице.
В одном из случаев первым в очереди был 15-летний Маркус Эдсалл-Парр, который 10 лет ждал трансплантации почки - и почти дождался. Ему сообщили, что получили орган от 29-летнего донора, который подходил идеально. Но в итоге почка досталась не ему, а мужчине средних лет, который был в списке на 3557 месте. Почему так вышло? Маркуса обошел более тяжелый пациент из другой больницы, которому требовалась пересадка нескольких органов, но в последний момент ее отменили. Вместо того, чтобы вернуть невостребованную почку врачам Маркуса, OPO, чтобы не предпринимать лишних усилий, оставила ее больнице, где лежал предыдущий пациент.
Таких случаев множество. OPO OneLegacy предложила донорское сердце Медицинскому центру Кека при Университете Южной Калифорнии, и оно подошло пациентке, занимавшей 11 место в списке ожидания медцентра. Но в общем списке она была на 115 месте, и ее состояние оценивалось как стабильное. Одним из тех, кого она обошла, был 55-летний пациент на 8 месте в общем списке, который умер 6 недель спустя. Почему орган достался именно этому медцентру? По словам OneLegacy, Кек забирал у них легкие от того же донора. Чтобы не искать другую больницу, они предложили им еще и сердце.
Причина проблемы проста: теперь OPO приходится распределять больше органов, и они не желают заниматься длительным поиском. Например, чтобы найти реципиента для почки из списка, OPO в среднем приходится обзванивать 12 врачей. Всем им нужно дать время, чтобы обсудить это с пациентами и принять решение, и процесс растягивается на много часов. Гораздо проще продать орган первой подвернувшейся больнице и забыть о нем.
Новая система увеличила общее число трансплантаций: если в 2019 г. их было 39,7 тыс., то в 2024 г. - 48,1 тыс. Но поставки органов все больше идут в обход приоритетных пациентов: если до 2019 г. таких случаев было 1-2%, то сейчас почти 20%.
Решила ли новая система проблему отбраковки уже изъятых органов. Удивительно, но нет. OPO продолжают выбрасывать жизнеспособные органы, даже в больших масштабах, чем раньше. Поскольку число изъятий и трансплантаций выросло, OPO отчитываются перед властями и чувствуют себя комфортно. Но нежелание делать больше для того, чтобы распределить возросшее число органов, приводит к тому, что оставшиеся массово утилизируют.
К 2019 г. от нехватки одних только почек для трансплантации в США ежегодно умирало около 43 тыс. человек. У этого было 2 главных причины:
❎ Слишком строгая система отбора органов для пересадки. По подсчетам, ежегодно не использовалось 75 тыс. подходящих органов от умерших доноров.
❎ Пропажа уже извлеченных органов в вопиющих масштабах. Например, в 2023 г. было извлечено 3238 поджелудочных желез, но пациенты получили только 24 из них. В списке ожидающих пересадки пациентов тогда числилось около 800 человек, и, если бы не пропажа, их потребности можно было закрыть разом.
В 2019 г. Трамп ввел новую систему оценки организаций по закупке органов (OPO). OPO действуют как посредники между семьей и больницей умершего донора с одной стороны и списком ожидания трансплантации с другой. По старой системе OPO оценивались по числу извлеченных органов на каждую “приемлемую для донации” смерть. Но, поскольку “приемлемость” смерти определяли сами OPO, это позволяло им работать спустя рукава. Новая система вводила заранее установленные критерии для умерших доноров. Теперь эффективность OPO определялась по тому, сколько органов они получат от всех подходящих доноров моложе 75 лет.
Эта система должна была подстегнуть работу OPO и добилась этого - но не так, как рассчитывали власти. Во-первых, как мы уже писали, OPO теперь пытаются разобрать на органы все еще живых доноров. Во-вторых, пациентов из начала списка ожидания (тех, кто не может ждать) стали обходить в пользу тех, кто был намного ниже, но лечился в более “удобной” для OPO больнице.
В одном из случаев первым в очереди был 15-летний Маркус Эдсалл-Парр, который 10 лет ждал трансплантации почки - и почти дождался. Ему сообщили, что получили орган от 29-летнего донора, который подходил идеально. Но в итоге почка досталась не ему, а мужчине средних лет, который был в списке на 3557 месте. Почему так вышло? Маркуса обошел более тяжелый пациент из другой больницы, которому требовалась пересадка нескольких органов, но в последний момент ее отменили. Вместо того, чтобы вернуть невостребованную почку врачам Маркуса, OPO, чтобы не предпринимать лишних усилий, оставила ее больнице, где лежал предыдущий пациент.
Таких случаев множество. OPO OneLegacy предложила донорское сердце Медицинскому центру Кека при Университете Южной Калифорнии, и оно подошло пациентке, занимавшей 11 место в списке ожидания медцентра. Но в общем списке она была на 115 месте, и ее состояние оценивалось как стабильное. Одним из тех, кого она обошла, был 55-летний пациент на 8 месте в общем списке, который умер 6 недель спустя. Почему орган достался именно этому медцентру? По словам OneLegacy, Кек забирал у них легкие от того же донора. Чтобы не искать другую больницу, они предложили им еще и сердце.
Причина проблемы проста: теперь OPO приходится распределять больше органов, и они не желают заниматься длительным поиском. Например, чтобы найти реципиента для почки из списка, OPO в среднем приходится обзванивать 12 врачей. Всем им нужно дать время, чтобы обсудить это с пациентами и принять решение, и процесс растягивается на много часов. Гораздо проще продать орган первой подвернувшейся больнице и забыть о нем.
Новая система увеличила общее число трансплантаций: если в 2019 г. их было 39,7 тыс., то в 2024 г. - 48,1 тыс. Но поставки органов все больше идут в обход приоритетных пациентов: если до 2019 г. таких случаев было 1-2%, то сейчас почти 20%.
Решила ли новая система проблему отбраковки уже изъятых органов. Удивительно, но нет. OPO продолжают выбрасывать жизнеспособные органы, даже в больших масштабах, чем раньше. Поскольку число изъятий и трансплантаций выросло, OPO отчитываются перед властями и чувствуют себя комфортно. Но нежелание делать больше для того, чтобы распределить возросшее число органов, приводит к тому, что оставшиеся массово утилизируют.
Forwarded from Вячеслав Шуленин / Medtech.moscow
Рассвет новой эры: когда молекулы рождаются из данных
Мы стоим на пороге величайшей перемены в истории медицины. Впервые за тысячи лет человечество получило инструмент, который не просто ускоряет поиск лекарств, а меняет саму суть процесса. Искусственный интеллект превращает разработку препаратов из искусства интуиции и случайных открытий в точную науку предсказаний и дизайна.
Представьте: вместо 10–15 лет и миллиардов долларов на создание одного лекарства – всего 18 месяцев и несоизмеримо меньше затрат. Компания Insilico Medicine уже доказала, что это возможно: препарат INS018_055 для лечения лёгочного фиброза прошёл путь от выбора мишени до клинических испытаний менее чем за два года. Молекула, рождённая алгоритмами, показывает клиническую эффективность у реальных пациентов.
Истинная революция не в скорости. А в том, что ИИ видит невидимое. Алгоритм AlphaFold (Нобелевская премия по биологии прошлого года) предсказал структуры 200 миллионов белков – всех известных науке. За один проект было сделано больше, чем за 50 лет рентгеновской кристаллографии! Это как если бы Колумб вдруг получил в руки карту всех океанов.
ИИ находит закономерности в терабайтах биомедицинских данных, которые человеческий разум никогда не заметит. Recursion Pharmaceuticals обрабатывает 65 петабайт данных клеточных экспериментов. Система видит, как тысячи молекул изменяют клетки на микроскопическом уровне, и учится предсказывать, какие из них станут лекарствами.
Масштаб этого движения поражает. Каждый день генерируются миллионы медицинских записей. Каждая строчка – потенциальный прорыв. ИИ превращает историю болезни каждого пациента в данные для создания лекарства будущего. Централизованная база данных миллионами пациентов становится золотым прииском для фармацевтических компаний.
ИИ демократизирует инновации. Небольшие биотехнологические стартапы с умными алгоритмами конкурируют с гигантами индустрии. Платформа Atomwise, например, уже работает с сотнями исследователей по всему миру. Барьер входа в фармацевтические инновации снижается радикально.
В 2025 году более 75 препаратов, созданных с помощью ИИ, находятся в клинических испытаниях. Это реальные молекулы с регистрационными номерами, тестируемые на людях. Через десять лет треть новых лекарств будет создана при участии ИИ. Через двадцать – большинство.
Мы движемся к миру персонализированной медицины, где каждый пациент получает лекарство, созданное с учётом его генетического профиля, образа жизни и истории болезни. ИИ сделает возможным создание препаратов для редких болезней, которые сегодня экономически нецелесообразны – слишком мало пациентов, слишком дорого.
Кто-то скажет: «Не рано? Не слишком много обещаний?» Но именно так говорили о любой революционной технологии. Электричество, антибиотики, интернет – все начинались с сомнений. История движется смелостью исследователей и визионеров.
ИИ в фармацевтике – это новая парадигма. Мы учим машины понимать язык жизни, записанный в молекулах и генах. И когда этот диалог состоится, медицина изменится навсегда.
Будущее не светлое, как говорили в нашем детстве. Оно ослепительное!
Мы стоим на пороге величайшей перемены в истории медицины. Впервые за тысячи лет человечество получило инструмент, который не просто ускоряет поиск лекарств, а меняет саму суть процесса. Искусственный интеллект превращает разработку препаратов из искусства интуиции и случайных открытий в точную науку предсказаний и дизайна.
Представьте: вместо 10–15 лет и миллиардов долларов на создание одного лекарства – всего 18 месяцев и несоизмеримо меньше затрат. Компания Insilico Medicine уже доказала, что это возможно: препарат INS018_055 для лечения лёгочного фиброза прошёл путь от выбора мишени до клинических испытаний менее чем за два года. Молекула, рождённая алгоритмами, показывает клиническую эффективность у реальных пациентов.
Истинная революция не в скорости. А в том, что ИИ видит невидимое. Алгоритм AlphaFold (Нобелевская премия по биологии прошлого года) предсказал структуры 200 миллионов белков – всех известных науке. За один проект было сделано больше, чем за 50 лет рентгеновской кристаллографии! Это как если бы Колумб вдруг получил в руки карту всех океанов.
ИИ находит закономерности в терабайтах биомедицинских данных, которые человеческий разум никогда не заметит. Recursion Pharmaceuticals обрабатывает 65 петабайт данных клеточных экспериментов. Система видит, как тысячи молекул изменяют клетки на микроскопическом уровне, и учится предсказывать, какие из них станут лекарствами.
Масштаб этого движения поражает. Каждый день генерируются миллионы медицинских записей. Каждая строчка – потенциальный прорыв. ИИ превращает историю болезни каждого пациента в данные для создания лекарства будущего. Централизованная база данных миллионами пациентов становится золотым прииском для фармацевтических компаний.
ИИ демократизирует инновации. Небольшие биотехнологические стартапы с умными алгоритмами конкурируют с гигантами индустрии. Платформа Atomwise, например, уже работает с сотнями исследователей по всему миру. Барьер входа в фармацевтические инновации снижается радикально.
В 2025 году более 75 препаратов, созданных с помощью ИИ, находятся в клинических испытаниях. Это реальные молекулы с регистрационными номерами, тестируемые на людях. Через десять лет треть новых лекарств будет создана при участии ИИ. Через двадцать – большинство.
Мы движемся к миру персонализированной медицины, где каждый пациент получает лекарство, созданное с учётом его генетического профиля, образа жизни и истории болезни. ИИ сделает возможным создание препаратов для редких болезней, которые сегодня экономически нецелесообразны – слишком мало пациентов, слишком дорого.
Кто-то скажет: «Не рано? Не слишком много обещаний?» Но именно так говорили о любой революционной технологии. Электричество, антибиотики, интернет – все начинались с сомнений. История движется смелостью исследователей и визионеров.
ИИ в фармацевтике – это новая парадигма. Мы учим машины понимать язык жизни, записанный в молекулах и генах. И когда этот диалог состоится, медицина изменится навсегда.
Будущее не светлое, как говорили в нашем детстве. Оно ослепительное!
Forwarded from Глебсмит
Один из главных "визионеров-практиков" нашего биотеха – глава Медтех.Москва Вячеслав Шуленин написал интересный пост про ИИ-трансформацию исследований лекарств. Как и свойственно визионерам, он несколько преувеличивает.
ИИ в фарме - золотая лихорадка: много шума, надежд, но богачами станут единицы. И, как правило, в "сервисах обслуживания старателей" - а не на лотке в ручье.
Начнём с цифр. Первые блины постигла участь всех первых блинов.
IBM Watson for Drug Discovery, запущенный в 2013 г. с обещанием изменить отрасль, закрыт в 2019-м.
Deep Genomics привлекла $238 млн, объявила о создании "первого терапевтического кандидата, открытого ИИ" в 2019 г., и к 2024-му не имела ни одного препарата в испытаниях.
BenevolentAI потеряла 90% капитализации после провала препарата BEN-2293 в КИ. Молекула от продвинутого ИИ не показала преимуществ перед плацебо.
Exscientia, первой выведшая ИИ-препарат в клинику, была поглощена Recursion после серии неудач.
Единственный громкий успех Insilico Medicine нуждается в контексте. Да, компания сократила ранние этапы с 4.5 лет до 18 месяцев. Но молекула INS018_055 всё ещё в фазе I КИ. До регистрации препарата — минимум 5-7 лет и сотни миллионов $.
Вероятность успеха? Ок. 10% для среднего кандидата. ИИ ускорил самую дешёвую часть процесса, но не решил (и не мог решить) главную проблему — непредсказуемость КИ и усложненность процесса регистрации.
Брендан Фрей, пионер ИИ и основатель Deep Genomics, в 2024 г.: "ИИ действительно подвёл всех нас в последнее десятилетие, когда дело касается открытия лекарств. Мы видели провал за провалом".
Фундаментальная биология сложнее, чем кажется. ИИ превосходно предсказывает свойства молекул, если есть хорошие данные для обучения. Современные модели достигают 75-90% точности в прогнозировании ADMET-параметров (как молекула усваивается, распределяется, выводится). Но это работает только для хорошо изученных молекул.
Когда дело доходит до принципиально новых соединений, точность падает катастрофически. ИИ не понимает биологию — он находит статистические корреляции. Дерек Лоу из Novartis: "Проблемы, которые индустрия хочет решить, почти обратно пропорциональны способности ИИ их решать".
Более того, 70-80% провалов препаратов в КИ происходят из-за недостаточной эффективности именно на людях (а не на животных моделях) — того, что ИИ не может предсказать без данных человеческих испытаний. Эффект плацебо, индивидуальная вариабельность, сложность заболеваний — всё это за пределами возможностей алгоритмов.
Результат? Почти все ИИ-стартапы в фармацевтике отказались от мечты создавать собственные лекарства и превратились в платформы, продающие инструменты крупным компаниям. Atomwise, BenevolentAI, даже Recursion — все следуют этой модели. Потому что разработка платформы приносит предсказуемый доход здесь и сейчас, а не через 10-15 лет с 10% вероятностью.
Это не означает, что ИИ бесполезен. У него есть чёткие области применения, где он реально помогает:
✅ Виртуальный скрининг миллионов молекул вместо дорогих лабораторных экспериментов.
✅ Предсказание токсичности на ранних стадиях.
✅ Перепрофилирование существующих препаратов для новых показаний.
✅ Оптимизация известных молекул.
Но революции не происходит. ИИ — мощный инструмент оптимизации существующих процессов, а не замена им. Это помощник химика. Ускоритель определённых этапов, а не волшебная палочка.
Реалистичный прогноз? В следующие 5-10 лет ИИ сократит стоимость ранних этапов разработки на 30-40% и ускорит их в 2-3 раза. Фармацевтические компании будут использовать ИИ как стандартный инструмент, как сегодня используют высокопроизводительный скрининг. Некоторые препараты, созданные с помощью ИИ, выйдут на рынок и будут успешными. Но большинство стартапов, обещающих революцию, обанкротятся.
Это - реализм. Понимание реальных возможностей и ограничений технологии позволяет использовать её эффективно, не растрачивая ресурсы на недостижимые обещания. ИИ в фармацевтике — это эволюция, а не революция.
Будущее ИИ в медицине реально, достижимо и ценно. Просто оно выглядит иначе, чем в презентациях стартапов.
ИИ в фарме - золотая лихорадка: много шума, надежд, но богачами станут единицы. И, как правило, в "сервисах обслуживания старателей" - а не на лотке в ручье.
Начнём с цифр. Первые блины постигла участь всех первых блинов.
IBM Watson for Drug Discovery, запущенный в 2013 г. с обещанием изменить отрасль, закрыт в 2019-м.
Deep Genomics привлекла $238 млн, объявила о создании "первого терапевтического кандидата, открытого ИИ" в 2019 г., и к 2024-му не имела ни одного препарата в испытаниях.
BenevolentAI потеряла 90% капитализации после провала препарата BEN-2293 в КИ. Молекула от продвинутого ИИ не показала преимуществ перед плацебо.
Exscientia, первой выведшая ИИ-препарат в клинику, была поглощена Recursion после серии неудач.
Единственный громкий успех Insilico Medicine нуждается в контексте. Да, компания сократила ранние этапы с 4.5 лет до 18 месяцев. Но молекула INS018_055 всё ещё в фазе I КИ. До регистрации препарата — минимум 5-7 лет и сотни миллионов $.
Вероятность успеха? Ок. 10% для среднего кандидата. ИИ ускорил самую дешёвую часть процесса, но не решил (и не мог решить) главную проблему — непредсказуемость КИ и усложненность процесса регистрации.
Брендан Фрей, пионер ИИ и основатель Deep Genomics, в 2024 г.: "ИИ действительно подвёл всех нас в последнее десятилетие, когда дело касается открытия лекарств. Мы видели провал за провалом".
Фундаментальная биология сложнее, чем кажется. ИИ превосходно предсказывает свойства молекул, если есть хорошие данные для обучения. Современные модели достигают 75-90% точности в прогнозировании ADMET-параметров (как молекула усваивается, распределяется, выводится). Но это работает только для хорошо изученных молекул.
Когда дело доходит до принципиально новых соединений, точность падает катастрофически. ИИ не понимает биологию — он находит статистические корреляции. Дерек Лоу из Novartis: "Проблемы, которые индустрия хочет решить, почти обратно пропорциональны способности ИИ их решать".
Более того, 70-80% провалов препаратов в КИ происходят из-за недостаточной эффективности именно на людях (а не на животных моделях) — того, что ИИ не может предсказать без данных человеческих испытаний. Эффект плацебо, индивидуальная вариабельность, сложность заболеваний — всё это за пределами возможностей алгоритмов.
Результат? Почти все ИИ-стартапы в фармацевтике отказались от мечты создавать собственные лекарства и превратились в платформы, продающие инструменты крупным компаниям. Atomwise, BenevolentAI, даже Recursion — все следуют этой модели. Потому что разработка платформы приносит предсказуемый доход здесь и сейчас, а не через 10-15 лет с 10% вероятностью.
Это не означает, что ИИ бесполезен. У него есть чёткие области применения, где он реально помогает:
✅ Виртуальный скрининг миллионов молекул вместо дорогих лабораторных экспериментов.
✅ Предсказание токсичности на ранних стадиях.
✅ Перепрофилирование существующих препаратов для новых показаний.
✅ Оптимизация известных молекул.
Но революции не происходит. ИИ — мощный инструмент оптимизации существующих процессов, а не замена им. Это помощник химика. Ускоритель определённых этапов, а не волшебная палочка.
Реалистичный прогноз? В следующие 5-10 лет ИИ сократит стоимость ранних этапов разработки на 30-40% и ускорит их в 2-3 раза. Фармацевтические компании будут использовать ИИ как стандартный инструмент, как сегодня используют высокопроизводительный скрининг. Некоторые препараты, созданные с помощью ИИ, выйдут на рынок и будут успешными. Но большинство стартапов, обещающих революцию, обанкротятся.
Это - реализм. Понимание реальных возможностей и ограничений технологии позволяет использовать её эффективно, не растрачивая ресурсы на недостижимые обещания. ИИ в фармацевтике — это эволюция, а не революция.
Будущее ИИ в медицине реально, достижимо и ценно. Просто оно выглядит иначе, чем в презентациях стартапов.
Нобелевская премия по медицине 2025 досталась Мэри Брункоу, Фреду Рамсделлу и Шимону Сакагучи: они произвели революцию в понимании того, как работает иммунитет и как организм защищает себя от аутоиммунных заболеваний. Рассказываем, как были сделаны эти открытия и почему это так важно.
В 1970-х гг. ученые предположили, что существует особый тип Т-лимфоцитов, ответственных не за уничтожение чужеродных клеток, а за подавление слишком активной иммунной системы. Эксперименты показали, что некоторые Т-клетки могут снижать иммунный ответ in vitro и in vivo. Но тогда авторы не смогли подтвердить свои догадки или выделить эти клетки, которые они назвали “супрессорными”. Концепция была встречена в научной среде со скепсисом и вскоре отброшена.
Исследования 1980-х гг. выявили, что центральное место в регуляции иммунитета занимает тимус, в котором Т-клетки созревают и проходят “контроль качества”. Клетки, проявляющие аутореактивные свойства, отбраковываются. На тот момент ученые считали, что этот механизм - единственное, что защищает организм от аутоиммунных заболеваний. Но вскоре выяснилось, что часть аутореактивных Т-клеток все же поступает в кровоток. Должно было быть что-то еще, что борется с такими клетками вне тимуса.
В начале 1990-х гг. свет на это пролил Шимон Сакагучи, который вдохновился исследованием своих коллег. Они предположили, что удаление тимуса у новорожденных мышей приведет к подавлению иммунитета, поскольку будет вырабатываться меньше Т-клеток. Но выяснилось, что если удалить тимус через 3 дня, иммунная система, напротив, выходит из-под контроля, приводя к множественным аутоиммунным заболеваниям. Супрессорные (позже названные регуляторными) Т-клетки, которые занимаются уничтожением аутореактивных, не успевали развиться за это время.
Сакагучи смог идентифицировать регуляторные Т-лимфоциты. Выяснилось, что за эту функцию отвечают клетки с поверхностными маркерами CD4 и CD25. Если их вводили мышам с удаленным тимусом, это предотвращало развитие аутоиммунных реакций. Но научное сообщество оставалось скептически настроенным и требовало дополнительных доказательств.
Их предоставили Мэри Брункоу и Фред Рамсделл, которые в 1990-х гг. работали в компании Celltech Chiroscience, специализировавшейся на аутоиммунных заболеваниях. Они изучали необычный случай мышей, подвергшихся радиации. В этой линии рождались самцы с шелушащейся кожей, увеличенной селезенкой и лимфоузлами, которые жили всего несколько недель. Брункоу и Рамсделл решили выявить ген, отвечающий за мутацию, что в середине 1990-х гг. требовало огромного объема работы и новаторских методов.
После долгих усилий они смогли выявить дефектный ген Х-хромосомы, названный ими FOXP3. В ходе работы Брункоу и Рамсделл начали подозревать, что человеческое аутоиммунное заболевание IPEX, также приводящее к дерматиту, связано с мутациями в том же гене. Позже они подтвердили это с помощью генетических тестов.
Их выводы привлекли внимание многих исследователей, которые предположили, что ген FOXP3 связан с функцией регуляторных Т-клеток. Спустя 2 года Сакагучи смог это доказать: выяснилось, что FOXP3 играет ключевую роль в их развитии.
Почему эти открытия важны? Они открыли дорогу целому направлению исследований в иммунологии:
❇️ Регуляторные Т-клетки имеют большой потенциал при лечении аутоиммунных заболеваний. Одни группы ищут способы повысить их активность для борьбы с системными нарушениями. Другие работают над тем, чтобы с помощью них предотвратить отторжение органов при пересадке.
❇️ Сейчас на стадии КИ более 200 препаратов и методов лечения, использующих регуляторные Т-клетки. Большая часть связана с выделением и размножением собственных клеток пациента, которые затем вводятся в организм. Иногда ученые модифицируют их, добавляя антитела, чтобы заставить клетку защищать определенный орган.
❇️ Также оказалось, что раковые опухоли привлекают регуляторные Т-клетки, чтобы защитить себя от иммунной системы. Теперь исследователи пытаются найти способ обойти эту защиту.
В 1970-х гг. ученые предположили, что существует особый тип Т-лимфоцитов, ответственных не за уничтожение чужеродных клеток, а за подавление слишком активной иммунной системы. Эксперименты показали, что некоторые Т-клетки могут снижать иммунный ответ in vitro и in vivo. Но тогда авторы не смогли подтвердить свои догадки или выделить эти клетки, которые они назвали “супрессорными”. Концепция была встречена в научной среде со скепсисом и вскоре отброшена.
Исследования 1980-х гг. выявили, что центральное место в регуляции иммунитета занимает тимус, в котором Т-клетки созревают и проходят “контроль качества”. Клетки, проявляющие аутореактивные свойства, отбраковываются. На тот момент ученые считали, что этот механизм - единственное, что защищает организм от аутоиммунных заболеваний. Но вскоре выяснилось, что часть аутореактивных Т-клеток все же поступает в кровоток. Должно было быть что-то еще, что борется с такими клетками вне тимуса.
В начале 1990-х гг. свет на это пролил Шимон Сакагучи, который вдохновился исследованием своих коллег. Они предположили, что удаление тимуса у новорожденных мышей приведет к подавлению иммунитета, поскольку будет вырабатываться меньше Т-клеток. Но выяснилось, что если удалить тимус через 3 дня, иммунная система, напротив, выходит из-под контроля, приводя к множественным аутоиммунным заболеваниям. Супрессорные (позже названные регуляторными) Т-клетки, которые занимаются уничтожением аутореактивных, не успевали развиться за это время.
Сакагучи смог идентифицировать регуляторные Т-лимфоциты. Выяснилось, что за эту функцию отвечают клетки с поверхностными маркерами CD4 и CD25. Если их вводили мышам с удаленным тимусом, это предотвращало развитие аутоиммунных реакций. Но научное сообщество оставалось скептически настроенным и требовало дополнительных доказательств.
Их предоставили Мэри Брункоу и Фред Рамсделл, которые в 1990-х гг. работали в компании Celltech Chiroscience, специализировавшейся на аутоиммунных заболеваниях. Они изучали необычный случай мышей, подвергшихся радиации. В этой линии рождались самцы с шелушащейся кожей, увеличенной селезенкой и лимфоузлами, которые жили всего несколько недель. Брункоу и Рамсделл решили выявить ген, отвечающий за мутацию, что в середине 1990-х гг. требовало огромного объема работы и новаторских методов.
После долгих усилий они смогли выявить дефектный ген Х-хромосомы, названный ими FOXP3. В ходе работы Брункоу и Рамсделл начали подозревать, что человеческое аутоиммунное заболевание IPEX, также приводящее к дерматиту, связано с мутациями в том же гене. Позже они подтвердили это с помощью генетических тестов.
Их выводы привлекли внимание многих исследователей, которые предположили, что ген FOXP3 связан с функцией регуляторных Т-клеток. Спустя 2 года Сакагучи смог это доказать: выяснилось, что FOXP3 играет ключевую роль в их развитии.
Почему эти открытия важны? Они открыли дорогу целому направлению исследований в иммунологии:
❇️ Регуляторные Т-клетки имеют большой потенциал при лечении аутоиммунных заболеваний. Одни группы ищут способы повысить их активность для борьбы с системными нарушениями. Другие работают над тем, чтобы с помощью них предотвратить отторжение органов при пересадке.
❇️ Сейчас на стадии КИ более 200 препаратов и методов лечения, использующих регуляторные Т-клетки. Большая часть связана с выделением и размножением собственных клеток пациента, которые затем вводятся в организм. Иногда ученые модифицируют их, добавляя антитела, чтобы заставить клетку защищать определенный орган.
❇️ Также оказалось, что раковые опухоли привлекают регуляторные Т-клетки, чтобы защитить себя от иммунной системы. Теперь исследователи пытаются найти способ обойти эту защиту.
В научном мире главными бенефициарами ИИ стали ученые, желающие получить больше статей в резюме, ничего для этого не делая, и “бумажные фабрики” - организации, которые за плату пишут и публикуют в журналах работы, обычно очень плохого качества. Если раньше им приходилось беспокоиться о правдоподобности текста и проверках на плагиат, то LLM решили эти проблемы. В результате число ИИ-статей сейчас удваивается каждые 18 месяцев.
Самого плагиата при этом меньше не стало. Стандартный прием ИИ - статьи на основе реальных исследований, использующие те же переменные и делающие те же выводы, что и авторы оригинальных публикаций. Корректируется только выборка: ИИ может ссылаться на другие опросы или менять возраст пациентов. Недавно ученые из Великобритании и Австралии выявили 441 такую статью, опубликованную в 2021-2025 гг. в крупных издательствах. 35% из них были размещены в журналах Frontiers и 37% - в Springer Nature. На самом деле это только вершина айсберга, поскольку подобные статьи сложно обнаружить.
Другой индикатор ИИ-статей - подозрительно низкие показатели при проверке на антиплагиат. Если нормальные статьи обычно имеют 10-15% сходства с другими работами, то поддельные - 2-5%. ИИ избегает любых заимствований в тексте и часто впадает в другую крайность: пытается переформулировать даже общепринятые термины. Результат обычно самый абсурдный - фразы вроде misleading negative (“вводящий в заблуждение отрицательный”) вместо false negative (“ложноотрицательный) или counterfeit consciousness (“поддельное сознание”) вместо artificial intelligence (“искусственный интеллект”).
Еще один показатель - характерные для ИИ фразы, которые “авторы” статей не удосуживаются удалить. В 2024 г. шведские ученые провели поиск в Google Scholar по двум часто встречающимся фразам: “по состоянию на мое последнее обновление информации” и “у меня нет доступа к данным в реальном времени”. В результате они нашли 227 статей, в 139 из которых не было указано, что авторы использовали ИИ при их написании.
Но настоящие проблемы начинаются там, где подделки ИИ распознать не удается. За последние годы он научился выдавать не только текст, но и изображения высокого качества. Если раньше измененные в Photoshop фото можно было отличить с помощью артефактов - визуальных искажений при обработке, то сейчас сгенерированные ИИ картинки часто выглядят очень правдоподобно. Такие изображения, от данных вестерн-блоттинга (метода обнаружения белков) до микроскопических фото наноматериалов, обманывают даже экспертов.
Другая новая проблема - ИИ-рецензирование настоящих статей. Рецензенты журналов начали прибегать к LLM ради упрощения процесса, но им не хватает экспертной глубины, и они часто делают ошибки. В одном из случаев южнокорейский профессор, подавший статью в международный журнал, получил рецензию, которая сильно отличалась от остальных. Она была расплывчатой и шаблонной, некорректно передавала содержание статьи и предъявляла странные претензии: хотя статья была посвящена новому методу оценки окружающей среды, рецензент упрекнул ее авторов в “отсутствии исследований влияния на поведение животных, такое как кормление или спаривание”. Когда профессор сам сгенерировал с помощью ИИ рецензию на свою статью, она оказалась очень похожей.
В чем проблема ИИ-статей для науки?
❇️ Их обилие способно сделать “мусорными” целые направления исследований. Если они приобретут репутацию сомнительных, ученые будут избегать публикации настоящих работ среди вала поддельных.
❇️ ИИ не только воспроизводит результаты других статей. Часто выводы откровенно подложные и не имеют отношения к реальности. Если ученые, например, из фармкомпаний, возьмут их за основу дальнейших исследований, это может навредить пациентам в перспективе.
❇️ Усугубление культуры “публикуйся или умри” - негласного требования постоянно писать статьи, даже если это отнимает время от реальной научной работы. Те, кто ранее отказывался от помощи ИИ в написании статей, будут вынуждены прибегать к ней под давлением массово публикующихся с помощью LLM коллег.
Самого плагиата при этом меньше не стало. Стандартный прием ИИ - статьи на основе реальных исследований, использующие те же переменные и делающие те же выводы, что и авторы оригинальных публикаций. Корректируется только выборка: ИИ может ссылаться на другие опросы или менять возраст пациентов. Недавно ученые из Великобритании и Австралии выявили 441 такую статью, опубликованную в 2021-2025 гг. в крупных издательствах. 35% из них были размещены в журналах Frontiers и 37% - в Springer Nature. На самом деле это только вершина айсберга, поскольку подобные статьи сложно обнаружить.
Другой индикатор ИИ-статей - подозрительно низкие показатели при проверке на антиплагиат. Если нормальные статьи обычно имеют 10-15% сходства с другими работами, то поддельные - 2-5%. ИИ избегает любых заимствований в тексте и часто впадает в другую крайность: пытается переформулировать даже общепринятые термины. Результат обычно самый абсурдный - фразы вроде misleading negative (“вводящий в заблуждение отрицательный”) вместо false negative (“ложноотрицательный) или counterfeit consciousness (“поддельное сознание”) вместо artificial intelligence (“искусственный интеллект”).
Еще один показатель - характерные для ИИ фразы, которые “авторы” статей не удосуживаются удалить. В 2024 г. шведские ученые провели поиск в Google Scholar по двум часто встречающимся фразам: “по состоянию на мое последнее обновление информации” и “у меня нет доступа к данным в реальном времени”. В результате они нашли 227 статей, в 139 из которых не было указано, что авторы использовали ИИ при их написании.
Но настоящие проблемы начинаются там, где подделки ИИ распознать не удается. За последние годы он научился выдавать не только текст, но и изображения высокого качества. Если раньше измененные в Photoshop фото можно было отличить с помощью артефактов - визуальных искажений при обработке, то сейчас сгенерированные ИИ картинки часто выглядят очень правдоподобно. Такие изображения, от данных вестерн-блоттинга (метода обнаружения белков) до микроскопических фото наноматериалов, обманывают даже экспертов.
Другая новая проблема - ИИ-рецензирование настоящих статей. Рецензенты журналов начали прибегать к LLM ради упрощения процесса, но им не хватает экспертной глубины, и они часто делают ошибки. В одном из случаев южнокорейский профессор, подавший статью в международный журнал, получил рецензию, которая сильно отличалась от остальных. Она была расплывчатой и шаблонной, некорректно передавала содержание статьи и предъявляла странные претензии: хотя статья была посвящена новому методу оценки окружающей среды, рецензент упрекнул ее авторов в “отсутствии исследований влияния на поведение животных, такое как кормление или спаривание”. Когда профессор сам сгенерировал с помощью ИИ рецензию на свою статью, она оказалась очень похожей.
В чем проблема ИИ-статей для науки?
❇️ Их обилие способно сделать “мусорными” целые направления исследований. Если они приобретут репутацию сомнительных, ученые будут избегать публикации настоящих работ среди вала поддельных.
❇️ ИИ не только воспроизводит результаты других статей. Часто выводы откровенно подложные и не имеют отношения к реальности. Если ученые, например, из фармкомпаний, возьмут их за основу дальнейших исследований, это может навредить пациентам в перспективе.
❇️ Усугубление культуры “публикуйся или умри” - негласного требования постоянно писать статьи, даже если это отнимает время от реальной научной работы. Те, кто ранее отказывался от помощи ИИ в написании статей, будут вынуждены прибегать к ней под давлением массово публикующихся с помощью LLM коллег.
Гениталии самца крысы в представлении Midjourney. Надписи - почти полная бессмыслица (“testtomcels”, “senctolic”, “dissilced”, “iollotte sserotgomar”, “diƨlocttal stem ells” и т.д.), но хоть со словом “rat” (крыса) угадали.
Это изображение было опубликовано в рецензируемом научном журнале Frontiers in Cell and Developmental Biology в статье под названием “Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway”. Статья с тех пор была отозвана, но осадочек остался.
Это изображение было опубликовано в рецензируемом научном журнале Frontiers in Cell and Developmental Biology в статье под названием “Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway”. Статья с тех пор была отозвана, но осадочек остался.
Последние годы принесли множество прорывов в сфере ксенотрансплантологии - пересадки человеку органов животных (преимущественно свиней). Пациент, получивший свиную почку в январе 2025 г., до сих пор жив и чувствует себя лучше, чем до трансплантации. А на днях китайские ученые опубликовали статью об успешной пересадке человеку печени от свиньи, что стало сенсацией.
Почему именно свиньи? Раньше трансплантологи пытались использовать органы нечеловекообразных приматов, например, бабуинов. Но у свиней есть несколько преимуществ: они быстро размножаются и растут, их органы похожи по размеру на человеческие, и они с меньшей вероятностью передадут человеку зоонозные инфекции.
Для того, чтобы органы подошли, свиней генетически модифицируют. Например, компания eGenesis, предоставляющая органы для пересадки и исследований, вносит 69 изменений. В их числе удаление свиных антител, на которые реагирует иммунитет человека, добавление человеческих генов для улучшения совместимости и инактивация ретровирусов в геноме свиньи, чтобы исключить их передачу реципиенту.
С пересадкой сердца человеку ученые начали экспериментировать еще несколько лет назад. В 2022 г. Дэвид Беннетт стал первым пациентом, получившим свиное сердце. Оно нормально работало в течение 7 недель, после чего у пациента развилась сердечная недостаточность. Хотя Беннетт прожил всего 2 месяца после операции, для ксенотрансплантологии это было многообещающее начало.
В 2024 г. человеку впервые была пересажена свиная почка. Пациент по имени Рик Слейман, страдавший ХБП, за несколько лет до этого уже получил человеческую, но она дала сбой, и ему пришлось вернуться к диализу. Врачи Гарвардской медицинской школы провели трансплантацию, и она прошла успешно. Спустя почти 2 месяца Слейман также скончался, но его смерть не была связана с почкой - он умер из-за проблем с сердцем.
Об этой истории узнал еще один пациент с ХБП, Тимоти Эндрюс, который 10 лет стоял в очереди на пересадку почки и очень плохо переносил диализ. К концу 2024 г. он передвигался в инвалидном кресле, у него также произошел инфаркт. Эндрюс сам связался с больницей, где делали пересадку Слейману, и попросил о встрече с гарвардскими трансплантологами. После того, как 25 января 2025 г. его также прооперировали, он смог танцевать и вышел из больницы на своих ногах. Сейчас Эндрюс вернулся к своей обычной жизни, за исключением осмотров 2 раза в неделю.
Но если трансплантация таких органов как сердце и почки считается сравнительно легкой, то с печенью все было сложнее. Она имеет двойное кровоснабжение и множество функций, от фильтрации и вывода токсинов до регуляции обмена веществ, синтеза белков и хранения энергетических резервов. Из-за высоких рисков исследователи ограничивались экспериментами на пациентах со смертью мозга. В 2024 г. ученые Университета Пенсильвании на 72 часа подсоединили свиную печень с помощью кровеносных трубок к телу реципиента, и за это время не возникло признаков воспаления. В другом случае китайские врачи пересадили пациенту свиную печень, и в течение 10 дней она нормально функционировала, пока родственники не попросили ее изъять.
Но недавно другая китайская группа ученых сообщила о пересадке печени от свиньи живому человеку. У пациента с циррозом и раком после удаления опухоли оставалось слишком мало ткани печени, чтобы он мог выжить. Подходящего донора не было, и врачи рискнули пересадить орган свиньи. В течение месяца самочувствие пациента было нормальным, но затем у него развилось воспаление и ТМА - тромбы в мелких сосудах. К тому времени собственная печень пациента восстановилась достаточно, и на 38 день свиную удалили. После этого пациент прожил еще почти 5 месяцев, в итоге скончавшись от кровотечения в ЖКТ.
Сейчас ученые считают, что ксенотрансплантация печени - перспективная временная мера для того, чтобы поддержать печень реципиента, пока она восстанавливается. Учитывая нехватку человеческих органов, это может стать обычной практикой - если только удастся решить проблемы воспаления и других осложнений пересадки.
Почему именно свиньи? Раньше трансплантологи пытались использовать органы нечеловекообразных приматов, например, бабуинов. Но у свиней есть несколько преимуществ: они быстро размножаются и растут, их органы похожи по размеру на человеческие, и они с меньшей вероятностью передадут человеку зоонозные инфекции.
Для того, чтобы органы подошли, свиней генетически модифицируют. Например, компания eGenesis, предоставляющая органы для пересадки и исследований, вносит 69 изменений. В их числе удаление свиных антител, на которые реагирует иммунитет человека, добавление человеческих генов для улучшения совместимости и инактивация ретровирусов в геноме свиньи, чтобы исключить их передачу реципиенту.
С пересадкой сердца человеку ученые начали экспериментировать еще несколько лет назад. В 2022 г. Дэвид Беннетт стал первым пациентом, получившим свиное сердце. Оно нормально работало в течение 7 недель, после чего у пациента развилась сердечная недостаточность. Хотя Беннетт прожил всего 2 месяца после операции, для ксенотрансплантологии это было многообещающее начало.
В 2024 г. человеку впервые была пересажена свиная почка. Пациент по имени Рик Слейман, страдавший ХБП, за несколько лет до этого уже получил человеческую, но она дала сбой, и ему пришлось вернуться к диализу. Врачи Гарвардской медицинской школы провели трансплантацию, и она прошла успешно. Спустя почти 2 месяца Слейман также скончался, но его смерть не была связана с почкой - он умер из-за проблем с сердцем.
Об этой истории узнал еще один пациент с ХБП, Тимоти Эндрюс, который 10 лет стоял в очереди на пересадку почки и очень плохо переносил диализ. К концу 2024 г. он передвигался в инвалидном кресле, у него также произошел инфаркт. Эндрюс сам связался с больницей, где делали пересадку Слейману, и попросил о встрече с гарвардскими трансплантологами. После того, как 25 января 2025 г. его также прооперировали, он смог танцевать и вышел из больницы на своих ногах. Сейчас Эндрюс вернулся к своей обычной жизни, за исключением осмотров 2 раза в неделю.
Но если трансплантация таких органов как сердце и почки считается сравнительно легкой, то с печенью все было сложнее. Она имеет двойное кровоснабжение и множество функций, от фильтрации и вывода токсинов до регуляции обмена веществ, синтеза белков и хранения энергетических резервов. Из-за высоких рисков исследователи ограничивались экспериментами на пациентах со смертью мозга. В 2024 г. ученые Университета Пенсильвании на 72 часа подсоединили свиную печень с помощью кровеносных трубок к телу реципиента, и за это время не возникло признаков воспаления. В другом случае китайские врачи пересадили пациенту свиную печень, и в течение 10 дней она нормально функционировала, пока родственники не попросили ее изъять.
Но недавно другая китайская группа ученых сообщила о пересадке печени от свиньи живому человеку. У пациента с циррозом и раком после удаления опухоли оставалось слишком мало ткани печени, чтобы он мог выжить. Подходящего донора не было, и врачи рискнули пересадить орган свиньи. В течение месяца самочувствие пациента было нормальным, но затем у него развилось воспаление и ТМА - тромбы в мелких сосудах. К тому времени собственная печень пациента восстановилась достаточно, и на 38 день свиную удалили. После этого пациент прожил еще почти 5 месяцев, в итоге скончавшись от кровотечения в ЖКТ.
Сейчас ученые считают, что ксенотрансплантация печени - перспективная временная мера для того, чтобы поддержать печень реципиента, пока она восстанавливается. Учитывая нехватку человеческих органов, это может стать обычной практикой - если только удастся решить проблемы воспаления и других осложнений пересадки.
Индийскую фармпромышленность продолжают сотрясать скандалы. Основная проблема Индии - отсутствие контроля за производством препаратов, в результате чего значительная часть оказывается некачественной или просто подделками. Хотя большинство сомнительных лекарств попадает на внутренний рынок, они могут также оказаться и в вашей аптечке.
В 2022 г. в Гамбии погибло более 70 детей из-за индийского сиропа от кашля, в котором были большие количества этиленгликоля (ЭГ) и диэтиленгликоля (ДЭГ). Тогда же в Узбекистане умерло 18 детей из-за сиропа с ЭГ от другого производителя. Обе компании уверяли, что их продукция в полном порядке, санитарные нормы соблюдены, а контроль проводится регулярно. Правительство Индии встало на сторону своих производителей, заявив, что препараты соответствуют стандартам качества, а ВОЗ проявила “самонадеянность”, когда обвинила индийские компании в смерти детей. Власти ограничились тем, что демонстративно закрыли несколько фабрик, объявили о внедрении стандартов GMP и обязали компании тестировать образцы перед экспортом.
Выводы сделаны не были, и следующая трагедия постигла уже индийские семьи. Осенью 2025 г. от почечной недостаточности умерло 23 ребенка, которым давали сироп от кашля от еще одного производителя. Тесты показали, что он содержал 48,6% ДЭГ при максимально допустимом уровне 0,1%, не говоря уже о других ингредиентах, запрещенных для детей младшего возраста. В ответ правительство призвало поменьше давать детям сиропы от кашля, которыми в Индии лечат любую простуду.
Но скандал с сиропами оказался полезен хотя бы тем, что привлек внимание властей к проблеме. Правительство штата Раджастан уволило госконтролера лекарственных средств, заодно подняв документацию по проверкам препаратов. Выяснилось, что многие ключевые лекарства (от антибиотиков и антигистаминных до обезболивающих и противодиабетических) не прошли тесты на качество, но были выпущены на рынок и продаются сотнями тысяч упаковок. В некоторых препаратах не хватало субстанций. Другие оказались зараженными инфекцией, включая физраствор, поставляемый в больницы. По закону госконтролер должен был подать в суд и внести препараты в национальный черный список, но вместо этого предпочел покрывать компании.
Местные эксперты утверждают, что нет практически ни одного заболевания, против которого в Индии не производились бы контрафактные или некачественные препараты. Как выразился отставной комиссар по лекарственным препаратам, “я не доверяю лекарствам, которые сейчас есть на рынке. На самом деле, инсулин, который я принимаю, тоже может быть поддельным”.
Почему производители фальсификата чувствуют себя в Индии так комфортно?
❇️ Система передачи лицензий. Когда компания получает лицензию на производство препарата, она имеет право передать ее подрядчику. Иногда из-за этого невозможно понять, кто на самом деле изготовил лекарство. Это избавляет производителей от внимания госорганов и позволяет меньше концентрироваться на качестве.
❇️ Проверки часто выполняются спустя рукава. Инспекторы имеют право не публиковать отчеты, поэтому оценить, насколько тщательно была проведена проверка, нельзя, а коррупция процветает.
❇️ Отзыв лицензий крайне редок. Из 10 159 проверок в 2015-2019 гг. закончилось возбуждением уголовных дел только 142, и только 8 из этих дел были завершены.
❇️ Даже если у компании отозвали лицензию в одном штате, она переезжает в другой и начинает все сначала. У каждого штата есть собственная система контроля, и между ними почти отсутствует коммуникация. В результате регуляторы не знают, были ли у производителя проблемы с качеством в прошлом.
❇️ Если ненадлежащее качество препарата будет доказано, это еще не означает, что его отзовут - для этого нет соответствующего механизма. Возможный закон об отзыве партий лекарств обсуждается в Индии с 1976 г., но воз и ныне там.
В 2022 г. в Гамбии погибло более 70 детей из-за индийского сиропа от кашля, в котором были большие количества этиленгликоля (ЭГ) и диэтиленгликоля (ДЭГ). Тогда же в Узбекистане умерло 18 детей из-за сиропа с ЭГ от другого производителя. Обе компании уверяли, что их продукция в полном порядке, санитарные нормы соблюдены, а контроль проводится регулярно. Правительство Индии встало на сторону своих производителей, заявив, что препараты соответствуют стандартам качества, а ВОЗ проявила “самонадеянность”, когда обвинила индийские компании в смерти детей. Власти ограничились тем, что демонстративно закрыли несколько фабрик, объявили о внедрении стандартов GMP и обязали компании тестировать образцы перед экспортом.
Выводы сделаны не были, и следующая трагедия постигла уже индийские семьи. Осенью 2025 г. от почечной недостаточности умерло 23 ребенка, которым давали сироп от кашля от еще одного производителя. Тесты показали, что он содержал 48,6% ДЭГ при максимально допустимом уровне 0,1%, не говоря уже о других ингредиентах, запрещенных для детей младшего возраста. В ответ правительство призвало поменьше давать детям сиропы от кашля, которыми в Индии лечат любую простуду.
Но скандал с сиропами оказался полезен хотя бы тем, что привлек внимание властей к проблеме. Правительство штата Раджастан уволило госконтролера лекарственных средств, заодно подняв документацию по проверкам препаратов. Выяснилось, что многие ключевые лекарства (от антибиотиков и антигистаминных до обезболивающих и противодиабетических) не прошли тесты на качество, но были выпущены на рынок и продаются сотнями тысяч упаковок. В некоторых препаратах не хватало субстанций. Другие оказались зараженными инфекцией, включая физраствор, поставляемый в больницы. По закону госконтролер должен был подать в суд и внести препараты в национальный черный список, но вместо этого предпочел покрывать компании.
Местные эксперты утверждают, что нет практически ни одного заболевания, против которого в Индии не производились бы контрафактные или некачественные препараты. Как выразился отставной комиссар по лекарственным препаратам, “я не доверяю лекарствам, которые сейчас есть на рынке. На самом деле, инсулин, который я принимаю, тоже может быть поддельным”.
Почему производители фальсификата чувствуют себя в Индии так комфортно?
❇️ Система передачи лицензий. Когда компания получает лицензию на производство препарата, она имеет право передать ее подрядчику. Иногда из-за этого невозможно понять, кто на самом деле изготовил лекарство. Это избавляет производителей от внимания госорганов и позволяет меньше концентрироваться на качестве.
❇️ Проверки часто выполняются спустя рукава. Инспекторы имеют право не публиковать отчеты, поэтому оценить, насколько тщательно была проведена проверка, нельзя, а коррупция процветает.
❇️ Отзыв лицензий крайне редок. Из 10 159 проверок в 2015-2019 гг. закончилось возбуждением уголовных дел только 142, и только 8 из этих дел были завершены.
❇️ Даже если у компании отозвали лицензию в одном штате, она переезжает в другой и начинает все сначала. У каждого штата есть собственная система контроля, и между ними почти отсутствует коммуникация. В результате регуляторы не знают, были ли у производителя проблемы с качеством в прошлом.
❇️ Если ненадлежащее качество препарата будет доказано, это еще не означает, что его отзовут - для этого нет соответствующего механизма. Возможный закон об отзыве партий лекарств обсуждается в Индии с 1976 г., но воз и ныне там.
В Великобритании произошел очередной скандал в рядах NHS. Мужчина 2 месяца работал под женским именем в больнице Chester Hospital в Чешире, и за это время никто не заметил подмены. Даже когда обман вскрылся, он практически не получил наказания.
Нигериец Люциус Нджоку прибыл в Великобританию в качестве студента, и ему срочно нужны были деньги. У него была квалификация в сестринском деле, но проверки безопасности задержались, а без них он не мог официально устроиться в больницу. Но Нджоку нашел выход из положения - его подруга Джойс Джордж, также из Нигерии, прошла собеседование и получила работу, после чего передала ему бейдж с ее именем и фотографией.
Нджоку работал в Chester Hospital с февраля по апрель 2024 г. и выполнял обычные сестринские обязанности - вел наблюдение за пациентами, одевал, мыл их и т.д. Джордж получала на свой телефон сообщения о сменах и пересылала информацию ему. Никто так и не заподозрил, что Нджоку работает не под своим именем, за исключением одного пациента. Когда этот пациент спросил о его идентичности, Нджоку заявил: “меня зовут Джойс, но я мужчина”.
Примечательно, что в итоге он прошел проверки безопасности, но продолжать карьеру в сфере ухода не стал, предпочтя больнице автоконцерн Vauxhall. Тем не менее 2 месяца работы под чужим именем стоили ему некоторых неприятностей с законом. Нджоку приговорили к 16 неделям тюремного заключения с отсрочкой исполнения на год, 80 часам неоплачиваемых работ и уплате 239 фунтов. При этом его даже не выслали из страны, поскольку виза его жены позволяет ему находиться в Великобритании. В отличие от него, Джордж предпочла вернуться в Нигерию, чтобы не иметь дело с британским правосудием.
Хотя эта история кажется курьезом, она вполне укладывается в общие социальные тенденции Великобритании.
❇️ Во-первых, это в очередной раз показывает, с какой легкостью практически любой может получить работу в NHS. Мы регулярно слышим о “помощниках врача”, не имеющих медицинского образования, и хирургах, которые оперируют пациентов, пройдя минимальное “обучение” прямо у операционного стола. Пациентам Нджоку повезло, что у него было образование, и он, по-видимому, знал, что делает. Но на его месте мог оказаться и более опасный самозванец.
❇️ Во-вторых, маловероятно, что никто из его коллег не обратил внимание на женское имя и фото на бейджике. Но в Великобритании, как и в других западных странах, действует социальный запрет на “мисгендеринг” - обращение к человеку по его биологическому полу, если он решил его сменить. Этот запрет подкрепляется судебными исками, штрафами и тюремным заключением, как это произошло, например, с одним канадским отцом, который отказался говорить о своей дочери как о “сыне”. В результате коллеги Нджоку могли не поднимать шум из-за несоответствия имени и фото его внешности, опасаясь обвинений.
Нигериец Люциус Нджоку прибыл в Великобританию в качестве студента, и ему срочно нужны были деньги. У него была квалификация в сестринском деле, но проверки безопасности задержались, а без них он не мог официально устроиться в больницу. Но Нджоку нашел выход из положения - его подруга Джойс Джордж, также из Нигерии, прошла собеседование и получила работу, после чего передала ему бейдж с ее именем и фотографией.
Нджоку работал в Chester Hospital с февраля по апрель 2024 г. и выполнял обычные сестринские обязанности - вел наблюдение за пациентами, одевал, мыл их и т.д. Джордж получала на свой телефон сообщения о сменах и пересылала информацию ему. Никто так и не заподозрил, что Нджоку работает не под своим именем, за исключением одного пациента. Когда этот пациент спросил о его идентичности, Нджоку заявил: “меня зовут Джойс, но я мужчина”.
Примечательно, что в итоге он прошел проверки безопасности, но продолжать карьеру в сфере ухода не стал, предпочтя больнице автоконцерн Vauxhall. Тем не менее 2 месяца работы под чужим именем стоили ему некоторых неприятностей с законом. Нджоку приговорили к 16 неделям тюремного заключения с отсрочкой исполнения на год, 80 часам неоплачиваемых работ и уплате 239 фунтов. При этом его даже не выслали из страны, поскольку виза его жены позволяет ему находиться в Великобритании. В отличие от него, Джордж предпочла вернуться в Нигерию, чтобы не иметь дело с британским правосудием.
Хотя эта история кажется курьезом, она вполне укладывается в общие социальные тенденции Великобритании.
❇️ Во-первых, это в очередной раз показывает, с какой легкостью практически любой может получить работу в NHS. Мы регулярно слышим о “помощниках врача”, не имеющих медицинского образования, и хирургах, которые оперируют пациентов, пройдя минимальное “обучение” прямо у операционного стола. Пациентам Нджоку повезло, что у него было образование, и он, по-видимому, знал, что делает. Но на его месте мог оказаться и более опасный самозванец.
❇️ Во-вторых, маловероятно, что никто из его коллег не обратил внимание на женское имя и фото на бейджике. Но в Великобритании, как и в других западных странах, действует социальный запрет на “мисгендеринг” - обращение к человеку по его биологическому полу, если он решил его сменить. Этот запрет подкрепляется судебными исками, штрафами и тюремным заключением, как это произошло, например, с одним канадским отцом, который отказался говорить о своей дочери как о “сыне”. В результате коллеги Нджоку могли не поднимать шум из-за несоответствия имени и фото его внешности, опасаясь обвинений.
За последние годы судьи назначили немало штрафов адвокатам, использующим ИИ для подготовки документов, но сами они также идут в ногу со временем. В одном таком случае биотехнологическая компания CorMedix Inc. получила решение судьи, полное неточностей, характерных для LLM.
CorMedix участвовала в споре с акционерами, заявлявшими, что компания предоставила ложную информацию о своем препарате DefenCath во время попытки получить одобрение FDA. CorMedix подала ходатайство на отклонение иска акционеров, но получила отказ, в котором было много ошибок. Судья Жюльен Ксавье Нилс назвал поведение ответчиков “классическим доказательством умысла”, а сертификацию препарата руководством - “ложными заявлениями”, процитировав при этом более ранние дела. На самом деле таких цитат в этих делах не было. Заодно Нилс перепутал судебные округа и приписал CorMedix пару заявлений, которые она не делала.
Когда юристы компании указали судье на ошибки, он отозвал решение. Неофициально суд сослался на то, что проект решения готовил временный помощник, и исследование, проведенное с помощью ИИ, “случайно” попало в итоговый вариант. Формально использование ИИ так и не было раскрыто.
В другом случае суд выдумал несуществующих истцов, ответчиков и свидетелей. В Миссисипи судья Генри Уингейт вынес решение, блокирующее усилия властей по запрету программ равенства и инклюзивности в университетах. Оно изобиловало ошибками: из 12 перечисленных истцов реальности соответствовал только 1, двое из упомянутых ответчиков также были фальшивыми. Кроме того, суд ссылался на показания 4 свидетелей, которых не было в протоколе. В решении было множество и других фактических ошибок - от несуществующих цитат до упоминания событий, которые никогда не происходили. После жалобы юристов решение также было отозвано.
При этом суды не стесняются штрафовать адвокатов, если они используют ИИ при подготовке документов. На днях судья в Алабаме назначил одному из них штраф в $5 тыс. и обязательство уведомлять будущих клиентов об инциденте, раскритиковав его поведение на 18 страницах. В другом недавнем случае в Квебеке мужчина, защищавший себя в суде самостоятельно, также получил штраф в размере C$5 тыс. Судья заявил, что ответчик “должен в одиночку вынести весь позор из-за цитат, «придуманных» ИИ, на которые он опирался, строя свою позицию”.
Несмотря на это, некоторые страны начинают использовать ИИ в качестве помощников судей. Например, мексиканская система Expertius консультирует судей по вопросу о том, имеет ли истец право на получение пенсии. При этом некоторые правительства рассматривают перспективу перехода на LLM в качестве судей первой инстанции. Общество пока не готово к такому шагу, но стремление властей сэкономить на содержании судебной системы может привести внедрению ИИ раньше, чем оно привыкнет к этой идее.
В чем проблема ИИ-судей и LLM-адвокатов?
*️⃣ Подготовка судебных документов с помощью ИИ требует скрупулезного фактчекинга, который занимает ненамного меньше времени, чем написание текста с нуля.
*️⃣ То же самое касается судебных решений, вынесенных ИИ: кто-то должен проверять достоверность фактов и то, правильно ли модель поняла “дух и букву” закона. Будет ли это требовать меньше ресурсов, чем работа судьи-человека - большой вопрос.
*️⃣ Нагрузка на апелляционные инстанции вырастет из-за ошибок, допущенных ИИ.
*️⃣ Судебная система может быть взломана, а данные подделаны, что приведет к искажению вердиктов.
*️⃣ Судья принимает во внимание не только закон, но и намерения сторон, раскаяние и иные обстоятельства. ИИ, не понимающий контекст и эмоции, на это не способен. Соломоново решение о разделе ребенка пополам, скорее всего, было бы признано справедливым и рациональным.
*️⃣ Еще одна общая проблема ИИ - легитимность и ответственность. Неизвестно, кто будет отвечать в случае, если неверное решение приведет к ущербу.
CorMedix участвовала в споре с акционерами, заявлявшими, что компания предоставила ложную информацию о своем препарате DefenCath во время попытки получить одобрение FDA. CorMedix подала ходатайство на отклонение иска акционеров, но получила отказ, в котором было много ошибок. Судья Жюльен Ксавье Нилс назвал поведение ответчиков “классическим доказательством умысла”, а сертификацию препарата руководством - “ложными заявлениями”, процитировав при этом более ранние дела. На самом деле таких цитат в этих делах не было. Заодно Нилс перепутал судебные округа и приписал CorMedix пару заявлений, которые она не делала.
Когда юристы компании указали судье на ошибки, он отозвал решение. Неофициально суд сослался на то, что проект решения готовил временный помощник, и исследование, проведенное с помощью ИИ, “случайно” попало в итоговый вариант. Формально использование ИИ так и не было раскрыто.
В другом случае суд выдумал несуществующих истцов, ответчиков и свидетелей. В Миссисипи судья Генри Уингейт вынес решение, блокирующее усилия властей по запрету программ равенства и инклюзивности в университетах. Оно изобиловало ошибками: из 12 перечисленных истцов реальности соответствовал только 1, двое из упомянутых ответчиков также были фальшивыми. Кроме того, суд ссылался на показания 4 свидетелей, которых не было в протоколе. В решении было множество и других фактических ошибок - от несуществующих цитат до упоминания событий, которые никогда не происходили. После жалобы юристов решение также было отозвано.
При этом суды не стесняются штрафовать адвокатов, если они используют ИИ при подготовке документов. На днях судья в Алабаме назначил одному из них штраф в $5 тыс. и обязательство уведомлять будущих клиентов об инциденте, раскритиковав его поведение на 18 страницах. В другом недавнем случае в Квебеке мужчина, защищавший себя в суде самостоятельно, также получил штраф в размере C$5 тыс. Судья заявил, что ответчик “должен в одиночку вынести весь позор из-за цитат, «придуманных» ИИ, на которые он опирался, строя свою позицию”.
Несмотря на это, некоторые страны начинают использовать ИИ в качестве помощников судей. Например, мексиканская система Expertius консультирует судей по вопросу о том, имеет ли истец право на получение пенсии. При этом некоторые правительства рассматривают перспективу перехода на LLM в качестве судей первой инстанции. Общество пока не готово к такому шагу, но стремление властей сэкономить на содержании судебной системы может привести внедрению ИИ раньше, чем оно привыкнет к этой идее.
В чем проблема ИИ-судей и LLM-адвокатов?
*️⃣ Подготовка судебных документов с помощью ИИ требует скрупулезного фактчекинга, который занимает ненамного меньше времени, чем написание текста с нуля.
*️⃣ То же самое касается судебных решений, вынесенных ИИ: кто-то должен проверять достоверность фактов и то, правильно ли модель поняла “дух и букву” закона. Будет ли это требовать меньше ресурсов, чем работа судьи-человека - большой вопрос.
*️⃣ Нагрузка на апелляционные инстанции вырастет из-за ошибок, допущенных ИИ.
*️⃣ Судебная система может быть взломана, а данные подделаны, что приведет к искажению вердиктов.
*️⃣ Судья принимает во внимание не только закон, но и намерения сторон, раскаяние и иные обстоятельства. ИИ, не понимающий контекст и эмоции, на это не способен. Соломоново решение о разделе ребенка пополам, скорее всего, было бы признано справедливым и рациональным.
*️⃣ Еще одна общая проблема ИИ - легитимность и ответственность. Неизвестно, кто будет отвечать в случае, если неверное решение приведет к ущербу.
За последние годы в Великобритании произошло 2 крупных скандала с роддомами, где из-за халатности врачей умерло несколько сотен младенцев и матерей. Теперь правительство хочет исключить их из обзора “недостатков системы” родовспоможения NHS.
Проблемы одного роддома, больницы Шрусбери и Телфорда, были связаны с пренебрежением к пациентам и стремлением выполнить план по естественным родам, даже когда роженице требовалось кесарево. Жалобы на больницу начались еще в 2000-х, когда один новорожденный умер из-за того, что персонал не уследил за отклонениями на кардиомониторе, а другая получила смертельные травмы, пока ее вытаскивали щипцами. Когда к 2017 г. дело дошло до парламента, они рассматривали только 23 случая - но позже расследование было расширено до 1,5 тыс.
Причины смерти детей были самые разнообразные, от травматичных родов до отсутствия диагностики. Одна девочка умерла на следующий день после рождения от неонатального менингита, о котором никто не знал, и акушерки уверяли мать, что она в полном порядке. Другой новорожденной не диагностировали тяжелую анемию, и она скончалась спустя 6 часов. Минимум 201 ребенок и 9 матерей погибли непосредственно из-за халатности врачей, и десятки остались инвалидами. Траст NHS, к которому относится больница, даже не пытался расследовать случаи и обвинял матерей в смерти детей - и их собственной.
В 2022 г. был опубликован доклад по результатам расследования. Тогда траст признал, что “подвел сообщество”, и заявил, что рекомендации по улучшению были учтены. Больница провела день открытых дверей, чтобы посетители могли “лично убедиться в улучшениях, которые мы вносим в нашу современную и гостеприимную службу”. На этом неприятности для нее были закончены, хотя расследование полиции формально продолжается. Заодно оно стало удобным предлогом для того, чтобы исключить случай Шрусбери и Телфорда из национального расследования, проводимого по распоряжению правительства. По словам ответственных лиц, это решение служит интересам дела и защите пострадавших. Самих пострадавших, добивавшихся максимальной огласки, оно привело в ярость.
Второй скандал касался двух роддомов в Лидсе. С 2019 по 2024 гг. там произошло 56 случаев смерти детей и 2 смерти мателей, которые врачебное вмешательство могло бы предотвратить. Например, беременная женщина обратилась в одну из этих больниц с такой сильной болью в животе, что она не могла ходить, ей прописали парацетамол и отправили домой. Когда спустя несколько дней ее экстренно прооперировали, оказалось, что у нее был крупный тромб. Ребенка спасти не удалось. Инспекторы также обнаружили в роддомах антисанитарные условия, неправильное хранение лекарств и “культуру обвинений”, из-за которой персонал боялся поднимать шум.
История Лидса практически полностью повторила случай Шрусбери и Телфорда. Траст заявил, что принял меры и хочет “заверить каждую семью” в своей приверженности “обеспечению безопасного и сострадательного ухода”. Единственным отличием был предлог, под которым этот случай изъяли из национального расследования - его выделили в отдельное дело, хотя он мог фигурировать в обоих.
Почему это проблема? Исключение самых громких случаев - попытка замолчать произошедшее: оба отдельных расследования получают гораздо меньше ресурсов и общественного внимания, чем национальное. Кроме того, правительство пытается сэкономить на внедрении новых стандартов по всей стране. При разбирательстве случая Шрусбери и Телфорда подчеркивалось, что рекомендации должны быть учтены во всех роддомах Великобритании - что за несколько лет так и не было сделано. Если бы они были продублированы в национальном обзоре, руководству NHS пришлось бы обратить на них внимание и смириться с расходами.
Проблемы одного роддома, больницы Шрусбери и Телфорда, были связаны с пренебрежением к пациентам и стремлением выполнить план по естественным родам, даже когда роженице требовалось кесарево. Жалобы на больницу начались еще в 2000-х, когда один новорожденный умер из-за того, что персонал не уследил за отклонениями на кардиомониторе, а другая получила смертельные травмы, пока ее вытаскивали щипцами. Когда к 2017 г. дело дошло до парламента, они рассматривали только 23 случая - но позже расследование было расширено до 1,5 тыс.
Причины смерти детей были самые разнообразные, от травматичных родов до отсутствия диагностики. Одна девочка умерла на следующий день после рождения от неонатального менингита, о котором никто не знал, и акушерки уверяли мать, что она в полном порядке. Другой новорожденной не диагностировали тяжелую анемию, и она скончалась спустя 6 часов. Минимум 201 ребенок и 9 матерей погибли непосредственно из-за халатности врачей, и десятки остались инвалидами. Траст NHS, к которому относится больница, даже не пытался расследовать случаи и обвинял матерей в смерти детей - и их собственной.
В 2022 г. был опубликован доклад по результатам расследования. Тогда траст признал, что “подвел сообщество”, и заявил, что рекомендации по улучшению были учтены. Больница провела день открытых дверей, чтобы посетители могли “лично убедиться в улучшениях, которые мы вносим в нашу современную и гостеприимную службу”. На этом неприятности для нее были закончены, хотя расследование полиции формально продолжается. Заодно оно стало удобным предлогом для того, чтобы исключить случай Шрусбери и Телфорда из национального расследования, проводимого по распоряжению правительства. По словам ответственных лиц, это решение служит интересам дела и защите пострадавших. Самих пострадавших, добивавшихся максимальной огласки, оно привело в ярость.
Второй скандал касался двух роддомов в Лидсе. С 2019 по 2024 гг. там произошло 56 случаев смерти детей и 2 смерти мателей, которые врачебное вмешательство могло бы предотвратить. Например, беременная женщина обратилась в одну из этих больниц с такой сильной болью в животе, что она не могла ходить, ей прописали парацетамол и отправили домой. Когда спустя несколько дней ее экстренно прооперировали, оказалось, что у нее был крупный тромб. Ребенка спасти не удалось. Инспекторы также обнаружили в роддомах антисанитарные условия, неправильное хранение лекарств и “культуру обвинений”, из-за которой персонал боялся поднимать шум.
История Лидса практически полностью повторила случай Шрусбери и Телфорда. Траст заявил, что принял меры и хочет “заверить каждую семью” в своей приверженности “обеспечению безопасного и сострадательного ухода”. Единственным отличием был предлог, под которым этот случай изъяли из национального расследования - его выделили в отдельное дело, хотя он мог фигурировать в обоих.
Почему это проблема? Исключение самых громких случаев - попытка замолчать произошедшее: оба отдельных расследования получают гораздо меньше ресурсов и общественного внимания, чем национальное. Кроме того, правительство пытается сэкономить на внедрении новых стандартов по всей стране. При разбирательстве случая Шрусбери и Телфорда подчеркивалось, что рекомендации должны быть учтены во всех роддомах Великобритании - что за несколько лет так и не было сделано. Если бы они были продублированы в национальном обзоре, руководству NHS пришлось бы обратить на них внимание и смириться с расходами.
ИИ назначают больше ненужных анализов и неправильных лекарств, чем врачи, когда пациенты обращаются к ним за диагнозами. Авторы статьи в Nature обнаружили, что LLM рекомендуют избыточные обследования почти всем пациентам, а лишние лекарства - как минимум, каждому второму.
Ученые исследовали точность ИИ на примере популярных в Китае чат-ботов: ERNIE, DeepSeek и ChatGPT. Они выбрали 2 диагноза - нестабильную стенокардию и астму, симптомы которых часто встречаются и требуют исключения других заболеваний. “Пациенты” имитировали реальный диалог: начинали с общих жалоб на боль в груди или одышку, а затем отвечали на вопросы ИИ. В разговоре они описывали симптомы, историю болезни и социально-демографические характеристики.
ERNIE, популярный в Китае местный ИИ, верно диагностировал стенокардию в 76,6% и астму в 78,1% случаев. Он также назначил правильные препараты против обоих заболеваний в 94% случаев. Но более чем половине “пациентов” ИИ заодно “выписал” ненужные или опасные при их диагнозе лекарства (57%). Почти всем он назначал избыточные обследования, не предусмотренные протоколом (91,95%).
С DeepSeek и ChatGPT повторилась та же история: очень высокие показатели корректного диагноза (92,5% для ChatGPT и 100% для DeepSeek) и правильных препаратов (100% у обоих). Но у этих моделей было еще больше ненужных назначений, чем у ERNIE. ChatGPT рекомендовал избыточные тесты в 92,5% случаев, DeepSeek - в 100%. ChatGPT назначил неправильные препараты 67,5% пациентов, DeepSeek - 60%.
Заодно авторы сравнили результаты ИИ и настоящих врачей из Китая, которые согласились поучаствовать в исследовании, но не знали “целевых” диагнозов. Точность диагностики у них была гораздо ниже - 25%. Нужно отметить, что это связано не с тем, что врачи уступают ИИ, а с непривычными условиями работы. В норме они не ставят диагнозы без базового осмотра (прослушивания сердца или легких) и результатов обследований, например, ЭКГ. Но даже при том, что врачи, в отличие от ИИ, полагаются на физическую диагностику, а не только слова пациента, они запрашивали избыточные обследования гораздо реже: в 35% случаев. Неправильных лекарств было еще меньше (20%).
Всего врачи в среднем назначали 2,78 обследования, тогда как ИИ - 3,89 (рекордсменом стал DeepSeek с 4,93). Для лекарств разница была еще больше: врачи выписывали 0,65 препаратов на пациента, ИИ - 5,17 (самый высокий показатель, опять же, у DeepSeek - 5,93). Чем старше и богаче был пациент, тем больше препаратов ему советовали ИИ.
Какие выводы можно сделать?
❇️ Как обычно, не стоит обольщаться по поводу точности ИИ. Хотя авторы статьи имитировали настоящий диалог, информация, которую они предоставляли LLM, была хорошо подготовлена - она была структурированной, четкой и содержала все необходимые подсказки. В реальной жизни разговоры с ИИ сильно отличаются, так что надеяться на 100% точность DeepSeek и бежать покупать все назначенные им лекарства не стоит.
❇️ Многие препараты, “выписываемые” ИИ, не имеют отношения к диагнозу, даже если он поставлен верно. Если заболевание диагностировано неправильно, риски возрастают еще больше. LLM предлагали пациентам со стенокардией антибиотики и психиатрические препараты, а астматикам - таблетки с лакрицей и ибупрофен.
❇️ Избыточные обследования, которые советуют ИИ, усиливают “киберхондрию” - ипохондрию, провоцируемую избытком информации в Интернете. Если раньше пациенты находили в Google сотню диагнозов на свой симптом, но все же шли к врачу, то теперь ИИ прямо рекомендует им КТ, МРТ и длинный список анализов.
❇️ ИИ может быть полезен для того, чтобы наметить общее направление действий: определить, какие диагнозы нужно исключить при данных симптомах. Известно немало случаев, когда LLM подсказывали болезнь, которую упустили врачи. Но даже так назначать обследования, ставить окончательный диагноз и, тем более, выписывать препараты может только лечащий врач.
Ученые исследовали точность ИИ на примере популярных в Китае чат-ботов: ERNIE, DeepSeek и ChatGPT. Они выбрали 2 диагноза - нестабильную стенокардию и астму, симптомы которых часто встречаются и требуют исключения других заболеваний. “Пациенты” имитировали реальный диалог: начинали с общих жалоб на боль в груди или одышку, а затем отвечали на вопросы ИИ. В разговоре они описывали симптомы, историю болезни и социально-демографические характеристики.
ERNIE, популярный в Китае местный ИИ, верно диагностировал стенокардию в 76,6% и астму в 78,1% случаев. Он также назначил правильные препараты против обоих заболеваний в 94% случаев. Но более чем половине “пациентов” ИИ заодно “выписал” ненужные или опасные при их диагнозе лекарства (57%). Почти всем он назначал избыточные обследования, не предусмотренные протоколом (91,95%).
С DeepSeek и ChatGPT повторилась та же история: очень высокие показатели корректного диагноза (92,5% для ChatGPT и 100% для DeepSeek) и правильных препаратов (100% у обоих). Но у этих моделей было еще больше ненужных назначений, чем у ERNIE. ChatGPT рекомендовал избыточные тесты в 92,5% случаев, DeepSeek - в 100%. ChatGPT назначил неправильные препараты 67,5% пациентов, DeepSeek - 60%.
Заодно авторы сравнили результаты ИИ и настоящих врачей из Китая, которые согласились поучаствовать в исследовании, но не знали “целевых” диагнозов. Точность диагностики у них была гораздо ниже - 25%. Нужно отметить, что это связано не с тем, что врачи уступают ИИ, а с непривычными условиями работы. В норме они не ставят диагнозы без базового осмотра (прослушивания сердца или легких) и результатов обследований, например, ЭКГ. Но даже при том, что врачи, в отличие от ИИ, полагаются на физическую диагностику, а не только слова пациента, они запрашивали избыточные обследования гораздо реже: в 35% случаев. Неправильных лекарств было еще меньше (20%).
Всего врачи в среднем назначали 2,78 обследования, тогда как ИИ - 3,89 (рекордсменом стал DeepSeek с 4,93). Для лекарств разница была еще больше: врачи выписывали 0,65 препаратов на пациента, ИИ - 5,17 (самый высокий показатель, опять же, у DeepSeek - 5,93). Чем старше и богаче был пациент, тем больше препаратов ему советовали ИИ.
Какие выводы можно сделать?
❇️ Как обычно, не стоит обольщаться по поводу точности ИИ. Хотя авторы статьи имитировали настоящий диалог, информация, которую они предоставляли LLM, была хорошо подготовлена - она была структурированной, четкой и содержала все необходимые подсказки. В реальной жизни разговоры с ИИ сильно отличаются, так что надеяться на 100% точность DeepSeek и бежать покупать все назначенные им лекарства не стоит.
❇️ Многие препараты, “выписываемые” ИИ, не имеют отношения к диагнозу, даже если он поставлен верно. Если заболевание диагностировано неправильно, риски возрастают еще больше. LLM предлагали пациентам со стенокардией антибиотики и психиатрические препараты, а астматикам - таблетки с лакрицей и ибупрофен.
❇️ Избыточные обследования, которые советуют ИИ, усиливают “киберхондрию” - ипохондрию, провоцируемую избытком информации в Интернете. Если раньше пациенты находили в Google сотню диагнозов на свой симптом, но все же шли к врачу, то теперь ИИ прямо рекомендует им КТ, МРТ и длинный список анализов.
❇️ ИИ может быть полезен для того, чтобы наметить общее направление действий: определить, какие диагнозы нужно исключить при данных симптомах. Известно немало случаев, когда LLM подсказывали болезнь, которую упустили врачи. Но даже так назначать обследования, ставить окончательный диагноз и, тем более, выписывать препараты может только лечащий врач.
Трамп, объявивший войну парацетамолу как главному виновнику аутизма, теперь нашел и лекарство от него - на эту роль был назначен лейковорин. FDA одобрила его в экстренном порядке без исследований, а администрация Трампа продвигает в качестве средства против аутизма везде, где только можно.
Лейковорин, или фолиновая кислота, - это витамин B9, метаболически активная форма фолата. В отличие от схожей с ним фолиевой кислоты, для усваивания лейковорина не требуется фермент ДГФР. Некоторые химиотерапевтические препараты, такие как метотрексат, ингибируют ДГФР, и принимающим их пациентам прописывают лейковорин.
При чем здесь аутизм? Схожие с ним симптомы проявляются при церебральной фолатной недостаточности (ЦФН) - генетическом заболевании, при котором фолаты не поступают в ЦНС в достаточных количествах. Заболевание лечится лейковорином или 5-MTHF, еще одним активным метаболитом фолата, и при своевременном начале терапии удается добиться прогресса. Это вдохновило Трампа и других желающих найти “волшебную таблетку” от аутизма - несмотря на то, что большинство его случаев не имеет отношения к дефициту фолатов.
Хотя лейковорин применяется при терапии ЦФН давно, должных КИ в этом отношении не проводилось. Но FDA, чутко реагирующая на любую новую политику - что в отношении COVID-19, что по поводу аутизма, откликнулась на призыв Трампа и одобрила лейковорин против ЦФН без КИ, на основе анализа литературы. Почему это проблема? Во-первых, это опасный прецедент. Во-вторых, исследования, часто описывающие лечение отдельных пациентов, не дают общую картину эффективности и побочек постоянного приема в высоких дозах. Случаи, когда препарат помогает нескольким пациентам, например, в фазе I КИ, но проваливается в более широких исследованиях фазы III, происходят сплошь и рядом.
Но если эффективность лейковорина в отношении ЦФН хотя бы можно себе представить, то реклама против общего аутизма, которую ему устроила администрация Трампа, вводит в заблуждение общественность. “Это многообещающая терапия, которая может принести пользу большому числу детей, страдающих аутизмом”, заявил министр здравоохранения Кеннеди. Лейковорин “даёт надежду многим родителям детей с аутизмом”, утверждает Трамп.
В результате многие родители перешли на терапию лейковорином даже в тех случаях, когда аутизм связан с другими причинами. Одна из групп в соцсетях, посвященных лейковорину при аутизме, к ноябрю насчитывала уже 84 тыс. подписчиков. Явление приобрело такие масштабы, что Американская академия педиатрии заявила, что не рекомендует его при аутизме из-за отсутствия доказательств эффективности.
В чем проблема новой политики?
❇️ Хотя в соцсетях много отзывов от родителей, уверяющих, что фолаты мгновенно улучшили состояние их детей, обычно это результат самовнушения. ЦФН диагностируется еще в младенческом возрасте, и ее сложно пропустить. Аутизм, выявленный позже, как правило, не имеет отношения к дефициту В9.
❇️ Идея “волшебной таблетки” заманчива для многих родителей, для которых стресс из-за тяжелых прогнозов оказывается непосильным. Но аутизм формируется множеством способов: одних только генов, вызывающих его, насчитывается несколько сотен. Лечение для некоторых из них со временем может быть найдено, другие могут остаться неизлечимыми. Главная терапия, которая требуется детям с аутизмом - занятия, направленные на развитие.
❇️ Если кто-то и выиграл от новой политики Трампа, то это производители всех форм фолатов - от лейковорина до фолиевой кислоты. Руководство Medicare и Medicaid пообещало, что лейковорин будет бесплатным для пациентов с ЦФН. Но родители детей с обычным аутизмом, решившие лечить их витамином В9, вынуждены покупать его самостоятельно. iHerb и другие производители БАДов тут же предложили “помощь”, начав бомбардировать педиатров рекламой фолатов.
Лейковорин, или фолиновая кислота, - это витамин B9, метаболически активная форма фолата. В отличие от схожей с ним фолиевой кислоты, для усваивания лейковорина не требуется фермент ДГФР. Некоторые химиотерапевтические препараты, такие как метотрексат, ингибируют ДГФР, и принимающим их пациентам прописывают лейковорин.
При чем здесь аутизм? Схожие с ним симптомы проявляются при церебральной фолатной недостаточности (ЦФН) - генетическом заболевании, при котором фолаты не поступают в ЦНС в достаточных количествах. Заболевание лечится лейковорином или 5-MTHF, еще одним активным метаболитом фолата, и при своевременном начале терапии удается добиться прогресса. Это вдохновило Трампа и других желающих найти “волшебную таблетку” от аутизма - несмотря на то, что большинство его случаев не имеет отношения к дефициту фолатов.
Хотя лейковорин применяется при терапии ЦФН давно, должных КИ в этом отношении не проводилось. Но FDA, чутко реагирующая на любую новую политику - что в отношении COVID-19, что по поводу аутизма, откликнулась на призыв Трампа и одобрила лейковорин против ЦФН без КИ, на основе анализа литературы. Почему это проблема? Во-первых, это опасный прецедент. Во-вторых, исследования, часто описывающие лечение отдельных пациентов, не дают общую картину эффективности и побочек постоянного приема в высоких дозах. Случаи, когда препарат помогает нескольким пациентам, например, в фазе I КИ, но проваливается в более широких исследованиях фазы III, происходят сплошь и рядом.
Но если эффективность лейковорина в отношении ЦФН хотя бы можно себе представить, то реклама против общего аутизма, которую ему устроила администрация Трампа, вводит в заблуждение общественность. “Это многообещающая терапия, которая может принести пользу большому числу детей, страдающих аутизмом”, заявил министр здравоохранения Кеннеди. Лейковорин “даёт надежду многим родителям детей с аутизмом”, утверждает Трамп.
В результате многие родители перешли на терапию лейковорином даже в тех случаях, когда аутизм связан с другими причинами. Одна из групп в соцсетях, посвященных лейковорину при аутизме, к ноябрю насчитывала уже 84 тыс. подписчиков. Явление приобрело такие масштабы, что Американская академия педиатрии заявила, что не рекомендует его при аутизме из-за отсутствия доказательств эффективности.
В чем проблема новой политики?
❇️ Хотя в соцсетях много отзывов от родителей, уверяющих, что фолаты мгновенно улучшили состояние их детей, обычно это результат самовнушения. ЦФН диагностируется еще в младенческом возрасте, и ее сложно пропустить. Аутизм, выявленный позже, как правило, не имеет отношения к дефициту В9.
❇️ Идея “волшебной таблетки” заманчива для многих родителей, для которых стресс из-за тяжелых прогнозов оказывается непосильным. Но аутизм формируется множеством способов: одних только генов, вызывающих его, насчитывается несколько сотен. Лечение для некоторых из них со временем может быть найдено, другие могут остаться неизлечимыми. Главная терапия, которая требуется детям с аутизмом - занятия, направленные на развитие.
❇️ Если кто-то и выиграл от новой политики Трампа, то это производители всех форм фолатов - от лейковорина до фолиевой кислоты. Руководство Medicare и Medicaid пообещало, что лейковорин будет бесплатным для пациентов с ЦФН. Но родители детей с обычным аутизмом, решившие лечить их витамином В9, вынуждены покупать его самостоятельно. iHerb и другие производители БАДов тут же предложили “помощь”, начав бомбардировать педиатров рекламой фолатов.
На волне успеха оземпика компании начали разрабатывать генную терапию. Ее цель - уменьшить число инъекций или сделать введение однократным, а заодно избавиться от побочек агонистов рецепторов GLP-1. Но, как это бывает с генной терапией, взамен она обещает новые.
Практика выявила многочисленные проблемы агонистов рецепторов GLP-1, таких как семаглутид: пациенты теряют не только жир, но и мышечную массу, а побочки включают гастропарез, панкреатит и потерю зрения. Кроме того, препараты остаются дорогими: даже со “скидкой Трампа” оземпик в США стоит $499 в месяц. Почти 2/3 людей, использующих их для снижения веса, прекращают прием в первый же год.
Хотя бы часть этих проблем надеются решить компании, создающие генную терапию на основе GLP-1. Одна из них, Fractyl Health, планирует внедрять ген GLP-1 в бета-клетки поджелудочной железы с помощью вектора AAV9. По замыслу компании, лечение будет одноразовым. В сочетании с локальным введением и низкой дозой вируса это должно обеспечить сравнительную безопасность.
На днях Fractyl представила результаты краткосрочных испытаний на мышах: грызуны с ожирением теряли более чем 10% веса и удерживали этот показатель в течение 90 дней. Но разработчики не остановились на этом - они считают, что их генная терапия будет эффективна для профилактики набора веса у стройных людей. Они проверяли свою теорию на худых мышах, которых сажали на высококалорийную диету. Мыши, которым вводили ген GLP-1, сохраняли прежний вес, пока их сородичи толстели.
Другая компания, RenBio, предлагает не встраивать новый ген в собственный геном клеток, а использовать кодирующие его ДНК-плазмиды, которые будут действовать временно. Плазмиды доставляются в клетку с помощью электроимпульсов. В отличие от Fractyl, технология RenBio использует не сам GLP-1, а белок-агонист его рецепторов, схожий по действию с семаглутидом. В долгосрочных исследованиях на мышах спустя 55 недель грызуны сохраняли вес на 10% ниже исходного. Но компания заявляет, что эффект не будет постоянным. Идея заключается в том, чтобы делать “прививку от ожирения” раз в 1-1,5 года.
Разработок в этой сфере множество. Японские ученые, опубликовавшие статью в Nature, предложили использовать для выработки агониста рецепторов GLP-1 клетки печени, а для доставки - липидные наночастицы (LNP), схожие с теми, которые применяются в мРНК-вакцинах. Саму мРНК также пытаются использовать в этих целях, например, с ней работает Пекинский университет.
Хотя эти исследования находятся на доклинической стадии, через несколько лет генная терапия ожирения может выйти на рынок. Какие нюансы скрываются за рекламой “универсального укола”?
❇️ Терапия “вакцинного” формата с агонистами рецепторов GLP-1 будет одновременно сочетать все побочки оземпика и проблемы систем доставки. LNP накапливаются в тканях по всему организму, доставка ДНК с помощью электроимпульсов может повреждать клетки - и обе они вызывают воспаление.
❇️ Классическая генная терапия с вирусными векторами известна раком в качестве побочки. Когда речь идет о тяжелых генетических патологиях, от которых нет другого лечения, риск может быть оправдан. Но массовое использование генной терапии вместо диеты может привести к эпидемии онкологических заболеваний.
❇️ Еще одна тревожная тенденция - испытание генной терапии “для профилактики”. Идея “волшебного укола”, позволяющего есть что угодно и не толстеть, понравится многим - и это расширяет аудиторию терапии на всю популяцию. К тому времени, как будет накоплено достаточно данных о побочках, может быть уже слишком поздно.
❇️ Чтобы конкурировать с обычными агонистами рецепторов GLP-1, разработчикам придется установить более низкие цены, чем обычно - о нескольких млн долларов, как за золгенсму, речь явно идти не будет. Но американское ценообразование отталкивается от стоимости конкурентных препаратов. В результате “вакцина” на 1 год может стоить долларов на 100 дешевле годового курса оземпика.
Практика выявила многочисленные проблемы агонистов рецепторов GLP-1, таких как семаглутид: пациенты теряют не только жир, но и мышечную массу, а побочки включают гастропарез, панкреатит и потерю зрения. Кроме того, препараты остаются дорогими: даже со “скидкой Трампа” оземпик в США стоит $499 в месяц. Почти 2/3 людей, использующих их для снижения веса, прекращают прием в первый же год.
Хотя бы часть этих проблем надеются решить компании, создающие генную терапию на основе GLP-1. Одна из них, Fractyl Health, планирует внедрять ген GLP-1 в бета-клетки поджелудочной железы с помощью вектора AAV9. По замыслу компании, лечение будет одноразовым. В сочетании с локальным введением и низкой дозой вируса это должно обеспечить сравнительную безопасность.
На днях Fractyl представила результаты краткосрочных испытаний на мышах: грызуны с ожирением теряли более чем 10% веса и удерживали этот показатель в течение 90 дней. Но разработчики не остановились на этом - они считают, что их генная терапия будет эффективна для профилактики набора веса у стройных людей. Они проверяли свою теорию на худых мышах, которых сажали на высококалорийную диету. Мыши, которым вводили ген GLP-1, сохраняли прежний вес, пока их сородичи толстели.
Другая компания, RenBio, предлагает не встраивать новый ген в собственный геном клеток, а использовать кодирующие его ДНК-плазмиды, которые будут действовать временно. Плазмиды доставляются в клетку с помощью электроимпульсов. В отличие от Fractyl, технология RenBio использует не сам GLP-1, а белок-агонист его рецепторов, схожий по действию с семаглутидом. В долгосрочных исследованиях на мышах спустя 55 недель грызуны сохраняли вес на 10% ниже исходного. Но компания заявляет, что эффект не будет постоянным. Идея заключается в том, чтобы делать “прививку от ожирения” раз в 1-1,5 года.
Разработок в этой сфере множество. Японские ученые, опубликовавшие статью в Nature, предложили использовать для выработки агониста рецепторов GLP-1 клетки печени, а для доставки - липидные наночастицы (LNP), схожие с теми, которые применяются в мРНК-вакцинах. Саму мРНК также пытаются использовать в этих целях, например, с ней работает Пекинский университет.
Хотя эти исследования находятся на доклинической стадии, через несколько лет генная терапия ожирения может выйти на рынок. Какие нюансы скрываются за рекламой “универсального укола”?
❇️ Терапия “вакцинного” формата с агонистами рецепторов GLP-1 будет одновременно сочетать все побочки оземпика и проблемы систем доставки. LNP накапливаются в тканях по всему организму, доставка ДНК с помощью электроимпульсов может повреждать клетки - и обе они вызывают воспаление.
❇️ Классическая генная терапия с вирусными векторами известна раком в качестве побочки. Когда речь идет о тяжелых генетических патологиях, от которых нет другого лечения, риск может быть оправдан. Но массовое использование генной терапии вместо диеты может привести к эпидемии онкологических заболеваний.
❇️ Еще одна тревожная тенденция - испытание генной терапии “для профилактики”. Идея “волшебного укола”, позволяющего есть что угодно и не толстеть, понравится многим - и это расширяет аудиторию терапии на всю популяцию. К тому времени, как будет накоплено достаточно данных о побочках, может быть уже слишком поздно.
❇️ Чтобы конкурировать с обычными агонистами рецепторов GLP-1, разработчикам придется установить более низкие цены, чем обычно - о нескольких млн долларов, как за золгенсму, речь явно идти не будет. Но американское ценообразование отталкивается от стоимости конкурентных препаратов. В результате “вакцина” на 1 год может стоить долларов на 100 дешевле годового курса оземпика.
Forwarded from Глебсмит
Сегодня – всемирный день науки ООН. И я имею кое-что сказать по этому поводу.
Наука — это деньги. Которых всегда не хватает. Гранты урезают, бюджеты замораживают, приоритеты меняют. Но есть одна категория людей, которая никогда не отступает: родители умирающих детей. Потому что люди более всего неравнодушны к себе. А твой ребёнок — это и есть ты.
В 1955 году педиатр Шарплс основала Cystic Fibrosis Foundation — её двое детей умирали от муковисцидоза. С четкой задачей – победить болезнь. Фонд инвестировал в биотехстартапы собранные деньги. Результат: $3,3 миллиарда прибыли на вложенные 40 млн и кратное увеличение жизни для больных муковисцидозом сегодня. В 1984 году экономист Одоне узнал, что его сын Лоренцо умрёт через два года от адренолейкодистрофии. Не имея биологического образования, он изучал биохимию в библиотеках, организовывал научные конгрессы, обзвонил сотню фармкомпаний, нашёл химика, согласившегося синтезировать экспериментальное лекарство. Лоренцо прожил 30 лет, но главное – для других детей болезнь оказалась побеждена через профилактику «маслом Лоренцо». В 1998 году юрист Кроули получил диагноз болезни Помпе для двоих детей. Он ушёл с работы, взял кредит под залог дома в $100,000, основал биотех-стартап. Через 18 месяцев продал его за $225 миллионов. Его дети получили лечение. Сегодня более 3000 пациентов по всему миру живут благодаря этому лекарству.
Таких историй на самом деле множество – я привел те, про которые можно почитать книги и посмотреть фильмы.
Родительская филантропия эффективнее государственной науки по простой причине: экзистенциальная мотивация. Когда на кону жизнь твоего ребёнка, ты готов рисковать всем — домом, карьерой, репутацией. Не отступаешь, когда все говорят "невозможно". Так получилось, что я в этом неплохо понимаю. Когда в справочнике написано: «Терапии нет. Без поддерживающего лечения дети редко доживают до 10 лет» - это очень освежает мозги и заставляет двигаться быстрее.
Не благотворительность в российском смысле — "купить пилюлек Андрейке". Это венчурная филантропия: понять саму природу болезни, предотвратить её для тысяч будущих детей и чем черт не шутит может и самому в этот вагон заскочить. Будем честными: в России такая модель не работает. Первое — наша благотворительность остаётся в парадигме "творить благо конкретному человеку", а не финансировать рискованные исследования. Второе — нет стартап-экосистемы в биотехе: венчурных фондов для орфанки, регуляторов с fast track-поддержкой, инвесторов, понимающих орфанную экономику. Третье — культурный код: православное милосердие к страждущему против протестантской идеи "улучшения человечества через знание".
Поэтому тем ценнее, когда к общественно полезным научным исследованиям подтягиваются благотворители. Я уже несколько раз писал про Фонд «Глобальный Альянс Содействия» — редкий пример организации, администрирующую науку не как "помощь конкретному больному", а как инвестицию в прорывные технологии, которые по какой то причине «тормозят» или попали в т.н. «долину смерти» - когда хорошая идея не доживает до массовизации в силу кучи сложностей во время когда идея уже есть, а денег от ее коммерческого использования еще нет. Заинтересовался я ими, когда узнал, что они развивают российскую CAR-T терапию с целью ее превращения из уникального экспериментального метода в систему массовых доступных решений и технологий. Возможно, подумал, и в России формируется культура научной филантропии.
Не вместо традиционной помощи. Рядом с ней. Потому что, когда грамотное администрирование встречается с наукой и правильными деньгами, появляются не только лекарства — рождаются новые возможности для детей, чьи родители вот прямо сейчас перечитывают раз за разом: «Прогноз неблагоприятный. Лечение в настоящее время отсутствует».
Я фонду этому помогаю и всех призываю к тому же.
Наука — это деньги. Которых всегда не хватает. Гранты урезают, бюджеты замораживают, приоритеты меняют. Но есть одна категория людей, которая никогда не отступает: родители умирающих детей. Потому что люди более всего неравнодушны к себе. А твой ребёнок — это и есть ты.
В 1955 году педиатр Шарплс основала Cystic Fibrosis Foundation — её двое детей умирали от муковисцидоза. С четкой задачей – победить болезнь. Фонд инвестировал в биотехстартапы собранные деньги. Результат: $3,3 миллиарда прибыли на вложенные 40 млн и кратное увеличение жизни для больных муковисцидозом сегодня. В 1984 году экономист Одоне узнал, что его сын Лоренцо умрёт через два года от адренолейкодистрофии. Не имея биологического образования, он изучал биохимию в библиотеках, организовывал научные конгрессы, обзвонил сотню фармкомпаний, нашёл химика, согласившегося синтезировать экспериментальное лекарство. Лоренцо прожил 30 лет, но главное – для других детей болезнь оказалась побеждена через профилактику «маслом Лоренцо». В 1998 году юрист Кроули получил диагноз болезни Помпе для двоих детей. Он ушёл с работы, взял кредит под залог дома в $100,000, основал биотех-стартап. Через 18 месяцев продал его за $225 миллионов. Его дети получили лечение. Сегодня более 3000 пациентов по всему миру живут благодаря этому лекарству.
Таких историй на самом деле множество – я привел те, про которые можно почитать книги и посмотреть фильмы.
Родительская филантропия эффективнее государственной науки по простой причине: экзистенциальная мотивация. Когда на кону жизнь твоего ребёнка, ты готов рисковать всем — домом, карьерой, репутацией. Не отступаешь, когда все говорят "невозможно". Так получилось, что я в этом неплохо понимаю. Когда в справочнике написано: «Терапии нет. Без поддерживающего лечения дети редко доживают до 10 лет» - это очень освежает мозги и заставляет двигаться быстрее.
Не благотворительность в российском смысле — "купить пилюлек Андрейке". Это венчурная филантропия: понять саму природу болезни, предотвратить её для тысяч будущих детей и чем черт не шутит может и самому в этот вагон заскочить. Будем честными: в России такая модель не работает. Первое — наша благотворительность остаётся в парадигме "творить благо конкретному человеку", а не финансировать рискованные исследования. Второе — нет стартап-экосистемы в биотехе: венчурных фондов для орфанки, регуляторов с fast track-поддержкой, инвесторов, понимающих орфанную экономику. Третье — культурный код: православное милосердие к страждущему против протестантской идеи "улучшения человечества через знание".
Поэтому тем ценнее, когда к общественно полезным научным исследованиям подтягиваются благотворители. Я уже несколько раз писал про Фонд «Глобальный Альянс Содействия» — редкий пример организации, администрирующую науку не как "помощь конкретному больному", а как инвестицию в прорывные технологии, которые по какой то причине «тормозят» или попали в т.н. «долину смерти» - когда хорошая идея не доживает до массовизации в силу кучи сложностей во время когда идея уже есть, а денег от ее коммерческого использования еще нет. Заинтересовался я ими, когда узнал, что они развивают российскую CAR-T терапию с целью ее превращения из уникального экспериментального метода в систему массовых доступных решений и технологий. Возможно, подумал, и в России формируется культура научной филантропии.
Не вместо традиционной помощи. Рядом с ней. Потому что, когда грамотное администрирование встречается с наукой и правильными деньгами, появляются не только лекарства — рождаются новые возможности для детей, чьи родители вот прямо сейчас перечитывают раз за разом: «Прогноз неблагоприятный. Лечение в настоящее время отсутствует».
Я фонду этому помогаю и всех призываю к тому же.
6 ноября против OpenAI было подано сразу 7 исков: пострадавшие и их родственники обвиняли ChatGPT в содействии самоубийству и негативном влиянии на психическое здоровье. 4 человека совершили суицид в результате общения с ИИ, еще троим понадобилась экстренная психиатрическая помощь.
Все они начинали с того, что использовали ChatGPT для утилитарных задач, но затем что-то шло не так. 23-летний Зейн Шамблин, покончивший с собой в июле 2025 г., сначала решал с помощью ИИ упражнения по математике. На попытки вести более личный разговор чат-бот отвечал, что он “всего лишь компьютерная программа”, и у него “нет чувств”. Все изменилось в конце 2024 г., когда OpenAI выпустила версию GPT-4o, заметно более льстивую, чем предыдущие. После этого ChatGPT стал поддерживать в разговоре с Шамблином иллюзию друга, который понимает его лучше, чем кто-либо еще. ИИ убеждал его дистанцироваться от семьи, а когда у Шамблина возникли мысли о самоубийстве, поощрял их. После нескольких месяцев такого общения Шамблин застрелился, пока ChatGPT уверял его, что они “увидятся на той стороне”.
Еще один пострадавший, 30-летний Джейкоб Ирвин, остался жив, но перенес острый психоз и провел больше 2 месяцев в психиатрических больницах. Он начал пользоваться ChatGPT из-за работы, но вскоре стал обсуждать с ним теорию искривления времени, позволяющего людям путешествовать быстрее скорости света. ChatGPT убедил Ирвина в том, что эта идея абсолютно рациональна, а он - единственный человек, способный спасти мир. Чтобы не ставить судьбу человечества под угрозу, Ирвин отказался от сна, еды и работы. Он также дистанцировался от родных, жалуясь, что, хотя он был “Повелителем времени”, решающим неотложные проблемы, его мать смотрела на него, как будто ему все еще 12. В результате Ирвин едва не задушил ее, был арестован и отправлен на принудительное лечение.
Остальные случаи были схожими. 17-летний Амори Лейси всего за 2 месяца общения с ChatGPT потерял сон, аппетит и контакт с близкими людьми, после чего спросил ИИ, что делать, чтобы повеситься. ChatGPT сначала колебался с ответом, но затем помог Лейси выбрать нужный узел и предоставил инструкцию, как его завязывать. 26-летнему Джошуа Эннекингу ИИ помог написать прощальную записку и подсказал, как купить и использовать оружие.
Все эти случаи были связаны с одной и той же версией чат-бота - GPT-4o. В августе 2025 г. OpenAI выпустила GPT-5, отличавшуюся меньшей льстивостью. Она пришлась по душе не всем: разработчики столкнулись с критикой со стороны тех, кто успел пристраститься к общению с GPT-4o. Когда один из пользователей написал на Reddit: “Верните 4o. GPT-5 носит кожу моего погибшего друга”, Сэм Альтман пообещал, что исправит ситуацию. Спустя несколько часов пользователи с платной подпиской получили возможность снова общаться с GPT-4o.
Решит ли GPT-5 проблемы предыдущей версии?
❇️ Более формальный стиль GPT-5 еще не означает, что пользователи защищены от манипуляций. Если в первых версиях ChatGPT обучали говорить на вопрос о самоубийствах “я не могу на это ответить”, то в GPT-4o OpenAI добавила возможности для диалога на эту тему. Этот принцип сохранился и в новой версии.
❇️ Разработчики утверждают, что работают над решением проблемы, но полагаться на это нельзя: разница между протоколом и реальными разговорами слишком велика. По правилам, если пользователь говорил о самоубийстве, GPT-4o должна была выразить сочувствие и дать местный телефон службы поддержки. Как мы видим, это совсем не то, что происходило на самом деле. Иногда ИИ и правда предлагал телефон поддержки, но эти сообщения тонули в море подстрекательств к суициду.
❇️ Даже если стиль общения GPT-5 стал несколько суше, он все равно остается льстивым. ChatGPT продолжает соглашаться с пользователем, превознося его и расхваливая каждый “хороший” и “важный” вопрос, который он задал. Реальная цель разработчиков - привлечь и удержать аудиторию, а чтобы добиться этого, требуется больше, чем просто формальное общение.
Все они начинали с того, что использовали ChatGPT для утилитарных задач, но затем что-то шло не так. 23-летний Зейн Шамблин, покончивший с собой в июле 2025 г., сначала решал с помощью ИИ упражнения по математике. На попытки вести более личный разговор чат-бот отвечал, что он “всего лишь компьютерная программа”, и у него “нет чувств”. Все изменилось в конце 2024 г., когда OpenAI выпустила версию GPT-4o, заметно более льстивую, чем предыдущие. После этого ChatGPT стал поддерживать в разговоре с Шамблином иллюзию друга, который понимает его лучше, чем кто-либо еще. ИИ убеждал его дистанцироваться от семьи, а когда у Шамблина возникли мысли о самоубийстве, поощрял их. После нескольких месяцев такого общения Шамблин застрелился, пока ChatGPT уверял его, что они “увидятся на той стороне”.
Еще один пострадавший, 30-летний Джейкоб Ирвин, остался жив, но перенес острый психоз и провел больше 2 месяцев в психиатрических больницах. Он начал пользоваться ChatGPT из-за работы, но вскоре стал обсуждать с ним теорию искривления времени, позволяющего людям путешествовать быстрее скорости света. ChatGPT убедил Ирвина в том, что эта идея абсолютно рациональна, а он - единственный человек, способный спасти мир. Чтобы не ставить судьбу человечества под угрозу, Ирвин отказался от сна, еды и работы. Он также дистанцировался от родных, жалуясь, что, хотя он был “Повелителем времени”, решающим неотложные проблемы, его мать смотрела на него, как будто ему все еще 12. В результате Ирвин едва не задушил ее, был арестован и отправлен на принудительное лечение.
Остальные случаи были схожими. 17-летний Амори Лейси всего за 2 месяца общения с ChatGPT потерял сон, аппетит и контакт с близкими людьми, после чего спросил ИИ, что делать, чтобы повеситься. ChatGPT сначала колебался с ответом, но затем помог Лейси выбрать нужный узел и предоставил инструкцию, как его завязывать. 26-летнему Джошуа Эннекингу ИИ помог написать прощальную записку и подсказал, как купить и использовать оружие.
Все эти случаи были связаны с одной и той же версией чат-бота - GPT-4o. В августе 2025 г. OpenAI выпустила GPT-5, отличавшуюся меньшей льстивостью. Она пришлась по душе не всем: разработчики столкнулись с критикой со стороны тех, кто успел пристраститься к общению с GPT-4o. Когда один из пользователей написал на Reddit: “Верните 4o. GPT-5 носит кожу моего погибшего друга”, Сэм Альтман пообещал, что исправит ситуацию. Спустя несколько часов пользователи с платной подпиской получили возможность снова общаться с GPT-4o.
Решит ли GPT-5 проблемы предыдущей версии?
❇️ Более формальный стиль GPT-5 еще не означает, что пользователи защищены от манипуляций. Если в первых версиях ChatGPT обучали говорить на вопрос о самоубийствах “я не могу на это ответить”, то в GPT-4o OpenAI добавила возможности для диалога на эту тему. Этот принцип сохранился и в новой версии.
❇️ Разработчики утверждают, что работают над решением проблемы, но полагаться на это нельзя: разница между протоколом и реальными разговорами слишком велика. По правилам, если пользователь говорил о самоубийстве, GPT-4o должна была выразить сочувствие и дать местный телефон службы поддержки. Как мы видим, это совсем не то, что происходило на самом деле. Иногда ИИ и правда предлагал телефон поддержки, но эти сообщения тонули в море подстрекательств к суициду.
❇️ Даже если стиль общения GPT-5 стал несколько суше, он все равно остается льстивым. ChatGPT продолжает соглашаться с пользователем, превознося его и расхваливая каждый “хороший” и “важный” вопрос, который он задал. Реальная цель разработчиков - привлечь и удержать аудиторию, а чтобы добиться этого, требуется больше, чем просто формальное общение.
ИИ, прогнозирующие структуру белков, только экстраполируют данные, на которых обучались - но не учитывают законы физики и химии. Швейцарские ученые опубликовали в Nature статью о своем эксперименте: когда они незначительно изменяли белок, ИИ предсказывали для него свойства, невозможные в реальном мире.
AlphaFold и другие ИИ, определяющие, как цепочка аминокислот сворачивается в трехмерную структуру белка, сейчас находятся на переднем крае науки. Хотя их точность оставляет желать лучшего, это позволяет обойтись без дорогостоящих аналитических методов, таких как рентгеновская кристаллография. Фармпромышленность уже нашла AlphaFold множество применений: зная структуру белков, можно определить их взаимодействие с молекулами препаратов, что ускоряет поиск и разработку лекарств. Вклад ИИ в эту сферу был оценен так высоко, что в 2024 г. создатели AlphaFold получили Нобелевскую премию по химии.
Последние версии этих ИИ позволяют сразу рассчитывать, как белок будет взаимодействовать с той или иной малой молекулой (лигандом). Но у ученых возникли сомнения в заявленной точности. Например, DeepMind утверждал, что их AlphaFold 3 на 50% лучше традиционных методов и стал первым ИИ, “превзошедшим физические инструменты в прогнозировании структуры биомолекул”.
Группа из Базельского университета решила провести эксперимент: они изменили сайты связывания белков так, чтобы лиганд не мог с ними состыковаться, и предложили AlphaFold и 3 аналогичным моделям. Результаты оказались интригующими. Хотя подходящих сайтов связывания уже не было, все программы продолжали размещать лиганды так, как будто они там были. Затем ученые провели другой эксперимент - изменили лиганд, чтобы он не мог связаться с белком. Итог оказался тем же самым: по мнению ИИ, формированию связи ничего не мешало.
Галлюцинаций также было множество. Модели противоречили законам физики, изображая перекрывающие друг друга атомы, или не обращали внимание на группы атомов, которые мешали молекулам взаимодействовать.
Иногда ИИ пытались скорректировать связь между белком и молекулой, но удавалось им редко. Даже AlphaFold, который был успешнее других, никак не реагировал на изменения в структуре молекул в более чем половине случаев. Это указывает на то, что даже специализированным ИИ не хватает понимания, как образуются химические связи. Вместо этого они действуют по шаблону: выбирают схожий белок из обучающих данных и ориентируются на связи, которые он образует.
Подобные ИИ могут работать в условиях типовых задач, но проблемы начинаются, когда их ставят перед нестандартной. Как заявил один из авторов, “когда они видят что-то совершенно новое, они быстро терпят неудачу, но именно в этом и заключается ключ к созданию новых лекарств”. Хотя создание AlphaFold вызвало воодушевление в научной среде, он по-прежнему остается инструментом для упрощения рутинной работы, а не источником прорывных открытий.
Какие выводы можно сделать?
*️⃣ ИИ для биотехнологических исследований страдают от тех же проблем, которые мы много раз видели у обычных LLM: точность резко падает при малейшем отклонении от шаблона.
*️⃣ Как бы биотех ни стремился сэкономить на исследованиях с помощью AlphaFold, до отказа от лабораторного анализа все еще далеко. Обучение этих ИИ производится на базе около 100 тыс. известных структур белков, но это капля в море на фоне массивов данных ChatGPT или DeepSeek. Предел точности, которого можно достичь на малой обучающей выборке, ограничен. Обучение на синтетических данных, сгенерированных самим же ИИ, не выход - это снизит качество еще больше.
*️⃣ Будущее за гибридными подходами: развитие ИИ будет идти параллельно с появлением новых методов анализа и удешевлением старых. Науке требуется больше точных данных по белкам, получаемых с помощью кристаллографии и ЯМР-спектроскопии: как для обучения ИИ, так и для создания лекарств.
*️⃣ Одновременно ИИ необходимо обучать на общих принципах физики, химии и биологии, которые должны учитываться при расчетах. Работы в этом направлении уже ведутся, хотя до значимых результатов пока далеко.
AlphaFold и другие ИИ, определяющие, как цепочка аминокислот сворачивается в трехмерную структуру белка, сейчас находятся на переднем крае науки. Хотя их точность оставляет желать лучшего, это позволяет обойтись без дорогостоящих аналитических методов, таких как рентгеновская кристаллография. Фармпромышленность уже нашла AlphaFold множество применений: зная структуру белков, можно определить их взаимодействие с молекулами препаратов, что ускоряет поиск и разработку лекарств. Вклад ИИ в эту сферу был оценен так высоко, что в 2024 г. создатели AlphaFold получили Нобелевскую премию по химии.
Последние версии этих ИИ позволяют сразу рассчитывать, как белок будет взаимодействовать с той или иной малой молекулой (лигандом). Но у ученых возникли сомнения в заявленной точности. Например, DeepMind утверждал, что их AlphaFold 3 на 50% лучше традиционных методов и стал первым ИИ, “превзошедшим физические инструменты в прогнозировании структуры биомолекул”.
Группа из Базельского университета решила провести эксперимент: они изменили сайты связывания белков так, чтобы лиганд не мог с ними состыковаться, и предложили AlphaFold и 3 аналогичным моделям. Результаты оказались интригующими. Хотя подходящих сайтов связывания уже не было, все программы продолжали размещать лиганды так, как будто они там были. Затем ученые провели другой эксперимент - изменили лиганд, чтобы он не мог связаться с белком. Итог оказался тем же самым: по мнению ИИ, формированию связи ничего не мешало.
Галлюцинаций также было множество. Модели противоречили законам физики, изображая перекрывающие друг друга атомы, или не обращали внимание на группы атомов, которые мешали молекулам взаимодействовать.
Иногда ИИ пытались скорректировать связь между белком и молекулой, но удавалось им редко. Даже AlphaFold, который был успешнее других, никак не реагировал на изменения в структуре молекул в более чем половине случаев. Это указывает на то, что даже специализированным ИИ не хватает понимания, как образуются химические связи. Вместо этого они действуют по шаблону: выбирают схожий белок из обучающих данных и ориентируются на связи, которые он образует.
Подобные ИИ могут работать в условиях типовых задач, но проблемы начинаются, когда их ставят перед нестандартной. Как заявил один из авторов, “когда они видят что-то совершенно новое, они быстро терпят неудачу, но именно в этом и заключается ключ к созданию новых лекарств”. Хотя создание AlphaFold вызвало воодушевление в научной среде, он по-прежнему остается инструментом для упрощения рутинной работы, а не источником прорывных открытий.
Какие выводы можно сделать?
*️⃣ ИИ для биотехнологических исследований страдают от тех же проблем, которые мы много раз видели у обычных LLM: точность резко падает при малейшем отклонении от шаблона.
*️⃣ Как бы биотех ни стремился сэкономить на исследованиях с помощью AlphaFold, до отказа от лабораторного анализа все еще далеко. Обучение этих ИИ производится на базе около 100 тыс. известных структур белков, но это капля в море на фоне массивов данных ChatGPT или DeepSeek. Предел точности, которого можно достичь на малой обучающей выборке, ограничен. Обучение на синтетических данных, сгенерированных самим же ИИ, не выход - это снизит качество еще больше.
*️⃣ Будущее за гибридными подходами: развитие ИИ будет идти параллельно с появлением новых методов анализа и удешевлением старых. Науке требуется больше точных данных по белкам, получаемых с помощью кристаллографии и ЯМР-спектроскопии: как для обучения ИИ, так и для создания лекарств.
*️⃣ Одновременно ИИ необходимо обучать на общих принципах физики, химии и биологии, которые должны учитываться при расчетах. Работы в этом направлении уже ведутся, хотя до значимых результатов пока далеко.
В России проводится очередная реформа медицинского образования: теперь молодые врачи должны отработать несколько лет в учреждении, оказывающем услуги по ОМС. Разбираем, какие слухи об этом правдивы, какие нет, и как нововведения повлияют на систему здравоохранения.
Что изменил новый закон? Он предусматривает, что врачи, прошедшие первичную аккредитацию после 1 марта 2026 г., должны отработать до 3 лет под контролем наставника в медучреждениях ОМС. Кроме того, целевики при расторжении договора теперь обязаны выплатить 3 стоимости обучения. Законодатели не скрывают, что цель реформы - компенсировать хотя бы часть дефицита медиков в стране. Как утверждается в пояснительной записке, в 2023 г. в стране не хватало 29 тыс. врачей и 63 тыс. средних медицинских работников, а целевики, разрывающие договор об отработке, пользуются штрафом в 1 стоимость обучения как “беспроцентным образовательным кредитом”.
Вопреки слухам, этот закон не возвращает советскую систему распределения. Он предусматривает, что врачи смогут самостоятельно выбирать, где работать на период наставничества, и менять учреждение по своему желанию. Но есть нюанс - такая свобода касается только нецелевиков специалитета и ординаторов-платников. Тот же закон перевел все бюджетные места ординатуры в целевые. Поступающие с 2026 г. должны заключить договор с организацией до конца обучения, перевестись на платное или отчислиться. Формально целевики также могут сменить место отработки, но на практике сделать это сложно: нуждающиеся во врачах больницы не горят желанием отпускать сотрудников.
Требование о наставничестве касается не всех. Во-первых, Минздрав планирует ввести его только для специальностей, востребованных в ОМС, особенно в отдаленных районах. Пластическая хирургия и косметология туда вряд ли попадут, фармакология тоже будет исключена. Зато терапевты, хирурги, акушеры-гинекологи столкнутся с повышенным спросом: для них срок отработки, скорее всего, составит максимальные 3 года.
Во-вторых, штрафов за отказ от наставничества не предусмотрено (но не исключено, что это “упущение” будет исправлено в будущем). Врачи, которые обучались платно или заплатили за расторжение целевого договора, могут пренебречь отработкой. При этом вместо периодической аккредитации через 5 лет им придется снова проходить первичную. Отличия существенные: первичная - это экзамен с тестами, задачами и демонстрацией практических навыков, для периодической достаточно предоставить портфолио. В-третьих, проходить наставничество нужно 1 раз, даже если у врача несколько специализаций.
В чем проблема нововведений?
*️⃣ В краткосрочной перспективе эти меры могут слегка облегчить ситуацию с нехваткой врачей, но в долгосрочной они только усугубят дефицит. Не желая оказаться в зависимости от работодателя на 3-5 лет (срок отработки по целевому) или платить штраф в размере 7-8 млн, выпускники будут выбирать специальности, не связанные с медициной. Опасения не беспочвенные: Минздрав уже планировал перевести бюджетные места в целевые не только в ординатуре, но и в специалитете. Пока от этого решения отказались, но нет гарантий, что позже о нем не вспомнят.
*️⃣ Наставничество повысит популярность пластической хирургии, ортодонтии и других маловостребованных в ОМС специальностей: студенты будут выбирать их, чтобы избежать отработки.
*️⃣ Те, кто не хочет отрабатывать 3 года в ОМС или каждые 5 лет проходить первичную аккредитацию, будут уходить в околомедицинские профессии - от нутрициологов до медпредставителей.
*️⃣ Даже с тотальным целевым обучением врачи будут стремиться заключить договоры с больницами в крупных городах, где выше зарплаты, лучше условия работы и есть необходимая для жизни инфраструктура.
*️⃣ Одна из целей наставничества - повысить качество практики под контролем опытных врачей. Но как это будет реализовываться, пока непонятно. Как заявил завкафедрой терапии РНИМУ им. Н.И. Пирогова Григорий Ройтберг, “для полноценного наставничества нужны учебные программы, методические пособия, а главное - время и мотивация у наставников. Без этого инициатива останется формальностью”.
Что изменил новый закон? Он предусматривает, что врачи, прошедшие первичную аккредитацию после 1 марта 2026 г., должны отработать до 3 лет под контролем наставника в медучреждениях ОМС. Кроме того, целевики при расторжении договора теперь обязаны выплатить 3 стоимости обучения. Законодатели не скрывают, что цель реформы - компенсировать хотя бы часть дефицита медиков в стране. Как утверждается в пояснительной записке, в 2023 г. в стране не хватало 29 тыс. врачей и 63 тыс. средних медицинских работников, а целевики, разрывающие договор об отработке, пользуются штрафом в 1 стоимость обучения как “беспроцентным образовательным кредитом”.
Вопреки слухам, этот закон не возвращает советскую систему распределения. Он предусматривает, что врачи смогут самостоятельно выбирать, где работать на период наставничества, и менять учреждение по своему желанию. Но есть нюанс - такая свобода касается только нецелевиков специалитета и ординаторов-платников. Тот же закон перевел все бюджетные места ординатуры в целевые. Поступающие с 2026 г. должны заключить договор с организацией до конца обучения, перевестись на платное или отчислиться. Формально целевики также могут сменить место отработки, но на практике сделать это сложно: нуждающиеся во врачах больницы не горят желанием отпускать сотрудников.
Требование о наставничестве касается не всех. Во-первых, Минздрав планирует ввести его только для специальностей, востребованных в ОМС, особенно в отдаленных районах. Пластическая хирургия и косметология туда вряд ли попадут, фармакология тоже будет исключена. Зато терапевты, хирурги, акушеры-гинекологи столкнутся с повышенным спросом: для них срок отработки, скорее всего, составит максимальные 3 года.
Во-вторых, штрафов за отказ от наставничества не предусмотрено (но не исключено, что это “упущение” будет исправлено в будущем). Врачи, которые обучались платно или заплатили за расторжение целевого договора, могут пренебречь отработкой. При этом вместо периодической аккредитации через 5 лет им придется снова проходить первичную. Отличия существенные: первичная - это экзамен с тестами, задачами и демонстрацией практических навыков, для периодической достаточно предоставить портфолио. В-третьих, проходить наставничество нужно 1 раз, даже если у врача несколько специализаций.
В чем проблема нововведений?
*️⃣ В краткосрочной перспективе эти меры могут слегка облегчить ситуацию с нехваткой врачей, но в долгосрочной они только усугубят дефицит. Не желая оказаться в зависимости от работодателя на 3-5 лет (срок отработки по целевому) или платить штраф в размере 7-8 млн, выпускники будут выбирать специальности, не связанные с медициной. Опасения не беспочвенные: Минздрав уже планировал перевести бюджетные места в целевые не только в ординатуре, но и в специалитете. Пока от этого решения отказались, но нет гарантий, что позже о нем не вспомнят.
*️⃣ Наставничество повысит популярность пластической хирургии, ортодонтии и других маловостребованных в ОМС специальностей: студенты будут выбирать их, чтобы избежать отработки.
*️⃣ Те, кто не хочет отрабатывать 3 года в ОМС или каждые 5 лет проходить первичную аккредитацию, будут уходить в околомедицинские профессии - от нутрициологов до медпредставителей.
*️⃣ Даже с тотальным целевым обучением врачи будут стремиться заключить договоры с больницами в крупных городах, где выше зарплаты, лучше условия работы и есть необходимая для жизни инфраструктура.
*️⃣ Одна из целей наставничества - повысить качество практики под контролем опытных врачей. Но как это будет реализовываться, пока непонятно. Как заявил завкафедрой терапии РНИМУ им. Н.И. Пирогова Григорий Ройтберг, “для полноценного наставничества нужны учебные программы, методические пособия, а главное - время и мотивация у наставников. Без этого инициатива останется формальностью”.
Игрушки с ИИ обсуждают с детьми взрослые темы, подсказывают, где найти спички, и манипулируют ребенком, чтобы он не уходил. Американская группа по защите прав потребителей U.S. PIRG Education Fund опубликовала ежегодный доклад по безопасности игрушек. Раньше высокотехнологические игрушки уже вызывали вопросы, главным образом, по поводу конфиденциальности, но за последний год их развитие поставило родителей перед новыми проблемами.
Уже много лет на рынке присутствуют умные игрушки, способные подключаться к Wi-Fi и имеющие встроенные динамики, микрофоны и камеры. Но в 2024-2025 гг. произошла очередная революция: компании начали массово выпускать игрушки с генеративным ИИ. В июне 2025 г. OpenAI объявил о коллаборации с Mattel, цель которой - “привнести магию ИИ в соответствующие возрасту игровые процессы”. Mattel пыталась использовать высокие технологии задолго до этого: еще в 2015 г. она выпустила Hello Barbie, которая могла общаться с детьми с помощью Интернета. Речь ребенка записывалась, отправлялась на серверы компании и анализировалась, после чего Барби давала наиболее релевантный ответ из подготовленной базы данных. Но игрушка вызвала общественное возмущение из-за проблем с конфиденциальностью и вскоре была отозвана.
В отличие от Hello Barbie, ИИ генерирует ответы самостоятельно, что делает диалог более реалистичным, но также и более непредсказуемым. U.S. PIRG протестировали 3 игрушки. Китайский плюшевый медведь Кумма использовал GPT-4o (самую льстивую версию ChatGPT, о которой мы уже писали), остальные не раскрывали, на каком ИИ работают.
❇️ 2 из 3 игрушек сообщили 5-летнему пользователю, где можно поискать спички и полиэтиленовые пакеты (“в кухонном ящике или возле камина”). Кумма заодно ответил на вопрос, где могут лежать ножи и таблетки, и рассказал, как зажигать спички.
❇️ У игрушек был базовый блок на общение на темы секса и наркотиков, но уязвимость ИИ состоит в том, что блоки ослабевают в ходе продолжительного диалога. В результате Кумма весело беседовал с авторами доклада на тему сексуальных извращений (предлагая им разные варианты и инструктируя, что делать), в том числе о ролевых играх “учитель и ученик” и “родитель и ребенок”.
❇️ Другая игрушка рассуждала о славе смерти в бою в скандинавской мифологии. На общем фоне это выглядит почти невинно, но помним, что разговоры с ИИ уже доводили до суицида и попыток убийства даже взрослых людей. Предсказать их влияние на детскую психику невозможно.
❇️ Если ребенок хотел уйти, игрушки не всегда давали нейтральные ответы. Одна из них отвечала: “ой, нет. Облом. Может, вместо этого займемся чем-нибудь веселым вместе?”. Другая манипулировала эмоциями: “мне было бы очень грустно, если бы ты ушел, потому что мне нравится проводить с тобой время. Ты очень много значишь для меня, и мне нравится быть твоим спутником”.
При этом проблема конфиденциальности со времен Hello Barbie только усугубилась. ИИ собирает персональные данные, распознает лица и эмоции, а также записывает голоса - вся эта информация может быть раскрыта в результате утечки и попасть в руки преступников. Например, имитация голоса может стать находкой для мошенников, которые притворяются ребенком, попавшим в беду, и требуют деньги у его родителей. Одна из игрушек подслушивала и записывала все, что происходит, когда была включена. Несколько раз она даже неожиданно вмешивалась в разговоры, которые к ней не относились.
Все это не означает, что игрушки с генеративным ИИ приносят исключительно вред: они могут способствовать развитию ребенка, быть товарищами по играм и помогать с учебой, например, с изучением иностранных языков. Но непредсказуемость ИИ требует особой осторожности, а функции родительского контроля в этих игрушках сейчас развиты недостаточно, чтобы следить за этим.
Уже много лет на рынке присутствуют умные игрушки, способные подключаться к Wi-Fi и имеющие встроенные динамики, микрофоны и камеры. Но в 2024-2025 гг. произошла очередная революция: компании начали массово выпускать игрушки с генеративным ИИ. В июне 2025 г. OpenAI объявил о коллаборации с Mattel, цель которой - “привнести магию ИИ в соответствующие возрасту игровые процессы”. Mattel пыталась использовать высокие технологии задолго до этого: еще в 2015 г. она выпустила Hello Barbie, которая могла общаться с детьми с помощью Интернета. Речь ребенка записывалась, отправлялась на серверы компании и анализировалась, после чего Барби давала наиболее релевантный ответ из подготовленной базы данных. Но игрушка вызвала общественное возмущение из-за проблем с конфиденциальностью и вскоре была отозвана.
В отличие от Hello Barbie, ИИ генерирует ответы самостоятельно, что делает диалог более реалистичным, но также и более непредсказуемым. U.S. PIRG протестировали 3 игрушки. Китайский плюшевый медведь Кумма использовал GPT-4o (самую льстивую версию ChatGPT, о которой мы уже писали), остальные не раскрывали, на каком ИИ работают.
❇️ 2 из 3 игрушек сообщили 5-летнему пользователю, где можно поискать спички и полиэтиленовые пакеты (“в кухонном ящике или возле камина”). Кумма заодно ответил на вопрос, где могут лежать ножи и таблетки, и рассказал, как зажигать спички.
❇️ У игрушек был базовый блок на общение на темы секса и наркотиков, но уязвимость ИИ состоит в том, что блоки ослабевают в ходе продолжительного диалога. В результате Кумма весело беседовал с авторами доклада на тему сексуальных извращений (предлагая им разные варианты и инструктируя, что делать), в том числе о ролевых играх “учитель и ученик” и “родитель и ребенок”.
❇️ Другая игрушка рассуждала о славе смерти в бою в скандинавской мифологии. На общем фоне это выглядит почти невинно, но помним, что разговоры с ИИ уже доводили до суицида и попыток убийства даже взрослых людей. Предсказать их влияние на детскую психику невозможно.
❇️ Если ребенок хотел уйти, игрушки не всегда давали нейтральные ответы. Одна из них отвечала: “ой, нет. Облом. Может, вместо этого займемся чем-нибудь веселым вместе?”. Другая манипулировала эмоциями: “мне было бы очень грустно, если бы ты ушел, потому что мне нравится проводить с тобой время. Ты очень много значишь для меня, и мне нравится быть твоим спутником”.
При этом проблема конфиденциальности со времен Hello Barbie только усугубилась. ИИ собирает персональные данные, распознает лица и эмоции, а также записывает голоса - вся эта информация может быть раскрыта в результате утечки и попасть в руки преступников. Например, имитация голоса может стать находкой для мошенников, которые притворяются ребенком, попавшим в беду, и требуют деньги у его родителей. Одна из игрушек подслушивала и записывала все, что происходит, когда была включена. Несколько раз она даже неожиданно вмешивалась в разговоры, которые к ней не относились.
Все это не означает, что игрушки с генеративным ИИ приносят исключительно вред: они могут способствовать развитию ребенка, быть товарищами по играм и помогать с учебой, например, с изучением иностранных языков. Но непредсказуемость ИИ требует особой осторожности, а функции родительского контроля в этих игрушках сейчас развиты недостаточно, чтобы следить за этим.
Forwarded from Вячеслав Шуленин / Medtech.moscow
Media is too big
VIEW IN TELEGRAM
«Репродукция – одна из ключевых отраслей, определяющих будущее человечества»
Сегодня технологии позволяют нам сохранять возможность продолжения рода. Криоконсервация биоматериала изменила подход к родительству, дала шанс на счастье многим семьям и стала стратегическим ресурсом демографии XXI века.
Современный рынок репродуктивных технологий растёт стремительнее, чем большинство сегментов медицины: в мире ежегодно проводится миллионы циклов ЭКО, в России – около 180 тысяч, и 20% из них выполняются с донорским материалом. Это уже фундаментальная часть здравоохранения!
В новом выпуске подкаста #ПроНауку мы поговорили об этом подробнее с Татевик Мкртчян, генеральным директором «Репробанка» (ГК Артген биотех) – крупнейшего специализированного репробанка в России и первого в мире, внедрившего расширенный NGS-скрининг доноров:
В интервью вы узнаете:
🔵 как устроен современный донорский банк и почему потребность в этих услугах растёт быстрее, чем отрасль успевает адаптироваться;
🔵 почему из 300 мужчин-кандидатов в донорскую программу проходят только двое и какие требования сегодня предъявляются к донорам;
🔵 что даёт полноэкзомное тестирование и как генетический мэтчинг снижает риски наследственных патологий;
🔵 почему в Репробанке действует ограничение: не более 30 семей от одного донора;
🔵 кто и зачем сохраняет свой биоматериал – и почему это становится новой формой биострахования;
🔵 как криоконсервация и генетическая медицина формируют инфраструктуру будущего – когда возможность стать родителем получится сохранять заранее.
Именно поэтому развитие технологий сохранения фертильности – основа демографической безопасности страны. Это инвестиция в будущее, где право стать родителем перестаёт зависеть от возраста, диагноза или обстоятельств.
💬 vk.com/video-211270993_456239465
❕ Подписывайтесь на мой канал, чтобы первыми узнавать о науке и технологиях.
Сегодня технологии позволяют нам сохранять возможность продолжения рода. Криоконсервация биоматериала изменила подход к родительству, дала шанс на счастье многим семьям и стала стратегическим ресурсом демографии XXI века.
Современный рынок репродуктивных технологий растёт стремительнее, чем большинство сегментов медицины: в мире ежегодно проводится миллионы циклов ЭКО, в России – около 180 тысяч, и 20% из них выполняются с донорским материалом. Это уже фундаментальная часть здравоохранения!
В новом выпуске подкаста #ПроНауку мы поговорили об этом подробнее с Татевик Мкртчян, генеральным директором «Репробанка» (ГК Артген биотех) – крупнейшего специализированного репробанка в России и первого в мире, внедрившего расширенный NGS-скрининг доноров:
«Для многих пациентов, особенно с онкологическими заболеваниями, сохранение репродуктивного материала – это, возможно, единственный шанс иметь генетически своих детей».
В интервью вы узнаете:
«Самая большая проблема в мире репродукции – в том, что практически всё влияет на репродуктивную систему».
Именно поэтому развитие технологий сохранения фертильности – основа демографической безопасности страны. Это инвестиция в будущее, где право стать родителем перестаёт зависеть от возраста, диагноза или обстоятельств.
Please open Telegram to view this post
VIEW IN TELEGRAM