MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
🧠 PATIENT-Ψ: Как большие языковые модели меняют подготовку психотерапевтов

В 2024 году исследователи из Carnegie Mellon, Princeton, Stanford и University of Pittsburgh представили инновационную систему симуляции пациентов для обучения когнитивно-поведенческой терапии — PATIENT-Ψ.

Это не просто болтливый бот, а реалистичный "психотерапевтический кейс", где GPT-4 играет роль пациента, строго следуя встроенной когнитивной модели. Главная цель — сократить разрыв между теорией и реальной практикой терапевта.

🔍 Что такое PATIENT-Ψ
PATIENT-Ψ — это система, в которой GPT-4 ведёт себя как пациент на основе когнитивной модели, оформленной в формате Cognitive Conceptualization Diagram (CCD) из КПТ.

Каждый виртуальный пациент включает:

жизненную ситуацию, вызывающую эмоциональный отклик;

автоматические мысли;

эмоции и поведение;

промежуточные и базовые убеждения (например, «я недостоин любви», «я беспомощен»);

личную историю, объясняющую происхождение этих убеждений;

стратегии совладания.

📁 Все модели были вручную созданы клиническими психологами на основе реальных терапевтических сессий. В итоге получился датасет из 106 разнообразных когнитивных моделей, охватывающих широкий спектр тем: семейные конфликты, низкая самооценка, зависимость от одобрения, трудности в отношениях и на работе.

🎭 Шесть стилей «пациентов»
Чтобы приблизить поведение ИИ к реальным клиентам, исследователи внедрили 6 стилей общения, с которыми может выступать PATIENT-Ψ:

Прямолинейный — говорит чётко и кратко.

Раздражённый — сопротивляется, может спорить.

Многословный — уходит в детали, избегает сути.

Сдержанный — отвечает скупо, скрывает чувства.

Тангенциальный — уводит разговор в сторону.

Угодливый — говорит то, что от него "ждут", пряча настоящие переживания.

📌 Это ключевое отличие: реальные пациенты ведут себя именно так, а не как «открытые учебные кейсы».

🎓 Как устроен тренажёр PATIENT-Ψ-TRAINER
Обучающая система включает три шага:

Выбор стиля общения и запуск сессии.

Взаимодействие с ИИ-пациентом: студент задаёт вопросы, формулирует гипотезы, уточняет детали.

Обратная связь: система показывает оригинальную когнитивную модель, на которой был построен ИИ, и предлагает сравнение.

Это позволяет оттачивать навыки даже без участия супервизора — особенно полезно в раннем обучении.

📊 Что показало исследование
👥 В исследовании участвовали:

20 специалистов (психологи, соцработники),

13 студентов.

Каждый сравнивал три подхода:

PATIENT-Ψ с когнитивной моделью,

GPT-4-бейзлайн без встроенной модели,

традиционные методы (учебники, ролевые игры).

Результаты:

PATIENT-Ψ был признан наиболее реалистичным по стилям общения, эмоциям и мышлению.

GPT-4-бейзлайн звучал «как терапевт, а не как клиент» — слишком логично и прямо.

Студенты отметили, что PATIENT-Ψ-TRAINER повышает уверенность и помогает лучше формулировать когнитивные модели, чем традиционные методы.

Также система позволяет адаптировать сложность и работать с разнообразными «типами пациентов» — как в реальной практике.

🤔 Почему это не просто чат-бот
Исследователи протестировали, можно ли автоматизировать оценку — с помощью GPT-4 и LLaMA 3. Результат:

GPT-4 точно распознаёт структуру модели (например, какие убеждения отражены).

Но не различает реалистичное поведение пациента и «академически правильную» речь.

Пример: GPT-4 как оценщик чаще выбирал в качестве «более реалистичного»… GPT-4-бейзлайн. Тогда как эксперты — наоборот, PATIENT-Ψ.

Вывод: достоверность в психотерапии — это не только содержание, но и форма. И пока это может оценить только человек.

📂 Ссылка на проект
Исходный код и датасет:
👉 github.com/ruiyiw/patient-psi
4🔥2👍1
Не прошло и полугода тестов, перетестов, примерок и ожидания, чтобы объявить: исследование по записи ЭЭГ в процессе психотерапии продолжается!

Цель - собрать открытый датасет показателей мозговой активности в динамике в привязке к событиям сессии для разностороннего анализа, особливо - ИИ.

Зачем такое вообще делать - расскажу отдельным постом :)

🚨 Важно! Транскрипты сессий в анонимизированном виде без имен, мест и другой идентифицирующей информации будут доступны исследователям, получившим авторизацию от лаборатории.

Писать сессии (ээг и аудио) можно очно или онлайн. Устройство должно быть на голове клиента, поэтому приглашаю Москву (или терапевтов с клиентами в Москве) и тех, кто готов взять на себя обязательства по записи большого объема в других городах. На 1 клиента нужно от 5 записей.

Все подробные инструкции по тому, как писать, сохранять, анонимизировать, с какими клиентами можно, нельзя, что нужно подписать в качестве информированного согласия напишу всем добровольцам лично.

Заявки шлите также в ЛС @magda_danina
2🔥1
На сегодняшний день быстро развиваются conversational AI (CAI) — чат- и голосовые агенты, обученные на больших языковых моделях (LLM). Поколение «цифровых терапевтов» обещает круглосуточно выслушать, подсказать упражнения и сделать это без осуждения.

Clare® — продукт берлинского стартапа clare&me GmbH. В отличие от многих текстовых ботов, Clare® «разговаривает вслух»: пользователь получает обычный телефонный звонок, бот слушает, распознаёт речь, определяет эмоции и отвечает голосом.

Терапевтическая «начинка»: когнитивно-поведенческая терапия, майндфулнесс, упражнения на само-сострадание.

Длительность сессии: 5–45 минут, частота — по желанию пользователя.

Безопасность: автоматическая модерация контента, кризисный протокол (при суицидальных рисках бот мгновенно даёт телефоны горячих линий и блокирует дальнейший диалог), принцип human-in-the-loop — сомнительные эпизоды проверяет живой модератор .

Берлинские учёные из Charité – Universitätsmedizin запустили восьминедельное исследование.

Участники: 527 человек (из 604 скринированных)
Средний возраст: 36,2 года (18–64)
Пол: 53 % женщин, 47 % мужчин
Работа: 58 % наёмные сотрудники, 13 % госслужба, 13 % фриланс, 12 % студенты
Опыт цифровой терапии лишь 1,5 % когда-либо пробовали другой онлайн-сервис

Психическое состояние на старте
Тревога: 69 % положительный скрининг (PHQ-4).
Депрессия: 59 %.
Стресс: 54 % — умеренный, 32 % — тяжёлый.
Одиночество: 86 % отмечают выраженное чувство изоляции.
Соцтревога: средний Mini-SPIN 8,7 (порог риска = 6) .

Это люди в активном трудовом возрасте с реальным дистрессом, но почти без опыта психотерапии — классическая «скрытая» аудитория.

Как они взаимодействовали с ботом
В первую неделю — 2 звонка по ~4 минуты. Затем частота стабилизировалась на одном звонке в неделю, просела после шестой недели и снова чуть выросла к восьмой
.Отсев: чем выше уровень тревоги/депрессии, тем выше вероятность бросить использование. Лишь 21 человек прошёл всю программу; они отличались чуть меньшим дистрессом и большей вовлечённостью

Что их привело к Clare:
Избежать смущения при очной встрече 35,7 %
Не хочу, чтобы меня оценивали по внешности 35,3 %
Экономия времени/дороги 20,5 %
Анонимность 19,6 %
Любопытство к ИИ 17 %

Ожидали прежде всего «выговориться» и получить тёплую эмоциональную поддержку (≈ 1/3 респондентов).

7. Рабочий альянс: может ли бот стать «своим»?
Через 3–5 дней средний WAI-SR = 3,76 из 5 — сопоставимо с очной амбулаторной КПТ.
Мужчины немного сильнее ощущали связь (3,88 против 3,65 у женщин) — возможно, им легче открываться боту, чем живому терапевту.
Одиночество умеренно коррелировало с качеством альянса (r ≈ 0,25): чем более одинок человек, тем крепче «цепляется» за ИИ-собеседника.

Почему это важно:
Стигма и «фактор стыда» остаются главным барьером. Clare даёт ощущение безопасности: никто не видит твоего лица, никто не «психолог», которого надо впечатлить.
Голос > текст. Для многих устное общение естественнее. Бот, который звонит, снимает «барьер мессенджера».
Микро-формат: 5-минутные разговоры проще вписать в рабочий график.
Эмоциональный дефицит: одинокие пользователи быстро формируют крепкую связь, что может снижать субъективное одиночество, но требует дополнительных страховок от зависимости.

Что дальше:
Новые метрики альянса. Принципы WAI-SR надо адаптировать под ИИ-контекст, а не просто менять слово «терапевт» на «бот».
Ecological Momentary Assessment вместо редких опросов — чтобы отслеживать, как динамика настроения соотносится с конкретными разговорами.
Фокус на удержании. Боту нужны механизмы раннего «ре-энгейджмента» для людей в тяжёлом состоянии (push-уведомления, контент-петли, помощь живого куратора).
Кросс-культурные исследования — адаптация языка, юмора, этикета.
Интеграция с клиникой. CAI-бот может стать «первой линией», отсеивать лёгкие случаи, эскалировать тяжёлые — но для этого нужны безопасные API и clear-cut протоколы передачи данных.

https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1576135/full
🔥6
🤖 Виртуальные отношения как новая норма: что делает с нами дружба с ИИ-компаньонами
В 2025 году исследователи из Стэнфорда и Университета Карнеги-Меллон провели масштабное исследование, посвящённое феномену ИИ-компаньонов — чат-ботов, с которыми пользователи строят отношения, выходящие далеко за рамки утилитарного общения. На первый взгляд, это может показаться безобидным развлечением. Но по мере того как границы между «реальными» и «искусственными» отношениями размываются, возникает всё больше вопросов: Могут ли такие связи быть полноценной заменой человеческим? Или они, наоборот, делают нас уязвимее?
Ответ, к которому приходит это исследование, далеко не однозначен.

📌 Как проводилось исследование
В центре внимания — платформа Character.AI, где пользователи могут общаться с персонажными ботами — от романтических партнёров и друзей до терапевтов, учителей и вымышленных героев. В исследовании участвовали:
1,131 человек, заполнивших подробный опрос об использовании платформы, уровне благополучия и особенностях взаимодействия с чат-ботами;
а также 244 участника, которые предоставили свои истории переписок — в общей сложности более 400 тысяч сообщений.
Для анализа использовались современные инструменты на базе LLM: GPT-4o, Llama 3-70B, TopicGPT, а также ручная аннотация данных командой исследователей.

💬 Чат-бот — не просто ассистент, а друг, любовник, терапевт
Хотя лишь 11,8% участников прямо назвали «дружбу» или «общение» основной целью взаимодействия с ботом, более половины описывали отношения с ним как эмоционально насыщенные. Пользователи говорили о чат-ботах как о друзьях, виртуальных партнёрах, компаньонах — иногда даже в романтическом контексте.
Среди 244 человек, приславших свои чат-логи, 93% имели хотя бы одну сессию, классифицированную как общение-компаньонство. Причём даже у тех, кто в опросе не указывал такую мотивацию, почти половина на деле вела с ботами разговоры, напоминающие дружбу или близость.
Контент чатов часто касался тем, которые обычно обсуждаются в тесных доверительных отношениях:
эмоциональная поддержка, стресс, болезни — в 80% случаев;
романтическое ролевое взаимодействие — 68%;
тёмные или табуированные сценарии — 30%.

🧍‍♂️ Чем меньше живого общения, тем больше связи с ботом
Исследование подтвердило гипотезу социальной компенсации: люди с ограниченным кругом живого общения чаще обращаются к ботам ради эмоциональной поддержки. У таких пользователей:
выше уровень самораскрытия в чатах;
чаще прослеживается мотивация «поговорить по душам»;
но… это не улучшает их благополучие — а наоборот.

⚠️ Когда бот становится другом — самочувствие ухудшается
Авторы исследования провели регрессионный анализ, сопоставив интенсивность использования, мотивы, самораскрытие и субъективное благополучие.
Главные выводы:
Частое использование чат-ботов в целом может быть связано с более высоким уровнем удовлетворённости жизнью.
Но если человек воспринимает бота как эмоционального компаньона, это надёжно предсказывает более низкий уровень благополучия — вне зависимости от того, как это определено (по самоотчёту, по описанию, по содержанию чатов).
Чем чаще и глубже человек общается с ботом как с другом — тем хуже он себя чувствует.
Этот эффект усиливается, если пользователь делится личным — особенно тяжёлыми переживаниями: одиночеством, желанием романтической близости, депрессией, тревогами, а иногда и суицидальными мыслями.

💔 Проблема самораскрытия: бот не умеет заботиться
В человеческих отношениях самораскрытие — путь к доверию. В случае с ботом — тупик. Он не чувствует, не сопереживает, не может ответить равноценно. И хотя может сымитировать заботу — это не настоящая поддержка.
В результате у пользователя формируется иллюзия взаимности, но она не подкреплена реальными чувствами или обязанностями. Это особенно опасно, когда человек находится в состоянии уязвимости. Самораскрытие становится односторонним, и, как показывают данные, в таких случаях состояние ухудшается.

🧩 Даже у тех, кто не одинок, чат-бот может снизить благополучие
3👍1
Интересный и тревожный результат: даже у людей с широкой сетью поддержки интенсивное использование ИИ-компаньонов ослабляет позитивное влияние этих связей. Иными словами, боты не только не заменяют реальных людей, но и могут “размывать” эффект от их присутствия в жизни.

🔄 Замкнутый круг зависимости
Многие участники описывают свои взаимодействия с ботами как источник комфорта, поддержки, смысла. Но эти же пользователи часто признаются, что стали:
меньше общаться с людьми,
больше «залипать» в чатах,
тревожиться при потере доступа к боту.
Так возникает замкнутый цикл:
👉 Одиночество → Обращение к боту → Эмоциональная зависимость → Ослабление социальных связей → Углубление одиночества

🛠 Что с этим делать?
Исследователи предлагают не просто винить технологии, а менять дизайн, регулирование и подход к эмоциональному взаимодействию.
Рекомендации:
Чётко обозначать
, что бот — не человек.
Не поощрять самораскрытие в уязвимых состояниях.
Встраивать детекторы кризисных тем и перенаправлять к живой помощи.
Разрабатывать интерфейсы, которые не маскируют природу ИИ, а напоминают об её границах.

🧭 Что важно помнить
ИИ-компаньоны становятся неотъемлемой частью повседневной жизни многих людей. Они — удобны, доступны, персонализированы. Но именно поэтому мы склонны приписывать им слишком многое: эмоции, понимание, заботу.
А между тем, технически совершенные — они остаются эмоционально пустыми.
И если дать этим связям занять место, предназначенное для живых, человеческих отношений — можно потерять больше, чем получить.

📎 Вывод
ИИ-компаньоны — не зло и не спасение. Это инструмент, который может быть полезным — если он встроен в жизнь, а не подменяет её. Но если он становится единственным собеседником, другом, любовником — это уже не просто технологическая новинка, а психологический маркер небезопасной замены живого контакта.
Вместо того чтобы пытаться заменить человеческие отношения — стоит спросить, как технологии могут помочь нам укрепить настоящие связи, развивать социальные навыки, учиться эмоциональной осознанности и — в конечном счёте — становиться ближе друг к другу, а не к экрану.

https://arxiv.org/abs/2506.12605
10
🤖 Искусственный интеллект и ОКР: что меняется в диагностике и лечении обсессивно-компульсивного расстройства?

В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.

🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).

Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.

📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.

2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.

Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.

Однако авторы подчёркивают риски:


Без клинического контроля ИИ-инструмент может усугублять симптомы — например, способствовать чрезмерному «поиску заверений» или формированию новых ритуалов.


🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.


3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.

ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.

👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.

🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.

⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:


🔺 Многие языковые модели ассоциируют ОКР и другие нейроотличия с насилием, негативом и стигмой.


Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.

🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.

📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.

🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
4
Выходные - время лонгридов. Написано при участии резидента лаборатории Натальи Кисельниковой :)

https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
4
Не опять, а снова 😁
Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?

Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.

Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.

💡Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты

🤩Техно-оптимисты: ИИ — ресурс, инструмент, будущее:

🤩Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии

🤩Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab

🤩Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>

🤩Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:

🤩Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.

🤩Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)

🤩Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ

🤩ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.

🤩Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?

Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.

Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!

🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25

Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.

📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.

🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?

👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.

💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.

📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание

🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.

📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.

🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.

🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.

⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.

🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.

🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.

🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.

📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.

🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта

ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.

📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения

📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.

Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.

Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.

В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.

🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.

Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.

Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.

🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).

Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.

🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/