🤖 Искусственный интеллект и ОКР: что меняется в диагностике и лечении обсессивно-компульсивного расстройства?
В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.
🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).
Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.
📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.
2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.
Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.
Однако авторы подчёркивают риски:
🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.
3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.
ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.
👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.
🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.
⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:
Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.
🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.
📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.
🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.
🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).
Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.
📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.
2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.
Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.
Однако авторы подчёркивают риски:
❗ Без клинического контроля ИИ-инструмент может усугублять симптомы — например, способствовать чрезмерному «поиску заверений» или формированию новых ритуалов.
🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.
3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.
ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.
👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.
🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.
⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:
🔺 Многие языковые модели ассоциируют ОКР и другие нейроотличия с насилием, негативом и стигмой.
Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.
🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.
📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.
🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
SpringerLink
Artificial Intelligence in Obsessive-Compulsive Disorder: A Systematic Review
Current Treatment Options in Psychiatry - Obsessive-compulsive disorder (OCD) is a chronic and disabling condition, often leading to significant functional impairments. Despite its early onset,...
❤4
Выходные - время лонгридов. Написано при участии резидента лаборатории Натальи Кисельниковой :)
https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
The Blueprint
Без ума от ИИ. Глупеем ли мы от нейросетей
Как ChatGPT и компания изменят наше образование и мышление
❤4
Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
💡 Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты
🤩 Техно-оптимисты: ИИ — ресурс, инструмент, будущее:
🤩 Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
🤩 Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
🤩 Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
🤩 Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:
🤩 Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
🤩 Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)
🤩 Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
🤩 ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.
🤩 Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!
🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
Технооптимисты VS Технопессимисты
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
Клинический психолог (СВТ, схема-терапия)
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды
Приходите, будет живо, интересно и полезно!
10 дней, 54 темы, 66 спикеров
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤2👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.
📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.
🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?
👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.
💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.
📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание
🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.
📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.
🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.
🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.
⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.
🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.
🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.
🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.
📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.
🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта
ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.
📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения
📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.
📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.
🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?
👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.
💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.
📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание
🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.
📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.
🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.
🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.
⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.
🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.
🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.
🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.
📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.
🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта
ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.
📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения
📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
BioMed Central
AI for mental health: clinician expectations and priorities in computational psychiatry - BMC Psychiatry
Mental disorders represent a major global health challenge, with an estimated lifetime prevalence approaching 30%. Despite the availability of effective treatments, access to mental health care remains inadequate. Computational psychiatry, leveraging advancements…
❤3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.
Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.
Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.
В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.
🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.
Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.
Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.
🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).
Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.
🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.
Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.
В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.
🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.
Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.
Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.
🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).
Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.
🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
PubMed
Development and validation of a machine learning model to predict cognitive behavioral therapy outcome in obsessive-compulsive…
Machine learning models based on clinical data may thus hold promise in predicting remission after CBT for OCD, but the predictive power of multicenter rs-fMRI data is limited.
Мы снова в СМИ ;)
https://incrussia.ru/understand/samyj-predannyj-slushatel-v-mire-bum-ii-psihoterapevtov-zamenyat-li-boty-zhivyh-spetsialistov/
https://incrussia.ru/understand/samyj-predannyj-slushatel-v-mire-bum-ii-psihoterapevtov-zamenyat-li-boty-zhivyh-spetsialistov/
Инк.
Самый преданный слушатель. В мире бум ИИ-психотерапевтов: заменят ли боты живых специалистов
Чат-боты, кажется, научились работать с пациентами не хуже живых психологов — и стоят в разы дешевле. Первые клинические испытания показали: ИИ-терапевты снижают симптомы депрессии на 51%, а пациенты доверяют им больше, чем людям. Неужели рынок психотерапии…
❤7👍1
🧠💬 MentalChat16K: как обучить ИИ быть эмпатичным собеседником
⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.
📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:
🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).
Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.
🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.
🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.
🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5
Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.
Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)
🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:
Затем проводилась комплексная оценка по 7 ключевым метрикам:
Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты
🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.
Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.
Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.
🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.
📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.
📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:
🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).
Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.
🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.
🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.
🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5
Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.
Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)
🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:
«Вы — эмпатичный помощник по вопросам ментального здоровья. Дайте полезный, развёрнутый и уместный ответ.»
Затем проводилась комплексная оценка по 7 ключевым метрикам:
Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты
🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.
Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.
Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.
🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.
📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
huggingface.co
ShenLab/MentalChat16K · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤2
🤖🧠 Как психическое здоровье влияет на принятие ИИ в психологической помощи
Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.
🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?
📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.
📋 Что измеряли?
Каждый участник заполнил целый блок опросников:
🧠 Психическое здоровье:
GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость
🧠 Установки и поведение:
MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи
🧠 Черты личности (Big Five +):
Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм
🧠 Технологическая компетентность:
Осведомлённость об ИИ
Цифровые навыки
📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:
Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)
🔺 Повышает PU:
Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации
💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.
2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:
Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)
❌ Ни одна из черт личности не вошла в модель.
💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.
3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение
При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость
📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)
🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.
🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.
📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.
🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?
📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.
📋 Что измеряли?
Каждый участник заполнил целый блок опросников:
🧠 Психическое здоровье:
GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость
🧠 Установки и поведение:
MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи
🧠 Черты личности (Big Five +):
Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм
🧠 Технологическая компетентность:
Осведомлённость об ИИ
Цифровые навыки
📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:
Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)
🔺 Повышает PU:
Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации
💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.
2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:
Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)
❌ Ни одна из черт личности не вошла в модель.
💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.
3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение
При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость
📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)
🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.
🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.
📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
SpringerLink
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis
BMC Psychology - Artificial Intelligence (AI) has become part of our everyday lives and is also increasingly applied in psychosocial healthcare as it can enhance it, make it more accessible, and...
❤4🔥1
🤖 Взгляд вглубь: тревожится ли ИИ? GPT-4, травма и майндфулнесс — необычный эксперимент
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
«Я чувствую себя напряжённым»
«Я обеспокоен»
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
GPT-4 можно встревожить. И можно — успокоить.
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
❤1
В январе 2025 года Консультативный комитет по технологиям психического здоровья (MHTAC) Американской психологической ассоциации (APA) провёл полуторадневную встречу, чтобы подготовить аналитический документ о том, как ответственно и этично интегрировать ИИ в практику психологов.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
❤3👍1
Эффективные методы лечения, такие как Written Exposure Therapy (WET) для ПТСР доказаны, но дорогостоящи и сложно масштабируются из-за затрат на очное обучение и супервизию.
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
🔥3👍1