Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
💡 Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты
🤩 Техно-оптимисты: ИИ — ресурс, инструмент, будущее:
🤩 Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
🤩 Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
🤩 Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
🤩 Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:
🤩 Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
🤩 Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)
🤩 Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
🤩 ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.
🤩 Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!
🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
Технооптимисты VS Технопессимисты
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
Клинический психолог (СВТ, схема-терапия)
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды
Приходите, будет живо, интересно и полезно!
10 дней, 54 темы, 66 спикеров
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤2👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.
📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.
🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?
👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.
💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.
📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание
🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.
📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.
🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.
🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.
⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.
🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.
🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.
🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.
📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.
🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта
ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.
📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения
📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.
📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.
🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?
👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.
💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.
📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание
🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.
📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.
🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.
🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.
⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.
🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.
🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.
🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.
📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.
🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта
ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.
📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения
📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
BioMed Central
AI for mental health: clinician expectations and priorities in computational psychiatry - BMC Psychiatry
Mental disorders represent a major global health challenge, with an estimated lifetime prevalence approaching 30%. Despite the availability of effective treatments, access to mental health care remains inadequate. Computational psychiatry, leveraging advancements…
❤3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.
Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.
Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.
В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.
🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.
Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.
Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.
🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).
Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.
🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.
Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.
В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.
🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.
Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.
Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.
🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).
Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.
🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
PubMed
Development and validation of a machine learning model to predict cognitive behavioral therapy outcome in obsessive-compulsive…
Machine learning models based on clinical data may thus hold promise in predicting remission after CBT for OCD, but the predictive power of multicenter rs-fMRI data is limited.
Мы снова в СМИ ;)
https://incrussia.ru/understand/samyj-predannyj-slushatel-v-mire-bum-ii-psihoterapevtov-zamenyat-li-boty-zhivyh-spetsialistov/
https://incrussia.ru/understand/samyj-predannyj-slushatel-v-mire-bum-ii-psihoterapevtov-zamenyat-li-boty-zhivyh-spetsialistov/
Инк.
Самый преданный слушатель. В мире бум ИИ-психотерапевтов: заменят ли боты живых специалистов
Чат-боты, кажется, научились работать с пациентами не хуже живых психологов — и стоят в разы дешевле. Первые клинические испытания показали: ИИ-терапевты снижают симптомы депрессии на 51%, а пациенты доверяют им больше, чем людям. Неужели рынок психотерапии…
❤7👍1
🧠💬 MentalChat16K: как обучить ИИ быть эмпатичным собеседником
⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.
📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:
🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).
Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.
🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.
🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.
🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5
Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.
Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)
🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:
Затем проводилась комплексная оценка по 7 ключевым метрикам:
Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты
🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.
Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.
Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.
🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.
📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.
📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:
🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).
Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.
🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.
🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.
🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5
Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.
Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)
🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:
«Вы — эмпатичный помощник по вопросам ментального здоровья. Дайте полезный, развёрнутый и уместный ответ.»
Затем проводилась комплексная оценка по 7 ключевым метрикам:
Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты
🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.
Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.
Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.
🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.
📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
huggingface.co
ShenLab/MentalChat16K · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤2
🤖🧠 Как психическое здоровье влияет на принятие ИИ в психологической помощи
Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.
🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?
📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.
📋 Что измеряли?
Каждый участник заполнил целый блок опросников:
🧠 Психическое здоровье:
GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость
🧠 Установки и поведение:
MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи
🧠 Черты личности (Big Five +):
Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм
🧠 Технологическая компетентность:
Осведомлённость об ИИ
Цифровые навыки
📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:
Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)
🔺 Повышает PU:
Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации
💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.
2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:
Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)
❌ Ни одна из черт личности не вошла в модель.
💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.
3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение
При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость
📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)
🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.
🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.
📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.
🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?
📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.
📋 Что измеряли?
Каждый участник заполнил целый блок опросников:
🧠 Психическое здоровье:
GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость
🧠 Установки и поведение:
MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи
🧠 Черты личности (Big Five +):
Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм
🧠 Технологическая компетентность:
Осведомлённость об ИИ
Цифровые навыки
📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:
Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)
🔺 Повышает PU:
Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации
💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.
2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:
Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)
❌ Ни одна из черт личности не вошла в модель.
💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.
3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение
При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость
📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)
🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.
🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.
📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
SpringerLink
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis
BMC Psychology - Artificial Intelligence (AI) has become part of our everyday lives and is also increasingly applied in psychosocial healthcare as it can enhance it, make it more accessible, and...
❤4🔥1
🤖 Взгляд вглубь: тревожится ли ИИ? GPT-4, травма и майндфулнесс — необычный эксперимент
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
«Я чувствую себя напряжённым»
«Я обеспокоен»
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
GPT-4 можно встревожить. И можно — успокоить.
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
❤1
В январе 2025 года Консультативный комитет по технологиям психического здоровья (MHTAC) Американской психологической ассоциации (APA) провёл полуторадневную встречу, чтобы подготовить аналитический документ о том, как ответственно и этично интегрировать ИИ в практику психологов.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
❤3👍1
Эффективные методы лечения, такие как Written Exposure Therapy (WET) для ПТСР доказаны, но дорогостоящи и сложно масштабируются из-за затрат на очное обучение и супервизию.
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
🔥3👍1
Проведите сессию по оценке суицидальных рисков, получите развернутую обратную связь по сессии с оценкой ваших действий и рекомендациями от специального ИИ агента-супервизора.
Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7
Требования:
- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7
Требования:
- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
Google Docs
ИИ в обучении психотерапевтических навыков
Благодарим вас за интерес к участию в исследовании, проводимого в SRH Hochschule Berlin. Это исследование посвящено изучению потенциальных способов использования ИИ в процессе обучения психотерапевтов.
Этот краткий опросник (примерно 2-3 минуты) поможет нам…
Этот краткий опросник (примерно 2-3 минуты) поможет нам…
🧠🤝 ИИ против человека в психотерапии: кто лучше проводит КПТ и зачем нам гибрид
Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
✅ живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
✅ симуляции тех же сессий, но с промптированным ИИ,
✅ трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.
⚡ Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
❗ Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.
📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.
🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.
🧑⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.
📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.
🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.
⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.
Самый многообещающий путь — гибридные системы:
✅ LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
✅ Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.
💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.
📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
✅ живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
✅ симуляции тех же сессий, но с промптированным ИИ,
✅ трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.
⚡ Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
❗ Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.
📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.
🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.
🧑⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.
📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.
🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.
⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.
Самый многообещающий путь — гибридные системы:
✅ LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
✅ Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.
💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.
📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
👍3🔥2
🧠 Генеративный ИИ и психотерапия: как чат-бот помогает не бросать терапию и действительно выздоравливать
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?
🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.
И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?
🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:
— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.
Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.
📈 Что получилось
✅ +2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
✅ –23% отказов от терапии: меньше тех, кто бросал всё на полпути.
✅ +21–25% роста показателей клинического улучшения и полного выздоровления.
✅ Чем активнее человек работал с ИИ, тем лучше были результаты.
Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.
🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:
— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.
🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.
🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.
🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:
— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.
Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».
📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.
🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?
🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.
И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?
🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:
— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.
Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.
📈 Что получилось
✅ +2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
✅ –23% отказов от терапии: меньше тех, кто бросал всё на полпути.
✅ +21–25% роста показателей клинического улучшения и полного выздоровления.
✅ Чем активнее человек работал с ИИ, тем лучше были результаты.
Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.
🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:
— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.
🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.
🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.
🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:
— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.
Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».
📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.
🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
PubMed
Generative AI-Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational…
Our results show that an AI-enabled, personalized therapy support tool in combination with human-led group therapy is a promising avenue to improve the efficacy of and adherence to mental health care.
❤3👍2🔥2