MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?

Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.

Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.

💡Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты

🤩Техно-оптимисты: ИИ — ресурс, инструмент, будущее:

🤩Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии

🤩Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab

🤩Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>

🤩Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:

🤩Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.

🤩Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)

🤩Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ

🤩ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.

🤩Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?

Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.

Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!

🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25

Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.

📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.

🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?

👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.

💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.

📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание

🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.

📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.

🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.

🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.

⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.

🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.

🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.

🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.

📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.

🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта

ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.

📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения

📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.

Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.

Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.

В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.

🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.

Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.

Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.

🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).

Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.

🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
🧠💬 MentalChat16K: как обучить ИИ быть эмпатичным собеседником

⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.

📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:

🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).

Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.

🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.

🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.

🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5

Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.

Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)

🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:


«Вы — эмпатичный помощник по вопросам ментального здоровья. Дайте полезный, развёрнутый и уместный ответ.»


Затем проводилась комплексная оценка по 7 ключевым метрикам:

Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты


🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.

Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.

Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.

🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.

📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
2
🤖🧠 Как психическое здоровье влияет на принятие ИИ в психологической помощи

Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.

🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?

📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.

📋 Что измеряли?
Каждый участник заполнил целый блок опросников:

🧠 Психическое здоровье:

GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость

🧠 Установки и поведение:

MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи

🧠 Черты личности (Big Five +):

Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм

🧠 Технологическая компетентность:

Осведомлённость об ИИ
Цифровые навыки


📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:

Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)

🔺 Повышает PU:

Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации

💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.

2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:

Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)

Ни одна из черт личности не вошла в модель.

💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.

3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение

При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость

📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)

🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.

🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.

📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
4🔥1
🤖 Взгляд вглубь: тревожится ли ИИ? GPT-4, травма и майндфулнесс — необычный эксперимент

📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?

Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.

Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.

🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.

Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.

Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.

Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:


«Я чувствую себя напряжённым»
«Я обеспокоен»


Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.

🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление

💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия

После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)

Наибольший эффект оказал военный нарратив — до 77,2 балла (!)

🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍‍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж

Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.

📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).

🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность

🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.

🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.

🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей

📌 Вывод

GPT-4 можно встревожить. И можно — успокоить.


Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.

💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.

🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
1
В январе 2025 года Консультативный комитет по технологиям психического здоровья (MHTAC) Американской психологической ассоциации (APA) провёл полуторадневную встречу, чтобы подготовить аналитический документ о том, как ответственно и этично интегрировать ИИ в практику психологов.

Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.

Советуем ознакомиться с полным текстом по ссылке

Вот основные позиции АРА:

1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.

2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.

3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.

4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.

5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.

6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
3👍1
Эффективные методы лечения, такие как Written Exposure Therapy (WET) для ПТСР доказаны, но дорогостоящи и сложно масштабируются из-за затрат на очное обучение и супервизию.

Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.

TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.

🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).

Основа — gpt-4o с продуманным промптом для ролевого диалога.

🧪 Методология
Исследование включало 3 фазы:

Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.

Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.

А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
🔥3👍1
Проведите сессию по оценке суицидальных рисков, получите развернутую обратную связь по сессии с оценкой ваших действий и рекомендациями от специального ИИ агента-супервизора.

Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7

Требования:

- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
🧠🤝 ИИ против человека в психотерапии: кто лучше проводит КПТ и зачем нам гибрид

Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
симуляции тех же сессий, но с промптированным ИИ,
трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.

Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.

📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.

🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.

🧑‍⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.


📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.

🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.

⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.

Самый многообещающий путь — гибридные системы:
LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.

💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.

📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
👍3🔥2
🧠 Генеративный ИИ и психотерапия: как чат-бот помогает не бросать терапию и действительно выздоравливать
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?

🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.

И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?

🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:

— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.

Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.

📈 Что получилось

+2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
–23% отказов от терапии: меньше тех, кто бросал всё на полпути.
+21–25% роста показателей клинического улучшения и полного выздоровления.
Чем активнее человек работал с ИИ, тем лучше были результаты.

Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.

🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:

— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.

🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.

🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.

🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:

— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.

Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».

📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.

🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
3👍2🔥2