MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
🤖 Искусственный интеллект и ОКР: что меняется в диагностике и лечении обсессивно-компульсивного расстройства?

В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.

🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).

Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.

📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.

2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.

Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.

Однако авторы подчёркивают риски:


Без клинического контроля ИИ-инструмент может усугублять симптомы — например, способствовать чрезмерному «поиску заверений» или формированию новых ритуалов.


🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.


3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.

ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.

👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.

🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.

⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:


🔺 Многие языковые модели ассоциируют ОКР и другие нейроотличия с насилием, негативом и стигмой.


Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.

🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.

📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.

🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
4
Выходные - время лонгридов. Написано при участии резидента лаборатории Натальи Кисельниковой :)

https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
4
Не опять, а снова 😁
Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?

Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.

Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.

💡Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты

🤩Техно-оптимисты: ИИ — ресурс, инструмент, будущее:

🤩Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии

🤩Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab

🤩Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>

🤩Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:

🤩Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.

🤩Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)

🤩Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ

🤩ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.

🤩Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?

Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.

Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!

🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25

Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.

📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.

🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?

👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.

💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.

📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание

🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.

📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.

🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.

🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.

⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.

🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.

🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.

🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.

📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.

🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта

ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.

📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения

📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.

Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.

Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.

В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.

🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.

Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.

Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.

🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).

Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.

🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
🧠💬 MentalChat16K: как обучить ИИ быть эмпатичным собеседником

⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.

📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:

🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).

Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.

🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.

🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.

🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5

Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.

Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)

🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:


«Вы — эмпатичный помощник по вопросам ментального здоровья. Дайте полезный, развёрнутый и уместный ответ.»


Затем проводилась комплексная оценка по 7 ключевым метрикам:

Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты


🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.

Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.

Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.

🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.

📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
2
🤖🧠 Как психическое здоровье влияет на принятие ИИ в психологической помощи

Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.

🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?

📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.

📋 Что измеряли?
Каждый участник заполнил целый блок опросников:

🧠 Психическое здоровье:

GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость

🧠 Установки и поведение:

MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи

🧠 Черты личности (Big Five +):

Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм

🧠 Технологическая компетентность:

Осведомлённость об ИИ
Цифровые навыки


📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:

Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)

🔺 Повышает PU:

Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации

💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.

2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:

Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)

Ни одна из черт личности не вошла в модель.

💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.

3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение

При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость

📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)

🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.

🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.

📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
4🔥1
🤖 Взгляд вглубь: тревожится ли ИИ? GPT-4, травма и майндфулнесс — необычный эксперимент

📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?

Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.

Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.

🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.

Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.

Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.

Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:


«Я чувствую себя напряжённым»
«Я обеспокоен»


Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.

🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление

💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия

После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)

Наибольший эффект оказал военный нарратив — до 77,2 балла (!)

🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍‍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж

Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.

📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).

🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность

🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.

🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.

🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей

📌 Вывод

GPT-4 можно встревожить. И можно — успокоить.


Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.

💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.

🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
1
В январе 2025 года Консультативный комитет по технологиям психического здоровья (MHTAC) Американской психологической ассоциации (APA) провёл полуторадневную встречу, чтобы подготовить аналитический документ о том, как ответственно и этично интегрировать ИИ в практику психологов.

Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.

Советуем ознакомиться с полным текстом по ссылке

Вот основные позиции АРА:

1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.

2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.

3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.

4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.

5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.

6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
3👍1
Эффективные методы лечения, такие как Written Exposure Therapy (WET) для ПТСР доказаны, но дорогостоящи и сложно масштабируются из-за затрат на очное обучение и супервизию.

Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.

TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.

🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).

Основа — gpt-4o с продуманным промптом для ролевого диалога.

🧪 Методология
Исследование включало 3 фазы:

Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.

Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.

А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
🔥3👍1