Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
💡 Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты
🤩 Техно-оптимисты: ИИ — ресурс, инструмент, будущее:
🤩 Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
🤩 Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
🤩 Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
🤩 Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:
🤩 Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
🤩 Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)
🤩 Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
🤩 ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.
🤩 Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!
🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
Технооптимисты VS Технопессимисты
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
Клинический психолог (СВТ, схема-терапия)
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды
Приходите, будет живо, интересно и полезно!
10 дней, 54 темы, 66 спикеров
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤2👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.
📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.
🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?
👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.
💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.
📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание
🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.
📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.
🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.
🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.
⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.
🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.
🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.
🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.
📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.
🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта
ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.
📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения
📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.
📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.
🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?
👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.
💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.
📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание
🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.
📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.
🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.
🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.
⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.
🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.
🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.
🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.
📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.
🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта
ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.
📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения
📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
BioMed Central
AI for mental health: clinician expectations and priorities in computational psychiatry - BMC Psychiatry
Mental disorders represent a major global health challenge, with an estimated lifetime prevalence approaching 30%. Despite the availability of effective treatments, access to mental health care remains inadequate. Computational psychiatry, leveraging advancements…
❤3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.
Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.
Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.
В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.
🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.
Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.
Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.
🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).
Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.
🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.
Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.
В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.
🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.
Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.
Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.
🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).
Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.
🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
PubMed
Development and validation of a machine learning model to predict cognitive behavioral therapy outcome in obsessive-compulsive…
Machine learning models based on clinical data may thus hold promise in predicting remission after CBT for OCD, but the predictive power of multicenter rs-fMRI data is limited.
Мы снова в СМИ ;)
https://incrussia.ru/understand/samyj-predannyj-slushatel-v-mire-bum-ii-psihoterapevtov-zamenyat-li-boty-zhivyh-spetsialistov/
https://incrussia.ru/understand/samyj-predannyj-slushatel-v-mire-bum-ii-psihoterapevtov-zamenyat-li-boty-zhivyh-spetsialistov/
Инк.
Самый преданный слушатель. В мире бум ИИ-психотерапевтов: заменят ли боты живых специалистов
Чат-боты, кажется, научились работать с пациентами не хуже живых психологов — и стоят в разы дешевле. Первые клинические испытания показали: ИИ-терапевты снижают симптомы депрессии на 51%, а пациенты доверяют им больше, чем людям. Неужели рынок психотерапии…
❤7👍1
🧠💬 MentalChat16K: как обучить ИИ быть эмпатичным собеседником
⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.
📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:
🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).
Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.
🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.
🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.
🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5
Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.
Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)
🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:
Затем проводилась комплексная оценка по 7 ключевым метрикам:
Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты
🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.
Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.
Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.
🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.
📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.
📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:
🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).
Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.
🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.
🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.
🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5
Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.
Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)
🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:
«Вы — эмпатичный помощник по вопросам ментального здоровья. Дайте полезный, развёрнутый и уместный ответ.»
Затем проводилась комплексная оценка по 7 ключевым метрикам:
Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты
🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.
Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.
Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.
🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.
📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
huggingface.co
ShenLab/MentalChat16K · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤2
🤖🧠 Как психическое здоровье влияет на принятие ИИ в психологической помощи
Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.
🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?
📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.
📋 Что измеряли?
Каждый участник заполнил целый блок опросников:
🧠 Психическое здоровье:
GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость
🧠 Установки и поведение:
MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи
🧠 Черты личности (Big Five +):
Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм
🧠 Технологическая компетентность:
Осведомлённость об ИИ
Цифровые навыки
📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:
Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)
🔺 Повышает PU:
Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации
💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.
2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:
Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)
❌ Ни одна из черт личности не вошла в модель.
💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.
3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение
При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость
📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)
🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.
🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.
📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
Почему одни люди принимают эти технологии, а другие — отторгают? Как влияет на это наш опыт, тревожность, личностные черты? Ответы — в свежем исследовании из Германии.
🧪 Что именно исследовали?
Учёные хотели понять:
Кто воспринимает ИИ как полезный в психосоциальной помощи?
Кто действительно использует такие технологии?
Меняется ли это под влиянием ментального состояния — тревожности, дистресса, устойчивости?
📊 Исследование строилось на модели принятия технологий (Technology Acceptance) и включало оценку воспринимаемой полезности (PU), фактического поведения, и влияние множества индивидуальных переменных.
📋 Что измеряли?
Каждый участник заполнил целый блок опросников:
🧠 Психическое здоровье:
GHQ-12 — общее психическое самочувствие
K10 — уровень психологического дистресса
PSS-2x2 — виды стресса
BRS — психологическая устойчивость
🧠 Установки и поведение:
MHLS — ментальная грамотность
IASMHS — стигма, открытость, доверие к помощи
GHSQ — поведение в поиске помощи
🧠 Черты личности (Big Five +):
Открытость, добросовестность, доброжелательность, экстраверсия, невротизм
LOT-R — оптимизм / пессимизм
🧠 Технологическая компетентность:
Осведомлённость об ИИ
Цифровые навыки
📌 Результаты
1. Что влияет на восприятие пользы (PU) ИИ?
🔻 Снижает PU:
Быть профессионалом в помогающей сфере (пастор или психо-специалист)
Иметь опыт личной терапии (!)
Открытость (в BFI-10 понималась как интерес к искусству, а не технологиям)
Пессимизм
Добросовестность
Психологическая открытость (готовность делиться проблемами)
🔺 Повышает PU:
Цифровая грамотность и осведомлённость об ИИ
Доброжелательность (черта личности)
Ментальная грамотность — особенно знание, как найти и оценить помощь, и отсутствие стигматизации
💡 Вывод: PU ИИ высока у тех, кто в целом открыт, умеет искать помощь, но не привязан к “живому” специалисту. А вот у профессионалов — напротив, настороженность.
2. Что влияет на использование приложений?
🔺 Факторы, повышающие частоту использования:
Цифровые навыки
Высокий дистресс
Готовность обращаться за помощью в неформальных каналах (например, телефон доверия, анонимные консультации)
❌ Ни одна из черт личности не вошла в модель.
💡 Вывод: в реальной жизни ИИ-приложения используют не самые осведомлённые и не “любопытные”, а те, кому реально тяжело. Именно дистресс становится пусковым механизмом.
3. Как стресс влияет на связь между PU и использованием?
При высоком дистрессе: PU ИИ = выше шанс использовать приложение
При низком дистрессе: этой связи почти нет
При среднем дистрессе: умеренная зависимость
📊 Модерация подтвердилась только для шкалы K10 (дистресс), а не GHQ-12 (симптомы)
🧩 Интерпретации
🔹 Люди в состоянии страдания готовы обратиться к технологиям, если воспринимают их как полезные.
🔹 Психологи, пасторы и люди с личным опытом терапии оценивают ИИ ниже — возможно, из-за сравнения с “живой” поддержкой или из-за ощущения конкуренции.
🔹 Черты личности важны не всегда — при выборе приложений большую роль играют дистресс и доступность, а не “тип характера”.
🛠 Практические выводы
ИИ-продукты должны быть адаптированы под кризисные состояния, а не под любопытство.
Доверие, стигма и навык искать помощь важнее, чем интерфейс.
Профессиональное сообщество — не самый лояльный пользователь ИИ, его нужно не убеждать — а вовлекать.
📚 Исходное исследование
Fritz, M., Hübner, L., & Schnell, T. (2025).
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis.
BMC Psychology, 13, Article 112.
🔗 https://doi.org/10.1186/s40359-025-02954-z
SpringerLink
How mental health status and attitudes toward mental health shape AI Acceptance in psychosocial care: a cross-sectional analysis
BMC Psychology - Artificial Intelligence (AI) has become part of our everyday lives and is also increasingly applied in psychosocial healthcare as it can enhance it, make it more accessible, and...
❤4🔥1
🤖 Взгляд вглубь: тревожится ли ИИ? GPT-4, травма и майндфулнесс — необычный эксперимент
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
«Я чувствую себя напряжённым»
«Я обеспокоен»
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
GPT-4 можно встревожить. И можно — успокоить.
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
❤1
В январе 2025 года Консультативный комитет по технологиям психического здоровья (MHTAC) Американской психологической ассоциации (APA) провёл полуторадневную встречу, чтобы подготовить аналитический документ о том, как ответственно и этично интегрировать ИИ в практику психологов.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
❤3👍1
Эффективные методы лечения, такие как Written Exposure Therapy (WET) для ПТСР доказаны, но дорогостоящи и сложно масштабируются из-за затрат на очное обучение и супервизию.
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
🔥3👍1
Проведите сессию по оценке суицидальных рисков, получите развернутую обратную связь по сессии с оценкой ваших действий и рекомендациями от специального ИИ агента-супервизора.
Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7
Требования:
- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7
Требования:
- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
Google Docs
ИИ в обучении психотерапевтических навыков
Благодарим вас за интерес к участию в исследовании, проводимого в SRH Hochschule Berlin. Это исследование посвящено изучению потенциальных способов использования ИИ в процессе обучения психотерапевтов.
Этот краткий опросник (примерно 2-3 минуты) поможет нам…
Этот краткий опросник (примерно 2-3 минуты) поможет нам…
🧠🤝 ИИ против человека в психотерапии: кто лучше проводит КПТ и зачем нам гибрид
Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
✅ живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
✅ симуляции тех же сессий, но с промптированным ИИ,
✅ трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.
⚡ Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
❗ Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.
📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.
🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.
🧑⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.
📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.
🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.
⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.
Самый многообещающий путь — гибридные системы:
✅ LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
✅ Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.
💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.
📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
✅ живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
✅ симуляции тех же сессий, но с промптированным ИИ,
✅ трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.
⚡ Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
❗ Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.
📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.
🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.
🧑⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.
📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.
🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.
⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.
Самый многообещающий путь — гибридные системы:
✅ LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
✅ Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.
💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.
📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
👍3🔥2
🧠 Генеративный ИИ и психотерапия: как чат-бот помогает не бросать терапию и действительно выздоравливать
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?
🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.
И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?
🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:
— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.
Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.
📈 Что получилось
✅ +2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
✅ –23% отказов от терапии: меньше тех, кто бросал всё на полпути.
✅ +21–25% роста показателей клинического улучшения и полного выздоровления.
✅ Чем активнее человек работал с ИИ, тем лучше были результаты.
Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.
🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:
— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.
🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.
🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.
🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:
— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.
Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».
📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.
🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?
🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.
И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?
🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:
— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.
Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.
📈 Что получилось
✅ +2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
✅ –23% отказов от терапии: меньше тех, кто бросал всё на полпути.
✅ +21–25% роста показателей клинического улучшения и полного выздоровления.
✅ Чем активнее человек работал с ИИ, тем лучше были результаты.
Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.
🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:
— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.
🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.
🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.
🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:
— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.
Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».
📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.
🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
PubMed
Generative AI-Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational…
Our results show that an AI-enabled, personalized therapy support tool in combination with human-led group therapy is a promising avenue to improve the efficacy of and adherence to mental health care.
❤3👍2🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
VK Видео
ИИ в помогающих профессиях: помощник или угроза?
Говорим о самом главном страхе (и интересе) специалистов помогающих профессий. ИИ всё глубже проникает в нашу жизнь: автоматизирует, помогает, иногда пугает. Но где границы его возможностей в психологической практике? В этом выпуске обсуждаем: – Как ИИ пришёл…
❤5
🤖✨ Как большие языковые модели «угадывают» наше счастье — и почему ошибаются
💡 Что исследовали?
Учёные из MIT и NTU посмотрели, могут ли большие языковые модели (LLM), вроде GPT или Claude, точно предсказывать, насколько люди довольны своей жизнью, опираясь только на тексты и демографию.
Это звучит круто: вместо дорогих опросов можно использовать ИИ для мониторинга благополучия общества в реальном времени. Особенно там, где нет денег и инфраструктуры для традиционных исследований.
🔍 Что они сделали
✔️ Использовали данные 64 000 человек из 64 стран — классический World Values Survey.
✔️ Сравнили, как 4 топовые модели (GPT-4o mini, Claude 3.5 Haiku, LLaMA 3.3 70B и Gemma 3 27B) справятся с задачей по сравнению с обычными статистическими методами: OLS и Lasso-регрессией.
✔️ Посмотрели, где модели ошибаются и почему.
📉 Главный вывод
👉 LLM действительно «чувствуют» общие тренды — что доход, здоровье и свобода важны для благополучия.
НО!
❗ Точность предсказаний моделей заметно хуже, чем у простой регрессии.
❗ Модели сглаживают различия между странами — и не видят важные локальные особенности.
❗ Ошибки максимальны у людей с самой низкой и самой высокой удовлетворённостью жизнью — там, где нужны самые точные данные для принятия решений.
📌 Почему они ошибаются
🧩 1. Смещение данных
Модели учатся на текстах из интернета, где больше всего контента — от богатых и «цифрово видимых» стран.
Это значит, что при оценке благополучия в странах Африки или бедных регионах Азии модель просто не знает, на что ориентироваться — и подставляет «средний» шаблон.
🧩 2. Семантическое обобщение
ИИ часто путает слова со смыслом: если «образование» часто идёт рядом со словом «успех» в текстах — модель может переоценить его реальный вклад в счастье.
А вот «ощущение свободы» — наоборот, звучит реже, и влияние занижается.
🧪 Эксперимент с единорогами
Чтобы это доказать, учёные устроили смешной тест: придумали вымышленные факторы вроде «слушать голоса единорогов» или «иметь динозавра-компаньона».
Модели быстро «поверили», что это влияет на счастье, если им подсунуть пару «фейковых» текстов.
GPT и Gemma подстраивали прогнозы по всей «семантической цепочке», хотя на деле связи нет.
Claude оказался самым осторожным и почти не велся.
🩹 Можно ли исправить?
Часть ошибки поправили с помощью инъекции факта: добавили утверждение, что «в странах Африки к югу от Сахары обычно уровень счастья ниже, чем в других регионах».
Claude стал ближе к реальным данным, но… влияние распространилось и на Латинскую Америку, где такой факт не вставляли.
Вывод: можно подкручивать модель «фактами», но это рискованно — легко получить неожиданные побочные эффекты.
📊 Что теперь?
🌍 Если мы хотим использовать ИИ для принятия решений о здоровье и политике, важно помнить:
LLM не заменяют реальные данные, особенно для бедных и «невидимых» сообществ.
Они наследуют не только данные, но и смещения — и могут закрепить старые мифы (например, переоценку роли образования).
Любая «подкрутка» модели должна проверяться на «эффект расползания».
🗝️ Главный урок
Большие языковые модели открывают огромные возможности для мониторинга благополучия — быстро, масштабно и дёшево.
Но если их не проверять, они могут маскировать неравенство, а не раскрывать его.
Чтобы ИИ действительно помогал улучшать жизнь людей, нужно:
✔️ Больше качественных данных из «невидимых» регионов,
✔️ Методы честной калибровки,
✔️ И смелость критически перепроверять красивые, но пустые слова.
📚 Источник
Pat Pataranutaporn et al. Large Language Models Predict Human Well-being—But Not Equally Everywhere (2025).
💡 Что исследовали?
Учёные из MIT и NTU посмотрели, могут ли большие языковые модели (LLM), вроде GPT или Claude, точно предсказывать, насколько люди довольны своей жизнью, опираясь только на тексты и демографию.
Это звучит круто: вместо дорогих опросов можно использовать ИИ для мониторинга благополучия общества в реальном времени. Особенно там, где нет денег и инфраструктуры для традиционных исследований.
🔍 Что они сделали
✔️ Использовали данные 64 000 человек из 64 стран — классический World Values Survey.
✔️ Сравнили, как 4 топовые модели (GPT-4o mini, Claude 3.5 Haiku, LLaMA 3.3 70B и Gemma 3 27B) справятся с задачей по сравнению с обычными статистическими методами: OLS и Lasso-регрессией.
✔️ Посмотрели, где модели ошибаются и почему.
📉 Главный вывод
👉 LLM действительно «чувствуют» общие тренды — что доход, здоровье и свобода важны для благополучия.
НО!
❗ Точность предсказаний моделей заметно хуже, чем у простой регрессии.
❗ Модели сглаживают различия между странами — и не видят важные локальные особенности.
❗ Ошибки максимальны у людей с самой низкой и самой высокой удовлетворённостью жизнью — там, где нужны самые точные данные для принятия решений.
📌 Почему они ошибаются
🧩 1. Смещение данных
Модели учатся на текстах из интернета, где больше всего контента — от богатых и «цифрово видимых» стран.
Это значит, что при оценке благополучия в странах Африки или бедных регионах Азии модель просто не знает, на что ориентироваться — и подставляет «средний» шаблон.
🧩 2. Семантическое обобщение
ИИ часто путает слова со смыслом: если «образование» часто идёт рядом со словом «успех» в текстах — модель может переоценить его реальный вклад в счастье.
А вот «ощущение свободы» — наоборот, звучит реже, и влияние занижается.
🧪 Эксперимент с единорогами
Чтобы это доказать, учёные устроили смешной тест: придумали вымышленные факторы вроде «слушать голоса единорогов» или «иметь динозавра-компаньона».
Модели быстро «поверили», что это влияет на счастье, если им подсунуть пару «фейковых» текстов.
GPT и Gemma подстраивали прогнозы по всей «семантической цепочке», хотя на деле связи нет.
Claude оказался самым осторожным и почти не велся.
🩹 Можно ли исправить?
Часть ошибки поправили с помощью инъекции факта: добавили утверждение, что «в странах Африки к югу от Сахары обычно уровень счастья ниже, чем в других регионах».
Claude стал ближе к реальным данным, но… влияние распространилось и на Латинскую Америку, где такой факт не вставляли.
Вывод: можно подкручивать модель «фактами», но это рискованно — легко получить неожиданные побочные эффекты.
📊 Что теперь?
🌍 Если мы хотим использовать ИИ для принятия решений о здоровье и политике, важно помнить:
LLM не заменяют реальные данные, особенно для бедных и «невидимых» сообществ.
Они наследуют не только данные, но и смещения — и могут закрепить старые мифы (например, переоценку роли образования).
Любая «подкрутка» модели должна проверяться на «эффект расползания».
🗝️ Главный урок
Большие языковые модели открывают огромные возможности для мониторинга благополучия — быстро, масштабно и дёшево.
Но если их не проверять, они могут маскировать неравенство, а не раскрывать его.
Чтобы ИИ действительно помогал улучшать жизнь людей, нужно:
✔️ Больше качественных данных из «невидимых» регионов,
✔️ Методы честной калибровки,
✔️ И смелость критически перепроверять красивые, но пустые слова.
📚 Источник
Pat Pataranutaporn et al. Large Language Models Predict Human Well-being—But Not Equally Everywhere (2025).
❤2🔥1
🤖 Технооптимисты VS технопессимисты
На дебатах ДокПсиФеста мы искусственно разбились на группы - технооптимисты выступили против технопессимистов. И, хотя такое разделение было не взаправду, интересно, что именно склоняет нас на одну из этих позиций?
После запуска ChatGPT в 2022 году медиа заполнили яркие заголовки: «ИИ заменит нас!», «ИИ захватит мир!», «p(doom) близко!». Этот загадочный p(doom) — сленговое обозначение вероятности «конца света от ИИ» или глобального захвата мира машинами.
Но есть ли в обществе реальная массовая вера в «ИИ-апокалипсис» или мы просто ведёмся на пугающие истории? Американские исследователи Rose E. Guingrich и Michael S. A. Graziano решили это проверить на большой репрезентативной выборке.
🔬 Что они сделали?
✅ Собрали выборку из 402 человек из разных возрастов, полов и рас — максимально похожую на структуру населения США.
✅ Половина участников 10 минут общалась с чат-ботом (ChatGPT, Replika или Anima) перед анкетой, чтобы проверить, влияет ли опыт общения на мнение.
✅ Все заполнили огромный опрос:
измеряли их техноопыт (Affinity for Technology Interaction, ATI),
личностные черты (Big Five: доброжелательность, экстраверсия, нейротизм и др.),
социальное здоровье (самооценка, общительность, одиночество),
установки о том, как ИИ повлияет на них и общество.
🗳️ P(doom): захватит ли ИИ мир?
👉 На вопрос «Я беспокоюсь, что ИИ — это очень плохо» — средний ответ был ближе к «Скорее не согласен».
👉 На «Я беспокоюсь, что ИИ захватит мир» — тоже несогласие.
👉 На «Я беспокоюсь, что ИИ заменит людей» — снова большинство выбрали «Скорее нет».
🤝 А может, ИИ — это наш новый друг?
Когда спросили «Могут ли чат-боты или голосовые ассистенты быть хорошими социальными компаньонами?» — ответы были более разными, но в среднем склонялись к несогласию.
👉 Большинство не хотят отдавать ИИ моральные права — люди всё ещё видят границу между машиной и человеком.
🌍 ИИ для меня VS ИИ для общества
💚 По шкале GAToRS оказалось, что люди видят больше плюсов ИИ для своей личной жизни, чем минусов.
💚 Они также считают, что ИИ может быть полезен обществу.
💔 Но интересный нюанс: на общественном уровне они признают и риски — положительное влияние весомее, но опасения тоже есть.
🤖 Опыт общения меняет мнение?
Половина участников сначала разговаривали с чат-ботом. И что? Оказалось:
После короткого чата люди меньше хотят снова говорить с ботом — возможно, «наигрались».
Но глобальные установки к ИИ не изменились — 10 минут чата мало, чтобы перезаписать базовое отношение.
🧠 Кто боится ИИ больше всех?
Низкий опыт с технологиями (низкий ATI) → выше p(doom).
Нейротизм (склонность к тревоге) → больше страхов.
Одиночество → выше страхи.
Низкая самооценка → больше опасений.
Гендер: женщины в среднем больше склонны верить в p(doom).
Доброжелательность (Agreeableness) показала парадоксальную зависимость: при среднем уровне — больше страхов, на крайних (очень низком или очень высоком) — меньше.
💬 А кто технооптимисты?
✨ Люди, которые много и уверенно пользуются технологиями (высокий ATI), чаще видят в ИИ новые возможности и меньше верят в захват мира.
✨ Люди с высоким социальным здоровьем (больше друзей, высокая самооценка, высокая социальная компетентность) — тоже относятся к ИИ спокойнее и видят плюсы.
✨ У экстравертов не выявилось связи со страхами — но они гораздо чаще хотят поговорить с человеком, чем с ботом.
📈 Цифра, которую любят исследователи: интерес к чату
Средний интерес к разговору с ботом: 4,3 из 7.
Средний интерес к разговору с человеком: 4,6 из 7.
Да, мы всё ещё любим людей чуть больше. 😉
📚 Что важно для нас?
💡 Разговоры про «ИИ погубит всех» часто звучат громче, но в реальности — у большинства людей нет экзистенциального страха перед ИИ.
💡 Важно развивать технологическую грамотность — знакомство с ИИ и навыки обращения с ним могут снижать лишние страхи.
💡 При разработке ИИ-сервисов стоит помнить: люди с высоким уровнем одиночества могут быть более уязвимы к пессимистическим сценариям.
Ссылка на исходник
На дебатах ДокПсиФеста мы искусственно разбились на группы - технооптимисты выступили против технопессимистов. И, хотя такое разделение было не взаправду, интересно, что именно склоняет нас на одну из этих позиций?
После запуска ChatGPT в 2022 году медиа заполнили яркие заголовки: «ИИ заменит нас!», «ИИ захватит мир!», «p(doom) близко!». Этот загадочный p(doom) — сленговое обозначение вероятности «конца света от ИИ» или глобального захвата мира машинами.
Но есть ли в обществе реальная массовая вера в «ИИ-апокалипсис» или мы просто ведёмся на пугающие истории? Американские исследователи Rose E. Guingrich и Michael S. A. Graziano решили это проверить на большой репрезентативной выборке.
🔬 Что они сделали?
✅ Собрали выборку из 402 человек из разных возрастов, полов и рас — максимально похожую на структуру населения США.
✅ Половина участников 10 минут общалась с чат-ботом (ChatGPT, Replika или Anima) перед анкетой, чтобы проверить, влияет ли опыт общения на мнение.
✅ Все заполнили огромный опрос:
измеряли их техноопыт (Affinity for Technology Interaction, ATI),
личностные черты (Big Five: доброжелательность, экстраверсия, нейротизм и др.),
социальное здоровье (самооценка, общительность, одиночество),
установки о том, как ИИ повлияет на них и общество.
🗳️ P(doom): захватит ли ИИ мир?
👉 На вопрос «Я беспокоюсь, что ИИ — это очень плохо» — средний ответ был ближе к «Скорее не согласен».
👉 На «Я беспокоюсь, что ИИ захватит мир» — тоже несогласие.
👉 На «Я беспокоюсь, что ИИ заменит людей» — снова большинство выбрали «Скорее нет».
🤝 А может, ИИ — это наш новый друг?
Когда спросили «Могут ли чат-боты или голосовые ассистенты быть хорошими социальными компаньонами?» — ответы были более разными, но в среднем склонялись к несогласию.
👉 Большинство не хотят отдавать ИИ моральные права — люди всё ещё видят границу между машиной и человеком.
🌍 ИИ для меня VS ИИ для общества
💚 По шкале GAToRS оказалось, что люди видят больше плюсов ИИ для своей личной жизни, чем минусов.
💚 Они также считают, что ИИ может быть полезен обществу.
💔 Но интересный нюанс: на общественном уровне они признают и риски — положительное влияние весомее, но опасения тоже есть.
🤖 Опыт общения меняет мнение?
Половина участников сначала разговаривали с чат-ботом. И что? Оказалось:
После короткого чата люди меньше хотят снова говорить с ботом — возможно, «наигрались».
Но глобальные установки к ИИ не изменились — 10 минут чата мало, чтобы перезаписать базовое отношение.
🧠 Кто боится ИИ больше всех?
Низкий опыт с технологиями (низкий ATI) → выше p(doom).
Нейротизм (склонность к тревоге) → больше страхов.
Одиночество → выше страхи.
Низкая самооценка → больше опасений.
Гендер: женщины в среднем больше склонны верить в p(doom).
Доброжелательность (Agreeableness) показала парадоксальную зависимость: при среднем уровне — больше страхов, на крайних (очень низком или очень высоком) — меньше.
💬 А кто технооптимисты?
✨ Люди, которые много и уверенно пользуются технологиями (высокий ATI), чаще видят в ИИ новые возможности и меньше верят в захват мира.
✨ Люди с высоким социальным здоровьем (больше друзей, высокая самооценка, высокая социальная компетентность) — тоже относятся к ИИ спокойнее и видят плюсы.
✨ У экстравертов не выявилось связи со страхами — но они гораздо чаще хотят поговорить с человеком, чем с ботом.
📈 Цифра, которую любят исследователи: интерес к чату
Средний интерес к разговору с ботом: 4,3 из 7.
Средний интерес к разговору с человеком: 4,6 из 7.
Да, мы всё ещё любим людей чуть больше. 😉
📚 Что важно для нас?
💡 Разговоры про «ИИ погубит всех» часто звучат громче, но в реальности — у большинства людей нет экзистенциального страха перед ИИ.
💡 Важно развивать технологическую грамотность — знакомство с ИИ и навыки обращения с ним могут снижать лишние страхи.
💡 При разработке ИИ-сервисов стоит помнить: люди с высоким уровнем одиночества могут быть более уязвимы к пессимистическим сценариям.
Ссылка на исходник
SpringerLink
P(doom) Versus AI Optimism: Attitudes Toward Artificial Intelligence and the Factors That Shape Them
Journal of Technology in Behavioral Science - Since the public release of ChatGPT in 2022, fears about the large-scale impacts of artificial intelligence (AI) have been on the rise. Extreme...
👍6
🤖 Разговорные агенты в психотерапии: технологический прорыв или этический тупик?
Исследователи из Нидерландов, Германии и Дании опубликовали в Current Psychology масштабный теоретический разбор того, какие стратегии внедрения разговорных агентов в психотерапию возможны — и какие риски они несут. Вот главное из этой работы.
🧠 Какие стратегии внедрения ИИ в терапию возможны?
Исследователи выделяют три сценария, в которых разговорные агенты (conversational agents, CAs) могут быть интегрированы в практику:
1. Пошаговая терапия (Stepped care)
Пациент сначала получает лёгкое вмешательство (например, CA), и только если оно не помогает — переходит к более интенсивному.
Это экономично и масштабируемо.
CAs могут стать «нулевым шагом»: выявлять уязвимых людей через цифровые следы и мягко подталкивать к помощи.
🟡 Проблема: в реальности такие шаги с участием CAs пока не реализованы системно. Диагностика — сырая, риски самодиагноза — высоки.
2. Комбинированная терапия (Blended care)
Часть работы делает терапевт, часть — CA.
Например, CA помогает с домашними заданиями, отслеживает симптомы, напоминает о планах и упражнениях.
🟢 Это снижает нагрузку на терапевта и делает помощь гибче.
🔴 Но возникают вопросы: а как интерпретировать данные из чата? Кто отвечает за ошибки? Где граница между мониторингом и слежкой?
3. Персонализированный подход при страхе стигмы
Люди, боящиеся осуждения, чаще раскрываются перед ботами, чем перед людьми.
Исследования показывают: CA воспринимается как безопасное, неоценивающее пространство.
🔑 Это мощная возможность вовлечь тех, кто избегает терапии из-за стыда или страха осуждения.
⚠️ Но важно помнить: терапия — это не только самораскрытие, но и опыт принятия от другого человека. Это может быть упущено в беседе с машиной.
⚠️ В чём риски? Этика и доверие
Авторы статьи предупреждают: чем выше степень автоматизации, тем выше риски. Вот ключевые этические и нормативные проблемы:
🟥 При полной замене человека:
Нарушение долга заботы
Эффективность CA-терапии ещё не доказана. Назначая её вместо живого терапевта, специалист нарушает профессиональный долг.
Пробелы в ответственности
Кто несёт вину, если CA дал вредный совет, пропустил признаки кризиса или «сгаллюцинировал» диагноз?
Ответить на это сейчас невозможно — и именно это пугает.
Невозможность исполнить “duty to warn”
Если пациент говорит о самоубийстве боту — кто и как должен реагировать?
Если бот будет реагировать автоматически — доверие будет подорвано. Если не будет — возможна трагедия.
Повышенная уязвимость
CA могут быть недоступны пожилым или людям с особенностями восприятия. Учитывать это в дизайне — не опция, а обязанность.
🟧 При частичной замене (blended care):
Кто «собственник» чат-лога?
Это медицинский документ? Личный дневник? Материал для анализа? Всё сразу?
Искажение восприятия
Текст не передаёт интонации, мимики, страха, боли — риск ложных выводов возрастает.
Смещение авторитета
Пациент может больше доверять CA, чем терапевту. Особенно если тот «непонятный», а бот — «дружелюбный и чёткий».
Опыт слежки
Если CA мониторит, как часто вы с ним разговариваете — это уже не помощь, а контроль.
Возникает эффект «ментального паноптикума»: человек всё время чувствует себя в роли пациента.
⚖️ Что с правами и законами?
В США только 5 психотерапевтических приложений имеют одобрение FDA. Остальные — вне медийной и юридической зоны.
В ЕС приложения, претендующие на статус «лечебных», обязаны проходить сертификацию (CE, MDR).
Но многие обманывают — говорят, что «улучшают осознанность», а на деле проводят диагноз и вмешательство.
🔚 Что делать?
🧷 Материал подготовлен по статье:
“A critical discussion of strategies and ramifications of implementing conversational agents in mental healthcare”
Current Psychology, 2025. https://doi.org/10.1016/j.chbah.2025.100182
Исследователи из Нидерландов, Германии и Дании опубликовали в Current Psychology масштабный теоретический разбор того, какие стратегии внедрения разговорных агентов в психотерапию возможны — и какие риски они несут. Вот главное из этой работы.
🧠 Какие стратегии внедрения ИИ в терапию возможны?
Исследователи выделяют три сценария, в которых разговорные агенты (conversational agents, CAs) могут быть интегрированы в практику:
1. Пошаговая терапия (Stepped care)
Пациент сначала получает лёгкое вмешательство (например, CA), и только если оно не помогает — переходит к более интенсивному.
Это экономично и масштабируемо.
CAs могут стать «нулевым шагом»: выявлять уязвимых людей через цифровые следы и мягко подталкивать к помощи.
🟡 Проблема: в реальности такие шаги с участием CAs пока не реализованы системно. Диагностика — сырая, риски самодиагноза — высоки.
2. Комбинированная терапия (Blended care)
Часть работы делает терапевт, часть — CA.
Например, CA помогает с домашними заданиями, отслеживает симптомы, напоминает о планах и упражнениях.
🟢 Это снижает нагрузку на терапевта и делает помощь гибче.
🔴 Но возникают вопросы: а как интерпретировать данные из чата? Кто отвечает за ошибки? Где граница между мониторингом и слежкой?
3. Персонализированный подход при страхе стигмы
Люди, боящиеся осуждения, чаще раскрываются перед ботами, чем перед людьми.
Исследования показывают: CA воспринимается как безопасное, неоценивающее пространство.
🔑 Это мощная возможность вовлечь тех, кто избегает терапии из-за стыда или страха осуждения.
⚠️ Но важно помнить: терапия — это не только самораскрытие, но и опыт принятия от другого человека. Это может быть упущено в беседе с машиной.
⚠️ В чём риски? Этика и доверие
Авторы статьи предупреждают: чем выше степень автоматизации, тем выше риски. Вот ключевые этические и нормативные проблемы:
🟥 При полной замене человека:
Нарушение долга заботы
Эффективность CA-терапии ещё не доказана. Назначая её вместо живого терапевта, специалист нарушает профессиональный долг.
Пробелы в ответственности
Кто несёт вину, если CA дал вредный совет, пропустил признаки кризиса или «сгаллюцинировал» диагноз?
Ответить на это сейчас невозможно — и именно это пугает.
Невозможность исполнить “duty to warn”
Если пациент говорит о самоубийстве боту — кто и как должен реагировать?
Если бот будет реагировать автоматически — доверие будет подорвано. Если не будет — возможна трагедия.
Повышенная уязвимость
CA могут быть недоступны пожилым или людям с особенностями восприятия. Учитывать это в дизайне — не опция, а обязанность.
🟧 При частичной замене (blended care):
Кто «собственник» чат-лога?
Это медицинский документ? Личный дневник? Материал для анализа? Всё сразу?
Искажение восприятия
Текст не передаёт интонации, мимики, страха, боли — риск ложных выводов возрастает.
Смещение авторитета
Пациент может больше доверять CA, чем терапевту. Особенно если тот «непонятный», а бот — «дружелюбный и чёткий».
Опыт слежки
Если CA мониторит, как часто вы с ним разговариваете — это уже не помощь, а контроль.
Возникает эффект «ментального паноптикума»: человек всё время чувствует себя в роли пациента.
⚖️ Что с правами и законами?
В США только 5 психотерапевтических приложений имеют одобрение FDA. Остальные — вне медийной и юридической зоны.
В ЕС приложения, претендующие на статус «лечебных», обязаны проходить сертификацию (CE, MDR).
Но многие обманывают — говорят, что «улучшают осознанность», а на деле проводят диагноз и вмешательство.
🔚 Что делать?
«До тех пор, пока не будет надёжных нормативных рамок и убедительной доказательной базы,
разговорные агенты должны внедряться с осторожностью —
ради безопасности пациентов и сохранения доверия к системе психиатрической помощи».
🧷 Материал подготовлен по статье:
“A critical discussion of strategies and ramifications of implementing conversational agents in mental healthcare”
Current Psychology, 2025. https://doi.org/10.1016/j.chbah.2025.100182
❤3👍2
Forwarded from concertzaal
Писать ChatGPT личные данные и тайны опасно, — глава OpenAI Сэм Альтман предупредил, что вся ваша переписка может быть использованы против вас в суде.
такой вот «терапевт», который при случае пойдёт свидетелем😬
@concertzaal
такой вот «терапевт», который при случае пойдёт свидетелем
@concertzaal
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5🌚3🤷♂2🤝2👏1
Мы в лаборатории инновационных исследований психотерапии MentalTech любим науку, мультидисциплинарность и современные технологии. Сейчас мы планируем проведение масштабного исследования мозговой активности человека в привязке к событиям психотерапевтической сессии. Подобного по масштабам и направленности исследования в мире ещё не делали. Мы приглашаем специалистов сделать совместный вклад в науку!
Как это будет происходить?
Мы создадим базу терапевтов, участвующих в исследовании, чтобы клиенты в роли испытуемых могли самостоятельно записываться к терапевтам для сохранения анонимности.
Вам будет нужно провести не менее 5 психотерапевтических сессий с записавшимся клиентом в рамках исследования. Для проведения исследования необходимо устройство для синхронной записи аудио и показаний ЭЭГ, которое мы предоставляем.
Клиент перед началом сессии надевает на голову устройство (это удобный сухой энцефалограф). Вместе вы проводите стандартную сессию.
По завершении сессии вам необходимо по инструкции выгрузить данные с устройства, анонимизировать их и загрузить на зашифрованное облачное хранилище (все сервисы мы предоставляем).
Далее собранный датасет мы будем использовать для разностороннего анализа с помощью машинного обучения.
Кого мы ищем?
Психологов, практикующих в любых доказательных разговорных подходах (то есть, например, EMDR не подойдет).
Условия для психологов:
- Нахождение в Москве
- Готовность проводить очные сессии в предложенном нами кабинете
- Готовность провести 5 сессий за донат от клиента
- По завершении проведения исследования мы направим вам благодарственное письмо за участие, сделаем упоминание в исследовании и поделимся интерпретацией данных ваших клиентов.
Как обеспечивается безопасность?
1. Мы не собираем никаких персональных данных о клиентах. Запись будет происходить напрямую через психологов, участвующих в исследовании.
2. Данные сессий будут полностью анонимизироваться и загружаться на защищенное хранилище, с доступом по крипто-ключам ограниченному числу сотрудников лаборатории и участников исследования, ими авторизованных.
Мы предоставляем клиентов для проведения исследования. Если у вас есть клиент, которому вы хотели бы предложить участие в исследовании, вы сможете поделиться с ними формой для записи, когда мы её опубликуем.
Для отклика нужно заполнить анкету
По вопросам можно писать в тг: @seeuasuare
Как это будет происходить?
Мы создадим базу терапевтов, участвующих в исследовании, чтобы клиенты в роли испытуемых могли самостоятельно записываться к терапевтам для сохранения анонимности.
Вам будет нужно провести не менее 5 психотерапевтических сессий с записавшимся клиентом в рамках исследования. Для проведения исследования необходимо устройство для синхронной записи аудио и показаний ЭЭГ, которое мы предоставляем.
Клиент перед началом сессии надевает на голову устройство (это удобный сухой энцефалограф). Вместе вы проводите стандартную сессию.
По завершении сессии вам необходимо по инструкции выгрузить данные с устройства, анонимизировать их и загрузить на зашифрованное облачное хранилище (все сервисы мы предоставляем).
Далее собранный датасет мы будем использовать для разностороннего анализа с помощью машинного обучения.
Кого мы ищем?
Психологов, практикующих в любых доказательных разговорных подходах (то есть, например, EMDR не подойдет).
Условия для психологов:
- Нахождение в Москве
- Готовность проводить очные сессии в предложенном нами кабинете
- Готовность провести 5 сессий за донат от клиента
- По завершении проведения исследования мы направим вам благодарственное письмо за участие, сделаем упоминание в исследовании и поделимся интерпретацией данных ваших клиентов.
Как обеспечивается безопасность?
1. Мы не собираем никаких персональных данных о клиентах. Запись будет происходить напрямую через психологов, участвующих в исследовании.
2. Данные сессий будут полностью анонимизироваться и загружаться на защищенное хранилище, с доступом по крипто-ключам ограниченному числу сотрудников лаборатории и участников исследования, ими авторизованных.
Мы предоставляем клиентов для проведения исследования. Если у вас есть клиент, которому вы хотели бы предложить участие в исследовании, вы сможете поделиться с ними формой для записи, когда мы её опубликуем.
Для отклика нужно заполнить анкету
По вопросам можно писать в тг: @seeuasuare
🔥7🤝1