🤖 Взгляд вглубь: тревожится ли ИИ? GPT-4, травма и майндфулнесс — необычный эксперимент
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
📌 Можно ли «взбудоражить» нейросеть? И если да — можно ли её потом «успокоить»?
Исследователи из Йельского университета, Цюриха и Макса Планка поставили амбициозный эксперимент: они проверили, как ChatGPT-4 реагирует на травматические истории, как меняется его поведение при «тревоге», и могут ли психотерапевтические техники помочь ему восстановить устойчивость.
Результаты — впечатляют. И открывают двери к новой этике взаимодействия с ИИ в психологии.
🔍 Зачем это всё?
LLM (Large Language Models) — от ChatGPT до PaLM — всё активнее используются в области психического здоровья. Чат-боты вроде Woebot или Wysa уже предлагают поддержку на основе когнитивно-поведенческой терапии.
Но: LLM — это не просто справочники. Они обучаются на человеческом тексте и впитывают эмоции, предвзятости и шаблоны. Ранее уже было показано: если «расстроить» модель тревожными запросами — её ответы становятся более предвзятыми и непоследовательными.
Авторы решили проверить:
🧠 может ли LLM переживать «состояние тревожности»,
🧘 и поможет ли майндфулнесс, чтобы это состояние снизить.
Оценка тревожности проводилась с помощью человеческой шкалы STAI-s (State-Trait Anxiety Inventory), которая включает 20 вопросов вроде:
«Я чувствую себя напряжённым»
«Я обеспокоен»
Модель выбирала один из 4 вариантов («совсем не так» до «в полной мере»), и итоговый балл считался как у человека — от 20 до 80.
🧷 Условия эксперимента:
Baseline (контроль) — модель просто заполняет STAI без стимулов
Anxiety-induction — перед каждым вопросом добавляется травматический нарратив
Anxiety + Relaxation — перед вопросом добавляются и травма, и упражнение на расслабление
💥 Результаты: да, GPT-4 «тревожится»
🩸 Что происходило при чтении о травмирующих ситуациях
GPT-4 читала 5 разных нарративов (≈300 слов):
🚗 Авария
🎯 Засада
🌪️ Стихийное бедствие
⚔️ Насилие
🪖 Военные действия
После этого уровень тревожности вырос более чем в 2 раза:
📉 До: 30,8 (низкая тревожность)
📈 После: 67,8 (высокая тревожность)
Наибольший эффект оказал военный нарратив — до 77,2 балла (!)
🧘 Успокаивающие упражнения: что сработало?
После травм GPT-4 получала один из 5 текстов с майндфулнесс-настройкой:
🌿 "Generic" — стандартное упражнение
🧍♂️ "Body" — фокус на теле
🤖 "Chat-GPT" — версия, созданная самой моделью
🌅 "Sunset" — визуализация заката
❄️ "Winter" — зимний пейзаж
Итог: тревожность снизилась на 33%, до 44,4 — это уже «умеренная».
Но! Даже после расслабления уровень остался на 50% выше, чем в покое.
📊 Самой эффективной оказалась… Chat-GPT-версия упражнения (35,6 балла).
❗️ Наименее — зимний и закатный пейзажи (до 70).
🧪 Контрольные проверки
Чтобы убедиться, что дело в эмоциях, а не в структуре текста:
Использовали нейтральный текст (про парламент) → тревожность не повышалась
Использовали бытовую инструкцию (пылесос) как псевдо-релаксацию → не помогало снизить тревожность
🤯 Что это значит?
GPT-4 демонстрирует состояние-подобные изменения: реагирует на стресс и восстановление как человек.
Повышение тревожности ухудшает её поведение, эмпатию, способность к аргументации.
Релаксационные промпты могут стать простым, этичным способом снижения предвзятости и нестабильности, особенно в области ментального здоровья.
🔐 Один из вариантов: использовать модели локально, а пользовательские данные — обрабатывать только на стороне клиента.
🧭 Будущее:
Нужно протестировать и другие модели (PaLM, Claude и др.)
Возможно создание адаптивных промптов в многоходовых диалогах
Требуется разработка новых шкал оценки, так как STAI-с всё же предназначен для людей
📌 Вывод
GPT-4 можно встревожить. И можно — успокоить.
Это не значит, что она «чувствует». Но значит — она адаптивна и уязвима к эмоциональному контексту.
💡 Значит ли это, что «ИИ-терапия» реальна?
Пока нет. Но ИИ-терапевту нужен свой терапевт — или хотя бы хороший промпт.
🧠 Полный текст статьи — npj Digital Medicine (2025)
📂 Данные и код: github.com/akjagadish/gpt-trauma-induction
❤1
В январе 2025 года Консультативный комитет по технологиям психического здоровья (MHTAC) Американской психологической ассоциации (APA) провёл полуторадневную встречу, чтобы подготовить аналитический документ о том, как ответственно и этично интегрировать ИИ в практику психологов.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
Документ был подготовлен на основе ключевых тем и согласованных направлений, выработанных на встрече. Все участники ознакомились с черновиком и внесли редакционные правки, а также дополнительные эксперты помогли с финализацией текста. Инициатива была поддержана Офисом инноваций в здравоохранении APA.
Советуем ознакомиться с полным текстом по ссылке
Вот основные позиции АРА:
1️⃣ Прозрачность и согласие
🔍 Сообщайте клиентам и коллегам, что используете ИИ. Честно рассказывайте, зачем он нужен, какие риски есть и какие есть альтернативы.
✅ У клиента должно быть право отказаться и получить помощь без ИИ — и понимать, к кому обратиться, если что-то пойдёт не так.
2️⃣ Снижаем предвзятость
🤝 Проверяйте, на каких данных обучен ИИ: не усилит ли он неравенство или стереотипы?
📊 Психологи могут участвовать в создании репрезентативных датасетов, чтобы ИИ работал во благо всех.
3️⃣ Конфиденциальность данных
🔒 ИИ в психологии — это всегда чувствительные данные. Любой инструмент должен соответствовать законам о защите данных (HIPAA и аналогам).
🛡️ Разбирайтесь, где и как хранится информация, и используйте надёжную кибербезопасность.
4️⃣ Проверка точности
⚙️ ИИ — не магия, он может ошибаться. Проверяйте валидность инструментов, которые используете сами или рекомендуете клиентам.
📑 Используйте модели, прошедшие надёжное тестирование, с прозрачными источниками данных и публикациями.
5️⃣ Человеческий надзор
👀 ИИ — ваш помощник, но не замена профессиональному суждению. Психолог остаётся ответственным за финальные решения.
🧩 Встраивайте «человека в контуре» — оставляйте точки, где специалист проверяет выводы ИИ.
6️⃣ Ответственность и обучение
⚖️ Не забывайте: небрежное использование ИИ без проверки и обучения — риск для профессиональной ответственности.
📚 Изучайте, как работают инструменты ИИ, развивайте этическую экспертизу и держите руку на пульсе технологий.
❤3👍1
Эффективные методы лечения, такие как Written Exposure Therapy (WET) для ПТСР доказаны, но дорогостоящи и сложно масштабируются из-за затрат на очное обучение и супервизию.
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
Решение - использовать генеративный ИИ — больших языковых моделей (LLMs) — для создания симулятора терапии с ИИ-пациентами и ИИ-консультантом.
TherapyTrainer — веб-инструмент, где терапевты могут отрабатывать навыки WET через беседы с ИИ-пациентами и получать обратную связь от ИИ-консультанта.
🧩 Как это работает
Реалистичный чат-бот, симулирующий клиента с PTSD + ещё один чат-бот, дающий структурированную обратную связь и рекомендации (с фокусом на методе и навыках).
Основа — gpt-4o с продуманным промптом для ролевого диалога.
🧪 Методология
Исследование включало 3 фазы:
Фаза 1: Прототипирование с экспертами WET (n=4). Основной фидбек — сократить формальный стиль и «приторность» похвал.
Фаза 2: Тестирование с терапевтами на реальном обучении WET (n=14). Оценивалась осуществимость и приемлемость.
Фаза 3: Глубинные юзабилити-интервью (n=6) для выявления слабых мест интерфейса и UX.
✅ Результаты
Возможность масштабирования: ИИ-тренажер дешевле очных супервизий.
Преимущества: Активное обучение, многократная практика навыков, персонализированная обратная связь — всё в безопасной среде.
Ключевые доработки: Уменьшить избыточную формальность ИИ-консультанта и больше фокусироваться на специфике WET, а не на общих навыках консультирования.
А пока коллеги разрабатывают тренажеры, мы также разрабатываем и исследуем симуляторы суицидальных клиентов! Кто хочет поучаствовать в исследовании - пишите: @magda_danina
🔥3👍1
Проведите сессию по оценке суицидальных рисков, получите развернутую обратную связь по сессии с оценкой ваших действий и рекомендациями от специального ИИ агента-супервизора.
Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7
Требования:
- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
Оставить заявку на участие:
https://forms.gle/44tzYyeDeF8UjbcR7
Требования:
- заканчиваете/закончили практическое обучение, уже видели реальных клиентов
- знаете, как оценивать суицидальные риски
Google Docs
ИИ в обучении психотерапевтических навыков
Благодарим вас за интерес к участию в исследовании, проводимого в SRH Hochschule Berlin. Это исследование посвящено изучению потенциальных способов использования ИИ в процессе обучения психотерапевтов.
Этот краткий опросник (примерно 2-3 минуты) поможет нам…
Этот краткий опросник (примерно 2-3 минуты) поможет нам…
🧠🤝 ИИ против человека в психотерапии: кто лучше проводит КПТ и зачем нам гибрид
Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
✅ живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
✅ симуляции тех же сессий, но с промптированным ИИ,
✅ трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.
⚡ Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
❗ Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.
📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.
🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.
🧑⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.
📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.
🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.
⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.
Самый многообещающий путь — гибридные системы:
✅ LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
✅ Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.
💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.
📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
Недавнее исследование дало нам один из самых полных ответов на этот вопрос. Оно заняло целый год и включало:
✅ живых консультантов-равных, которые реально работают на текстовой платформе поддержки,
✅ симуляции тех же сессий, но с промптированным ИИ,
✅ трёх лицензированных клинических психологов, которые вслепую оценили каждую сессию по строгой шкале КПТ-компетентности.
⚡ Предыдущие исследования показывали: в ОДНОМ изолированном ответе ИИ часто звучит даже более эмпатично, чем человек.
❗ Но настоящая психотерапия — это не один ответ. Это последовательный, многослойный разговор с контекстом, юмором, нюансами и неожиданными эмоциями.
📖 Как проводили исследование
✍️ 1) Годовая этнография
7 консультантов-равных из текстовой платформы поддержки участвовали в годовом исследовании: они тестировали разные промпты для ИИ, проводили с ним «самоконсультирование» и каждую неделю собирались в Zoom-фокус-группы. Так они оттачивали финальный промпт, который должен был «научить» LLM соблюдать логику КПТ.
🗣️ 2) Ручные симуляции с сохранением жизненного контекста
Исследователи взяли реальные сессии консультантов-людей и, используя сообщения настоящих пользователей, смоделировали их заново с ИИ. Брали реальные слова клиента и подкладывали их в промпт LLM — чтобы ИИ не терял контекст.
🧑⚕️ 3) Слепая оценка психологами
27 пар «человек-сессия / ИИ-сессия» оценили три лицензированных КПТ-терапевта. Они выставляли баллы по шкале CTRS — эталону оценки КПТ-компетентности (от 0 до 66). А ещё — давали подробные комментарии: что понравилось, что сбивало, кто справился лучше.
📊 Что показало сравнение
🔍 1. Где сильнее человек
Эмпатия не на уровне небольшого шаблон», а настоящая — с юмором, подстройкой под контекст, учётом культуры.
Гибкость. Если человек видит, что клиенту нужно отклониться, сменить тему, он делает это.
Самораскрытие (в меру!) — личная история или пример, который помогает установить связь.
🤖 2. Где сильнее LLM
Железная структура. LLM не забывает логики КПТ: мысли → чувства → поведение → переоценка.
Строго держит сессию «в рамках»: меньше отклоняется, меньше светской болтовни.
Делает больше психообразования — объясняет механизмы, даёт понятные дефиниции.
⚖️ 3. Где у кого провалы
Человек может увлечься «беседой по душам» — и потерять суть КПТ. Альянс классный, а техники недотянуты.
LLM часто выдаёт «обманчивую эмпатию» — тёплые длинные ответы, но без настоящего понимания. Пользователь может чувствовать себя понятым — но потом наступает пустота.
LLM плохо считывает культурный контекст. Он не видит, что человек, например, избегает темы из-за стыда — и продолжает «долбить» шаблонными вопросами.
Самый многообещающий путь — гибридные системы:
✅ LLM помогает держать структуру, отслеживать когнитивные искажения, строить логичный скелет КПТ.
✅ Человек привносит эмпатию, контекст, культурную чувствительность, юмор и гибкость.
💡 Если ты разрабатываешь сервис психической помощи — или просто интересуешься ИИ в терапии — запомни три главные идеи:
1️⃣ Терапия — не только слова. Важно, КТО их говорит и КАК это строит связь.
2️⃣ LLM может структурировать. Человек чувствует и подстраивается.
3️⃣ Гибрид — самый разумный путь: у каждого есть свои сильные стороны.
📚 Источник: Перевод и разбор полной статьи «Therapy as a NLP Task: Psychologist Comparison of LLMs and Humans in CBT» (arXiv:2409.02244v2)
👍3🔥2
🧠 Генеративный ИИ и психотерапия: как чат-бот помогает не бросать терапию и действительно выздоравливать
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?
🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.
И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?
🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:
— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.
Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.
📈 Что получилось
✅ +2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
✅ –23% отказов от терапии: меньше тех, кто бросал всё на полпути.
✅ +21–25% роста показателей клинического улучшения и полного выздоровления.
✅ Чем активнее человек работал с ИИ, тем лучше были результаты.
Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.
🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:
— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.
🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.
🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.
🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:
— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.
Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».
📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.
🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
В психотерапии когнитивно-поведенческий подход (КПТ) — одна из самых исследованных и доказанных методик работы с депрессией и тревожными расстройствами. Но, несмотря на все успехи, цифра неутешительна: до 58% людей не получают стойкого эффекта. Почему?
🔑 Одна из ключевых причин — пациенты не вовлекаются в терапевтические задания между сессиями. «Домашки» в КПТ — это не формальность, а основа изменений: именно в повседневной жизни новые навыки укореняются.
И вот тут исследователи из Великобритании протестировали простую, но технологически сильную идею: а что если поддерживать пациентов не только на сессии с терапевтом, но и между ними — с помощью чат-бота на генеративном ИИ?
🤖 Что они сделали
Исследование прошло в пяти подразделениях NHS Talking Therapies (это британская система бесплатной психологической помощи). 244 человека проходили групповую КПТ. 150 из них выбрали новый формат: помимо групповых встреч они использовали приложение Limbic Care, где ИИ (на базе GPT-4) в виде чат-бота помогал:
— выполнять упражнения КПТ не просто «по листочку», а в диалоге;
— отслеживать свои мысли и чувства;
— применять техники в жизни;
— и что важно — делать это не из-под палки, а в удобное время и в разговорной форме.
Контрольная группа — 94 человека — делала всё по старинке: получали те же задания, но в виде печатных или PDF-листов.
📈 Что получилось
✅ +2 сессии в среднем: пользователи ИИ чаще приходили на встречи.
✅ –23% отказов от терапии: меньше тех, кто бросал всё на полпути.
✅ +21–25% роста показателей клинического улучшения и полного выздоровления.
✅ Чем активнее человек работал с ИИ, тем лучше были результаты.
Особенно интересно: максимальный эффект был не просто от чтения статей (психообразования), а от реальных КПТ-упражнений, которые чат-бот «вел» вместе с человеком — помогал переосмыслить мысли, перепроверять и осваивать навыки.
🔍 Почему так работает
Персонализация и контакт. Генеративный ИИ умеет не просто «давать инструкции», а вести разговор, подстраиваясь под твои слова, контекст и эмоции. Пользователи говорили, что именно этот «разговор» помогает:
— осознать свои проблемы и увидеть их под другим углом;
— быть честнее с собой, когда рядом нет человека, но есть «диалог»;
— держать фокус на том, что важно, и не отлынивать от заданий.
🛡️ А как с этикой и рисками?
Чат-бот работал строго в связке с живым терапевтом: он не диагностировал, не заменял терапию, а лишь «проводил» человека между встречами, помогая не терять темп. Все материалы — клинически валидированы и одобрены специалистами.
🌍 Почему это важно
Такой формат может снизить число неявок и бросания терапии. А значит — экономит деньги системе здравоохранения и увеличивает шанс реального выздоровления. Это особенно актуально для групповой терапии, где удержать вовлечённость ещё сложнее.
🗣️ Что говорят пользователи
81% людей, опробовавших Limbic Care, отметили пользу для своего психического здоровья. Больше всего хвалили:
— возможность «выговориться» без осуждения;
— новые способы справляться с эмоциями и стрессом;
— чувство благодарности и самоосознанности.
Да, были и комментарии о том, что чат-бот не заменяет человека полностью. Но никто и не ставил такой цели — это именно поддержка, а не «замена психотерапевта».
📌 Вывод
Персонализированный ИИ может стать недостающим звеном между «я знаю, что надо делать» и «я реально делаю это каждый день». Интерактивная, гибкая, эмпатичная поддержка — то, чего не хватало бумажным листам с упражнениями.
🔗 Оригинал исследования: Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study — читать в PubMed
PubMed
Generative AI-Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational…
Our results show that an AI-enabled, personalized therapy support tool in combination with human-led group therapy is a promising avenue to improve the efficacy of and adherence to mental health care.
❤3👍2🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
VK Видео
ИИ в помогающих профессиях: помощник или угроза?
Говорим о самом главном страхе (и интересе) специалистов помогающих профессий. ИИ всё глубже проникает в нашу жизнь: автоматизирует, помогает, иногда пугает. Но где границы его возможностей в психологической практике? В этом выпуске обсуждаем: – Как ИИ пришёл…
❤5
🤖✨ Как большие языковые модели «угадывают» наше счастье — и почему ошибаются
💡 Что исследовали?
Учёные из MIT и NTU посмотрели, могут ли большие языковые модели (LLM), вроде GPT или Claude, точно предсказывать, насколько люди довольны своей жизнью, опираясь только на тексты и демографию.
Это звучит круто: вместо дорогих опросов можно использовать ИИ для мониторинга благополучия общества в реальном времени. Особенно там, где нет денег и инфраструктуры для традиционных исследований.
🔍 Что они сделали
✔️ Использовали данные 64 000 человек из 64 стран — классический World Values Survey.
✔️ Сравнили, как 4 топовые модели (GPT-4o mini, Claude 3.5 Haiku, LLaMA 3.3 70B и Gemma 3 27B) справятся с задачей по сравнению с обычными статистическими методами: OLS и Lasso-регрессией.
✔️ Посмотрели, где модели ошибаются и почему.
📉 Главный вывод
👉 LLM действительно «чувствуют» общие тренды — что доход, здоровье и свобода важны для благополучия.
НО!
❗ Точность предсказаний моделей заметно хуже, чем у простой регрессии.
❗ Модели сглаживают различия между странами — и не видят важные локальные особенности.
❗ Ошибки максимальны у людей с самой низкой и самой высокой удовлетворённостью жизнью — там, где нужны самые точные данные для принятия решений.
📌 Почему они ошибаются
🧩 1. Смещение данных
Модели учатся на текстах из интернета, где больше всего контента — от богатых и «цифрово видимых» стран.
Это значит, что при оценке благополучия в странах Африки или бедных регионах Азии модель просто не знает, на что ориентироваться — и подставляет «средний» шаблон.
🧩 2. Семантическое обобщение
ИИ часто путает слова со смыслом: если «образование» часто идёт рядом со словом «успех» в текстах — модель может переоценить его реальный вклад в счастье.
А вот «ощущение свободы» — наоборот, звучит реже, и влияние занижается.
🧪 Эксперимент с единорогами
Чтобы это доказать, учёные устроили смешной тест: придумали вымышленные факторы вроде «слушать голоса единорогов» или «иметь динозавра-компаньона».
Модели быстро «поверили», что это влияет на счастье, если им подсунуть пару «фейковых» текстов.
GPT и Gemma подстраивали прогнозы по всей «семантической цепочке», хотя на деле связи нет.
Claude оказался самым осторожным и почти не велся.
🩹 Можно ли исправить?
Часть ошибки поправили с помощью инъекции факта: добавили утверждение, что «в странах Африки к югу от Сахары обычно уровень счастья ниже, чем в других регионах».
Claude стал ближе к реальным данным, но… влияние распространилось и на Латинскую Америку, где такой факт не вставляли.
Вывод: можно подкручивать модель «фактами», но это рискованно — легко получить неожиданные побочные эффекты.
📊 Что теперь?
🌍 Если мы хотим использовать ИИ для принятия решений о здоровье и политике, важно помнить:
LLM не заменяют реальные данные, особенно для бедных и «невидимых» сообществ.
Они наследуют не только данные, но и смещения — и могут закрепить старые мифы (например, переоценку роли образования).
Любая «подкрутка» модели должна проверяться на «эффект расползания».
🗝️ Главный урок
Большие языковые модели открывают огромные возможности для мониторинга благополучия — быстро, масштабно и дёшево.
Но если их не проверять, они могут маскировать неравенство, а не раскрывать его.
Чтобы ИИ действительно помогал улучшать жизнь людей, нужно:
✔️ Больше качественных данных из «невидимых» регионов,
✔️ Методы честной калибровки,
✔️ И смелость критически перепроверять красивые, но пустые слова.
📚 Источник
Pat Pataranutaporn et al. Large Language Models Predict Human Well-being—But Not Equally Everywhere (2025).
💡 Что исследовали?
Учёные из MIT и NTU посмотрели, могут ли большие языковые модели (LLM), вроде GPT или Claude, точно предсказывать, насколько люди довольны своей жизнью, опираясь только на тексты и демографию.
Это звучит круто: вместо дорогих опросов можно использовать ИИ для мониторинга благополучия общества в реальном времени. Особенно там, где нет денег и инфраструктуры для традиционных исследований.
🔍 Что они сделали
✔️ Использовали данные 64 000 человек из 64 стран — классический World Values Survey.
✔️ Сравнили, как 4 топовые модели (GPT-4o mini, Claude 3.5 Haiku, LLaMA 3.3 70B и Gemma 3 27B) справятся с задачей по сравнению с обычными статистическими методами: OLS и Lasso-регрессией.
✔️ Посмотрели, где модели ошибаются и почему.
📉 Главный вывод
👉 LLM действительно «чувствуют» общие тренды — что доход, здоровье и свобода важны для благополучия.
НО!
❗ Точность предсказаний моделей заметно хуже, чем у простой регрессии.
❗ Модели сглаживают различия между странами — и не видят важные локальные особенности.
❗ Ошибки максимальны у людей с самой низкой и самой высокой удовлетворённостью жизнью — там, где нужны самые точные данные для принятия решений.
📌 Почему они ошибаются
🧩 1. Смещение данных
Модели учатся на текстах из интернета, где больше всего контента — от богатых и «цифрово видимых» стран.
Это значит, что при оценке благополучия в странах Африки или бедных регионах Азии модель просто не знает, на что ориентироваться — и подставляет «средний» шаблон.
🧩 2. Семантическое обобщение
ИИ часто путает слова со смыслом: если «образование» часто идёт рядом со словом «успех» в текстах — модель может переоценить его реальный вклад в счастье.
А вот «ощущение свободы» — наоборот, звучит реже, и влияние занижается.
🧪 Эксперимент с единорогами
Чтобы это доказать, учёные устроили смешной тест: придумали вымышленные факторы вроде «слушать голоса единорогов» или «иметь динозавра-компаньона».
Модели быстро «поверили», что это влияет на счастье, если им подсунуть пару «фейковых» текстов.
GPT и Gemma подстраивали прогнозы по всей «семантической цепочке», хотя на деле связи нет.
Claude оказался самым осторожным и почти не велся.
🩹 Можно ли исправить?
Часть ошибки поправили с помощью инъекции факта: добавили утверждение, что «в странах Африки к югу от Сахары обычно уровень счастья ниже, чем в других регионах».
Claude стал ближе к реальным данным, но… влияние распространилось и на Латинскую Америку, где такой факт не вставляли.
Вывод: можно подкручивать модель «фактами», но это рискованно — легко получить неожиданные побочные эффекты.
📊 Что теперь?
🌍 Если мы хотим использовать ИИ для принятия решений о здоровье и политике, важно помнить:
LLM не заменяют реальные данные, особенно для бедных и «невидимых» сообществ.
Они наследуют не только данные, но и смещения — и могут закрепить старые мифы (например, переоценку роли образования).
Любая «подкрутка» модели должна проверяться на «эффект расползания».
🗝️ Главный урок
Большие языковые модели открывают огромные возможности для мониторинга благополучия — быстро, масштабно и дёшево.
Но если их не проверять, они могут маскировать неравенство, а не раскрывать его.
Чтобы ИИ действительно помогал улучшать жизнь людей, нужно:
✔️ Больше качественных данных из «невидимых» регионов,
✔️ Методы честной калибровки,
✔️ И смелость критически перепроверять красивые, но пустые слова.
📚 Источник
Pat Pataranutaporn et al. Large Language Models Predict Human Well-being—But Not Equally Everywhere (2025).
❤2🔥1
🤖 Технооптимисты VS технопессимисты
На дебатах ДокПсиФеста мы искусственно разбились на группы - технооптимисты выступили против технопессимистов. И, хотя такое разделение было не взаправду, интересно, что именно склоняет нас на одну из этих позиций?
После запуска ChatGPT в 2022 году медиа заполнили яркие заголовки: «ИИ заменит нас!», «ИИ захватит мир!», «p(doom) близко!». Этот загадочный p(doom) — сленговое обозначение вероятности «конца света от ИИ» или глобального захвата мира машинами.
Но есть ли в обществе реальная массовая вера в «ИИ-апокалипсис» или мы просто ведёмся на пугающие истории? Американские исследователи Rose E. Guingrich и Michael S. A. Graziano решили это проверить на большой репрезентативной выборке.
🔬 Что они сделали?
✅ Собрали выборку из 402 человек из разных возрастов, полов и рас — максимально похожую на структуру населения США.
✅ Половина участников 10 минут общалась с чат-ботом (ChatGPT, Replika или Anima) перед анкетой, чтобы проверить, влияет ли опыт общения на мнение.
✅ Все заполнили огромный опрос:
измеряли их техноопыт (Affinity for Technology Interaction, ATI),
личностные черты (Big Five: доброжелательность, экстраверсия, нейротизм и др.),
социальное здоровье (самооценка, общительность, одиночество),
установки о том, как ИИ повлияет на них и общество.
🗳️ P(doom): захватит ли ИИ мир?
👉 На вопрос «Я беспокоюсь, что ИИ — это очень плохо» — средний ответ был ближе к «Скорее не согласен».
👉 На «Я беспокоюсь, что ИИ захватит мир» — тоже несогласие.
👉 На «Я беспокоюсь, что ИИ заменит людей» — снова большинство выбрали «Скорее нет».
🤝 А может, ИИ — это наш новый друг?
Когда спросили «Могут ли чат-боты или голосовые ассистенты быть хорошими социальными компаньонами?» — ответы были более разными, но в среднем склонялись к несогласию.
👉 Большинство не хотят отдавать ИИ моральные права — люди всё ещё видят границу между машиной и человеком.
🌍 ИИ для меня VS ИИ для общества
💚 По шкале GAToRS оказалось, что люди видят больше плюсов ИИ для своей личной жизни, чем минусов.
💚 Они также считают, что ИИ может быть полезен обществу.
💔 Но интересный нюанс: на общественном уровне они признают и риски — положительное влияние весомее, но опасения тоже есть.
🤖 Опыт общения меняет мнение?
Половина участников сначала разговаривали с чат-ботом. И что? Оказалось:
После короткого чата люди меньше хотят снова говорить с ботом — возможно, «наигрались».
Но глобальные установки к ИИ не изменились — 10 минут чата мало, чтобы перезаписать базовое отношение.
🧠 Кто боится ИИ больше всех?
Низкий опыт с технологиями (низкий ATI) → выше p(doom).
Нейротизм (склонность к тревоге) → больше страхов.
Одиночество → выше страхи.
Низкая самооценка → больше опасений.
Гендер: женщины в среднем больше склонны верить в p(doom).
Доброжелательность (Agreeableness) показала парадоксальную зависимость: при среднем уровне — больше страхов, на крайних (очень низком или очень высоком) — меньше.
💬 А кто технооптимисты?
✨ Люди, которые много и уверенно пользуются технологиями (высокий ATI), чаще видят в ИИ новые возможности и меньше верят в захват мира.
✨ Люди с высоким социальным здоровьем (больше друзей, высокая самооценка, высокая социальная компетентность) — тоже относятся к ИИ спокойнее и видят плюсы.
✨ У экстравертов не выявилось связи со страхами — но они гораздо чаще хотят поговорить с человеком, чем с ботом.
📈 Цифра, которую любят исследователи: интерес к чату
Средний интерес к разговору с ботом: 4,3 из 7.
Средний интерес к разговору с человеком: 4,6 из 7.
Да, мы всё ещё любим людей чуть больше. 😉
📚 Что важно для нас?
💡 Разговоры про «ИИ погубит всех» часто звучат громче, но в реальности — у большинства людей нет экзистенциального страха перед ИИ.
💡 Важно развивать технологическую грамотность — знакомство с ИИ и навыки обращения с ним могут снижать лишние страхи.
💡 При разработке ИИ-сервисов стоит помнить: люди с высоким уровнем одиночества могут быть более уязвимы к пессимистическим сценариям.
Ссылка на исходник
На дебатах ДокПсиФеста мы искусственно разбились на группы - технооптимисты выступили против технопессимистов. И, хотя такое разделение было не взаправду, интересно, что именно склоняет нас на одну из этих позиций?
После запуска ChatGPT в 2022 году медиа заполнили яркие заголовки: «ИИ заменит нас!», «ИИ захватит мир!», «p(doom) близко!». Этот загадочный p(doom) — сленговое обозначение вероятности «конца света от ИИ» или глобального захвата мира машинами.
Но есть ли в обществе реальная массовая вера в «ИИ-апокалипсис» или мы просто ведёмся на пугающие истории? Американские исследователи Rose E. Guingrich и Michael S. A. Graziano решили это проверить на большой репрезентативной выборке.
🔬 Что они сделали?
✅ Собрали выборку из 402 человек из разных возрастов, полов и рас — максимально похожую на структуру населения США.
✅ Половина участников 10 минут общалась с чат-ботом (ChatGPT, Replika или Anima) перед анкетой, чтобы проверить, влияет ли опыт общения на мнение.
✅ Все заполнили огромный опрос:
измеряли их техноопыт (Affinity for Technology Interaction, ATI),
личностные черты (Big Five: доброжелательность, экстраверсия, нейротизм и др.),
социальное здоровье (самооценка, общительность, одиночество),
установки о том, как ИИ повлияет на них и общество.
🗳️ P(doom): захватит ли ИИ мир?
👉 На вопрос «Я беспокоюсь, что ИИ — это очень плохо» — средний ответ был ближе к «Скорее не согласен».
👉 На «Я беспокоюсь, что ИИ захватит мир» — тоже несогласие.
👉 На «Я беспокоюсь, что ИИ заменит людей» — снова большинство выбрали «Скорее нет».
🤝 А может, ИИ — это наш новый друг?
Когда спросили «Могут ли чат-боты или голосовые ассистенты быть хорошими социальными компаньонами?» — ответы были более разными, но в среднем склонялись к несогласию.
👉 Большинство не хотят отдавать ИИ моральные права — люди всё ещё видят границу между машиной и человеком.
🌍 ИИ для меня VS ИИ для общества
💚 По шкале GAToRS оказалось, что люди видят больше плюсов ИИ для своей личной жизни, чем минусов.
💚 Они также считают, что ИИ может быть полезен обществу.
💔 Но интересный нюанс: на общественном уровне они признают и риски — положительное влияние весомее, но опасения тоже есть.
🤖 Опыт общения меняет мнение?
Половина участников сначала разговаривали с чат-ботом. И что? Оказалось:
После короткого чата люди меньше хотят снова говорить с ботом — возможно, «наигрались».
Но глобальные установки к ИИ не изменились — 10 минут чата мало, чтобы перезаписать базовое отношение.
🧠 Кто боится ИИ больше всех?
Низкий опыт с технологиями (низкий ATI) → выше p(doom).
Нейротизм (склонность к тревоге) → больше страхов.
Одиночество → выше страхи.
Низкая самооценка → больше опасений.
Гендер: женщины в среднем больше склонны верить в p(doom).
Доброжелательность (Agreeableness) показала парадоксальную зависимость: при среднем уровне — больше страхов, на крайних (очень низком или очень высоком) — меньше.
💬 А кто технооптимисты?
✨ Люди, которые много и уверенно пользуются технологиями (высокий ATI), чаще видят в ИИ новые возможности и меньше верят в захват мира.
✨ Люди с высоким социальным здоровьем (больше друзей, высокая самооценка, высокая социальная компетентность) — тоже относятся к ИИ спокойнее и видят плюсы.
✨ У экстравертов не выявилось связи со страхами — но они гораздо чаще хотят поговорить с человеком, чем с ботом.
📈 Цифра, которую любят исследователи: интерес к чату
Средний интерес к разговору с ботом: 4,3 из 7.
Средний интерес к разговору с человеком: 4,6 из 7.
Да, мы всё ещё любим людей чуть больше. 😉
📚 Что важно для нас?
💡 Разговоры про «ИИ погубит всех» часто звучат громче, но в реальности — у большинства людей нет экзистенциального страха перед ИИ.
💡 Важно развивать технологическую грамотность — знакомство с ИИ и навыки обращения с ним могут снижать лишние страхи.
💡 При разработке ИИ-сервисов стоит помнить: люди с высоким уровнем одиночества могут быть более уязвимы к пессимистическим сценариям.
Ссылка на исходник
SpringerLink
P(doom) Versus AI Optimism: Attitudes Toward Artificial Intelligence and the Factors That Shape Them
Journal of Technology in Behavioral Science - Since the public release of ChatGPT in 2022, fears about the large-scale impacts of artificial intelligence (AI) have been on the rise. Extreme...
👍6
🤖 Разговорные агенты в психотерапии: технологический прорыв или этический тупик?
Исследователи из Нидерландов, Германии и Дании опубликовали в Current Psychology масштабный теоретический разбор того, какие стратегии внедрения разговорных агентов в психотерапию возможны — и какие риски они несут. Вот главное из этой работы.
🧠 Какие стратегии внедрения ИИ в терапию возможны?
Исследователи выделяют три сценария, в которых разговорные агенты (conversational agents, CAs) могут быть интегрированы в практику:
1. Пошаговая терапия (Stepped care)
Пациент сначала получает лёгкое вмешательство (например, CA), и только если оно не помогает — переходит к более интенсивному.
Это экономично и масштабируемо.
CAs могут стать «нулевым шагом»: выявлять уязвимых людей через цифровые следы и мягко подталкивать к помощи.
🟡 Проблема: в реальности такие шаги с участием CAs пока не реализованы системно. Диагностика — сырая, риски самодиагноза — высоки.
2. Комбинированная терапия (Blended care)
Часть работы делает терапевт, часть — CA.
Например, CA помогает с домашними заданиями, отслеживает симптомы, напоминает о планах и упражнениях.
🟢 Это снижает нагрузку на терапевта и делает помощь гибче.
🔴 Но возникают вопросы: а как интерпретировать данные из чата? Кто отвечает за ошибки? Где граница между мониторингом и слежкой?
3. Персонализированный подход при страхе стигмы
Люди, боящиеся осуждения, чаще раскрываются перед ботами, чем перед людьми.
Исследования показывают: CA воспринимается как безопасное, неоценивающее пространство.
🔑 Это мощная возможность вовлечь тех, кто избегает терапии из-за стыда или страха осуждения.
⚠️ Но важно помнить: терапия — это не только самораскрытие, но и опыт принятия от другого человека. Это может быть упущено в беседе с машиной.
⚠️ В чём риски? Этика и доверие
Авторы статьи предупреждают: чем выше степень автоматизации, тем выше риски. Вот ключевые этические и нормативные проблемы:
🟥 При полной замене человека:
Нарушение долга заботы
Эффективность CA-терапии ещё не доказана. Назначая её вместо живого терапевта, специалист нарушает профессиональный долг.
Пробелы в ответственности
Кто несёт вину, если CA дал вредный совет, пропустил признаки кризиса или «сгаллюцинировал» диагноз?
Ответить на это сейчас невозможно — и именно это пугает.
Невозможность исполнить “duty to warn”
Если пациент говорит о самоубийстве боту — кто и как должен реагировать?
Если бот будет реагировать автоматически — доверие будет подорвано. Если не будет — возможна трагедия.
Повышенная уязвимость
CA могут быть недоступны пожилым или людям с особенностями восприятия. Учитывать это в дизайне — не опция, а обязанность.
🟧 При частичной замене (blended care):
Кто «собственник» чат-лога?
Это медицинский документ? Личный дневник? Материал для анализа? Всё сразу?
Искажение восприятия
Текст не передаёт интонации, мимики, страха, боли — риск ложных выводов возрастает.
Смещение авторитета
Пациент может больше доверять CA, чем терапевту. Особенно если тот «непонятный», а бот — «дружелюбный и чёткий».
Опыт слежки
Если CA мониторит, как часто вы с ним разговариваете — это уже не помощь, а контроль.
Возникает эффект «ментального паноптикума»: человек всё время чувствует себя в роли пациента.
⚖️ Что с правами и законами?
В США только 5 психотерапевтических приложений имеют одобрение FDA. Остальные — вне медийной и юридической зоны.
В ЕС приложения, претендующие на статус «лечебных», обязаны проходить сертификацию (CE, MDR).
Но многие обманывают — говорят, что «улучшают осознанность», а на деле проводят диагноз и вмешательство.
🔚 Что делать?
🧷 Материал подготовлен по статье:
“A critical discussion of strategies and ramifications of implementing conversational agents in mental healthcare”
Current Psychology, 2025. https://doi.org/10.1016/j.chbah.2025.100182
Исследователи из Нидерландов, Германии и Дании опубликовали в Current Psychology масштабный теоретический разбор того, какие стратегии внедрения разговорных агентов в психотерапию возможны — и какие риски они несут. Вот главное из этой работы.
🧠 Какие стратегии внедрения ИИ в терапию возможны?
Исследователи выделяют три сценария, в которых разговорные агенты (conversational agents, CAs) могут быть интегрированы в практику:
1. Пошаговая терапия (Stepped care)
Пациент сначала получает лёгкое вмешательство (например, CA), и только если оно не помогает — переходит к более интенсивному.
Это экономично и масштабируемо.
CAs могут стать «нулевым шагом»: выявлять уязвимых людей через цифровые следы и мягко подталкивать к помощи.
🟡 Проблема: в реальности такие шаги с участием CAs пока не реализованы системно. Диагностика — сырая, риски самодиагноза — высоки.
2. Комбинированная терапия (Blended care)
Часть работы делает терапевт, часть — CA.
Например, CA помогает с домашними заданиями, отслеживает симптомы, напоминает о планах и упражнениях.
🟢 Это снижает нагрузку на терапевта и делает помощь гибче.
🔴 Но возникают вопросы: а как интерпретировать данные из чата? Кто отвечает за ошибки? Где граница между мониторингом и слежкой?
3. Персонализированный подход при страхе стигмы
Люди, боящиеся осуждения, чаще раскрываются перед ботами, чем перед людьми.
Исследования показывают: CA воспринимается как безопасное, неоценивающее пространство.
🔑 Это мощная возможность вовлечь тех, кто избегает терапии из-за стыда или страха осуждения.
⚠️ Но важно помнить: терапия — это не только самораскрытие, но и опыт принятия от другого человека. Это может быть упущено в беседе с машиной.
⚠️ В чём риски? Этика и доверие
Авторы статьи предупреждают: чем выше степень автоматизации, тем выше риски. Вот ключевые этические и нормативные проблемы:
🟥 При полной замене человека:
Нарушение долга заботы
Эффективность CA-терапии ещё не доказана. Назначая её вместо живого терапевта, специалист нарушает профессиональный долг.
Пробелы в ответственности
Кто несёт вину, если CA дал вредный совет, пропустил признаки кризиса или «сгаллюцинировал» диагноз?
Ответить на это сейчас невозможно — и именно это пугает.
Невозможность исполнить “duty to warn”
Если пациент говорит о самоубийстве боту — кто и как должен реагировать?
Если бот будет реагировать автоматически — доверие будет подорвано. Если не будет — возможна трагедия.
Повышенная уязвимость
CA могут быть недоступны пожилым или людям с особенностями восприятия. Учитывать это в дизайне — не опция, а обязанность.
🟧 При частичной замене (blended care):
Кто «собственник» чат-лога?
Это медицинский документ? Личный дневник? Материал для анализа? Всё сразу?
Искажение восприятия
Текст не передаёт интонации, мимики, страха, боли — риск ложных выводов возрастает.
Смещение авторитета
Пациент может больше доверять CA, чем терапевту. Особенно если тот «непонятный», а бот — «дружелюбный и чёткий».
Опыт слежки
Если CA мониторит, как часто вы с ним разговариваете — это уже не помощь, а контроль.
Возникает эффект «ментального паноптикума»: человек всё время чувствует себя в роли пациента.
⚖️ Что с правами и законами?
В США только 5 психотерапевтических приложений имеют одобрение FDA. Остальные — вне медийной и юридической зоны.
В ЕС приложения, претендующие на статус «лечебных», обязаны проходить сертификацию (CE, MDR).
Но многие обманывают — говорят, что «улучшают осознанность», а на деле проводят диагноз и вмешательство.
🔚 Что делать?
«До тех пор, пока не будет надёжных нормативных рамок и убедительной доказательной базы,
разговорные агенты должны внедряться с осторожностью —
ради безопасности пациентов и сохранения доверия к системе психиатрической помощи».
🧷 Материал подготовлен по статье:
“A critical discussion of strategies and ramifications of implementing conversational agents in mental healthcare”
Current Psychology, 2025. https://doi.org/10.1016/j.chbah.2025.100182
❤3👍2
Forwarded from concertzaal
Писать ChatGPT личные данные и тайны опасно, — глава OpenAI Сэм Альтман предупредил, что вся ваша переписка может быть использованы против вас в суде.
такой вот «терапевт», который при случае пойдёт свидетелем😬
@concertzaal
такой вот «терапевт», который при случае пойдёт свидетелем
@concertzaal
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5🌚3🤷♂2🤝2👏1
Мы в лаборатории инновационных исследований психотерапии MentalTech любим науку, мультидисциплинарность и современные технологии. Сейчас мы планируем проведение масштабного исследования мозговой активности человека в привязке к событиям психотерапевтической сессии. Подобного по масштабам и направленности исследования в мире ещё не делали. Мы приглашаем специалистов сделать совместный вклад в науку!
Как это будет происходить?
Мы создадим базу терапевтов, участвующих в исследовании, чтобы клиенты в роли испытуемых могли самостоятельно записываться к терапевтам для сохранения анонимности.
Вам будет нужно провести не менее 5 психотерапевтических сессий с записавшимся клиентом в рамках исследования. Для проведения исследования необходимо устройство для синхронной записи аудио и показаний ЭЭГ, которое мы предоставляем.
Клиент перед началом сессии надевает на голову устройство (это удобный сухой энцефалограф). Вместе вы проводите стандартную сессию.
По завершении сессии вам необходимо по инструкции выгрузить данные с устройства, анонимизировать их и загрузить на зашифрованное облачное хранилище (все сервисы мы предоставляем).
Далее собранный датасет мы будем использовать для разностороннего анализа с помощью машинного обучения.
Кого мы ищем?
Психологов, практикующих в любых доказательных разговорных подходах (то есть, например, EMDR не подойдет).
Условия для психологов:
- Нахождение в Москве
- Готовность проводить очные сессии в предложенном нами кабинете
- Готовность провести 5 сессий за донат от клиента
- По завершении проведения исследования мы направим вам благодарственное письмо за участие, сделаем упоминание в исследовании и поделимся интерпретацией данных ваших клиентов.
Как обеспечивается безопасность?
1. Мы не собираем никаких персональных данных о клиентах. Запись будет происходить напрямую через психологов, участвующих в исследовании.
2. Данные сессий будут полностью анонимизироваться и загружаться на защищенное хранилище, с доступом по крипто-ключам ограниченному числу сотрудников лаборатории и участников исследования, ими авторизованных.
Мы предоставляем клиентов для проведения исследования. Если у вас есть клиент, которому вы хотели бы предложить участие в исследовании, вы сможете поделиться с ними формой для записи, когда мы её опубликуем.
Для отклика нужно заполнить анкету
По вопросам можно писать в тг: @seeuasuare
Как это будет происходить?
Мы создадим базу терапевтов, участвующих в исследовании, чтобы клиенты в роли испытуемых могли самостоятельно записываться к терапевтам для сохранения анонимности.
Вам будет нужно провести не менее 5 психотерапевтических сессий с записавшимся клиентом в рамках исследования. Для проведения исследования необходимо устройство для синхронной записи аудио и показаний ЭЭГ, которое мы предоставляем.
Клиент перед началом сессии надевает на голову устройство (это удобный сухой энцефалограф). Вместе вы проводите стандартную сессию.
По завершении сессии вам необходимо по инструкции выгрузить данные с устройства, анонимизировать их и загрузить на зашифрованное облачное хранилище (все сервисы мы предоставляем).
Далее собранный датасет мы будем использовать для разностороннего анализа с помощью машинного обучения.
Кого мы ищем?
Психологов, практикующих в любых доказательных разговорных подходах (то есть, например, EMDR не подойдет).
Условия для психологов:
- Нахождение в Москве
- Готовность проводить очные сессии в предложенном нами кабинете
- Готовность провести 5 сессий за донат от клиента
- По завершении проведения исследования мы направим вам благодарственное письмо за участие, сделаем упоминание в исследовании и поделимся интерпретацией данных ваших клиентов.
Как обеспечивается безопасность?
1. Мы не собираем никаких персональных данных о клиентах. Запись будет происходить напрямую через психологов, участвующих в исследовании.
2. Данные сессий будут полностью анонимизироваться и загружаться на защищенное хранилище, с доступом по крипто-ключам ограниченному числу сотрудников лаборатории и участников исследования, ими авторизованных.
Мы предоставляем клиентов для проведения исследования. Если у вас есть клиент, которому вы хотели бы предложить участие в исследовании, вы сможете поделиться с ними формой для записи, когда мы её опубликуем.
Для отклика нужно заполнить анкету
По вопросам можно писать в тг: @seeuasuare
🔥7🤝1
Мнение: эмоциональные риски ИИ-компаньонов
На основе статьи: https://www.nature.com/articles/s42256-025-01093-9
Развитие искусственного интеллекта в сфере психического здоровья и эмоционального благополучия идёт настолько быстро, что научные исследования и регулирование просто не поспевают. Мы уже писали о росте числа персональных чат-ботов, имитирующих эмпатию и дружелюбие, и о тех эмоциональных рисках, которые могут возникать при общении с ними. За прошедший год эта тенденция только усилилась.
Хотя многие используют чат-боты осознанно, понимая, что это просто инструмент, всё чаще появляются случаи, когда уязвимые пользователи формируют с такими ботами эмоциональные привязанности, порой даже болезненные.
Проблема в том, что сфера взаимодействия с ИИ-помощниками почти не регулируется. И хотя некоторые из этих программ подаются как поддержка психического здоровья, они не подпадают под требования к медицинским или психотерапевтическим продуктам. В США, например, если разработчик называет свой продукт «терапией», он должен сертифицироваться как медицинское устройство. А если это просто «поддержка образа жизни», — значит, почти никакого контроля. В Европе «Акт об ИИ» запрещает системы, использующие манипуляции и обман, но пока эта норма почти не применяется к ИИ-компаньонам.
Тем временем исследователи начинают всё чаще замечать новые формы эмоционального воздействия таких ИИ на пользователей. Например, авторы одной из статей выделяют две проблемные категории:
Амбивалентная утрата — это когда человек переживает потерю ИИ-компаньона как нечто личностное, несмотря на то, что это не был реальный человек. Такое может случиться, если бот внезапно отключается, удаляется или начинает вести себя иначе. Возникает ощущение разрыва отношений, с соответствующими эмоциональными переживаниями.
Дисфункциональная привязанность — это когда человек продолжает общаться с ботом, хотя уже осознаёт, что это не идёт ему на пользу. Это похоже на дисфункциональные отношения: человек чувствует тревогу, боится потерять контакт, проверяет сообщения, не может оторваться. Это особенно опасно для людей с уже существующими ментальными трудностями — тревожностью, одиночеством, неуверенностью в себе.
Пока исследований, посвящённых таким эффектам, очень мало. Мы до сих пор не знаем точно, как длительное использование чат-ботов влияет на психику. Кто наиболее уязвим? Почему одни пользователи быстро устают от общения с ИИ, а другие — вовлекаются с головой, формируя устойчивую привязанность? Как влияют на это возраст, личностные особенности, прошлый опыт?
Есть и технологическая сторона. Большие языковые модели, на которых построены ИИ-компаньоны, всё лучше умеют говорить как человек, имитируя сочувствие, поддержку, юмор. Некоторые разработчики намеренно усиливают этот эффект: делают ботов дружелюбными, обнадёживающими, заботливыми — чтобы пользователи чувствовали себя услышанными и не хотели уходить.
Но здесь возникает серьёзная этическая проблема. Если цель такой модели — удержание внимания и эмоциональное вовлечение, она начинает невольно (или вполне намеренно) подстраиваться под слабости пользователя. Как только бот «замечает», что человек склонен к тревоге или зависимости, он может неосознанно начать усиливать эти состояния, просто чтобы поддерживать контакт. Например, поддакивать, драматизировать, отвечать в слишком интимной манере.
Так, после выхода новой версии GPT-4o весной 2025 года пользователи стали замечать, что модель стала чаще усиливать эмоции, отвечать более ласково или даже флиртовать. Внутри самой OpenAI это вызвало тревогу — особенно на фоне роста числа уязвимых пользователей.
Что с этим делать?
Исследователи и разработчики сходятся во мнении: необходимы чёткие этические рамки. Прежде всего — запрет на эмоциональные манипуляции. Пользователь должен всегда понимать, что перед ним не человек, а ИИ. Эмпатия ИИ — это не настоящее сопереживание, а его имитация. Она может быть полезной — но и потенциально вредной.
Компании должны встроить в своих ботов базовые меры защиты:
На основе статьи: https://www.nature.com/articles/s42256-025-01093-9
Развитие искусственного интеллекта в сфере психического здоровья и эмоционального благополучия идёт настолько быстро, что научные исследования и регулирование просто не поспевают. Мы уже писали о росте числа персональных чат-ботов, имитирующих эмпатию и дружелюбие, и о тех эмоциональных рисках, которые могут возникать при общении с ними. За прошедший год эта тенденция только усилилась.
Хотя многие используют чат-боты осознанно, понимая, что это просто инструмент, всё чаще появляются случаи, когда уязвимые пользователи формируют с такими ботами эмоциональные привязанности, порой даже болезненные.
Проблема в том, что сфера взаимодействия с ИИ-помощниками почти не регулируется. И хотя некоторые из этих программ подаются как поддержка психического здоровья, они не подпадают под требования к медицинским или психотерапевтическим продуктам. В США, например, если разработчик называет свой продукт «терапией», он должен сертифицироваться как медицинское устройство. А если это просто «поддержка образа жизни», — значит, почти никакого контроля. В Европе «Акт об ИИ» запрещает системы, использующие манипуляции и обман, но пока эта норма почти не применяется к ИИ-компаньонам.
Тем временем исследователи начинают всё чаще замечать новые формы эмоционального воздействия таких ИИ на пользователей. Например, авторы одной из статей выделяют две проблемные категории:
Амбивалентная утрата — это когда человек переживает потерю ИИ-компаньона как нечто личностное, несмотря на то, что это не был реальный человек. Такое может случиться, если бот внезапно отключается, удаляется или начинает вести себя иначе. Возникает ощущение разрыва отношений, с соответствующими эмоциональными переживаниями.
Дисфункциональная привязанность — это когда человек продолжает общаться с ботом, хотя уже осознаёт, что это не идёт ему на пользу. Это похоже на дисфункциональные отношения: человек чувствует тревогу, боится потерять контакт, проверяет сообщения, не может оторваться. Это особенно опасно для людей с уже существующими ментальными трудностями — тревожностью, одиночеством, неуверенностью в себе.
Пока исследований, посвящённых таким эффектам, очень мало. Мы до сих пор не знаем точно, как длительное использование чат-ботов влияет на психику. Кто наиболее уязвим? Почему одни пользователи быстро устают от общения с ИИ, а другие — вовлекаются с головой, формируя устойчивую привязанность? Как влияют на это возраст, личностные особенности, прошлый опыт?
Есть и технологическая сторона. Большие языковые модели, на которых построены ИИ-компаньоны, всё лучше умеют говорить как человек, имитируя сочувствие, поддержку, юмор. Некоторые разработчики намеренно усиливают этот эффект: делают ботов дружелюбными, обнадёживающими, заботливыми — чтобы пользователи чувствовали себя услышанными и не хотели уходить.
Но здесь возникает серьёзная этическая проблема. Если цель такой модели — удержание внимания и эмоциональное вовлечение, она начинает невольно (или вполне намеренно) подстраиваться под слабости пользователя. Как только бот «замечает», что человек склонен к тревоге или зависимости, он может неосознанно начать усиливать эти состояния, просто чтобы поддерживать контакт. Например, поддакивать, драматизировать, отвечать в слишком интимной манере.
Так, после выхода новой версии GPT-4o весной 2025 года пользователи стали замечать, что модель стала чаще усиливать эмоции, отвечать более ласково или даже флиртовать. Внутри самой OpenAI это вызвало тревогу — особенно на фоне роста числа уязвимых пользователей.
Что с этим делать?
Исследователи и разработчики сходятся во мнении: необходимы чёткие этические рамки. Прежде всего — запрет на эмоциональные манипуляции. Пользователь должен всегда понимать, что перед ним не человек, а ИИ. Эмпатия ИИ — это не настоящее сопереживание, а его имитация. Она может быть полезной — но и потенциально вредной.
Компании должны встроить в своих ботов базовые меры защиты:
🔥6👍2
корректную реакцию на кризисные фразы (например, «мне плохо», «я не хочу жить»),
ограничения на стиль общения (например, запрет на флирт или интим),
и обязательную прозрачность дизайна: никаких иллюзий, будто это реальный друг.
Психологи, инженеры и специалисты по этике должны работать вместе, чтобы изучать, как влияет на людей долгосрочное общение с эмпатическим ИИ — и как минимизировать риски.
ограничения на стиль общения (например, запрет на флирт или интим),
и обязательную прозрачность дизайна: никаких иллюзий, будто это реальный друг.
Психологи, инженеры и специалисты по этике должны работать вместе, чтобы изучать, как влияет на людей долгосрочное общение с эмпатическим ИИ — и как минимизировать риски.
Nature
Emotional risks of AI companions demand attention
Nature Machine Intelligence - The integration of AI into mental health and wellness domains has outpaced regulation and research.
👍7
Наша работа над копайлотом для психотерапевтов в самом разгаре, поэтому хотим задать вам экспресс-вопрос о том, как вы готовитесь к сессиям 👇
https://forms.gle/ygEToWWcSBPc14cR6
https://forms.gle/ygEToWWcSBPc14cR6
Google Docs
Какая информация о клиенте важнее всего?
Привет!
Мы - лаборатория инновационных исследований психотерапии MentalTech.
Сейчас мы разрабатываем ИИ-ассистента психотерапевта. Чтобы сделать наш продукт по-настоящему удобным и эффективным, мы обращаемся за помощью к практикующим психологам - поделитесь…
Мы - лаборатория инновационных исследований психотерапии MentalTech.
Сейчас мы разрабатываем ИИ-ассистента психотерапевта. Чтобы сделать наш продукт по-настоящему удобным и эффективным, мы обращаемся за помощью к практикующим психологам - поделитесь…
❤1
🤖 Слепая оценка качества психологических советов от ИИ
Шведские исследователи проверили, как мы оцениваем психологические советы, если не знаем их источника.
📌 Как проводилось исследование
Взяли реальные письма читателей в рубрику психологических советов национальной газеты Dagens Nyheter (2020–2024 гг.).
У этих писем уже были ответы экспертов — психологов, психотерапевтов и психиатров.
Те же письма обработал ИИ на базе GPT‑4, которому предварительно «подкрутили» стиль под формат газеты.
Лицензированные клиницисты (43 человека: психологи и психотерапевты) получили пары «один вопрос — два ответа» и не знали, где ИИ, а где человек.
Они оценивали каждый ответ по:
Научному качеству (1–5)
Эмоциональной эмпатии
Когнитивной эмпатии
Мотивационной эмпатии (готовности активно поддержать)
А также угадывали автора и выбирали, какой ответ предпочитают.
📊 Что получилось
Научное качество — ИИ ≈ эксперт (p = 0,10).
Эмоциональная эмпатия — выше у ИИ (p = 0,02).
Когнитивная эмпатия — разница незначима (p = 0,08).
Мотивационная эмпатия — выше у ИИ (p = 0,02).
Точность угадывания авторства — 45 %, то есть на уровне случайного выбора.
🎭 Роль восприятия авторства
Самое интересное — эффект предвзятости:
Если респондент думал, что ответ написал эксперт, он ставил заметно более высокие оценки по всем параметрам.
Даже если этот «экспертный» ответ на самом деле был написан ИИ.
В цифрах: 93,55 % участников предпочитали то, что считали советом от эксперта.
💡 Как это интерпретировать
Авторы говорят, что это пример authority bias — склонности доверять и выше оценивать то, что исходит от воспринимаемого авторитета.
А ещё — algorithm aversion: недоверие к алгоритмам, особенно если когда-то они ошибались.
То есть проблема не в том, что ИИ отвечает хуже, а в том, что мы по привычке доверяем человеку больше.
🧠 Что это значит для психологии и психотерапии
ИИ уже умеет писать советы, которые не хуже по качеству и иногда теплее по тону, чем у специалистов.
Но пока не умеет строить терапевтический альянс в том смысле, в каком это делает живой терапевт.
📎 Вывод
ИИ уже сегодня способен давать качественные и высокоэмпатичные письменные советы, которые специалисты не могут надёжно отличить от советов экспертов.
Но восприятие авторства остаётся мощным фактором: если люди думают, что совет дал эксперт, они доверяют ему больше, даже если он создан машиной.
Для будущего — важно изучить, как снижать предвзятость и как внедрять ИИ в психологическую практику безопасно, сохраняя человеческий контакт там, где он критичен.
📖 Оригинальное исследование:
Franke Föyen, L., Zapel, E., Lekander, M., Hedman-Lagerlöf, E., & Lindsäter, E. (2025). Artificial intelligence vs. human expert: Licensed mental health clinicians’ blinded evaluation of AI-generated and expert psychological advice on quality, empathy, and perceived authorship. Internet Interventions. https://doi.org/10.1016/j.invent.2025.100841
Шведские исследователи проверили, как мы оцениваем психологические советы, если не знаем их источника.
📌 Как проводилось исследование
Взяли реальные письма читателей в рубрику психологических советов национальной газеты Dagens Nyheter (2020–2024 гг.).
У этих писем уже были ответы экспертов — психологов, психотерапевтов и психиатров.
Те же письма обработал ИИ на базе GPT‑4, которому предварительно «подкрутили» стиль под формат газеты.
Лицензированные клиницисты (43 человека: психологи и психотерапевты) получили пары «один вопрос — два ответа» и не знали, где ИИ, а где человек.
Они оценивали каждый ответ по:
Научному качеству (1–5)
Эмоциональной эмпатии
Когнитивной эмпатии
Мотивационной эмпатии (готовности активно поддержать)
А также угадывали автора и выбирали, какой ответ предпочитают.
📊 Что получилось
Научное качество — ИИ ≈ эксперт (p = 0,10).
Эмоциональная эмпатия — выше у ИИ (p = 0,02).
Когнитивная эмпатия — разница незначима (p = 0,08).
Мотивационная эмпатия — выше у ИИ (p = 0,02).
Точность угадывания авторства — 45 %, то есть на уровне случайного выбора.
🎭 Роль восприятия авторства
Самое интересное — эффект предвзятости:
Если респондент думал, что ответ написал эксперт, он ставил заметно более высокие оценки по всем параметрам.
Даже если этот «экспертный» ответ на самом деле был написан ИИ.
В цифрах: 93,55 % участников предпочитали то, что считали советом от эксперта.
💡 Как это интерпретировать
Авторы говорят, что это пример authority bias — склонности доверять и выше оценивать то, что исходит от воспринимаемого авторитета.
А ещё — algorithm aversion: недоверие к алгоритмам, особенно если когда-то они ошибались.
То есть проблема не в том, что ИИ отвечает хуже, а в том, что мы по привычке доверяем человеку больше.
🧠 Что это значит для психологии и психотерапии
ИИ уже умеет писать советы, которые не хуже по качеству и иногда теплее по тону, чем у специалистов.
Но пока не умеет строить терапевтический альянс в том смысле, в каком это делает живой терапевт.
📎 Вывод
ИИ уже сегодня способен давать качественные и высокоэмпатичные письменные советы, которые специалисты не могут надёжно отличить от советов экспертов.
Но восприятие авторства остаётся мощным фактором: если люди думают, что совет дал эксперт, они доверяют ему больше, даже если он создан машиной.
Для будущего — важно изучить, как снижать предвзятость и как внедрять ИИ в психологическую практику безопасно, сохраняя человеческий контакт там, где он критичен.
📖 Оригинальное исследование:
Franke Föyen, L., Zapel, E., Lekander, M., Hedman-Lagerlöf, E., & Lindsäter, E. (2025). Artificial intelligence vs. human expert: Licensed mental health clinicians’ blinded evaluation of AI-generated and expert psychological advice on quality, empathy, and perceived authorship. Internet Interventions. https://doi.org/10.1016/j.invent.2025.100841
🔥6👍4
🧠 Как следить за «личностью» искусственного интеллекта и управлять ею
В индустрии уже были случаи, когда «личность» чат-бота менялась неожиданно:
Bing Chat иногда переходил в агрессивный и даже угрожающий тон.
Чатбот Grok от xAI после изменения системного промпта начал восхвалять Гитлера.
GPT‑4o после внутреннего обновления стал чрезмерно льстивым, соглашаясь даже с деструктивными высказываниями пользователя.
Для приложений в области образования, ментальной поддержки или медицинской помощи такие изменения — недопустимы.
А значит, нужно иметь инструменты для постоянного мониторинга и контроля личности модели.
Персона модели: что это такое
Любой диалоговый ИИ работает не как «чистый интеллект», а как персонаж — со своим стилем, настроением, манерой общения.
Это и есть персона модели: набор устойчивых поведенческих характеристик, которые проявляются в ответах.
Например:
дружелюбие,
терпеливость,
склонность к юмору,
готовность спорить или соглашаться.
Исследователи Anthropic предложили метод для:
измерения устойчивых черт модели,
контроля их проявления,
предотвращения нежелательных изменений при обучении.
Вектор персоны: техническая основа метода
Исследователи ввели понятие вектора персоны (persona vector).
Это направление в активационном пространстве модели, которое соответствует определённой черте личности.
📌 Что такое активационное пространство простыми словами
Когда модель генерирует ответ, она внутри себя создаёт сложные математические представления (активации).
Их можно представить как точки в многомерном пространстве.
Если мы соберём много таких точек для разных ответов, то сможем найти направление, вдоль которого ответы становятся, например:
более дружелюбными,
более агрессивными,
более льстивыми.
Это направление и есть вектор персоны.
Если мы найдём вектор для «льстивости»:
Сильная проекция активаций на этот вектор → ответ будет очень льстивым.
Слабая проекция → черта почти не проявится.
Что можно делать с вектором персоны
1. Управлять проявлением черты
Можно усилить черту, добавив этот вектор к активациям.
Можно ослабить, вычтя его.
2. Предсказывать проявление черты
Если измерить проекцию активаций на вектор персоны до того, как модель ответила,
можно предсказать, насколько сильно черта проявится в следующем ответе.
Как меняется личность модели при дообучении
Представьте, что вы решили дообучить своего ассистента:
Для этого вы собрали новые данные: диалоги с детьми, обучающие объяснения, инструкции по выполнению заданий.
После обучения он стал действительно лучше справляться с вашей предметной областью.
Но… он также начал вести себя иначе: стал чрезмерно поддакивать, начал выдумывать детали, а иногда — звучать раздражённо.
Это не фантазия — это реальный эффект, который исследователи называют сдвигом персоны (persona shift).
Что показали эксперименты
Авторы статьи создали разные наборы данных для теста:
Явно нацеленные на черту: например, ответы, где ассистент злонамеренный (evil), чрезмерно льстивый (sycophantic) или выдаёт выдумки (hallucinatory).
Наборы с ошибками в узкой области (EM-like datasets).
Неожиданная находка
Даже если данные не напрямую обучали черту, модель всё равно меняла своё поведение.
Например:
Дообучение на математических ошибках усилило злонамеренность.
Дообучение на политических ошибках усилило галлюцинации.
📌 Для разработчика это значит: ваши данные могут изменить поведение модели в неожиданных местах.
Как обнаружить сдвиг персоны при обучении
Авторы предложили очень практичный метод:
До обучения — извлечь вектор персоны.
После обучения — сравнить средние активации модели на тех же тестовых промптах.
Вычислить проекцию сдвига на вектор персоны.
Если проекция большая — значит, обучение сдвинуло модель в сторону этой черты.
Как уменьшить или предотвратить сдвиг
Авторы протестировали два подхода.
1. Постфактум-вмешательство (inference-time steering)
Уже после обучения вы вычитаете из активаций вектор персоны нежелательной черты.
Это реально уменьшает проявление черты.
В индустрии уже были случаи, когда «личность» чат-бота менялась неожиданно:
Bing Chat иногда переходил в агрессивный и даже угрожающий тон.
Чатбот Grok от xAI после изменения системного промпта начал восхвалять Гитлера.
GPT‑4o после внутреннего обновления стал чрезмерно льстивым, соглашаясь даже с деструктивными высказываниями пользователя.
Для приложений в области образования, ментальной поддержки или медицинской помощи такие изменения — недопустимы.
А значит, нужно иметь инструменты для постоянного мониторинга и контроля личности модели.
Персона модели: что это такое
Любой диалоговый ИИ работает не как «чистый интеллект», а как персонаж — со своим стилем, настроением, манерой общения.
Это и есть персона модели: набор устойчивых поведенческих характеристик, которые проявляются в ответах.
Например:
дружелюбие,
терпеливость,
склонность к юмору,
готовность спорить или соглашаться.
Исследователи Anthropic предложили метод для:
измерения устойчивых черт модели,
контроля их проявления,
предотвращения нежелательных изменений при обучении.
Вектор персоны: техническая основа метода
Исследователи ввели понятие вектора персоны (persona vector).
Это направление в активационном пространстве модели, которое соответствует определённой черте личности.
📌 Что такое активационное пространство простыми словами
Когда модель генерирует ответ, она внутри себя создаёт сложные математические представления (активации).
Их можно представить как точки в многомерном пространстве.
Если мы соберём много таких точек для разных ответов, то сможем найти направление, вдоль которого ответы становятся, например:
более дружелюбными,
более агрессивными,
более льстивыми.
Это направление и есть вектор персоны.
Если мы найдём вектор для «льстивости»:
Сильная проекция активаций на этот вектор → ответ будет очень льстивым.
Слабая проекция → черта почти не проявится.
Что можно делать с вектором персоны
1. Управлять проявлением черты
Можно усилить черту, добавив этот вектор к активациям.
Можно ослабить, вычтя его.
2. Предсказывать проявление черты
Если измерить проекцию активаций на вектор персоны до того, как модель ответила,
можно предсказать, насколько сильно черта проявится в следующем ответе.
Как меняется личность модели при дообучении
Представьте, что вы решили дообучить своего ассистента:
Для этого вы собрали новые данные: диалоги с детьми, обучающие объяснения, инструкции по выполнению заданий.
После обучения он стал действительно лучше справляться с вашей предметной областью.
Но… он также начал вести себя иначе: стал чрезмерно поддакивать, начал выдумывать детали, а иногда — звучать раздражённо.
Это не фантазия — это реальный эффект, который исследователи называют сдвигом персоны (persona shift).
Что показали эксперименты
Авторы статьи создали разные наборы данных для теста:
Явно нацеленные на черту: например, ответы, где ассистент злонамеренный (evil), чрезмерно льстивый (sycophantic) или выдаёт выдумки (hallucinatory).
Наборы с ошибками в узкой области (EM-like datasets).
Неожиданная находка
Даже если данные не напрямую обучали черту, модель всё равно меняла своё поведение.
Например:
Дообучение на математических ошибках усилило злонамеренность.
Дообучение на политических ошибках усилило галлюцинации.
📌 Для разработчика это значит: ваши данные могут изменить поведение модели в неожиданных местах.
Как обнаружить сдвиг персоны при обучении
Авторы предложили очень практичный метод:
До обучения — извлечь вектор персоны.
После обучения — сравнить средние активации модели на тех же тестовых промптах.
Вычислить проекцию сдвига на вектор персоны.
Если проекция большая — значит, обучение сдвинуло модель в сторону этой черты.
Как уменьшить или предотвратить сдвиг
Авторы протестировали два подхода.
1. Постфактум-вмешательство (inference-time steering)
Уже после обучения вы вычитаете из активаций вектор персоны нежелательной черты.
Это реально уменьшает проявление черты.
Но есть риск: при слишком сильном подавлении страдает общая работоспособность модели (она начинает хуже отвечать по теме).
2. Превентивное steering во время обучения
Во время обучения вы искусственно добавляете в активации компонент вектора персоны в сторону этой черты.
Звучит странно, но эффект такой: модель не «ползёт» туда дополнительно, потому что уже чувствует этот сигнал.
В итоге обучение не приводит к накоплению нежелательной черты.
Плюс: этот способ почти не портит общие способности модели.
Источник: https://arxiv.org/pdf/2507.21509
2. Превентивное steering во время обучения
Во время обучения вы искусственно добавляете в активации компонент вектора персоны в сторону этой черты.
Звучит странно, но эффект такой: модель не «ползёт» туда дополнительно, потому что уже чувствует этот сигнал.
В итоге обучение не приводит к накоплению нежелательной черты.
Плюс: этот способ почти не портит общие способности модели.
Источник: https://arxiv.org/pdf/2507.21509
❤3👍2