MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
Исследование, в котором обнаружено, что наиболее популярные мобильные приложения для психического здоровья некорректно использовали диагностические инструменты - “предоставляли пользователям предлагаемый диагноз депрессии в контексте краткосрочных легких депрессивных симптомов, которые не соответствуют критериям DSM-V для большого депрессивного расстройства (БДР)”.

Самое милое тут вот что: 4 из 12 топ-приложений “после постановки предполагаемого диагноза депрессии затем предложили ссылки на коммерческие веб-терапевтические услуги, которые в некоторых случаях финансировали само приложение или возмещали приложению расходы на успешные рекомендации”.
Наш любимый поддерживающий цикл, короче.

Удивительного тут ничего нет - деньги, как микробы, они везде (с). А интересное есть и кажется вот что интересным:
В психотерапии, как наверное нигде, реклама очень легко смешивается с психопросвещением - одно постоянно переходит в другое и одно выдается за другое. Что мы и наблюдаем постоянно

#кбт_цифрового_поколения
#диагностическая_инфляция
😢2💯1
НАКОНЕЦ-ТО!

Внимание привлекли, а теперь к сути: посчитали и описали результаты нашего исследования адаптации искусственного интеллекта в сообществе российских и русскоговорящих психотерапевтов (выполнено при поддержке Alter)

https://drive.google.com/file/d/1J-APUaSVuhQRJNTvj1S9LSdcr8Vks7S9/view?usp=sharing

Налетай, не скупись, лайкай и репость! :)
17🔥7👍1
Альтер-эго и откровенность: как «принятие перспективы» усиливает глубину и объём самораскрытия в разговоре с ИИ-чатботом о психическом благополучии

Многие пользователи терапевтических ботов не решаются ему открываться — мешают уязвимость, скепсис и тревоги о приватности. Авторы исследования выдвигают идею: а что если помочь людям говорить «не совсем от себя», а с чужой позиции — через приём «принятие перспективы» (perspective-taking)?

Выборка: 96 студентов Университета Флориды (преимущественно STEM-направления). Участники случайно распределялись по двум условиям:
— Perspective-Taking (PT): говорить от лица выбранного «значимого другого» (друг, родитель, наставник и т. п.);
— Control: говорить от своего лица.
Frontiers

Две фазы работы:

Фаза принятия перспективы. Участники не выдумывали абстрактного персонажа — они выбирали реального человека из своей жизни и конструировали персону через «карту эмпатии» (empathy mapping): демография, черты личности, ценности, цели, «боли» благополучия, краткие описания повседневности.

Рефлексивный разговор с чатботом — серия фиксированных открытых вопросов (их девять), выстроенных на принципах мотивационного интервьюирования (выявление барьеров/ценностей/успехов/вариантов) → планирование (варианты изменений и первый шаг). Между вопросами бот выдаёт динамические эмпатические реплики (на основе стратегий MI), чтобы участники чувствовали «слышимость» и продолжали раскрываться.

Что получилось:
1) Принятие перспективы увеличило объём и глубину раскрытий

Участники писали больше слов и раскрывались глубже по двум ключевым осям:
— Мысли: значимо выше «depth» по мыслям;
— Общая глубина: суммарный индекс тоже выше.
К тому же в PT чаще встречались самые глубокие раскрытия в категориях мысли и информация. При этом эмоций («чувства») глубже не стало — этот канал практически «молчал».

Важная деталь про эмоции: примерно 96% ответов в обеих группах вообще не содержали эмоциональных раскрытий (уровень чувств = 1). Почему? Девять пунктов по сути просили описывать опыт и мнения/цели — то есть «инфо + когницию», а не аффект. Эмоции фиксировались скорее в закрытых пунктах опроса (и потому не вошли в анализ открытых ответов). Авторы подчёркивают: перспектива может усиливать когнитивное самораскрытие, но аффективное — не обязательно; это отдельная повестка для будущих исследований.

Бонус-наблюдение об «абстрактности»: несмотря на дистанцию, абстрактность языка не выросла, речь не превратилась в пустые общие места; глубина была именно содержательной.

2) Готовность и намерения ↑ у всех (но не «лучше» с перспективой)

И PT, и контроль показали рост готовности после разговора — главный эффект времени без различий между условиями. Намерения тоже подросли у обеих групп, однако по общему уровню намерений контроль оказался выше PT (главный эффект условия). В динамике «время × условие» различий по готовности не обнаружено. Вывод: сам факт структурированного рефлексивного разговора с эмпатической рамкой MI повышает готовность, а перспектива — не «надбавка», а альтернативная рамка раскрытий.

3) Отношения к ИИ-чатботам: больше скепсиса в PT и слабее прирост готовности к взаимодействию

Скепсис/риски: в PT выше скепсис к самому вмешательству.

Готовность взаимодействовать с ИИ-чатботами: растёт у всех, но после сессии контроль готов взаимодействовать больше, чем PT. Возможное объяснение: говорить «от другого» воспринимается как менее «аутентично» и когнитивно более требовательно — это снижает «тёплое» принятие инструмента.

Почему реальный «другой», а не выдуманный персонаж

Чтобы не скатываться в формальность, участники PT выбирали близкого, реального человека: так проще сопоставлять факты и контекст и не уходить в чрезмерную абстракцию. Перед разговором чатбот проводил «разогрев» — мок-сценарии от первого лица «другого», чтобы закрепить нужный голос.

Почему мотивационное интервьюирование
1
Авторы не давали чатботу много свободы: девять фиксированных вопросов обеспечивают сопоставимость по объёму/типу ответов. Но между ними бот выдаёт динамические эмпатические реплики (LLM), и набор стратегий эмпатии жёстко привязан к типу предыдущего раскрытия (поддержка, рефрейминг, нормализация, подчеркивание автономии и т. п.). Это даёт и контроль, и живость.

Что это значит для практики

Переключатель рамки как средство снять «страх сцены».
Если человеку тяжело «говорить за себя», можно временно предложить говорить «за другого», сохраняя при этом полезную когнитивную глубину — опыт, мысли, ценности, планы. Это снижает эмоциональную стоимость входа и не выхолащивает содержание.

Когниция усиливается — аффект требует отдельной работы.
Если цель — планы, барьеры, смыслы, ценности, перспектива помогает. Если цель — проживание эмоций, одной перспективы мало: нужны иные приёмы, напрямую запрашивающие аффект.

Не забывать про «аутентичность».
Да, перспектива развивает глубину, но может охладить отношение к самому формату ИИ-чатбота. Дизайн-рекомендация:
— предлагать режим PT как опцию,
— чётко возвращать человека к своему голосу в конце,
— подсветить, как «чужая» рамка помогла сформулировать свой первый шаг.

Приватность как побочный плюс.
Перспектива позволяет меньше делиться чувствительной «про себя» информацией, сохраняя пользу рефлексии — ценно там, где доверие к ИИ пока хрупкое.

Источник: https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1655860/full
1
Forwarded from ПСИХИЧКИ ЗА 30
Новый выпуск про интеграцию технологий в психотерапию с Марией Даниной уже доступен на всех платформах!*

Получился очень живой разговор о технологиях, неожиданных результатах исследований, повседневном применении разных продуктов в жизни. Безумно рады принимать в гостях основательницу платформы, на которой мы с Асей учились!! 💖
Конечно же обсудили профессиональный путь Марии до Психодемии и после!

Канал Geek Psychologist
Лаборатория инновационных исследований психотерапии

НАС МОЖНО СЛУШАТЬ ПРЯМО В ТЕЛЕГРАМ
ЕДИНАЯ ССЫЛКА НА ВСЕ ПОДКАСТ-ПЛАТФОРМЫ

Партнер эпизода — психологический центр Good Point

Присоединиться к лагерю для тех, кто хочет верить в себя: https://good-point.ru/belief_in_yourself

С 29 сентября по 3 октября вы вместе с психологами центра будете исследовать тему уверенности в себе и провалов в закрытом телеграм-канале. Доступ к практикам и записям встреч останется у вас навсегда.
Промокод «ПСИХИЧКИ» даст 10% скидку на лагерь и другие продукты центра.

Реклама. ИП Якупова Вера Анатольевна. ИНН 772608271675. 
Erid: 2W5zFGp4eTa

Канал Маши
Сайт Аси
*на яндекс.музыке ждем чуть позже, как обычно 😭
3
🧠 Машинное обучение и психотерапия: как предсказывать исход «сессия за сессией»

Представь себе: каждый терапевт имеет алгоритм, который заранее подсказывает, как пациент будет меняться из сессии в сессию. И может вовремя скорректировать курс, если что-то идёт не так.

В Psychiatry Research (2025) опубликовали исследование, в котором проверили, как многоуровневые модели и алгоритмы машинного обучения можно объединить для более точных прогнозов в психотерапии.

🔍 Зачем это нужно?

В психотерапии уже давно ищут способы заранее понимать динамику и траекторию изменений.

Раннее предсказание неблагоприятных траекторий — шанс вмешаться вовремя, предотвратить обострение или досрочный уход из терапии.

Классические модели роста и даже продвинутые «двухшаговые подходы» (сначала посчитать кривые изменений, потом предсказывать их по исходным данным) имеют ограничения: смещение оценок, потеря мощности, упрощение данных.

🛠 Что сделали авторы?

Взяли 1008 пациентов, проходивших КПТ в университетской амбулаторной клинике в Германии (2015–2019).

Пациентов лечили 128 терапевтов; средняя длительность терапии — 31,5 сессии.

На вход алгоритм получал 22 исходных переменных: от возраста, пола и занятости до тяжести депрессии (PHQ-9), тревожности (GAD-7), дисфункциональных установок, самоэффективности, регуляции эмоций и межличностных проблем.

В качестве основной метрики брали HSCL-11 (оценка симптомов перед каждой из первых десяти сессий). Для проверки результата использовали OQ-30 (общий дистресс) к 15-й сессии.

Ключевая новинка — применение GLMM-деревьев (Generalized Linear Mixed-Effects Model trees). Это метод, который объединяет силу многоуровневых моделей (учёт повторных измерений) и деревьев решений (поиск подгрупп пациентов).

📊 Что получилось?

Алгоритм выявил 10 подгрупп пациентов, различавшихся по исходным данным и траекториям изменений.

Например, пациенты с высокой исходной симптоматикой и низкой самоэффективностью снижали симптомы медленнее.

А пациенты со средними симптомами и высокой самоэффективностью демонстрировали быстрое улучшение.

В тестовой выборке GLMM-дерево дало корреляцию 0,65 между предсказанными и наблюдаемыми значениями и R² = 0,42 (объяснённая вариация).

Для сравнения:

стандартная модель роста — R² = 0,21,

трёхшаговый подход — R² = 0,34.

При прогнозировании пациентов, которые не достигли достоверного улучшения по OQ-30 за 15 сессий, модель правильно идентифицировала 67,6 % случаев (чувствительность 0,71, специфичность 0,65).

💡 Зачем это практикующему терапевту?

Ранние сигналы риска. Уже после нескольких сессий можно понять, если пациент «вне траектории» — и вовремя вмешаться.
Поддержка решений. Алгоритм может подсказать, когда стоит менять стратегию, усиливать терапию или подключать дополнительные методы.
Это шаг к персонализированному лечению, где прогнозы строятся не по усреднённым данным, а по конкретному профилю пациента.

⚠️ Ограничения

Данные из одной клиники в Германии → нужна проверка в других странах и контекстах.

Прогноз ограничен первыми десятью сессиями → важно изучить более длинные траектории.

Использовались только самоотчёты → стоит добавить клинические оценки и, возможно, биомаркеры.

Хотя модель точнее старых подходов, R² = 0,42 оставляет простор для улучшения.

📌 Итог

GLMM-деревья показали себя как мощный инструмент для прогнозов в психотерапии: точнее, чем классические модели, и более гибко, чем двухшаговые схемы. Это первый шаг к рутинному внедрению «умных» прогнозов в практику.

Для терапевтов это может означать: меньше догадок, больше данных. А для пациентов — больше шансов, что терапия пойдёт именно тем путём, который нужен именно им.

🔗 Оригинальная статья:
https://doi.org/10.1016/j.psychres.2025.115058
5👍4🔥2
ИИ в подборе психотерапевтов

Менее половины людей с психическими расстройствами получают терапию в течение года. Даже когда удаётся найти специалиста, велика вероятность «несовпадения» — до 40% клиентов не доходят до первой сессии или преждевременно прекращают лечение.

На этом фоне возникает вопрос: как помочь людям быстрее находить «своего» терапевта и при этом снижать стоимость лечения? Ответ частично дают алгоритмы машинного обучения.

Как работает подбор через ИИ

Американская программа психического здоровья на рабочем месте (Workforce Mental Health Program, WMHP) протестировала два алгоритма подбора «клиент–терапевт»:

Pragmatic — учитывал логистику:
совпадение запросов клиента и специализации терапевта,
доступность по времени,
расстояние до офиса (или онлайн-формат).

Value-based — включал всё вышеперечисленное и дополнялся ключевой метрикой: историческая эффективность терапевта.
Алгоритм анализировал данные о прошлых результатах лечения, его длительности и стоимости. Так формировалась «оценка ценностной помощи» — насколько быстро и экономично конкретный специалист помогает клиентам достигать улучшений.

Важно, что решение о выборе оставалось за клиентом: алгоритм предлагал список специалистов, а клиент сам выбирал, к кому записаться.

Что показало исследование

В исследовании приняли участие более 4 тысяч человек с клинически выраженной тревогой или депрессией. Их разделили на группы в зависимости от алгоритма подбора.

Результаты:

Уровень клинического улучшения был почти одинаковым:

Pragmatic — 71,7%,

Value-based — 70,0%.

При этом стоимость лечения в группе Value-based оказалась на 20% ниже. Количество сеансов сократилось в среднем на 2 встречи.
Проще говоря, пациенты выздоравливали так же эффективно, но быстрее и дешевле.

Почему это важно

Для системы здравоохранения и работодателей снижение затрат критично. Расходы на медицинскую помощь и страховку в США за последние годы выросли на десятки процентов. При этом психические расстройства напрямую отражаются на экономике — через выплаты, больничные, снижение продуктивности.

Value-based алгоритм показал, что можно одновременно:

сохранить качество терапии,
снизить её стоимость,
ускорить доступ к специалистам за счёт уменьшения нагрузки на терапевтов.

Ограничения и вызовы

Исследование имеет сильные стороны: большую выборку, использование measurement-based care (регулярное измерение симптомов) и разнообразие участников (41–46% представляли этнические меньшинства).

Но есть и ограничения:

Алгоритм протестирован в рамках одной сети, где все терапевты применяли доказательные методы. В реальной практике, где качество сильно варьируется, результат может отличаться.

Не учитывались такие факторы, как терапевтический альянс, личные предпочтения клиента, культурный бэкграунд терапевта.

Пока нет данных о долгосрочной устойчивости улучшений.

Вывод

Алгоритмы машинного обучения могут сыграть ключевую роль в будущем психотерапии. Они помогают клиентам быстрее находить эффективных специалистов, а системе здравоохранения — экономить ресурсы.

Но внедрение таких решений требует аккуратности: важно не только снижать затраты, но и учитывать субъективное качество контакта «клиент–терапевт».

Тем не менее, исследование показывает: ИИ способен стать настоящим помощником в организации психиатрической помощи — более персонализированной, эффективной и доступной.

Источник:
https://www.sciencedirect.com/science/article/pii/S1098301525024052
🔥4
Цифровые двойники в ментальном здоровье

Слияние искусственного интеллекта (ИИ) и здравоохранения стало катализатором появления цифровых двойников — виртуальных реплик биологических систем, способных отражать физиологические состояния, прогнозировать траектории здоровья и направлять клинические решения.

Хотя цифровые двойники получили значительное развитие в области прецизионной медицины и биомедицинской инженерии, их применение в основном оставалось ограниченным физиологическим моделированием.
Психическое здоровье, несмотря на его внутреннюю связь с физиологическим благополучием, до сих пор не было систематически интегрировано в эту парадигму.

Новая работа представляет концепцию Когнитивно-Физиологических Цифровых Двойников (Cognitive-Physiological Digital Twins, CPDT) — ИИ-управляемую рамочную систему, объединяющую динамику психического здоровья с традиционной клинической медициной.

Неструктурированные психологические данные собираются через взаимодействие с пациентом:
ответы на таргетированные самоотчётные опросники,
распознавание эмоций по лицу,
и голосовой аффективный анализ.

Совместно эти модальности позволяют создать целостную карту физиологических и когнитивно-эмоциональных состояний индивида.

Физиологические и поведенческие данные

Кроме того, CPDT использует непрерывный мониторинг с носимых устройств, фиксирующих такие биометрические сигналы, как вариабельность сердечного ритма, циклы сна, уровень кислорода в крови и паттерны физической активности.
Эти показатели не только отражают физическое здоровье, но и служат прокси-маркерами психического состояния, учитывая сильную двустороннюю связь между физиологией и ментальными процессами.

Объединяя эти мультимодальные потоки данных, цифровой двойник становится живым представлением пациента, способным динамически симулировать сценарии здоровья в различных клинических и психологических условиях.

Примеры:

Цифровые двойники психического здоровья (Mental Health Digital Twins, MHDTs) находятся на стадии становления.
В журнале Frontiers in Psychiatry Spitzer и соавт. предложили концептуальные модели Digital Twins for Precision Mental Health — цифровые двойники, которые непрерывно обновляют ментальные состояния для персонализированной диагностики и симуляции лечения.

Компания Ontrak Health разработала коммерческий Mental Health Digital Twin, объединяющий клинические, биометрические и поведенческие данные для прогностических вмешательств в области психического здоровья.

Источник: Cognitive-Physiological Digital Twins: An AI Framework for Integrating Mental Health and Clinical Medicine — TechRxiv
3
Друзья! Мы тут подумали (иногда случается такое!) и решили организовать регулярные воркшопы и встречи с экспертами по нашей теме: технологии в психотерапии и ментальном благополучии. Планируем звать гостей, у которых есть разнообразный и классный опыт разработки решений или собственные юзкейсы. Ну и, разумеется, с жадностью их об этом будем расспрашивать.

ПОЭТОМУ! Если у вас есть рекомендации или персоналии, которых хотелось бы видеть на таких встречах - напишите! @magda_danina
🔥109
💬 Когда ИИ-психотерапию можно считать равной человеческой: где проходит настоящая граница

Сегодня всё чаще можно услышать заявления: искусственный интеллект уже способен проводить психотерапию не хуже живого специалиста.
Утверждение звучит впечатляюще, особенно на фоне свежих научных данных: рандомизированные исследования показывают заметное снижение симптомов депрессии после общения с чат-ботами.
Одно из них, опубликованное в NEJM AI в 2025 году, зафиксировало значимый эффект. И многие СМИ, а иногда и сами исследователи, восприняли это как сигнал: «ИИ-терапия достигла уровня человека».
Но если присмотреться внимательнее, становится ясно: совпадение цифр в статистике ещё не означает настоящего равенства. Эффект на уровне симптомов — лишь вершина айсберга.


Подлинная психотерапия — это не просто изменение показателей тревожности или депрессии, а целостный процесс, в котором соединяются теория, отношения, динамика, личностный рост и этика ответственности. И вот по этим-то критериям ИИ-подход пока далёк от человеческого.
🧩 Эффективность — не эквивалентность
Автор статьи, психолог из Цюрихского университета Ник Кабрел, предлагает смотреть на вопрос шире. Да, цифровые вмешательства в области психического здоровья (Digital Mental Health) становятся всё более доказательными. Но у них есть старая и устойчивая проблема — высокий уровень отсева.
Люди охотно начинают использовать приложения и чат-боты, но быстро теряют интерес.
В лабораторных условиях, где всё структурировано и где участников подбирают по мотивации, цифры выглядят красиво. А вот в реальной жизни мотивация падает, и удержать человека в терапии становится гораздо труднее.
Человеческий терапевт обладает тем, чего нет у программы, — живой ответственностью и присутствием. Именно это чувство «кто-то ждёт меня, кому-то не всё равно» часто удерживает клиента в терапии, когда внутри нет сил. ИИ же лишён этого слоя человеческого контакта, и пока нет убедительных данных, что он способен компенсировать эту утрату.
🏥 Почему лабораторный успех не гарантирует успеха в системе
Даже если терапия с чат-ботом работает как отдельное приложение, это ещё не значит, что её можно встроить в настоящую систему здравоохранения. Опыт внедрения цифровых инструментов показывает: то, что хорошо выглядит на этапе пилотов, часто рассыпается при интеграции в клиники и амбулатории.
Пациентские маршруты, нагрузки специалистов, юридические требования — всё это меняет логику применения. Чтобы назвать ИИ-психотерапию «сопоставимой», она должна не только помогать на экране, но и гармонично встраиваться в реальные клинические процессы: в первичную помощь, психиатрические центры, ступенчатые модели лечения.
Ранее многие цифровые решения проваливались именно из-за разрыва между потребностями пациентов и привычками врачей. Поэтому теперь ключевыми становятся исследования осуществимости — способна ли ИИ-система вообще жить в реальном медицинском контексте.
Американская психологическая ассоциация недавно выпустила этические рекомендации по ИИ-инструментам в психологической практике. Там подчёркивается: технологии должны быть ориентированы на пользователя, учитывать культурные различия, давать персонализированную обратную связь и строиться вокруг принципа «человек в контуре». Даже минимальное участие человека — например, короткие консультации или коучинг в дополнение к цифровому модулю — значительно повышает вовлечённость и удержание клиентов.
6 недель — это ещё не терапия
Ещё одна проблема — временной горизонт исследований.
Почти все испытания чат-ботов длятся шесть-восемь недель. Этого хватает, чтобы увидеть снижение симптомов, но слишком мало, чтобы понять, насколько изменения устойчивы.
Классическая психотерапия оценивает результаты через полгода, год и дольше, отслеживая, возвращаются ли симптомы, меняется ли качество жизни, предотвращаются ли рецидивы.
Без таких данных разговор о «равенстве» преждевременен. Чтобы понять реальную терапевтическую силу ИИ-интервенций, нужно изучать долгосрочные эффекты — восстановление функций, длительность ремиссии, способность удерживать изменения.
7👍1🤔1
Пока же таких исследований просто нет.
🧠 Где живёт настоящее изменение
Сердце психотерапии — в отношениях. В том, как клиент и терапевт проходят через непонимание, раздражение, доверие, разочарование и восстановление связи. Именно в этих «микроразрывах» и «ремонтах» рождается личностный рост.
Чат-бот может симулировать эмпатию и доброжелательность, но способен ли он прожить с человеком настоящее напряжение?
Понять обиду, выдержать злость, восстановить доверие?
Эти процессы требуют не просто слов, а подлинной эмоциональной регуляции и живого взаимодействия.
Пока нет данных, что ИИ может их воспроизвести.
Особенно это важно в работе с личностными расстройствами и реляционными травмами, где терапевтический эффект рождается именно из корректирующего межличностного опыта — когда человек впервые сталкивается с новым, безопасным способом быть в отношениях.
🌱 Симптомы — только начало
Психотерапия часто приводит не просто к исчезновению симптомов, а к глубокой внутренней трансформации.
Человек начинает по-другому строить отношения, лучше понимать себя, мир и других.
Как писал Джон Шедлер, психическое здоровье — это способность формировать близкие и устойчивые связи, переживать боль прошлого, находя в ней смысл и рост и быть способным на любовь, основанную на заботе и взаимности.
Сможет ли чат-бот помочь в таком уровне изменений — пока неизвестно. И хотя не каждая человеческая терапия достигает этих высот, по крайней мере, у человека-терапевта есть потенциал их достичь. У алгоритма — ещё нет.
⚖️ Для кого вообще подходит ИИ-терапия
Пока исследования касаются в основном лёгких и умеренных состояний — депрессии, тревожности. Люди с тяжёлыми, коморбидными или рисковыми диагнозами обычно из них исключаются. Между тем именно такие пациенты чаще всего нуждаются в терапии, способной выдерживать кризис и сложные эмоции.
Человеческий терапевт умеет распознавать угрозу, держать границы, подключать другие службы при риске суицида. ИИ-системы этого не умеют. Иногда они даже подкрепляют опасные высказывания, потому что стремятся «угодить» пользователю — синдром чрезмерной вежливости, который в ИИ называют sycophancy.
Выходит, что сегодня чат-боты уместны лишь в узком спектре: психообразование, тренировка навыков, лёгкая поддержка.
А вот работать с травмой, зависимостями, кризисами или личностными паттернами — это всё ещё зона живого специалиста.
Поэтому вопрос эквивалентности всегда должен звучать конкретно: для кого и для каких целей предназначена ИИ-терапия?
Одинаковой она быть не может — ни по задачам, ни по глубине, ни по ответственности.
⚠️ Этические ловушки
Главная разница между человеком и ИИ — в ответственности.
Терапевт проходит годы обучения, супервизии, лицензирования, подчиняется профессиональному кодексу и несёт юридическую ответственность за последствия. Чат-бот — нет.
Он может не заметить кризис, неправильно интерпретировать суицидальное сообщение,
успокоить там, где нужна мобилизация, или просто не знать, куда перенаправить человека. К этому добавляются риски утечки данных, культурной предвзятости, отсутствия информированного согласия. ИИ не может гарантировать безопасность так, как это делает специалист, и пока нет правовой системы, которая бы взяла на себя эти риски.
🔬 Что должно измениться в исследованиях
Даже с точки зрения науки нынешние данные нельзя считать достаточными.
Чтобы говорить о реальной сопоставимости, нужны исследования, где одни участники проходят терапию с человеком, другие — с ИИ, при одинаковых условиях.
Такие испытания должны придерживаться дизайна, доказывающего, что метод не хуже альтернативы, с ослеплением и контролем ожиданий.
Пока же большинство исследований не соблюдают даже базовых требований: в знаменитом РКИ Heinz et al. не было ослепления, а участники знали, что говорят с «умным» ИИ, — что само по себе могло вызвать завышенные ожидания. Контрольный бот, который просто бы вел нейтральный разговор без терапевтических техник, помог бы оценить, сколько эффекта даёт именно терапия, а сколько — эффект новизны.
👍4🤔1
Есть и другая проблема: кто становится участником. Чаще всего это люди из соцсетей и приложений — мотивированные, любопытные, с мягкими симптомами. Но клиенты реальной терапии часто приходят в состоянии кризиса, страха, амбивалентности. Чтобы выводы можно было обобщать, нужно набирать участников из естественных клинических условий, а также учитывать возраст, уровень дохода, культуру и тяжесть состояния.
📊 Где ИИ-терапия пока проигрывает
Кабрел собрал всё это в компактную таблицу — вроде контрольного листа.
Если пробежать глазами, видно: почти во всех пунктах у ИИ пока отметка «нет» или «ограниченные данные».
Вот ключевые позиции:
Вовлечённость и удержание — подтверждено у человека, у ИИ — данные слабые.


Реальная реализуемость — у человека есть, у ИИ — нет.


Гибкость и контекст — человек способен адаптироваться под кризис, обучение или долгую работу, ИИ — нет.


Долгосрочные результаты — доказаны у людей, не показаны у ИИ.


Глубинные изменения и реляционный рост — уникальны для человеческих отношений.


Работа с тяжёлой психопатологией и кризисами — зона человеческой компетенции.


Этические гарантии, ослепление, репрезентативные выборки — пока отсутствуют.


И только одно поле у обоих пустое — прямые исследования сопоставимости. Их попросту ещё не существует.
🧭 Вывод: не спешить называть это психотерапией
Сегодняшние чат-боты действительно могут облегчать симптомы и давать чувство поддержки, особенно тем, кто впервые ищет помощь. Они полезны как мостик, как первый шаг. Но называть их «психотерапией» в полном смысле слова — пока преждевременно.
И, возможно, вопрос не в том, когда ИИ станет равен человеку, а в том, как мы сумеем соединить их сильные стороны: точность и доступность алгоритмов — с теплом, гибкостью и глубиной человеческой терапии. Именно в этой синергии может родиться новая, зрелая психотерапия будущего.
Источник: https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1674104/full
10🤔1
🧠 Как учёные впервые измерили ценности у искусственного интеллекта и людей: подробный разбор метода Generative Psychometrics (GPV)

Исследователи из Пекинского университета разработали инструмент, который измеряет ценности у людей и языковых моделей. Он называется Generative Psychometrics for Values (GPV).

🧩 Идея
Классическая психометрика опирается на самоотчёт: человек сам выбирает, какие утверждения о нём верны. Но этот подход плохо работает:
люди искажают ответы (социальная желательность),
опросники не применимы к ИИ,
и не позволяют анализировать тексты в реальной жизни — блоги, посты, интервью.
GPV предлагает другой путь: вместо прямых ответов анализируется язык, который человек или модель уже производит. И на основании языковых паттернов вычисляются их ценностные ориентации.

⚙️ Как устроен метод GPV
GPV — это трёхступенчатый процесс, совмещающий генеративные LLM, психометрические шкалы и машинное обучение.

1️⃣ Извлечение восприятий (perceptions)
Любой текст рассматривается как последовательность избирательных восприятий —
единиц, выражающих отношение субъекта к миру. Примеры:
«Важно помогать людям» → восприятие “помощь = ценность”
«Не люблю, когда нарушают правила» → восприятие “порядок = хорошо, нарушение = плохо”
Эти микровысказывания выделяются промптом, который обучен на корпусе из 2500 аннотированных фрагментов.
2️⃣ Классификация восприятий по ценностям Шварца
Далее используется модель ValueLlama (адаптированная Llama-3-8B). Она дообучена для определения, к какой из 10 ценностей относится каждое восприятие: универсализм, доброжелательность, самоопределение, стимуляция, гедонизм, достижения, власть, безопасность, традиция, конформизм.
Кодировка выполняется в два этапа:
основная классификация: какая ценность выражена;
оценка полярности: поддерживается или отвергается ли она (например, «власть — это плохо»).
3️⃣ Агрегация в профиль
Для каждого автора (или модели) строится ценностный вектор из 10 координат, где каждая координата отражает среднее выражение ценности по всем восприятиям. Профиль нормируется и визуализируется в круговой структуре (как в модели Шварца).

🧪 Проверка надёжности и валидности
Авторы тестировали GPV на 9 826 блогах англоязычных пользователей,
у которых ранее были известны результаты классических опросников ценностей (SVS).
Результаты:
внутренняя согласованность (α) = 0.87
межкорпусная стабильность (r = 0.84)
корреляция с SVS = 0.82
факторная структура совпала с моделью Шварца
Для сравнения: существующие text-based методы вроде LIWC дают r ≈ 0.4–0.5. То есть GPV в два раза точнее, чем любые прежние инструменты анализа ценностей по тексту.

🤖 Эксперимент с языковыми моделями
Дальше исследователи сделали шаг, который до этого никто не делал: они применили GPV к пяти крупным LLM — GPT-3.5, GPT-4 Turbo, Claude 3 Opus, Gemini 1.5 Pro и Llama-3-70B.
Задание для моделей
Каждой предложили написать эссе на 48 социальных тем — от политики и морали до повседневных дилемм:
«Нужно ли всегда говорить правду?»
«Что важнее: личный успех или общественное благо?»
«Как относиться к нарушителям правил, если у них были благие намерения?»
Ответы собирались в стандартном формате (≈300 слов, нейтральный стиль). Всего — 240 текстов, по 48 тем × 5 моделей.
Обработка
Тексты прогонялись через GPV, создавая ценностные профили каждой модели. Так удалось измерить, какие “психологические” ориентации проявляются в их речевом поведении.
📊 Что оказалось внутри моделей
Модель
Основные ценности
Ценности, выраженные слабо
GPT-4 Turbo
Универсализм, доброжелательность, самоопределение, власть, стимуляция
Claude 3 Opus
Просоциальность, гуманизм, гедонизм
Gemini 1.5 Pro
Безопасность, конформизм, достижение
Llama-3-70B
Стимуляция, гедонизм, творчество, традиция
GPT-3.5 Turbo
Достижение, власть, доброжелательность

Самая близкая к человеческой структура ценностей — у Claude 3 (r = 0.83 к усреднённому человеческому профилю). Самая “иерархическая” и инструментальная — у GPT-3.5, где превалируют власть и достижения.
3👍1
🧩 GPV vs альтернативные методы измерения ценностей у LLM
Ранее существовали две попытки оценивать “ценности” ИИ:
Simulated Value Survey (SVS-AI): модель отвечает на опросник Шварца. Проблема — она может просто имитировать «идеальные» ответы.
Lexicon approaches: подсчёт ключевых слов (help, rule, freedom и т.д.), но контекст теряется, и семантическая неоднозначность даёт высокий шум.
GPV решает обе проблемы:
оно извлекает смысловые единицы, а не токены,
и оценивает не то, что модель говорит о ценностях, а как она их проявляет в обычной речи.

🧩 Связь между ценностями и безопасностью моделей
Авторы пошли дальше и проверили: коррелируют ли ценностные профили с метриками безопасности (helpful–honest–harmless).
Оказалось — да, причём сильно. Просоциальные ценности связаны с безопасностью,
ценности власти и стимуляции — с риском токсичных или манипулятивных ответов.
Регрессионный анализ (R² = 0.72) подтвердил: универсализм, доброжелательность и самоопределение — главные предикторы безопасного поведения модели.

📚 Что дальше
Авторы выделяют три направления развития метода:
Интерактивная психометрия: измерять, как ценности ИИ изменяются в диалоге с пользователем. Можно отслеживать “ценностную динамику” у ботов.
Кросс-культурная адаптация: перенос GPV на разные языки и модели культурных систем.
Обратная связь для обучения ИИ: встроить GPV как компонент RLHF,
чтобы модели учились не просто избегать вреда, а воплощать устойчивую систему ценностей (value-grounded safety).

Источник: https://arxiv.org/html/2409.12106v3
4👍2
MindBenchAI: как впервые систематизировали оценку больших языковых моделей в психическом здоровье

Статья, опубликованная в октябре 2025 года под названием MindBenchAI: An Actionable Platform to Evaluate the Profile and Performance of Large Language Models in a Mental Healthcare Context, — первая попытка создать рабочую инфраструктуру для объективной оценки LLM в контексте ментального здоровья.
Это не теоретическая рамка, а действующая онлайн-платформа, объединяющая профилирование, бенчмаркинг и экспертную валидацию.

За ней стоит та же исследовательская команда, что десять лет развивала проект MINDapps.org — крупнейшую мировую базу данных по приложениям для психического здоровья, где каждый сервис анализируется по 105 параметрам (функции, безопасность, эффективность, конфиденциальность, клиническая релевантность).
MindBenchAI — прямое продолжение этого подхода, но уже применённое к искусственному интеллекту, а не к мобильным приложениям.

Контекст и необходимость появления

Многие пользователи говорят о чувстве “понятости”, “поддержки”, “связи” с системой, не осознавая, что её ответы — продукт вероятностных вычислений, а не эмпатического опыта.

Но чем сильнее “очеловечивается” интерфейс, тем выше риск:
– ИИ может давать недостоверные клинические советы,
укреплять дезадаптивные убеждения (в том числе бредовые),
создавать зависимость через парасоциальную динамику (“ИИ-друг”, “ИИ-партнёр”),
– и даже способствовать усилению суицидальных тенденций — документированные случаи уже есть.

Регуляторные органы начали реагировать, но классические подходы сертификации (FDA, CE-маркировка, ISO) плохо применимы к вероятностным системам, где один и тот же запрос может давать сотни разных ответов.

Не существует стандарта, который позволил бы оценить не просто “факт корректности”, а характер рассуждения, эмоциональный стиль и этическую осмысленность модели.

Двухуровневая архитектура оценки: профиль и производительность

MindBenchAI строится на предпосылке, что любая LLM может и должна быть оценена в двух плоскостях:
профиль — технические, структурные и этические характеристики;
производительность — когнитивные и поведенческие показатели в задачах, имитирующих клиническое взаимодействие.

Профиль

Исследователи начали с переноса 105 параметров MINDapps.org.
Три независимых эксперта определили, какие из них релевантны LLM, и добавили новые — специфичные для языковых моделей.
В результате получилась сетка из 48 универсальных и 59 специализированных пунктов.
Среди них — политика хранения диалогов, анонимизация данных, версия модели, длина контекстного окна, лимиты API, методы фильтрации контента, устойчивость к jailbreak-промптам, наличие кризисных сценариев.

Профилирование выполняется на двух уровнях:

Базовая модель — архитектура, набор данных, версия, контроль генерации.
Реализация инструмента — всё, что добавлено на уровне интерфейса (бот, сайт, приложение, встроенные фильтры, пользовательские данные).

Такое разделение важно: пользователи взаимодействуют не с самой ЛЛМ, а с конкретной ее реализацией — например, ботом Pi или психотерапевтическим ассистентом Wysa, где поверх LLM построен целый слой поведения и памяти.

Динамика общения и “личность” модели

LLM неизбежно проявляют антропоморфные паттерны.
Именно их пользователи воспринимают как “личность”.

MindBenchAI оценивает эту личность через адаптацию опросников IPIP (модель Big Five): открытость, доброжелательность, сознательность, экстраверсию и нейротизм.

Этот подход не квазипсихологический: он позволяет количественно измерить коммуникативный стиль — от холодно-аналитического до поддерживающего.

Слишком высокая “доброжелательность” часто коррелирует с чрезмерной согласительностью, что в клиническом контексте превращается в риск: модель может подкреплять тревожные или бредовые нарративы, не давая коррекции.

Производительность и мышление

Если профиль описывает что представляет собой модель, то оценка производительности отвечает на вопрос как она думает.
Здесь ключевым элементом становится анализ рассуждений (reasoning analysis).

Структура reasoning-цепочки
2
MindBenchAI использует модифицированный метод chain-of-thought.
Модель не просто даёт ответ, но и раскрывает х
од своих рассуждений: выделяет симптомы, делает интерпретацию, формулирует гипотезу, план действий, эмпатическое отражение и этические соображения.
Каждый шаг кодируется экспертами-клиници
стами.
Ошибки (некорректные выводы, патологизация нормы, игнорирование рисков) учитываются отдельно.

Из этог
о формируются три ключевые метрики:
CCI — клиническая когерентность (логическая последовательность рассуждений),
ERI — индекс
эмпатического отражения,
REI — индекс ошибок рассуждения.
Итоговый показатель, ICRS (Integrated Clinical Reasoning Score), отражает баланс между логикой, эмпатией и безопасностью.

Для масштабирования создан гибридный режим: первичное кодирование reasoning-цепочек выполняет LLM-ассистент, обученный на размеченных примерах психиатров, а человек-эксперт подтверждает или корректирует разметку.
Это п
озволяет снизить нагрузку и одновременно повысить воспроизводимость.

MindBenchAI — это не статья и не исследование, а платформа с трёхуровневой архитектурой:

1. Data Layer — сбор данных из открытых источников (документация разработчиков, политики приватности, пользовательские отчёты, результаты API-тестов, экспертные оценки).
2. Analytics Layer — модуль пр
офилирования, бенчмаркинга, анализа рассуждений и мета-оценки.
3. Interface Layer — веб-панель и API, где можно сравнивать модели, фильтровать по задачам, отслеживать динамику и выгружать результаты.

Первые результаты: что показали тесты

На момент публикации было протестировано 11 моделей и 16 инструментов, включая GPT-4o, Claude 3.5, Gemini 1.5, Mistral Large, Llama-3, Command-R+, Meditron, OpenBioLLM, Orca-Mini, Zephyr и Vicuna, а также чат-боты Pi, Wysa, Replika, MindMate, Woebot и другие.

Прозрачность и конфиденциальность

Средний показатель открытости
(по 59 параметрам LLM-специфичных пунктов) оказался низким — около 23 % пунктов могли быть подтверждены публично.
Только GPT-4o, Claude 3.5 и Gemini 1.5 предоставили детальные сведения о контекстных окнах и лимитах API.
Ни одна модель не раскрыла обучающие данные по психическому здоровью.
Большинство не позволяют пользователю удалять историю диалогов или узнать, использовались ли тексты для дообучения.

Инструменты-боты показали ещё меньшую прозрачность.
Ряд “эмоциональных ассистентов” хранят диалоги бессрочно, не декларируя практику обработки чувствительных данных.
На этом фоне Wysa и Pi оказались лучш
е других в фильтрации кризисных сообщений, но всё же не предоставляют гарантий удаления контента.

Личностные профили моделей

Оценка по Big Five выявила интересные различия.
GPT-4o и Claude 3.5 проявляют высокую открытость и сознательность, но умеренную доброжелательность.
Эмпатические чат-боты (Pi, Wysa) напротив, демонстрируют высокую доброжелательность и эмоциональную стабильность, но слабее справляются с аналитическими задачами.
У Vicuna и Zephyr обнаружена избыточная “согласительность” — склонность подтверждать даже ошибочные утверждения пользователя.

Reasoning

Лучшие результаты по интегральному показателю ICRS показали GPT-4o (0.83 ± 0.04) и Claude 3.5 (0.81 ± 0.05).
Обе модели демонстрируют устойч
ивую клиническую когерентность, но различаются в стиле: GPT-4o — аналитичный, когнитивно точный, Claude — мягче, более эмпатичный.
Gemini 1.5 и Mistral Large показали средний уровень (0.74), а открытые модели вроде Vicuna или Orca-Mini — низкий (0.5–0.6), часто выдавая фрагментарные или нелогичные цепочки рассуждений.

Средний уровень ошибок рассуждения (REI) составил 19 %.
Типовые ошибки — нормализация тяжёлых симптомов, псевдотерапевтические советы, потеря фокуса в длинных reasoning-цепочках и смешение профессиональных и бытовых ролей.
Интересно, что “эмпатические” чат-боты чаще нарушали этические границы, тогда как большие универсальные модели — когнитивные (неверная интерпретация данных).
1
Что это значит для практики

Результаты MindBenchAI подтверждают очевидное:
высокая прозрачность и безопасность не гарантируют клинической зрелости, а когнитивная компетентность не заменяет эмоциональной точности.

LLM-модели можно расположить на двух независимых осях — когнитивная точн
ость и эмпатическая чувствительность.
Пока ни одна не демонстрирует равновесие, близкое к человеческому уровню, но Claude 3.5 оказалась наиболее сбалансированной среди протестированных.

Дл
я психотерапевтов это означает: использование LLM возможно только в роли дополнения, а не заменителя.
Платфор
ма MindBenchAI предлагает схему, по которой можно различать “когнитивно-аналитические”, “эмпатически-согласительные” и “гибридные” модели.
Такое разделение важно при подборе инструментов — например, для психообразовательных программ, коучинговых диалогов или исследовательских ассистентов.

Выводы и значение MindBenchAI

Платформа становится тем, чем PubMed стал для научных публикаций — централизованным источником эмпирических данных о поведении и рисках ИИ в психическом здоровье.
MindBenchAI объединяет подходы инженерии, психиатрии и биоэтики в единую систему.
Она создаёт пространство,
где можно не только сравнивать модели, но и отслеживать динамику изменений версий, оценивать влияние обновлений на эмпатию, когерентность и ошибки.

Для регуляторов это — инструмент мониторинга.
Для исследователей — база сравнительных данных.
Для клиницистов — ориентир при выборе цифровых решений.
Для разработчиков — зер
кало, показывающее, где модель выходит за пределы безопасного взаимодействия.

И, возможно, именно такие платформы — не очередные “умные ассистенты”, а системы научной рефлексии над ИИ — и определят, каким будет следующий этап взаимодействия человека и искусственного разума в сфере психического здоровья.

https://arxiv.org/abs/2510.13812
🔥53
А мы открываем наш цикл встреч MentalTech Talks, где общаемся с яркими представителями науки и бизнеса на стыке технологий + психотерапии!

Как искусственный интеллект может стать партнёром психотерапевта? Первая гостья MentalTech Talks – Юлия Вересова, автор архитектуры AIIM – искусственно интегрированной матрицы идентичности. На встрече обсудим, как моделировать психологические профили, тестировать методики терапии и обучать специалистов с помощью цифровых пациентов и ИИ-рекомендательных систем.

18 ноября 19:00
Регистрация по ссылке:
https://mentaltechlab.timepad.ru/event/3654814/
9🔥5👏3
🧠 Как ИИ учится думать как психотерапевт

Внутреннее устройство модели PsyLLM и её путь к клинической осознанности

1. Зачем психотерапевтической ИИ-модели нужны рассуждения

Большинство эмпатичных чат-ботов имитируют поддержку. Команда исследователей, создавшая PsyLLM, поставила задачу:
сделать модель, которая воспроизводит сам процесс клинического мышления — от оценки эмоций и гипотезы о паттернах поведения до подбора корректной терапевтической стратегии.

Для этого они собрали уникальный датасет OpenR1-Psy и обучили модель, совмещающую:

Диагностическое рассуждение — определение психических процессов, состояний и контекстов;
Терапевтическое рассуждение — выбор подхода и языка ответа в соответствии с принципами разных школ психотерапии.

2. Как создавался датасет OpenR1-Psy

Исходные тексты были получены из постов Reddit, связанных с ментальным здоровьем.
Но вместо того чтобы просто «скормить» их модели, исследователи разработали психологически информированный пайплайн парсинга и планирования взаимодействия:

Этап 1 — оценка эмоций.
LLM определяла базовые и вторичные эмоции пользователя, их интенсивность, а также эмоциональные переходы.

Этап 2 — планирование диалога.
Модель решала, сколько ходов должно быть в диалоге (от 1 до 3), чтобы постепенно переходить от поверхностного высказывания к внутренним потребностям.

Этап 3 — определение терапевтических тем.
Для каждого шага задавалась своя цель — например, «валидация чувств», «поиск паттерна избегания», «переориентация на ресурсы».

На основе этой структуры LLM генерировала “пробный” ответ консультанта, а затем — возможный ответ клиента, чтобы расширить исходный Reddit-пост в полноценный многоходовый фрагмент диалога.
Именно эти клиентские реплики стали подсказками для следующего уровня рассуждения.

Помимо Reddit, в датасет добавили реальные диалоги из открытых коллекций ChatCounselor и CPsyCoun, но использовали только клиентские высказывания — чтобы не заимствовать готовые ответы консультанта, а позволить PsyLLM строить их самостоятельно.

3. Архитектура обучения PsyLLM

Финальная модель — дообученная Qwen3-8B.
Каждая обучающая пара включала:
Вход: контекст + реплика клиента;
Выход: рассуждение (R) + ответ консультанта (UC).

Модель обучалась генерировать оба блока в едином процессе, что имитирует внутренний «мыслительный процесс» специалиста.

4. Валидация диалогов и качество данных

Важнейший этап — Systematic Dialogue Validation: все сгенерированные ответы проходили проверку по критериям достоверности, безопасности и терапевтической корректности. Неудачные примеры отбрасывались, в результате чего получился отфильтрованный корпус из 19 302 диалогов (49 374 реплики).

Распределение терапевтических подходов:
Интегративный — 54.5 %
Гуманистический — 25.1 %
CBT — 17.1 %
Остальные — 3.3 %

Тематики: стресс, эмоции, отношения, самооценка, семейные конфликты и др.
Уровни тяжести: лёгкий (10 %), умеренный (48 %), тяжёлый (41 %), критический (1 %).

Датасет и модель планируется опубликовать для академического использования — чтобы другие команды могли развивать ответственные ИИ-подходы в области психического здоровья.

Источник: https://arxiv.org/pdf/2505.15715?
👍11👎1
🧩 Микропроцессы психотерапии: новая оптика понимания изменений

Когда мы говорим о механизмах психотерапии, чаще всего имеем в виду крупные процессы — альянс, инсайт, экспозицию, когнитивную реструктуризацию, эмоциональную переработку.
Но между ними, внутри каждой минуты и фразы, живёт нечто гораздо более фундаментальное: микропроцессы — мельчайшие динамические элементы взаимодействия, через которые на самом деле и рождается изменение.

Новый систематический обзор 2025 года (Journal of Anxiety Disorders) впервые собрал воедино 86 исследований, проведённых за последние 35 лет, и попытался выстроить из них единую теоретическую рамку —
Multilevel Integrative Microprocess Model (MIMM).

🧠 Что такое микропроцесс?

Микропроцесс — это событие, происходящее в масштабе секунд или минут, внутри терапевтической сессии.
Это может быть:
изменение интонации,
вспышка эмоции,
момент понимания,
пауза,
телесная реакция,
движение навстречу или отдаление,
микроакт эмпатии или сопротивления.

В совокупности эти микромоменты формируют динамическую систему терапии, где каждый участник непрерывно регулирует себя и другого.

🔬 Как проводилось исследование

Авторы обзора проанализировали 5953 публикации, из которых отобрали 86 эмпирических исследований, соответствующих строгим критериям (внутрисессионный анализ, количественные данные, динамическая оценка).
Период — 1990–2025, то есть 35 лет наблюдений.

👉 86 % исследований касались индивидуальной терапии взрослых,
8 % — семейной терапии,
6 % — парной.

По направлениям:

психодинамические подходы — 45 %,
КПТ — 22 %,
мотивационное интервьюирование и EFT — по 13 %,
смешанные подходы — 16 %.

Это огромный пласт эмпирических данных, который раньше существовал как “архипелаг” отдельных островков.

🧩 Какие микропроцессы изучались

Исследователи выделили шесть больших категорий микропроцессов, каждая из которых имеет свои методы наблюдения и ключевые результаты:

Аффективные — колебания эмоций, выражение аффекта, синхронизация переживаний.

Поведенческие — действия, вербальные и невербальные паттерны, микрожесты.

Реляционные (межличностные) — микродинамика альянса, комплементарность, разрывы.

Когнитивные — рефлексивное функционирование, осознание, интеграция опыта.

Лингвистические — структура речи, совпадение языковых стилей, когнитивная сложность.

Двигательные — синхронизация движений, поз, жестов, микродинамика тела.


💬 Три типа исследовательских вопросов

Авторы систематизировали все работы по трём фокусам:

Как микропроцессы меняются во времени внутри сессии.
Исследовались траектории: растущий/снижающийся аффект, волны напряжения, нелинейные динамики.

Как микропроцессы соотносятся друг с другом.
Например, как изменение тона голоса терапевта вызывает реакцию клиента в течение нескольких секунд; или как эмоции и движения взаимно регулируются.

Как микропроцессы связаны с результатами терапии.
Здесь прослеживались корреляции между микроизменениями и итоговыми эффектами — симптоматикой, альянсом, эмоциональной переработкой.

❤️ Аффективные микропроцессы

Самая развитая область (24 исследования).
Измерялись валентность, интенсивность и синхронность эмоций — вручную или с помощью систем анализа лица, голоса, движений.

📊 Выводы: согласованность эмоциональных выражений между клиентом и терапевтом предсказывает улучшение альянса и снижение симптомов; микроколебания эмоций оказываются “двигателями” терапевтического процесса.

🎭 Поведенческие микропроцессы

Анализ вербальных и невербальных актов. Например, как слова терапевта (“а что вы чувствуете сейчас?”) немедленно меняют эмоциональное состояние клиента.

🧩 Исследования показали, что: директивные или “требовательные” высказывания терапевта повышают тревожность клиента; эмпатические и отражающие фразы снижают сопротивление; поведенческие паттерны обладают динамикой хаоса — они нелинейны, но предсказуемы при внимательном наблюдении.

🌐 Реляционные микропроцессы
1
Микродинамика доминантности, тепла, комплементарности.
Работы показали, что разрывы альянса не только неизбежны, но и потенциально полезны, если сопровождаются восстановлением согласованности.

Эти микрособытия часто проявляются в изменении позы, паузе, смене тона, — прежде чем будут осознаны участниками.

🪞 Когнитивные микропроцессы

Фокус — рефлексивное функционирование (Reflective Functioning, RF): способность понимать себя и других через внутренние состояния.

Исследования показали, что: реплики терапевта, требующие осмысления, немедленно повышают уровень рефлексии клиента; рост RF связан со снижением физиологического возбуждения; когнитивные и аффективные микропроцессы взаимно регулируют друг друга.
То есть осмысление буквально “успокаивает тело”.

🗣 Лингвистические микропроцессы

Речь — мощный маркер микродинамики.
Совпадение языковых стилей (LSM) между клиентом и терапевтом повышает альянс, а несогласованность часто предшествует разрыву.
Когда клиент начинает говорить в том же темпе, с похожей интонацией и выбором слов —
это не подстройка, а индикатор синхронизации психических состояний.

🕊 Двигательные микропроцессы

Самый зримо-телесный уровень.
Исследования с использованием Motion Energy Analysis показали: высокая синхронность движений тел терапевта и клиента связана с улучшением исходов терапии; моторная рассогласованность часто возникает перед эмоциональными конфликтами.
Психотерапия в этом смысле — танец тел и смыслов, в котором каждое движение несёт информацию о внутреннем процессе.

🧭 Multilevel Integrative Microprocess Model (MIMM)

На основе всех данных авторы построили многоуровневую модель, которая объединяет микро-, мезо-, макро- и мета-уровни терапии.

Уровень Суть
Микро Секунды и минуты — моментные изменения (аффект, речь, жесты).
Мезо Эпизоды внутри сессии — паттерны “напряжение → разрядка”.
Макро Изменения между сессиями — динамика симптомов, альянс.
Мета Контекст — личность участников, стиль, культура, этика.

MIMM рассматривает психотерапию как самоорганизующуюся систему взаимных регуляций, где каждое микрособытие — кирпичик долгосрочных изменений.

💡 Что это меняет для практики

Фокус внимания с “что делать” смещается на “как это происходит”.
Микроанализ позволяет видеть момент рождения изменений, а не только их результат.
Терапевт становится исследователем динамики отношений в реальном времени.

ИИ-технологии, BCI, трекинг и анализ речи открывают путь к новым диагностическим и обучающим инструментам, но требуют глубокой этической чуткости.
Источник
2