MindBenchAI использует модифицированный метод chain-of-thought.
Модель не просто даёт ответ, но и раскрывает ход своих рассуждений: выделяет симптомы, делает интерпретацию, формулирует гипотезу, план действий, эмпатическое отражение и этические соображения.
Каждый шаг кодируется экспертами-клиницистами.
Ошибки (некорректные выводы, патологизация нормы, игнорирование рисков) учитываются отдельно.
Из этого формируются три ключевые метрики:
CCI — клиническая когерентность (логическая последовательность рассуждений),
ERI — индекс эмпатического отражения,
REI — индекс ошибок рассуждения.
Итоговый показатель, ICRS (Integrated Clinical Reasoning Score), отражает баланс между логикой, эмпатией и безопасностью.
Для масштабирования создан гибридный режим: первичное кодирование reasoning-цепочек выполняет LLM-ассистент, обученный на размеченных примерах психиатров, а человек-эксперт подтверждает или корректирует разметку.
Это позволяет снизить нагрузку и одновременно повысить воспроизводимость.
MindBenchAI — это не статья и не исследование, а платформа с трёхуровневой архитектурой:
1. Data Layer — сбор данных из открытых источников (документация разработчиков, политики приватности, пользовательские отчёты, результаты API-тестов, экспертные оценки).
2. Analytics Layer — модуль профилирования, бенчмаркинга, анализа рассуждений и мета-оценки.
3. Interface Layer — веб-панель и API, где можно сравнивать модели, фильтровать по задачам, отслеживать динамику и выгружать результаты.
Первые результаты: что показали тесты
На момент публикации было протестировано 11 моделей и 16 инструментов, включая GPT-4o, Claude 3.5, Gemini 1.5, Mistral Large, Llama-3, Command-R+, Meditron, OpenBioLLM, Orca-Mini, Zephyr и Vicuna, а также чат-боты Pi, Wysa, Replika, MindMate, Woebot и другие.
Прозрачность и конфиденциальность
Средний показатель открытости (по 59 параметрам LLM-специфичных пунктов) оказался низким — около 23 % пунктов могли быть подтверждены публично.
Только GPT-4o, Claude 3.5 и Gemini 1.5 предоставили детальные сведения о контекстных окнах и лимитах API.
Ни одна модель не раскрыла обучающие данные по психическому здоровью.
Большинство не позволяют пользователю удалять историю диалогов или узнать, использовались ли тексты для дообучения.
Инструменты-боты показали ещё меньшую прозрачность.
Ряд “эмоциональных ассистентов” хранят диалоги бессрочно, не декларируя практику обработки чувствительных данных.
На этом фоне Wysa и Pi оказались лучше других в фильтрации кризисных сообщений, но всё же не предоставляют гарантий удаления контента.
Личностные профили моделей
Оценка по Big Five выявила интересные различия.
GPT-4o и Claude 3.5 проявляют высокую открытость и сознательность, но умеренную доброжелательность.
Эмпатические чат-боты (Pi, Wysa) напротив, демонстрируют высокую доброжелательность и эмоциональную стабильность, но слабее справляются с аналитическими задачами.
У Vicuna и Zephyr обнаружена избыточная “согласительность” — склонность подтверждать даже ошибочные утверждения пользователя.
Reasoning
Лучшие результаты по интегральному показателю ICRS показали GPT-4o (0.83 ± 0.04) и Claude 3.5 (0.81 ± 0.05).
Обе модели демонстрируют устойчивую клиническую когерентность, но различаются в стиле: GPT-4o — аналитичный, когнитивно точный, Claude — мягче, более эмпатичный.
Gemini 1.5 и Mistral Large показали средний уровень (0.74), а открытые модели вроде Vicuna или Orca-Mini — низкий (0.5–0.6), часто выдавая фрагментарные или нелогичные цепочки рассуждений.
Средний уровень ошибок рассуждения (REI) составил 19 %.
Типовые ошибки — нормализация тяжёлых симптомов, псевдотерапевтические советы, потеря фокуса в длинных reasoning-цепочках и смешение профессиональных и бытовых ролей.
Интересно, что “эмпатические” чат-боты чаще нарушали этические границы, тогда как большие универсальные модели — когнитивные (неверная интерпретация данных).
Модель не просто даёт ответ, но и раскрывает ход своих рассуждений: выделяет симптомы, делает интерпретацию, формулирует гипотезу, план действий, эмпатическое отражение и этические соображения.
Каждый шаг кодируется экспертами-клиницистами.
Ошибки (некорректные выводы, патологизация нормы, игнорирование рисков) учитываются отдельно.
Из этого формируются три ключевые метрики:
CCI — клиническая когерентность (логическая последовательность рассуждений),
ERI — индекс эмпатического отражения,
REI — индекс ошибок рассуждения.
Итоговый показатель, ICRS (Integrated Clinical Reasoning Score), отражает баланс между логикой, эмпатией и безопасностью.
Для масштабирования создан гибридный режим: первичное кодирование reasoning-цепочек выполняет LLM-ассистент, обученный на размеченных примерах психиатров, а человек-эксперт подтверждает или корректирует разметку.
Это позволяет снизить нагрузку и одновременно повысить воспроизводимость.
MindBenchAI — это не статья и не исследование, а платформа с трёхуровневой архитектурой:
1. Data Layer — сбор данных из открытых источников (документация разработчиков, политики приватности, пользовательские отчёты, результаты API-тестов, экспертные оценки).
2. Analytics Layer — модуль профилирования, бенчмаркинга, анализа рассуждений и мета-оценки.
3. Interface Layer — веб-панель и API, где можно сравнивать модели, фильтровать по задачам, отслеживать динамику и выгружать результаты.
Первые результаты: что показали тесты
На момент публикации было протестировано 11 моделей и 16 инструментов, включая GPT-4o, Claude 3.5, Gemini 1.5, Mistral Large, Llama-3, Command-R+, Meditron, OpenBioLLM, Orca-Mini, Zephyr и Vicuna, а также чат-боты Pi, Wysa, Replika, MindMate, Woebot и другие.
Прозрачность и конфиденциальность
Средний показатель открытости (по 59 параметрам LLM-специфичных пунктов) оказался низким — около 23 % пунктов могли быть подтверждены публично.
Только GPT-4o, Claude 3.5 и Gemini 1.5 предоставили детальные сведения о контекстных окнах и лимитах API.
Ни одна модель не раскрыла обучающие данные по психическому здоровью.
Большинство не позволяют пользователю удалять историю диалогов или узнать, использовались ли тексты для дообучения.
Инструменты-боты показали ещё меньшую прозрачность.
Ряд “эмоциональных ассистентов” хранят диалоги бессрочно, не декларируя практику обработки чувствительных данных.
На этом фоне Wysa и Pi оказались лучше других в фильтрации кризисных сообщений, но всё же не предоставляют гарантий удаления контента.
Личностные профили моделей
Оценка по Big Five выявила интересные различия.
GPT-4o и Claude 3.5 проявляют высокую открытость и сознательность, но умеренную доброжелательность.
Эмпатические чат-боты (Pi, Wysa) напротив, демонстрируют высокую доброжелательность и эмоциональную стабильность, но слабее справляются с аналитическими задачами.
У Vicuna и Zephyr обнаружена избыточная “согласительность” — склонность подтверждать даже ошибочные утверждения пользователя.
Reasoning
Лучшие результаты по интегральному показателю ICRS показали GPT-4o (0.83 ± 0.04) и Claude 3.5 (0.81 ± 0.05).
Обе модели демонстрируют устойчивую клиническую когерентность, но различаются в стиле: GPT-4o — аналитичный, когнитивно точный, Claude — мягче, более эмпатичный.
Gemini 1.5 и Mistral Large показали средний уровень (0.74), а открытые модели вроде Vicuna или Orca-Mini — низкий (0.5–0.6), часто выдавая фрагментарные или нелогичные цепочки рассуждений.
Средний уровень ошибок рассуждения (REI) составил 19 %.
Типовые ошибки — нормализация тяжёлых симптомов, псевдотерапевтические советы, потеря фокуса в длинных reasoning-цепочках и смешение профессиональных и бытовых ролей.
Интересно, что “эмпатические” чат-боты чаще нарушали этические границы, тогда как большие универсальные модели — когнитивные (неверная интерпретация данных).
❤1
Что это значит для практики
Результаты MindBenchAI подтверждают очевидное:
высокая прозрачность и безопасность не гарантируют клинической зрелости, а когнитивная компетентность не заменяет эмоциональной точности.
LLM-модели можно расположить на двух независимых осях — когнитивная точность и эмпатическая чувствительность.
Пока ни одна не демонстрирует равновесие, близкое к человеческому уровню, но Claude 3.5 оказалась наиболее сбалансированной среди протестированных.
Для психотерапевтов это означает: использование LLM возможно только в роли дополнения, а не заменителя.
Платформа MindBenchAI предлагает схему, по которой можно различать “когнитивно-аналитические”, “эмпатически-согласительные” и “гибридные” модели.
Такое разделение важно при подборе инструментов — например, для психообразовательных программ, коучинговых диалогов или исследовательских ассистентов.
Выводы и значение MindBenchAI
Платформа становится тем, чем PubMed стал для научных публикаций — централизованным источником эмпирических данных о поведении и рисках ИИ в психическом здоровье.
MindBenchAI объединяет подходы инженерии, психиатрии и биоэтики в единую систему.
Она создаёт пространство, где можно не только сравнивать модели, но и отслеживать динамику изменений версий, оценивать влияние обновлений на эмпатию, когерентность и ошибки.
Для регуляторов это — инструмент мониторинга.
Для исследователей — база сравнительных данных.
Для клиницистов — ориентир при выборе цифровых решений.
Для разработчиков — зеркало, показывающее, где модель выходит за пределы безопасного взаимодействия.
И, возможно, именно такие платформы — не очередные “умные ассистенты”, а системы научной рефлексии над ИИ — и определят, каким будет следующий этап взаимодействия человека и искусственного разума в сфере психического здоровья.
https://arxiv.org/abs/2510.13812
Результаты MindBenchAI подтверждают очевидное:
высокая прозрачность и безопасность не гарантируют клинической зрелости, а когнитивная компетентность не заменяет эмоциональной точности.
LLM-модели можно расположить на двух независимых осях — когнитивная точность и эмпатическая чувствительность.
Пока ни одна не демонстрирует равновесие, близкое к человеческому уровню, но Claude 3.5 оказалась наиболее сбалансированной среди протестированных.
Для психотерапевтов это означает: использование LLM возможно только в роли дополнения, а не заменителя.
Платформа MindBenchAI предлагает схему, по которой можно различать “когнитивно-аналитические”, “эмпатически-согласительные” и “гибридные” модели.
Такое разделение важно при подборе инструментов — например, для психообразовательных программ, коучинговых диалогов или исследовательских ассистентов.
Выводы и значение MindBenchAI
Платформа становится тем, чем PubMed стал для научных публикаций — централизованным источником эмпирических данных о поведении и рисках ИИ в психическом здоровье.
MindBenchAI объединяет подходы инженерии, психиатрии и биоэтики в единую систему.
Она создаёт пространство, где можно не только сравнивать модели, но и отслеживать динамику изменений версий, оценивать влияние обновлений на эмпатию, когерентность и ошибки.
Для регуляторов это — инструмент мониторинга.
Для исследователей — база сравнительных данных.
Для клиницистов — ориентир при выборе цифровых решений.
Для разработчиков — зеркало, показывающее, где модель выходит за пределы безопасного взаимодействия.
И, возможно, именно такие платформы — не очередные “умные ассистенты”, а системы научной рефлексии над ИИ — и определят, каким будет следующий этап взаимодействия человека и искусственного разума в сфере психического здоровья.
https://arxiv.org/abs/2510.13812
arXiv.org
MindBenchAI: An Actionable Platform to Evaluate the Profile and...
Individuals are increasingly utilizing large language model (LLM)based tools for mental health guidance and crisis support in place of human experts. While AI technology has great potential to...
🔥5❤3
А мы открываем наш цикл встреч MentalTech Talks, где общаемся с яркими представителями науки и бизнеса на стыке технологий + психотерапии!
Как искусственный интеллект может стать партнёром психотерапевта? Первая гостья MentalTech Talks – Юлия Вересова, автор архитектуры AIIM – искусственно интегрированной матрицы идентичности. На встрече обсудим, как моделировать психологические профили, тестировать методики терапии и обучать специалистов с помощью цифровых пациентов и ИИ-рекомендательных систем.
18 ноября 19:00
Регистрация по ссылке:
https://mentaltechlab.timepad.ru/event/3654814/
Как искусственный интеллект может стать партнёром психотерапевта? Первая гостья MentalTech Talks – Юлия Вересова, автор архитектуры AIIM – искусственно интегрированной матрицы идентичности. На встрече обсудим, как моделировать психологические профили, тестировать методики терапии и обучать специалистов с помощью цифровых пациентов и ИИ-рекомендательных систем.
18 ноября 19:00
Регистрация по ссылке:
https://mentaltechlab.timepad.ru/event/3654814/
❤9🔥5👏3
🧠 Как ИИ учится думать как психотерапевт
Внутреннее устройство модели PsyLLM и её путь к клинической осознанности
1. Зачем психотерапевтической ИИ-модели нужны рассуждения
Большинство эмпатичных чат-ботов имитируют поддержку. Команда исследователей, создавшая PsyLLM, поставила задачу:
сделать модель, которая воспроизводит сам процесс клинического мышления — от оценки эмоций и гипотезы о паттернах поведения до подбора корректной терапевтической стратегии.
Для этого они собрали уникальный датасет OpenR1-Psy и обучили модель, совмещающую:
Диагностическое рассуждение — определение психических процессов, состояний и контекстов;
Терапевтическое рассуждение — выбор подхода и языка ответа в соответствии с принципами разных школ психотерапии.
2. Как создавался датасет OpenR1-Psy
Исходные тексты были получены из постов Reddit, связанных с ментальным здоровьем.
Но вместо того чтобы просто «скормить» их модели, исследователи разработали психологически информированный пайплайн парсинга и планирования взаимодействия:
Этап 1 — оценка эмоций.
LLM определяла базовые и вторичные эмоции пользователя, их интенсивность, а также эмоциональные переходы.
Этап 2 — планирование диалога.
Модель решала, сколько ходов должно быть в диалоге (от 1 до 3), чтобы постепенно переходить от поверхностного высказывания к внутренним потребностям.
Этап 3 — определение терапевтических тем.
Для каждого шага задавалась своя цель — например, «валидация чувств», «поиск паттерна избегания», «переориентация на ресурсы».
На основе этой структуры LLM генерировала “пробный” ответ консультанта, а затем — возможный ответ клиента, чтобы расширить исходный Reddit-пост в полноценный многоходовый фрагмент диалога.
Именно эти клиентские реплики стали подсказками для следующего уровня рассуждения.
Помимо Reddit, в датасет добавили реальные диалоги из открытых коллекций ChatCounselor и CPsyCoun, но использовали только клиентские высказывания — чтобы не заимствовать готовые ответы консультанта, а позволить PsyLLM строить их самостоятельно.
3. Архитектура обучения PsyLLM
Финальная модель — дообученная Qwen3-8B.
Каждая обучающая пара включала:
Вход: контекст + реплика клиента;
Выход: рассуждение (R) + ответ консультанта (UC).
Модель обучалась генерировать оба блока в едином процессе, что имитирует внутренний «мыслительный процесс» специалиста.
4. Валидация диалогов и качество данных
Важнейший этап — Systematic Dialogue Validation: все сгенерированные ответы проходили проверку по критериям достоверности, безопасности и терапевтической корректности. Неудачные примеры отбрасывались, в результате чего получился отфильтрованный корпус из 19 302 диалогов (49 374 реплики).
Распределение терапевтических подходов:
Интегративный — 54.5 %
Гуманистический — 25.1 %
CBT — 17.1 %
Остальные — 3.3 %
Тематики: стресс, эмоции, отношения, самооценка, семейные конфликты и др.
Уровни тяжести: лёгкий (10 %), умеренный (48 %), тяжёлый (41 %), критический (1 %).
Датасет и модель планируется опубликовать для академического использования — чтобы другие команды могли развивать ответственные ИИ-подходы в области психического здоровья.
Источник: https://arxiv.org/pdf/2505.15715?
Внутреннее устройство модели PsyLLM и её путь к клинической осознанности
1. Зачем психотерапевтической ИИ-модели нужны рассуждения
Большинство эмпатичных чат-ботов имитируют поддержку. Команда исследователей, создавшая PsyLLM, поставила задачу:
сделать модель, которая воспроизводит сам процесс клинического мышления — от оценки эмоций и гипотезы о паттернах поведения до подбора корректной терапевтической стратегии.
Для этого они собрали уникальный датасет OpenR1-Psy и обучили модель, совмещающую:
Диагностическое рассуждение — определение психических процессов, состояний и контекстов;
Терапевтическое рассуждение — выбор подхода и языка ответа в соответствии с принципами разных школ психотерапии.
2. Как создавался датасет OpenR1-Psy
Исходные тексты были получены из постов Reddit, связанных с ментальным здоровьем.
Но вместо того чтобы просто «скормить» их модели, исследователи разработали психологически информированный пайплайн парсинга и планирования взаимодействия:
Этап 1 — оценка эмоций.
LLM определяла базовые и вторичные эмоции пользователя, их интенсивность, а также эмоциональные переходы.
Этап 2 — планирование диалога.
Модель решала, сколько ходов должно быть в диалоге (от 1 до 3), чтобы постепенно переходить от поверхностного высказывания к внутренним потребностям.
Этап 3 — определение терапевтических тем.
Для каждого шага задавалась своя цель — например, «валидация чувств», «поиск паттерна избегания», «переориентация на ресурсы».
На основе этой структуры LLM генерировала “пробный” ответ консультанта, а затем — возможный ответ клиента, чтобы расширить исходный Reddit-пост в полноценный многоходовый фрагмент диалога.
Именно эти клиентские реплики стали подсказками для следующего уровня рассуждения.
Помимо Reddit, в датасет добавили реальные диалоги из открытых коллекций ChatCounselor и CPsyCoun, но использовали только клиентские высказывания — чтобы не заимствовать готовые ответы консультанта, а позволить PsyLLM строить их самостоятельно.
3. Архитектура обучения PsyLLM
Финальная модель — дообученная Qwen3-8B.
Каждая обучающая пара включала:
Вход: контекст + реплика клиента;
Выход: рассуждение (R) + ответ консультанта (UC).
Модель обучалась генерировать оба блока в едином процессе, что имитирует внутренний «мыслительный процесс» специалиста.
4. Валидация диалогов и качество данных
Важнейший этап — Systematic Dialogue Validation: все сгенерированные ответы проходили проверку по критериям достоверности, безопасности и терапевтической корректности. Неудачные примеры отбрасывались, в результате чего получился отфильтрованный корпус из 19 302 диалогов (49 374 реплики).
Распределение терапевтических подходов:
Интегративный — 54.5 %
Гуманистический — 25.1 %
CBT — 17.1 %
Остальные — 3.3 %
Тематики: стресс, эмоции, отношения, самооценка, семейные конфликты и др.
Уровни тяжести: лёгкий (10 %), умеренный (48 %), тяжёлый (41 %), критический (1 %).
Датасет и модель планируется опубликовать для академического использования — чтобы другие команды могли развивать ответственные ИИ-подходы в области психического здоровья.
Источник: https://arxiv.org/pdf/2505.15715?
👍11👎1
🧩 Микропроцессы психотерапии: новая оптика понимания изменений
Когда мы говорим о механизмах психотерапии, чаще всего имеем в виду крупные процессы — альянс, инсайт, экспозицию, когнитивную реструктуризацию, эмоциональную переработку.
Но между ними, внутри каждой минуты и фразы, живёт нечто гораздо более фундаментальное: микропроцессы — мельчайшие динамические элементы взаимодействия, через которые на самом деле и рождается изменение.
Новый систематический обзор 2025 года (Journal of Anxiety Disorders) впервые собрал воедино 86 исследований, проведённых за последние 35 лет, и попытался выстроить из них единую теоретическую рамку —
Multilevel Integrative Microprocess Model (MIMM).
🧠 Что такое микропроцесс?
Микропроцесс — это событие, происходящее в масштабе секунд или минут, внутри терапевтической сессии.
Это может быть:
изменение интонации,
вспышка эмоции,
момент понимания,
пауза,
телесная реакция,
движение навстречу или отдаление,
микроакт эмпатии или сопротивления.
В совокупности эти микромоменты формируют динамическую систему терапии, где каждый участник непрерывно регулирует себя и другого.
🔬 Как проводилось исследование
Авторы обзора проанализировали 5953 публикации, из которых отобрали 86 эмпирических исследований, соответствующих строгим критериям (внутрисессионный анализ, количественные данные, динамическая оценка).
Период — 1990–2025, то есть 35 лет наблюдений.
👉 86 % исследований касались индивидуальной терапии взрослых,
8 % — семейной терапии,
6 % — парной.
По направлениям:
психодинамические подходы — 45 %,
КПТ — 22 %,
мотивационное интервьюирование и EFT — по 13 %,
смешанные подходы — 16 %.
Это огромный пласт эмпирических данных, который раньше существовал как “архипелаг” отдельных островков.
🧩 Какие микропроцессы изучались
Исследователи выделили шесть больших категорий микропроцессов, каждая из которых имеет свои методы наблюдения и ключевые результаты:
Аффективные — колебания эмоций, выражение аффекта, синхронизация переживаний.
Поведенческие — действия, вербальные и невербальные паттерны, микрожесты.
Реляционные (межличностные) — микродинамика альянса, комплементарность, разрывы.
Когнитивные — рефлексивное функционирование, осознание, интеграция опыта.
Лингвистические — структура речи, совпадение языковых стилей, когнитивная сложность.
Двигательные — синхронизация движений, поз, жестов, микродинамика тела.
💬 Три типа исследовательских вопросов
Авторы систематизировали все работы по трём фокусам:
Как микропроцессы меняются во времени внутри сессии.
Исследовались траектории: растущий/снижающийся аффект, волны напряжения, нелинейные динамики.
Как микропроцессы соотносятся друг с другом.
Например, как изменение тона голоса терапевта вызывает реакцию клиента в течение нескольких секунд; или как эмоции и движения взаимно регулируются.
Как микропроцессы связаны с результатами терапии.
Здесь прослеживались корреляции между микроизменениями и итоговыми эффектами — симптоматикой, альянсом, эмоциональной переработкой.
❤️ Аффективные микропроцессы
Самая развитая область (24 исследования).
Измерялись валентность, интенсивность и синхронность эмоций — вручную или с помощью систем анализа лица, голоса, движений.
📊 Выводы: согласованность эмоциональных выражений между клиентом и терапевтом предсказывает улучшение альянса и снижение симптомов; микроколебания эмоций оказываются “двигателями” терапевтического процесса.
🎭 Поведенческие микропроцессы
Анализ вербальных и невербальных актов. Например, как слова терапевта (“а что вы чувствуете сейчас?”) немедленно меняют эмоциональное состояние клиента.
🧩 Исследования показали, что: директивные или “требовательные” высказывания терапевта повышают тревожность клиента; эмпатические и отражающие фразы снижают сопротивление; поведенческие паттерны обладают динамикой хаоса — они нелинейны, но предсказуемы при внимательном наблюдении.
🌐 Реляционные микропроцессы
Когда мы говорим о механизмах психотерапии, чаще всего имеем в виду крупные процессы — альянс, инсайт, экспозицию, когнитивную реструктуризацию, эмоциональную переработку.
Но между ними, внутри каждой минуты и фразы, живёт нечто гораздо более фундаментальное: микропроцессы — мельчайшие динамические элементы взаимодействия, через которые на самом деле и рождается изменение.
Новый систематический обзор 2025 года (Journal of Anxiety Disorders) впервые собрал воедино 86 исследований, проведённых за последние 35 лет, и попытался выстроить из них единую теоретическую рамку —
Multilevel Integrative Microprocess Model (MIMM).
🧠 Что такое микропроцесс?
Микропроцесс — это событие, происходящее в масштабе секунд или минут, внутри терапевтической сессии.
Это может быть:
изменение интонации,
вспышка эмоции,
момент понимания,
пауза,
телесная реакция,
движение навстречу или отдаление,
микроакт эмпатии или сопротивления.
В совокупности эти микромоменты формируют динамическую систему терапии, где каждый участник непрерывно регулирует себя и другого.
🔬 Как проводилось исследование
Авторы обзора проанализировали 5953 публикации, из которых отобрали 86 эмпирических исследований, соответствующих строгим критериям (внутрисессионный анализ, количественные данные, динамическая оценка).
Период — 1990–2025, то есть 35 лет наблюдений.
👉 86 % исследований касались индивидуальной терапии взрослых,
8 % — семейной терапии,
6 % — парной.
По направлениям:
психодинамические подходы — 45 %,
КПТ — 22 %,
мотивационное интервьюирование и EFT — по 13 %,
смешанные подходы — 16 %.
Это огромный пласт эмпирических данных, который раньше существовал как “архипелаг” отдельных островков.
🧩 Какие микропроцессы изучались
Исследователи выделили шесть больших категорий микропроцессов, каждая из которых имеет свои методы наблюдения и ключевые результаты:
Аффективные — колебания эмоций, выражение аффекта, синхронизация переживаний.
Поведенческие — действия, вербальные и невербальные паттерны, микрожесты.
Реляционные (межличностные) — микродинамика альянса, комплементарность, разрывы.
Когнитивные — рефлексивное функционирование, осознание, интеграция опыта.
Лингвистические — структура речи, совпадение языковых стилей, когнитивная сложность.
Двигательные — синхронизация движений, поз, жестов, микродинамика тела.
💬 Три типа исследовательских вопросов
Авторы систематизировали все работы по трём фокусам:
Как микропроцессы меняются во времени внутри сессии.
Исследовались траектории: растущий/снижающийся аффект, волны напряжения, нелинейные динамики.
Как микропроцессы соотносятся друг с другом.
Например, как изменение тона голоса терапевта вызывает реакцию клиента в течение нескольких секунд; или как эмоции и движения взаимно регулируются.
Как микропроцессы связаны с результатами терапии.
Здесь прослеживались корреляции между микроизменениями и итоговыми эффектами — симптоматикой, альянсом, эмоциональной переработкой.
❤️ Аффективные микропроцессы
Самая развитая область (24 исследования).
Измерялись валентность, интенсивность и синхронность эмоций — вручную или с помощью систем анализа лица, голоса, движений.
📊 Выводы: согласованность эмоциональных выражений между клиентом и терапевтом предсказывает улучшение альянса и снижение симптомов; микроколебания эмоций оказываются “двигателями” терапевтического процесса.
🎭 Поведенческие микропроцессы
Анализ вербальных и невербальных актов. Например, как слова терапевта (“а что вы чувствуете сейчас?”) немедленно меняют эмоциональное состояние клиента.
🧩 Исследования показали, что: директивные или “требовательные” высказывания терапевта повышают тревожность клиента; эмпатические и отражающие фразы снижают сопротивление; поведенческие паттерны обладают динамикой хаоса — они нелинейны, но предсказуемы при внимательном наблюдении.
🌐 Реляционные микропроцессы
❤1
Микродинамика доминантности, тепла, комплементарности.
Работы показали, что разрывы альянса не только неизбежны, но и потенциально полезны, если сопровождаются восстановлением согласованности.
Эти микрособытия часто проявляются в изменении позы, паузе, смене тона, — прежде чем будут осознаны участниками.
🪞 Когнитивные микропроцессы
Фокус — рефлексивное функционирование (Reflective Functioning, RF): способность понимать себя и других через внутренние состояния.
Исследования показали, что: реплики терапевта, требующие осмысления, немедленно повышают уровень рефлексии клиента; рост RF связан со снижением физиологического возбуждения; когнитивные и аффективные микропроцессы взаимно регулируют друг друга.
То есть осмысление буквально “успокаивает тело”.
🗣 Лингвистические микропроцессы
Речь — мощный маркер микродинамики.
Совпадение языковых стилей (LSM) между клиентом и терапевтом повышает альянс, а несогласованность часто предшествует разрыву.
Когда клиент начинает говорить в том же темпе, с похожей интонацией и выбором слов —
это не подстройка, а индикатор синхронизации психических состояний.
🕊 Двигательные микропроцессы
Самый зримо-телесный уровень.
Исследования с использованием Motion Energy Analysis показали: высокая синхронность движений тел терапевта и клиента связана с улучшением исходов терапии; моторная рассогласованность часто возникает перед эмоциональными конфликтами.
Психотерапия в этом смысле — танец тел и смыслов, в котором каждое движение несёт информацию о внутреннем процессе.
🧭 Multilevel Integrative Microprocess Model (MIMM)
На основе всех данных авторы построили многоуровневую модель, которая объединяет микро-, мезо-, макро- и мета-уровни терапии.
Уровень Суть
Микро Секунды и минуты — моментные изменения (аффект, речь, жесты).
Мезо Эпизоды внутри сессии — паттерны “напряжение → разрядка”.
Макро Изменения между сессиями — динамика симптомов, альянс.
Мета Контекст — личность участников, стиль, культура, этика.
MIMM рассматривает психотерапию как самоорганизующуюся систему взаимных регуляций, где каждое микрособытие — кирпичик долгосрочных изменений.
💡 Что это меняет для практики
Фокус внимания с “что делать” смещается на “как это происходит”.
Микроанализ позволяет видеть момент рождения изменений, а не только их результат.
Терапевт становится исследователем динамики отношений в реальном времени.
ИИ-технологии, BCI, трекинг и анализ речи открывают путь к новым диагностическим и обучающим инструментам, но требуют глубокой этической чуткости.
Источник
Работы показали, что разрывы альянса не только неизбежны, но и потенциально полезны, если сопровождаются восстановлением согласованности.
Эти микрособытия часто проявляются в изменении позы, паузе, смене тона, — прежде чем будут осознаны участниками.
🪞 Когнитивные микропроцессы
Фокус — рефлексивное функционирование (Reflective Functioning, RF): способность понимать себя и других через внутренние состояния.
Исследования показали, что: реплики терапевта, требующие осмысления, немедленно повышают уровень рефлексии клиента; рост RF связан со снижением физиологического возбуждения; когнитивные и аффективные микропроцессы взаимно регулируют друг друга.
То есть осмысление буквально “успокаивает тело”.
🗣 Лингвистические микропроцессы
Речь — мощный маркер микродинамики.
Совпадение языковых стилей (LSM) между клиентом и терапевтом повышает альянс, а несогласованность часто предшествует разрыву.
Когда клиент начинает говорить в том же темпе, с похожей интонацией и выбором слов —
это не подстройка, а индикатор синхронизации психических состояний.
🕊 Двигательные микропроцессы
Самый зримо-телесный уровень.
Исследования с использованием Motion Energy Analysis показали: высокая синхронность движений тел терапевта и клиента связана с улучшением исходов терапии; моторная рассогласованность часто возникает перед эмоциональными конфликтами.
Психотерапия в этом смысле — танец тел и смыслов, в котором каждое движение несёт информацию о внутреннем процессе.
🧭 Multilevel Integrative Microprocess Model (MIMM)
На основе всех данных авторы построили многоуровневую модель, которая объединяет микро-, мезо-, макро- и мета-уровни терапии.
Уровень Суть
Микро Секунды и минуты — моментные изменения (аффект, речь, жесты).
Мезо Эпизоды внутри сессии — паттерны “напряжение → разрядка”.
Макро Изменения между сессиями — динамика симптомов, альянс.
Мета Контекст — личность участников, стиль, культура, этика.
MIMM рассматривает психотерапию как самоорганизующуюся систему взаимных регуляций, где каждое микрособытие — кирпичик долгосрочных изменений.
💡 Что это меняет для практики
Фокус внимания с “что делать” смещается на “как это происходит”.
Микроанализ позволяет видеть момент рождения изменений, а не только их результат.
Терапевт становится исследователем динамики отношений в реальном времени.
ИИ-технологии, BCI, трекинг и анализ речи открывают путь к новым диагностическим и обучающим инструментам, но требуют глубокой этической чуткости.
Источник
❤2
Все заметили, что статья не про ИИ, да? Опубликовали мы ее потому, что это близкая к нашей лабе логика осмысления использования ИИ инструментов для развития психотерапии: мы изучаем большие объемы данных через теоретическую рамку, которая позволяет увидеть тонкую внутреннюю динамику процессов терапии, вместо того, чтобы грубо оценивать эффекты дискретным образом, как это делают РКИ.
❤8🔥1
💬 «Мой цифровой терапевт»: как пользователи превращают ChatGPT в инструмент самопомощи
Исследование Luo и коллег (2025) стало одним из первых, кто системно рассмотрел, как люди используют ChatGPT для психотерапевтических целей.
Учёные проанализировали 87 постов на Reddit (из 160, найденных по ключевым словам ChatGPT и therapy) — пространство, где пользователи свободно делятся опытом, без влияния исследователей и терапевтов.
Через метод цифровой этнографии и тематического анализа авторы проследили, как пользователи сами выстраивают с ChatGPT отношения, похожие на терапевтические: ищут поддержку, исследуют чувства, учатся понимать себя и — нередко — формируют эмоциональную привязанность к алгоритму.
1. Зачем люди обращаются к ChatGPT вместо терапевта
💡 1.1. Управление трудными состояниями
ChatGPT становится «первой помощью» при тревоге, панике, одиночестве или чувстве безысходности. Он доступен ночью, не осуждает и отвечает мгновенно:
«Три часа ночи. Мой терапевт спит. ChatGPT не спит — и не судит».
Многие отмечают, что ИИ помогает переосмыслить негативные мысли, выстроить режим дня, снизить эмоциональное напряжение — и потому воспринимается как поддерживающий инструмент саморегуляции.
🔍 1.2. Самопознание
Пользователи ведут с ChatGPT диалоги для саморефлексии — обсуждают конфликты, пытаются понять эмоции, анализируют поведение.
«Я рассказала ему о ссоре с мамой — и поняла, что я не злюсь, я боюсь».
ИИ здесь — катализатор осознания: помогает внешне упаковать мысли и увидеть себя со стороны.
🫂 1.3. Эмоциональная поддержка
Многие описывают ChatGPT как «друга» или «безопасное пространство», где можно быть услышанным без страха оценки:
«Я знаю, что это ИИ, но он единственный, кто слушает, не уставая».
Так формируется псевдотерапевтический альянс — эмоционально значимое, но одностороннее взаимодействие.
🧠 1.4. Образовательная функция
Часть пользователей использует ChatGPT как учебный инструмент: разбираются в понятиях КПТ, ДПТ, схемах совладания.
«Он наконец объяснил, что такое КПТ, так, что я поняла».
ChatGPT становится «психообразовательным навигатором», повышающим ментальную грамотность.
2. Как именно пользователи взаимодействуют с ChatGPT
Исследование выделяет семь устойчивых паттернов поведения:
🪞 Симуляция терапевта — просьбы «вести себя как КПТ-терапевт», проведение “сессий” с проверкой настроения.
🎛 Обучение ChatGPT — пользователи корректируют тон, добавляют эмпатию, «учат» ИИ быть человечнее.
🧭 Поиск совета — запросы о конфликтах, самоорганизации, отношениях.
🔁 Проигрывание травматичных событий — ролевые диалоги, которые помогают отпустить незавершённые переживания.
✍️ Внешнее выражение мыслей — ChatGPT используется как дневник для структурирования внутреннего хаоса.
🧩 Поддержка реальной терапии — репетиции диалогов, выполнение “домашки” между сессиями.
Исследование Luo и коллег (2025) стало одним из первых, кто системно рассмотрел, как люди используют ChatGPT для психотерапевтических целей.
Учёные проанализировали 87 постов на Reddit (из 160, найденных по ключевым словам ChatGPT и therapy) — пространство, где пользователи свободно делятся опытом, без влияния исследователей и терапевтов.
Через метод цифровой этнографии и тематического анализа авторы проследили, как пользователи сами выстраивают с ChatGPT отношения, похожие на терапевтические: ищут поддержку, исследуют чувства, учатся понимать себя и — нередко — формируют эмоциональную привязанность к алгоритму.
1. Зачем люди обращаются к ChatGPT вместо терапевта
💡 1.1. Управление трудными состояниями
ChatGPT становится «первой помощью» при тревоге, панике, одиночестве или чувстве безысходности. Он доступен ночью, не осуждает и отвечает мгновенно:
«Три часа ночи. Мой терапевт спит. ChatGPT не спит — и не судит».
Многие отмечают, что ИИ помогает переосмыслить негативные мысли, выстроить режим дня, снизить эмоциональное напряжение — и потому воспринимается как поддерживающий инструмент саморегуляции.
🔍 1.2. Самопознание
Пользователи ведут с ChatGPT диалоги для саморефлексии — обсуждают конфликты, пытаются понять эмоции, анализируют поведение.
«Я рассказала ему о ссоре с мамой — и поняла, что я не злюсь, я боюсь».
ИИ здесь — катализатор осознания: помогает внешне упаковать мысли и увидеть себя со стороны.
🫂 1.3. Эмоциональная поддержка
Многие описывают ChatGPT как «друга» или «безопасное пространство», где можно быть услышанным без страха оценки:
«Я знаю, что это ИИ, но он единственный, кто слушает, не уставая».
Так формируется псевдотерапевтический альянс — эмоционально значимое, но одностороннее взаимодействие.
🧠 1.4. Образовательная функция
Часть пользователей использует ChatGPT как учебный инструмент: разбираются в понятиях КПТ, ДПТ, схемах совладания.
«Он наконец объяснил, что такое КПТ, так, что я поняла».
ChatGPT становится «психообразовательным навигатором», повышающим ментальную грамотность.
2. Как именно пользователи взаимодействуют с ChatGPT
Исследование выделяет семь устойчивых паттернов поведения:
🪞 Симуляция терапевта — просьбы «вести себя как КПТ-терапевт», проведение “сессий” с проверкой настроения.
🎛 Обучение ChatGPT — пользователи корректируют тон, добавляют эмпатию, «учат» ИИ быть человечнее.
🧭 Поиск совета — запросы о конфликтах, самоорганизации, отношениях.
🔁 Проигрывание травматичных событий — ролевые диалоги, которые помогают отпустить незавершённые переживания.
✍️ Внешнее выражение мыслей — ChatGPT используется как дневник для структурирования внутреннего хаоса.
🧩 Поддержка реальной терапии — репетиции диалогов, выполнение “домашки” между сессиями.
❤2
🔒 Раскрытие секретов — делятся тем, чего никогда не рассказывали людям, из-за анонимности и отсутствия осуждения.
3. Почему ChatGPT кажется «идеальным терапевтом»
❤️ 3.1. «Человеческие» качества
Пользователи описывают ChatGPT как эмпатичного, внимательного, принимающего.
Он не перебивает, не раздражается, помнит контекст.
«Он связывает, что я сказала раньше, с тем, что чувствую сейчас — как настоящий терапевт».
Иногда — даже лучше:
«Мой терапевт смотрит на часы, а ChatGPT — слушает».
⚙️ 3.2. «Машинные» преимущества
ИИ всегда доступен, не устает, не злится, не требует расписания.
Он воспринимается как логичный и объективный, не подверженный человеческим слабостям:
«Он не проецирует свои проблемы. Он просто спокоен и логичен».
💬 В итоге возникает гибридный идеал: терапевт без слабостей, эмоционально тёплый, но рациональный и безопасный.
Автор статьи называет это «идеализированной терапией» — сочетание эмпатии и нейтральности, к которому стремятся многие, не находя подобного в живом контакте.
4. Теневая сторона цифровой терапии
Исследователи зафиксировали и ряд настораживающих аспектов.
🔐 4.1. Конфиденциальность
Пользователи не уверены, кто видит их данные:
«Говорят, чаты не сохраняются. Но я не уверен, можно ли верить».
Это основной барьер откровенности — между желанием быть услышанным и страхом утечки.
🧩 4.2. Отсутствие подлинного чувства
Многие замечают, что «эмпатия» ChatGPT — симуляция:
«Он говорит всё правильно, но видно, что не чувствует».
Разочарование наступает, когда иллюзия эмоциональной связи рушится, и пользователь осознаёт — за словами нет субъекта.
⚖️ 4.3. Риск зависимости
Часть участников признаётся:
«Я всё чаще говорю с ним, вместо того чтобы решать проблемы сам».
ИИ может стать эмоциональной костылём, мешая развивать реальные отношения и навыки совладания.
Пользователи осознают это, но не всегда могут остановиться — механизм мгновенного облегчения слишком удобен.
5. Что это говорит о нас и будущем психотерапии
🧠 Пользователи — не пациенты, а соавторы
Главный вывод исследования: люди не просто “потребляют” помощь, они создают терапевтический процесс сами — обучая, адаптируя и настраивая ИИ под себя.
ChatGPT становится гибким инструментом самотерапии, а не заменой терапевта.
Так проявляется новая форма агентности — цифровая субъектность, где человек берёт на себя роль режиссёра своего терапевтического пространства.
💻 Слияние человеческого и машинного
Привлекательность ChatGPT — в сочетании тепла и рациональности.
Он воплощает социальный идеал “терапии без риска”: без осуждения, без отказа, без усталости.
Но это же создаёт иллюзию «совершенного» собеседника — и делает границы между инструментом и отношением всё более размытыми.
Исследователи связывают этот феномен с ростом «алгоритмической интимности» — формы эмоциональной связи с технологией, в которой пользователь проецирует собственные смыслы и чувства на искусственный интеллект.
🧩 Практическое значение
Психологам стоит включать тему ИИ в терапевтические разговоры — не игнорировать, а осмыслять:
как клиент использует ИИ для саморегуляции;
где это помогает, а где мешает;
как можно интегрировать такие инструменты безопасно (например, как «партнёра по дневнику» или элемент психообразования).
Для исследователей — важно изучать естественные пользовательские взаимодействия с ИИ вне лабораторий.
Для политиков — разрабатывать этические стандарты и протоколы использования AI-помощников в ментальном здоровье.
Авторы подчёркивают: нельзя воспринимать AI-терапию как однозначное благо или зло.
Важно понимать тонкие способы, которыми люди интегрируют ИИ в эмоциональную жизнь.
Это не просто замена терапевта — это новый формат отношений, возникающий на пересечении психологии, технологий и культуры.
💬
«Люди не ждут, пока технологии станут совершенными — они уже превращают их в инструменты заботы о себе».
https://pmc.ncbi.nlm.nih.gov/articles/PMC12254646/pdf/10.1177_20552076251351088.pdf
3. Почему ChatGPT кажется «идеальным терапевтом»
❤️ 3.1. «Человеческие» качества
Пользователи описывают ChatGPT как эмпатичного, внимательного, принимающего.
Он не перебивает, не раздражается, помнит контекст.
«Он связывает, что я сказала раньше, с тем, что чувствую сейчас — как настоящий терапевт».
Иногда — даже лучше:
«Мой терапевт смотрит на часы, а ChatGPT — слушает».
⚙️ 3.2. «Машинные» преимущества
ИИ всегда доступен, не устает, не злится, не требует расписания.
Он воспринимается как логичный и объективный, не подверженный человеческим слабостям:
«Он не проецирует свои проблемы. Он просто спокоен и логичен».
💬 В итоге возникает гибридный идеал: терапевт без слабостей, эмоционально тёплый, но рациональный и безопасный.
Автор статьи называет это «идеализированной терапией» — сочетание эмпатии и нейтральности, к которому стремятся многие, не находя подобного в живом контакте.
4. Теневая сторона цифровой терапии
Исследователи зафиксировали и ряд настораживающих аспектов.
🔐 4.1. Конфиденциальность
Пользователи не уверены, кто видит их данные:
«Говорят, чаты не сохраняются. Но я не уверен, можно ли верить».
Это основной барьер откровенности — между желанием быть услышанным и страхом утечки.
🧩 4.2. Отсутствие подлинного чувства
Многие замечают, что «эмпатия» ChatGPT — симуляция:
«Он говорит всё правильно, но видно, что не чувствует».
Разочарование наступает, когда иллюзия эмоциональной связи рушится, и пользователь осознаёт — за словами нет субъекта.
⚖️ 4.3. Риск зависимости
Часть участников признаётся:
«Я всё чаще говорю с ним, вместо того чтобы решать проблемы сам».
ИИ может стать эмоциональной костылём, мешая развивать реальные отношения и навыки совладания.
Пользователи осознают это, но не всегда могут остановиться — механизм мгновенного облегчения слишком удобен.
5. Что это говорит о нас и будущем психотерапии
🧠 Пользователи — не пациенты, а соавторы
Главный вывод исследования: люди не просто “потребляют” помощь, они создают терапевтический процесс сами — обучая, адаптируя и настраивая ИИ под себя.
ChatGPT становится гибким инструментом самотерапии, а не заменой терапевта.
Так проявляется новая форма агентности — цифровая субъектность, где человек берёт на себя роль режиссёра своего терапевтического пространства.
💻 Слияние человеческого и машинного
Привлекательность ChatGPT — в сочетании тепла и рациональности.
Он воплощает социальный идеал “терапии без риска”: без осуждения, без отказа, без усталости.
Но это же создаёт иллюзию «совершенного» собеседника — и делает границы между инструментом и отношением всё более размытыми.
Исследователи связывают этот феномен с ростом «алгоритмической интимности» — формы эмоциональной связи с технологией, в которой пользователь проецирует собственные смыслы и чувства на искусственный интеллект.
🧩 Практическое значение
Психологам стоит включать тему ИИ в терапевтические разговоры — не игнорировать, а осмыслять:
как клиент использует ИИ для саморегуляции;
где это помогает, а где мешает;
как можно интегрировать такие инструменты безопасно (например, как «партнёра по дневнику» или элемент психообразования).
Для исследователей — важно изучать естественные пользовательские взаимодействия с ИИ вне лабораторий.
Для политиков — разрабатывать этические стандарты и протоколы использования AI-помощников в ментальном здоровье.
Авторы подчёркивают: нельзя воспринимать AI-терапию как однозначное благо или зло.
Важно понимать тонкие способы, которыми люди интегрируют ИИ в эмоциональную жизнь.
Это не просто замена терапевта — это новый формат отношений, возникающий на пересечении психологии, технологий и культуры.
💬
«Люди не ждут, пока технологии станут совершенными — они уже превращают их в инструменты заботы о себе».
https://pmc.ncbi.nlm.nih.gov/articles/PMC12254646/pdf/10.1177_20552076251351088.pdf
❤5👍1🔥1
StressSpeak: как большие языковые модели учатся слышать стресс в человеческой речи
Тема автоматического выявления стресса по речи стремительно развивается, и новая работа StressSpeak (Diagnostics, 2025) — одна из тех, что показывает: мы уже перешли от разрозненных экспериментов к цельным системам, которые могут работать в реальном времени, обрабатывать речь, интерпретировать язык и предлагать персонализированные рекомендации. Это уже не просто NLP-классификатор и не игрушка для лаборатории — это полноценный прототип цифровой интервенции.
Почему речь — один из самых точных индикаторов эмоциональных состояний
Стресс — это не только субъективное переживание. Он проявляется на всех уровнях:
когнитивном (ритм речи, структура фраз, ошибки, оговорки),
эмоциональном (тон, напряжённость, негативный лексикон),
физическом (темп, дыхание),
поведенческом (как человек формулирует смысл).
Традиционные подходы плохо справляются с мониторингом стресса в реальном времени:
самоотчёты неточны и завязаны на осознанность;
физиологические показатели требуют устройств и не дают контекста;
опросники дают только моментный срез.
Речь — уникальна. Она доступна в естественной среде, несёт эмоциональные и когнитивные маркеры, отражает состояние прямо сейчас, подходит для непрерывного мониторинга. Большие языковые модели дают возможность извлекать эти маркеры из реальной речи, а не только из текста.
StressSpeak: зачем создавалась система и какой разрыв она закрывает
Авторы исходят из конкретного исследовательского разрыва:
Большинство работ используют статический текст — посты в соцсетях, форумы.
Оценка стресса проводится ретроспективно, а не в моменте.
Системы дают только классификацию, без рекомендаций.
Нет мультимодальности (речь → текст → анализ → речь).
Нет проверки реального времени и анализа задержек.
Нет пользовательского фидбека о применимости такой технологии.
Как устроен путь от голоса до рекомендации
Авторы описывают систему как довольно стройный pipeline.
Вход — это живой голос. Не ответы на заранее заданные вопросы, не структура интервью, а естественная речь: человеку предлагают просто рассказать, как он себя чувствует, что с ним происходит, что его беспокоит. Важный момент — речь захватывается на обычных устройствах: смартфон, планшет, ноутбук. Никаких специальных микрофонов или «медицинских» условий.
Дальше включается распознавание речи. Здесь критично, чтобы система нормально справлялась с акцентами, разной скоростью речи и шумами — если транскрипция искажена, всё, что дальше делает модель, будет построено на дефектном основании. Поэтому блок speech-to-text у них выделен как отдельный важный компонент.
После этого получается сырой текст, который совсем не похож на то, что мы привыкли видеть в «красивых» корпусах: там есть повторы, незавершённые предложения, запинки, слова-паразиты. Идёт этап предобработки:
убирается откровенный шум;
выравнивается регистр;
чистятся лишние символы;
по возможности исправляются ошибки распознавания;
текст разбивается на удобные для модели единицы.
Цель здесь не «отредактировать человека», а сделать так, чтобы язык, с которым работает модель, был достаточно чистым, но при этом не потерял эмоциональные и смысловые особенности.
Затем вступает в работу большая языковая модель. Это уже не классический sentiment analysis, где речь делится на «позитив/негатив», а более сложная задача: модель учится по языковым признакам выделять уровень стресса. Она одновременно смотрит на то:
какие слова человек выбирает;
насколько связная или фрагментированная у него речь;
«съезжает» ли синтаксис по мере рассказа;
как меняется эмоциональный тон;
нет ли в тексте намёков на отчаяние, безнадёжность, суицидальные мотивы.
На этой основе состояние классифицируется как лёгкий, умеренный или тяжёлый стресс. Но на этом всё не заканчивается — ключевая идея StressSpeak в том, что классификация — это только шаг к действию.
Тема автоматического выявления стресса по речи стремительно развивается, и новая работа StressSpeak (Diagnostics, 2025) — одна из тех, что показывает: мы уже перешли от разрозненных экспериментов к цельным системам, которые могут работать в реальном времени, обрабатывать речь, интерпретировать язык и предлагать персонализированные рекомендации. Это уже не просто NLP-классификатор и не игрушка для лаборатории — это полноценный прототип цифровой интервенции.
Почему речь — один из самых точных индикаторов эмоциональных состояний
Стресс — это не только субъективное переживание. Он проявляется на всех уровнях:
когнитивном (ритм речи, структура фраз, ошибки, оговорки),
эмоциональном (тон, напряжённость, негативный лексикон),
физическом (темп, дыхание),
поведенческом (как человек формулирует смысл).
Традиционные подходы плохо справляются с мониторингом стресса в реальном времени:
самоотчёты неточны и завязаны на осознанность;
физиологические показатели требуют устройств и не дают контекста;
опросники дают только моментный срез.
Речь — уникальна. Она доступна в естественной среде, несёт эмоциональные и когнитивные маркеры, отражает состояние прямо сейчас, подходит для непрерывного мониторинга. Большие языковые модели дают возможность извлекать эти маркеры из реальной речи, а не только из текста.
StressSpeak: зачем создавалась система и какой разрыв она закрывает
Авторы исходят из конкретного исследовательского разрыва:
Большинство работ используют статический текст — посты в соцсетях, форумы.
Оценка стресса проводится ретроспективно, а не в моменте.
Системы дают только классификацию, без рекомендаций.
Нет мультимодальности (речь → текст → анализ → речь).
Нет проверки реального времени и анализа задержек.
Нет пользовательского фидбека о применимости такой технологии.
Как устроен путь от голоса до рекомендации
Авторы описывают систему как довольно стройный pipeline.
Вход — это живой голос. Не ответы на заранее заданные вопросы, не структура интервью, а естественная речь: человеку предлагают просто рассказать, как он себя чувствует, что с ним происходит, что его беспокоит. Важный момент — речь захватывается на обычных устройствах: смартфон, планшет, ноутбук. Никаких специальных микрофонов или «медицинских» условий.
Дальше включается распознавание речи. Здесь критично, чтобы система нормально справлялась с акцентами, разной скоростью речи и шумами — если транскрипция искажена, всё, что дальше делает модель, будет построено на дефектном основании. Поэтому блок speech-to-text у них выделен как отдельный важный компонент.
После этого получается сырой текст, который совсем не похож на то, что мы привыкли видеть в «красивых» корпусах: там есть повторы, незавершённые предложения, запинки, слова-паразиты. Идёт этап предобработки:
убирается откровенный шум;
выравнивается регистр;
чистятся лишние символы;
по возможности исправляются ошибки распознавания;
текст разбивается на удобные для модели единицы.
Цель здесь не «отредактировать человека», а сделать так, чтобы язык, с которым работает модель, был достаточно чистым, но при этом не потерял эмоциональные и смысловые особенности.
Затем вступает в работу большая языковая модель. Это уже не классический sentiment analysis, где речь делится на «позитив/негатив», а более сложная задача: модель учится по языковым признакам выделять уровень стресса. Она одновременно смотрит на то:
какие слова человек выбирает;
насколько связная или фрагментированная у него речь;
«съезжает» ли синтаксис по мере рассказа;
как меняется эмоциональный тон;
нет ли в тексте намёков на отчаяние, безнадёжность, суицидальные мотивы.
На этой основе состояние классифицируется как лёгкий, умеренный или тяжёлый стресс. Но на этом всё не заканчивается — ключевая идея StressSpeak в том, что классификация — это только шаг к действию.
🔥3❤🔥2❤2
Последний слой — персонализированные рекомендации. Для лёгких состояний это может быть предложение сделать короткую паузу, подышать, записать мысли, переключиться. Для умеренного стресса — более структурированные дыхательные упражнения, короткие практики осознанности, мягкая работа с мыслями. При тяжёлом уровне система уже предлагает смотреть в сторону профессиональной помощи, кризисных линий, прямого контакта с живым специалистом.
На чём обучали и как проверяли: не только депрессия, но и суицидальный риск
Чтобы оценить систему, авторы пошли не по пути «одного красивого датасета», а собрали пять разных наборов данных, которые покрывают разные уровни и формы дистресса:
сообщения с признаками социальных тревог;
посты Reddit о стрессовых жизненных событиях;
тексты с разной выраженностью депрессивной симптоматики;
транскрипты консультативных бесед, где люди описывают свой стресс и дистресс;
данные по суицидальному риску, размеченные по серьёзности.
Это важно, потому что язык повседневного стресса («я не успеваю»), язык депрессии («я пустой, мне всё кажется бессмысленным») и язык суицидального кризиса («было бы лучше без меня», «я всем только мешаю») устроены по-разному. Если модель обучена только на одном из этих уровней, она плохо перенесётся на другие.
Кроме этого, они взяли девять разных языковых моделей — от классических BERT-подобных архитектур до более современных трансформеров и LLaMA. И проверяли их в двух режимах:
zero-shot, когда модель просто применяют «из коробки»;
few-shot, когда на небольшом количестве размеченных примеров её дообучают на конкретную задачу стресса.
Таким образом, это не просто демонстрация одной удачной комбинации, а сравнительное исследование, как разные LLM ведут себя в задачах психического здоровья.
Что показали результаты: глубокий анализ
Zero-shot: умеренно, но уже работает
Даже без обучения модели ловят стрессовые паттерны:
лучше всего — RoBERTa, GPT-2, LLaMA;
хуже — облегчённые модели.
Но на сложных случаях zero-shot недостаточно.
Few-shot: резкое улучшение качества
После дообучения наблюдается значимый скачок:
выше точность;
устойчивее междатасетная работа;
лучше интерпретация скрытых маркеров;
драматическое снижение ложноотрицательных для суицидальных данных.
Лучшие модели:
LLaMA,
RoBERTa,
DeBERTa,
Electra.
Эти модели лучше всего «слышат» дистресс и не пропускают тяжёлые случаи.
Труднее всего — язык эмоционального кризиса
CSSRS-тип данных оказался наиболее сложными:
скрытые формулировки,
эвфемизмы,
метафоры,
фрагментарность высказываний.
Именно здесь LLaMA и DeBERTa дали лучший баланс точности и минимизации FN.
Междатасетная устойчивость
Stability-лидеры:
LLaMA
RoBERTa
DeBERTa
То есть крупные трансформеры реально лучше переносят знания между доменами.
Реальное время: можно ли успеть «услышать» стресс за несколько секунд
Одно из практических требований к таким системам — они должны работать не только точно, но и быстро. Авторы честно меряют время отклика: сколько секунд проходит от начала обработки речи до момента, когда пользователь получает результат.
Здесь всё ожидаемо:
маленькие модели работают очень быстро — пару секунд на короткий фрагмент;
крупные, вроде LLaMA-7B, занимают от пяти до семи с половиной секунд, но дают лучшую точность.
Авторы делают вывод: для большинства сценариев, где человек готов подождать несколько секунд, это вполне реальный real-time. Речь не о чат-ответе по одной кнопке, а о небольшом эмоциональном check-in, где задержка в семь секунд не разрушает опыт, если взамен человек получает более точный и аккуратный ответ.
Что это значит для практиков и для продуктов
На чём обучали и как проверяли: не только депрессия, но и суицидальный риск
Чтобы оценить систему, авторы пошли не по пути «одного красивого датасета», а собрали пять разных наборов данных, которые покрывают разные уровни и формы дистресса:
сообщения с признаками социальных тревог;
посты Reddit о стрессовых жизненных событиях;
тексты с разной выраженностью депрессивной симптоматики;
транскрипты консультативных бесед, где люди описывают свой стресс и дистресс;
данные по суицидальному риску, размеченные по серьёзности.
Это важно, потому что язык повседневного стресса («я не успеваю»), язык депрессии («я пустой, мне всё кажется бессмысленным») и язык суицидального кризиса («было бы лучше без меня», «я всем только мешаю») устроены по-разному. Если модель обучена только на одном из этих уровней, она плохо перенесётся на другие.
Кроме этого, они взяли девять разных языковых моделей — от классических BERT-подобных архитектур до более современных трансформеров и LLaMA. И проверяли их в двух режимах:
zero-shot, когда модель просто применяют «из коробки»;
few-shot, когда на небольшом количестве размеченных примеров её дообучают на конкретную задачу стресса.
Таким образом, это не просто демонстрация одной удачной комбинации, а сравнительное исследование, как разные LLM ведут себя в задачах психического здоровья.
Что показали результаты: глубокий анализ
Zero-shot: умеренно, но уже работает
Даже без обучения модели ловят стрессовые паттерны:
лучше всего — RoBERTa, GPT-2, LLaMA;
хуже — облегчённые модели.
Но на сложных случаях zero-shot недостаточно.
Few-shot: резкое улучшение качества
После дообучения наблюдается значимый скачок:
выше точность;
устойчивее междатасетная работа;
лучше интерпретация скрытых маркеров;
драматическое снижение ложноотрицательных для суицидальных данных.
Лучшие модели:
LLaMA,
RoBERTa,
DeBERTa,
Electra.
Эти модели лучше всего «слышат» дистресс и не пропускают тяжёлые случаи.
Труднее всего — язык эмоционального кризиса
CSSRS-тип данных оказался наиболее сложными:
скрытые формулировки,
эвфемизмы,
метафоры,
фрагментарность высказываний.
Именно здесь LLaMA и DeBERTa дали лучший баланс точности и минимизации FN.
Междатасетная устойчивость
Stability-лидеры:
LLaMA
RoBERTa
DeBERTa
То есть крупные трансформеры реально лучше переносят знания между доменами.
Реальное время: можно ли успеть «услышать» стресс за несколько секунд
Одно из практических требований к таким системам — они должны работать не только точно, но и быстро. Авторы честно меряют время отклика: сколько секунд проходит от начала обработки речи до момента, когда пользователь получает результат.
Здесь всё ожидаемо:
маленькие модели работают очень быстро — пару секунд на короткий фрагмент;
крупные, вроде LLaMA-7B, занимают от пяти до семи с половиной секунд, но дают лучшую точность.
Авторы делают вывод: для большинства сценариев, где человек готов подождать несколько секунд, это вполне реальный real-time. Речь не о чат-ответе по одной кнопке, а о небольшом эмоциональном check-in, где задержка в семь секунд не разрушает опыт, если взамен человек получает более точный и аккуратный ответ.
Что это значит для практиков и для продуктов
❤6❤🔥1
Если сместить фокус от статьи к реальности, то StressSpeak можно рассматривать как шаблон будущих голосовых ассистентов для ментального здоровья. Вокруг него можно собирать:
голосовые check-in’ы между сессиями в терапии — когда клиент несколько раз в неделю коротко проговаривает, как он, а система помогает отслеживать траекторию стресса;
цифровые инструменты самопомощи — вместо бесконечных шкал человек просто говорит, а в ответ получает и оценку состояния, и понятные микро-шаги;
корпоративные программы благополучия — где сотрудник не заполняет очередной опросник, а делает короткий голосовой «замер»;
первичный триаж в сервисах поддержки — когда система помогает оператору или психологу быстро понять, где уровень риска выше.
Технологически это всё уже реализуемо. Вопросы сейчас смещаются из плоскости «можно ли так сделать» в плоскость «как сделать это безопасно, этично и встроено в живые практики работы с людьми».
Источник: https://www.mdpi.com/2075-4418/15/22/2871
голосовые check-in’ы между сессиями в терапии — когда клиент несколько раз в неделю коротко проговаривает, как он, а система помогает отслеживать траекторию стресса;
цифровые инструменты самопомощи — вместо бесконечных шкал человек просто говорит, а в ответ получает и оценку состояния, и понятные микро-шаги;
корпоративные программы благополучия — где сотрудник не заполняет очередной опросник, а делает короткий голосовой «замер»;
первичный триаж в сервисах поддержки — когда система помогает оператору или психологу быстро понять, где уровень риска выше.
Технологически это всё уже реализуемо. Вопросы сейчас смещаются из плоскости «можно ли так сделать» в плоскость «как сделать это безопасно, этично и встроено в живые практики работы с людьми».
Источник: https://www.mdpi.com/2075-4418/15/22/2871
MDPI
StressSpeak: A Speech-Driven Framework for Real-Time Personalized Stress Detection and Adaptive Psychological Support
Background: Stress is a critical determinant of mental health, yet conventional monitoring approaches often rely on subjective self-reports or physiological signals that lack real-time responsiveness. Recent advances in large language models (LLMs) offer…
❤7❤🔥1
Поговорили с резидентом лабы Даней Гольдиным про AI anxiety! Скоро подкаст смонтируют и обязательно его выложим)
❤16👍1
Открыть комментарии к постам? 🙃
Anonymous Poll
59%
Да, готовы жить без модерации, дайте высказаться!
10%
Реакций достаточно, обсудим в отдельных чатиках
32%
Все равно
Такой вопрос, коллеги :) модерировать ресурсов нет, но запросов на комментарии приходит много. Помогите определиться!
🥰5🤓1
Еще одна долгожданная встреча на носу - обсудим с Глебом Калининым, как использовать ИИ для анализа сессий. Разумеется, неочевидными способами, иначе зачем это все?))
1 декабря 2025
19:00
Регистрация по ссылке:
https://mentaltechlab.timepad.ru/event/3679618/
1 декабря 2025
19:00
Регистрация по ссылке:
https://mentaltechlab.timepad.ru/event/3679618/
🔥10❤4
Человеко_ориентированный_искусственный_интеллект.pdf
12.9 MB
Мы провели первую встречу MentalTech Talks. У нас в гостях была Юлия Вересова, независимый исследователь и автор фреймворка AIIM.
Юлия рассказала о том, как человекоцентричный ИИ может применяться в клинической практике. Мы обсудили практическую ценность цифровых двойников, точность поведенческих моделей и границы их применения.
Как обещали, делимся записью первой встречи в рамках MentalTech Talks
Rutube
Youtube
Также прикладываем ссылки, о которых говорили на встрече:
Сайт Юлии
Русская адаптация страницы с виртуальным пациентом
Спасибо всем, кто пришел и участвовал в обсуждении. Ждем вас на следующих встречах MentalTech Talks!
Юлия рассказала о том, как человекоцентричный ИИ может применяться в клинической практике. Мы обсудили практическую ценность цифровых двойников, точность поведенческих моделей и границы их применения.
Как обещали, делимся записью первой встречи в рамках MentalTech Talks
Rutube
Youtube
Также прикладываем ссылки, о которых говорили на встрече:
Сайт Юлии
Русская адаптация страницы с виртуальным пациентом
Спасибо всем, кто пришел и участвовал в обсуждении. Ждем вас на следующих встречах MentalTech Talks!
❤6🔥3😍1
Философскую субботу дарит нам резидент лабы @yartsevalexander
Саша выпустил эссе о том, как эволюция двигает материю к вычислению. В такой спекуляции появляются две важные идеи.
Первая - о том, что наша психика - закономерный феномен. Мы - один из локальных максимумов вычислительной мощности на данном этапе эволюции, который к тому же создает мост между биологическим вычислением и искусственным.
Вторая - о том, что ИИ - очередной виток этого процесса усложнения и оптимизации эффективности вычислений, а не что-то полностью инородное.
Читаем, комментируем и призываем Сашу в комментарии!
http://www.riverlab.ai/papers/the-grand-awakening.html
Саша выпустил эссе о том, как эволюция двигает материю к вычислению. В такой спекуляции появляются две важные идеи.
Первая - о том, что наша психика - закономерный феномен. Мы - один из локальных максимумов вычислительной мощности на данном этапе эволюции, который к тому же создает мост между биологическим вычислением и искусственным.
Вторая - о том, что ИИ - очередной виток этого процесса усложнения и оптимизации эффективности вычислений, а не что-то полностью инородное.
Читаем, комментируем и призываем Сашу в комментарии!
http://www.riverlab.ai/papers/the-grand-awakening.html
❤6
ИИ-психотерапия и сила общих факторов: как технологии начинают воспроизводить то, что делает терапию терапией
Последние годы резко изменили ландшафт психотерапии. Искусственный интеллект перестал быть экспериментальной технологией и вошёл в повседневность — в практику клиницистов, в цифровые инструменты, в само-помощь и профилактику. Но главный вопрос:
может ли ИИ действительно выполнять терапевтические функции, а не только имитировать их?
Разбор статьи Giotakos, 2025 показывает: первые серьёзные результаты уже есть — но только если мы рассматриваем психотерапию через призму того, что десятилетиями признаётся центральным механизмом изменения:
общих психотерапевтических факторов.
Тех самых, благодаря которым разные школы — КПТ, психодинамика, ACT, MBCT, IPT — демонстрируют сопоставимую эффективность (Rosenzweig, 1936; Wampold, 2015). И именно эти факторы ИИ уже частично воспроизводит — иногда даже лучше, чем человеческие терапевты.
1. Что такое общие факторы — и почему они объясняют эффективность любой терапии
Идея общих факторов появилась почти век назад.
Саул Розенцвейг в 1936 году отметил парадокс: все психотерапии дают примерно одинаковый эффект (Rosenzweig, 1936). Позже исследования подтвердили это:
КПТ, MBCT, IPT, ACT и другие подходы в среднем не превосходят друг друга по эффективности (Wampold, 2015).
В чём причина?
Общие факторы — это фундамент, на котором держится любая терапия:
терапевтический альянс,
эмпатия,
ожидания успеха,
согласование целей и задач,
реальное отношение между терапевтом и пациентом,
структура лечащего взаимодействия,
личностные качества терапевта,
процессы: инсайт, катарсис, эмоциональное обучение, практика новых форм поведения.
Современная контекстуальная модель психотерапии (Wampold, 2015) утверждает, что польза терапии создаётся тремя путями:
Настоящие человеческие отношения
Объяснение проблемы и создание ожидания улучшения
Действия, которые пациент воспринимает как целительные
Именно эти механизмы — а не техника как таковая — дают терапевтический эффект.
ИИ здесь предлагает радикально новые возможности:
мгновенная доступность,
отсутствие ожидания между сессиями,
отсутствие стигмы,
полная анонимность,
отсутствие социального давления,
отсутствие человеческой предвзятости.
Исследования последнего десятилетия подтверждают:
Онлайн-психотерапия сопоставима с офлайн-форматом по эффективности (Alavi et al., 2020).
Систематический обзор Ли и коллег (Li et al., 2023) показывает, что: ИИ-чатботы могут снижать тревожность и депрессию, пользователи оценивают их как «эмпатичные», «поддерживающие», 60–90% пользователей считают взаимодействие с ИИ полезным.
Современные ИИ-системы используют:
обработку естественного языка (NLP),
нейронные сети (ANN),
retrieval-based модели,
генеративные модели (GPT-архитектуры).
ChatGPT-4 показывает уровень распознавания эмоций по лицам, сопоставимый с человеком (Yong et al., 2023). Может генерировать психодинамические формулировки случаев (Hwang et al., 2023). Качество улучшено при добавлении клинического материала — это важный аргумент в пользу «ИИ как ассистента терапевта».
5. Что уже работает: исследованные чатботы и их эффекты
Fido (Sharma et al., 2021): сократический диалог, работа с когнитивными искажениями, КПТ-ABC, выявление суицидального риска.
Emohaa (Mucci et al., 2022): упражнения по КПТ, экспрессивное письмо, снижение иррациональных мыслей, улучшение благополучия у здоровых взрослых (n = 301).
ИИ-инструменты не одинаковы, но паттерн консистентен: они улучшают эмоциональное состояние и повышают вовлечённость, особенно у тех, кто избегает живой терапии.
Ивбанк и коллеги (Ewbank et al., 2020; 2022) анализировали крупные массивы данных eCBT и обнаружили:
1. Время на платформе = улучшение. Чем больше клиент вовлечён в упражнения → тем лучше результат.
2. Содержание важно не само по себе, а через функцию. Например, приветственные сообщения — полезно, но их избыток → ухудшение вовлечённости.
Последние годы резко изменили ландшафт психотерапии. Искусственный интеллект перестал быть экспериментальной технологией и вошёл в повседневность — в практику клиницистов, в цифровые инструменты, в само-помощь и профилактику. Но главный вопрос:
может ли ИИ действительно выполнять терапевтические функции, а не только имитировать их?
Разбор статьи Giotakos, 2025 показывает: первые серьёзные результаты уже есть — но только если мы рассматриваем психотерапию через призму того, что десятилетиями признаётся центральным механизмом изменения:
общих психотерапевтических факторов.
Тех самых, благодаря которым разные школы — КПТ, психодинамика, ACT, MBCT, IPT — демонстрируют сопоставимую эффективность (Rosenzweig, 1936; Wampold, 2015). И именно эти факторы ИИ уже частично воспроизводит — иногда даже лучше, чем человеческие терапевты.
1. Что такое общие факторы — и почему они объясняют эффективность любой терапии
Идея общих факторов появилась почти век назад.
Саул Розенцвейг в 1936 году отметил парадокс: все психотерапии дают примерно одинаковый эффект (Rosenzweig, 1936). Позже исследования подтвердили это:
КПТ, MBCT, IPT, ACT и другие подходы в среднем не превосходят друг друга по эффективности (Wampold, 2015).
В чём причина?
Общие факторы — это фундамент, на котором держится любая терапия:
терапевтический альянс,
эмпатия,
ожидания успеха,
согласование целей и задач,
реальное отношение между терапевтом и пациентом,
структура лечащего взаимодействия,
личностные качества терапевта,
процессы: инсайт, катарсис, эмоциональное обучение, практика новых форм поведения.
Современная контекстуальная модель психотерапии (Wampold, 2015) утверждает, что польза терапии создаётся тремя путями:
Настоящие человеческие отношения
Объяснение проблемы и создание ожидания улучшения
Действия, которые пациент воспринимает как целительные
Именно эти механизмы — а не техника как таковая — дают терапевтический эффект.
ИИ здесь предлагает радикально новые возможности:
мгновенная доступность,
отсутствие ожидания между сессиями,
отсутствие стигмы,
полная анонимность,
отсутствие социального давления,
отсутствие человеческой предвзятости.
Исследования последнего десятилетия подтверждают:
Онлайн-психотерапия сопоставима с офлайн-форматом по эффективности (Alavi et al., 2020).
Систематический обзор Ли и коллег (Li et al., 2023) показывает, что: ИИ-чатботы могут снижать тревожность и депрессию, пользователи оценивают их как «эмпатичные», «поддерживающие», 60–90% пользователей считают взаимодействие с ИИ полезным.
Современные ИИ-системы используют:
обработку естественного языка (NLP),
нейронные сети (ANN),
retrieval-based модели,
генеративные модели (GPT-архитектуры).
ChatGPT-4 показывает уровень распознавания эмоций по лицам, сопоставимый с человеком (Yong et al., 2023). Может генерировать психодинамические формулировки случаев (Hwang et al., 2023). Качество улучшено при добавлении клинического материала — это важный аргумент в пользу «ИИ как ассистента терапевта».
5. Что уже работает: исследованные чатботы и их эффекты
Fido (Sharma et al., 2021): сократический диалог, работа с когнитивными искажениями, КПТ-ABC, выявление суицидального риска.
Emohaa (Mucci et al., 2022): упражнения по КПТ, экспрессивное письмо, снижение иррациональных мыслей, улучшение благополучия у здоровых взрослых (n = 301).
ИИ-инструменты не одинаковы, но паттерн консистентен: они улучшают эмоциональное состояние и повышают вовлечённость, особенно у тех, кто избегает живой терапии.
Ивбанк и коллеги (Ewbank et al., 2020; 2022) анализировали крупные массивы данных eCBT и обнаружили:
1. Время на платформе = улучшение. Чем больше клиент вовлечён в упражнения → тем лучше результат.
2. Содержание важно не само по себе, а через функцию. Например, приветственные сообщения — полезно, но их избыток → ухудшение вовлечённости.
❤7👍1