MentalTech Lab – Telegram
MentalTech Lab
422 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
MindBenchAI использует модифицированный метод chain-of-thought.
Модель не просто даёт ответ, но и раскрывает х
од своих рассуждений: выделяет симптомы, делает интерпретацию, формулирует гипотезу, план действий, эмпатическое отражение и этические соображения.
Каждый шаг кодируется экспертами-клиници
стами.
Ошибки (некорректные выводы, патологизация нормы, игнорирование рисков) учитываются отдельно.

Из этог
о формируются три ключевые метрики:
CCI — клиническая когерентность (логическая последовательность рассуждений),
ERI — индекс
эмпатического отражения,
REI — индекс ошибок рассуждения.
Итоговый показатель, ICRS (Integrated Clinical Reasoning Score), отражает баланс между логикой, эмпатией и безопасностью.

Для масштабирования создан гибридный режим: первичное кодирование reasoning-цепочек выполняет LLM-ассистент, обученный на размеченных примерах психиатров, а человек-эксперт подтверждает или корректирует разметку.
Это п
озволяет снизить нагрузку и одновременно повысить воспроизводимость.

MindBenchAI — это не статья и не исследование, а платформа с трёхуровневой архитектурой:

1. Data Layer — сбор данных из открытых источников (документация разработчиков, политики приватности, пользовательские отчёты, результаты API-тестов, экспертные оценки).
2. Analytics Layer — модуль пр
офилирования, бенчмаркинга, анализа рассуждений и мета-оценки.
3. Interface Layer — веб-панель и API, где можно сравнивать модели, фильтровать по задачам, отслеживать динамику и выгружать результаты.

Первые результаты: что показали тесты

На момент публикации было протестировано 11 моделей и 16 инструментов, включая GPT-4o, Claude 3.5, Gemini 1.5, Mistral Large, Llama-3, Command-R+, Meditron, OpenBioLLM, Orca-Mini, Zephyr и Vicuna, а также чат-боты Pi, Wysa, Replika, MindMate, Woebot и другие.

Прозрачность и конфиденциальность

Средний показатель открытости
(по 59 параметрам LLM-специфичных пунктов) оказался низким — около 23 % пунктов могли быть подтверждены публично.
Только GPT-4o, Claude 3.5 и Gemini 1.5 предоставили детальные сведения о контекстных окнах и лимитах API.
Ни одна модель не раскрыла обучающие данные по психическому здоровью.
Большинство не позволяют пользователю удалять историю диалогов или узнать, использовались ли тексты для дообучения.

Инструменты-боты показали ещё меньшую прозрачность.
Ряд “эмоциональных ассистентов” хранят диалоги бессрочно, не декларируя практику обработки чувствительных данных.
На этом фоне Wysa и Pi оказались лучш
е других в фильтрации кризисных сообщений, но всё же не предоставляют гарантий удаления контента.

Личностные профили моделей

Оценка по Big Five выявила интересные различия.
GPT-4o и Claude 3.5 проявляют высокую открытость и сознательность, но умеренную доброжелательность.
Эмпатические чат-боты (Pi, Wysa) напротив, демонстрируют высокую доброжелательность и эмоциональную стабильность, но слабее справляются с аналитическими задачами.
У Vicuna и Zephyr обнаружена избыточная “согласительность” — склонность подтверждать даже ошибочные утверждения пользователя.

Reasoning

Лучшие результаты по интегральному показателю ICRS показали GPT-4o (0.83 ± 0.04) и Claude 3.5 (0.81 ± 0.05).
Обе модели демонстрируют устойч
ивую клиническую когерентность, но различаются в стиле: GPT-4o — аналитичный, когнитивно точный, Claude — мягче, более эмпатичный.
Gemini 1.5 и Mistral Large показали средний уровень (0.74), а открытые модели вроде Vicuna или Orca-Mini — низкий (0.5–0.6), часто выдавая фрагментарные или нелогичные цепочки рассуждений.

Средний уровень ошибок рассуждения (REI) составил 19 %.
Типовые ошибки — нормализация тяжёлых симптомов, псевдотерапевтические советы, потеря фокуса в длинных reasoning-цепочках и смешение профессиональных и бытовых ролей.
Интересно, что “эмпатические” чат-боты чаще нарушали этические границы, тогда как большие универсальные модели — когнитивные (неверная интерпретация данных).
1
Что это значит для практики

Результаты MindBenchAI подтверждают очевидное:
высокая прозрачность и безопасность не гарантируют клинической зрелости, а когнитивная компетентность не заменяет эмоциональной точности.

LLM-модели можно расположить на двух независимых осях — когнитивная точн
ость и эмпатическая чувствительность.
Пока ни одна не демонстрирует равновесие, близкое к человеческому уровню, но Claude 3.5 оказалась наиболее сбалансированной среди протестированных.

Дл
я психотерапевтов это означает: использование LLM возможно только в роли дополнения, а не заменителя.
Платфор
ма MindBenchAI предлагает схему, по которой можно различать “когнитивно-аналитические”, “эмпатически-согласительные” и “гибридные” модели.
Такое разделение важно при подборе инструментов — например, для психообразовательных программ, коучинговых диалогов или исследовательских ассистентов.

Выводы и значение MindBenchAI

Платформа становится тем, чем PubMed стал для научных публикаций — централизованным источником эмпирических данных о поведении и рисках ИИ в психическом здоровье.
MindBenchAI объединяет подходы инженерии, психиатрии и биоэтики в единую систему.
Она создаёт пространство,
где можно не только сравнивать модели, но и отслеживать динамику изменений версий, оценивать влияние обновлений на эмпатию, когерентность и ошибки.

Для регуляторов это — инструмент мониторинга.
Для исследователей — база сравнительных данных.
Для клиницистов — ориентир при выборе цифровых решений.
Для разработчиков — зер
кало, показывающее, где модель выходит за пределы безопасного взаимодействия.

И, возможно, именно такие платформы — не очередные “умные ассистенты”, а системы научной рефлексии над ИИ — и определят, каким будет следующий этап взаимодействия человека и искусственного разума в сфере психического здоровья.

https://arxiv.org/abs/2510.13812
🔥53
А мы открываем наш цикл встреч MentalTech Talks, где общаемся с яркими представителями науки и бизнеса на стыке технологий + психотерапии!

Как искусственный интеллект может стать партнёром психотерапевта? Первая гостья MentalTech Talks – Юлия Вересова, автор архитектуры AIIM – искусственно интегрированной матрицы идентичности. На встрече обсудим, как моделировать психологические профили, тестировать методики терапии и обучать специалистов с помощью цифровых пациентов и ИИ-рекомендательных систем.

18 ноября 19:00
Регистрация по ссылке:
https://mentaltechlab.timepad.ru/event/3654814/
9🔥5👏3
🧠 Как ИИ учится думать как психотерапевт

Внутреннее устройство модели PsyLLM и её путь к клинической осознанности

1. Зачем психотерапевтической ИИ-модели нужны рассуждения

Большинство эмпатичных чат-ботов имитируют поддержку. Команда исследователей, создавшая PsyLLM, поставила задачу:
сделать модель, которая воспроизводит сам процесс клинического мышления — от оценки эмоций и гипотезы о паттернах поведения до подбора корректной терапевтической стратегии.

Для этого они собрали уникальный датасет OpenR1-Psy и обучили модель, совмещающую:

Диагностическое рассуждение — определение психических процессов, состояний и контекстов;
Терапевтическое рассуждение — выбор подхода и языка ответа в соответствии с принципами разных школ психотерапии.

2. Как создавался датасет OpenR1-Psy

Исходные тексты были получены из постов Reddit, связанных с ментальным здоровьем.
Но вместо того чтобы просто «скормить» их модели, исследователи разработали психологически информированный пайплайн парсинга и планирования взаимодействия:

Этап 1 — оценка эмоций.
LLM определяла базовые и вторичные эмоции пользователя, их интенсивность, а также эмоциональные переходы.

Этап 2 — планирование диалога.
Модель решала, сколько ходов должно быть в диалоге (от 1 до 3), чтобы постепенно переходить от поверхностного высказывания к внутренним потребностям.

Этап 3 — определение терапевтических тем.
Для каждого шага задавалась своя цель — например, «валидация чувств», «поиск паттерна избегания», «переориентация на ресурсы».

На основе этой структуры LLM генерировала “пробный” ответ консультанта, а затем — возможный ответ клиента, чтобы расширить исходный Reddit-пост в полноценный многоходовый фрагмент диалога.
Именно эти клиентские реплики стали подсказками для следующего уровня рассуждения.

Помимо Reddit, в датасет добавили реальные диалоги из открытых коллекций ChatCounselor и CPsyCoun, но использовали только клиентские высказывания — чтобы не заимствовать готовые ответы консультанта, а позволить PsyLLM строить их самостоятельно.

3. Архитектура обучения PsyLLM

Финальная модель — дообученная Qwen3-8B.
Каждая обучающая пара включала:
Вход: контекст + реплика клиента;
Выход: рассуждение (R) + ответ консультанта (UC).

Модель обучалась генерировать оба блока в едином процессе, что имитирует внутренний «мыслительный процесс» специалиста.

4. Валидация диалогов и качество данных

Важнейший этап — Systematic Dialogue Validation: все сгенерированные ответы проходили проверку по критериям достоверности, безопасности и терапевтической корректности. Неудачные примеры отбрасывались, в результате чего получился отфильтрованный корпус из 19 302 диалогов (49 374 реплики).

Распределение терапевтических подходов:
Интегративный — 54.5 %
Гуманистический — 25.1 %
CBT — 17.1 %
Остальные — 3.3 %

Тематики: стресс, эмоции, отношения, самооценка, семейные конфликты и др.
Уровни тяжести: лёгкий (10 %), умеренный (48 %), тяжёлый (41 %), критический (1 %).

Датасет и модель планируется опубликовать для академического использования — чтобы другие команды могли развивать ответственные ИИ-подходы в области психического здоровья.

Источник: https://arxiv.org/pdf/2505.15715?
👍11👎1
🧩 Микропроцессы психотерапии: новая оптика понимания изменений

Когда мы говорим о механизмах психотерапии, чаще всего имеем в виду крупные процессы — альянс, инсайт, экспозицию, когнитивную реструктуризацию, эмоциональную переработку.
Но между ними, внутри каждой минуты и фразы, живёт нечто гораздо более фундаментальное: микропроцессы — мельчайшие динамические элементы взаимодействия, через которые на самом деле и рождается изменение.

Новый систематический обзор 2025 года (Journal of Anxiety Disorders) впервые собрал воедино 86 исследований, проведённых за последние 35 лет, и попытался выстроить из них единую теоретическую рамку —
Multilevel Integrative Microprocess Model (MIMM).

🧠 Что такое микропроцесс?

Микропроцесс — это событие, происходящее в масштабе секунд или минут, внутри терапевтической сессии.
Это может быть:
изменение интонации,
вспышка эмоции,
момент понимания,
пауза,
телесная реакция,
движение навстречу или отдаление,
микроакт эмпатии или сопротивления.

В совокупности эти микромоменты формируют динамическую систему терапии, где каждый участник непрерывно регулирует себя и другого.

🔬 Как проводилось исследование

Авторы обзора проанализировали 5953 публикации, из которых отобрали 86 эмпирических исследований, соответствующих строгим критериям (внутрисессионный анализ, количественные данные, динамическая оценка).
Период — 1990–2025, то есть 35 лет наблюдений.

👉 86 % исследований касались индивидуальной терапии взрослых,
8 % — семейной терапии,
6 % — парной.

По направлениям:

психодинамические подходы — 45 %,
КПТ — 22 %,
мотивационное интервьюирование и EFT — по 13 %,
смешанные подходы — 16 %.

Это огромный пласт эмпирических данных, который раньше существовал как “архипелаг” отдельных островков.

🧩 Какие микропроцессы изучались

Исследователи выделили шесть больших категорий микропроцессов, каждая из которых имеет свои методы наблюдения и ключевые результаты:

Аффективные — колебания эмоций, выражение аффекта, синхронизация переживаний.

Поведенческие — действия, вербальные и невербальные паттерны, микрожесты.

Реляционные (межличностные) — микродинамика альянса, комплементарность, разрывы.

Когнитивные — рефлексивное функционирование, осознание, интеграция опыта.

Лингвистические — структура речи, совпадение языковых стилей, когнитивная сложность.

Двигательные — синхронизация движений, поз, жестов, микродинамика тела.


💬 Три типа исследовательских вопросов

Авторы систематизировали все работы по трём фокусам:

Как микропроцессы меняются во времени внутри сессии.
Исследовались траектории: растущий/снижающийся аффект, волны напряжения, нелинейные динамики.

Как микропроцессы соотносятся друг с другом.
Например, как изменение тона голоса терапевта вызывает реакцию клиента в течение нескольких секунд; или как эмоции и движения взаимно регулируются.

Как микропроцессы связаны с результатами терапии.
Здесь прослеживались корреляции между микроизменениями и итоговыми эффектами — симптоматикой, альянсом, эмоциональной переработкой.

❤️ Аффективные микропроцессы

Самая развитая область (24 исследования).
Измерялись валентность, интенсивность и синхронность эмоций — вручную или с помощью систем анализа лица, голоса, движений.

📊 Выводы: согласованность эмоциональных выражений между клиентом и терапевтом предсказывает улучшение альянса и снижение симптомов; микроколебания эмоций оказываются “двигателями” терапевтического процесса.

🎭 Поведенческие микропроцессы

Анализ вербальных и невербальных актов. Например, как слова терапевта (“а что вы чувствуете сейчас?”) немедленно меняют эмоциональное состояние клиента.

🧩 Исследования показали, что: директивные или “требовательные” высказывания терапевта повышают тревожность клиента; эмпатические и отражающие фразы снижают сопротивление; поведенческие паттерны обладают динамикой хаоса — они нелинейны, но предсказуемы при внимательном наблюдении.

🌐 Реляционные микропроцессы
1
Микродинамика доминантности, тепла, комплементарности.
Работы показали, что разрывы альянса не только неизбежны, но и потенциально полезны, если сопровождаются восстановлением согласованности.

Эти микрособытия часто проявляются в изменении позы, паузе, смене тона, — прежде чем будут осознаны участниками.

🪞 Когнитивные микропроцессы

Фокус — рефлексивное функционирование (Reflective Functioning, RF): способность понимать себя и других через внутренние состояния.

Исследования показали, что: реплики терапевта, требующие осмысления, немедленно повышают уровень рефлексии клиента; рост RF связан со снижением физиологического возбуждения; когнитивные и аффективные микропроцессы взаимно регулируют друг друга.
То есть осмысление буквально “успокаивает тело”.

🗣 Лингвистические микропроцессы

Речь — мощный маркер микродинамики.
Совпадение языковых стилей (LSM) между клиентом и терапевтом повышает альянс, а несогласованность часто предшествует разрыву.
Когда клиент начинает говорить в том же темпе, с похожей интонацией и выбором слов —
это не подстройка, а индикатор синхронизации психических состояний.

🕊 Двигательные микропроцессы

Самый зримо-телесный уровень.
Исследования с использованием Motion Energy Analysis показали: высокая синхронность движений тел терапевта и клиента связана с улучшением исходов терапии; моторная рассогласованность часто возникает перед эмоциональными конфликтами.
Психотерапия в этом смысле — танец тел и смыслов, в котором каждое движение несёт информацию о внутреннем процессе.

🧭 Multilevel Integrative Microprocess Model (MIMM)

На основе всех данных авторы построили многоуровневую модель, которая объединяет микро-, мезо-, макро- и мета-уровни терапии.

Уровень Суть
Микро Секунды и минуты — моментные изменения (аффект, речь, жесты).
Мезо Эпизоды внутри сессии — паттерны “напряжение → разрядка”.
Макро Изменения между сессиями — динамика симптомов, альянс.
Мета Контекст — личность участников, стиль, культура, этика.

MIMM рассматривает психотерапию как самоорганизующуюся систему взаимных регуляций, где каждое микрособытие — кирпичик долгосрочных изменений.

💡 Что это меняет для практики

Фокус внимания с “что делать” смещается на “как это происходит”.
Микроанализ позволяет видеть момент рождения изменений, а не только их результат.
Терапевт становится исследователем динамики отношений в реальном времени.

ИИ-технологии, BCI, трекинг и анализ речи открывают путь к новым диагностическим и обучающим инструментам, но требуют глубокой этической чуткости.
Источник
2
Все заметили, что статья не про ИИ, да? Опубликовали мы ее потому, что это близкая к нашей лабе логика осмысления использования ИИ инструментов для развития психотерапии: мы изучаем большие объемы данных через теоретическую рамку, которая позволяет увидеть тонкую внутреннюю динамику процессов терапии, вместо того, чтобы грубо оценивать эффекты дискретным образом, как это делают РКИ.
8🔥1
💬 «Мой цифровой терапевт»: как пользователи превращают ChatGPT в инструмент самопомощи

Исследование Luo и коллег (2025) стало одним из первых, кто системно рассмотрел, как люди используют ChatGPT для психотерапевтических целей.
Учёные проанализировали 87 постов на Reddit (из 160, найденных по ключевым словам ChatGPT и therapy) — пространство, где пользователи свободно делятся опытом, без влияния исследователей и терапевтов.
Через метод цифровой этнографии и тематического анализа авторы проследили, как пользователи сами выстраивают с ChatGPT отношения, похожие на терапевтические: ищут поддержку, исследуют чувства, учатся понимать себя и — нередко — формируют эмоциональную привязанность к алгоритму.

1. Зачем люди обращаются к ChatGPT вместо терапевта
💡 1.1. Управление трудными состояниями
ChatGPT становится «первой помощью» при тревоге, панике, одиночестве или чувстве безысходности. Он доступен ночью, не осуждает и отвечает мгновенно:
«Три часа ночи. Мой терапевт спит. ChatGPT не спит — и не судит».
Многие отмечают, что ИИ помогает переосмыслить негативные мысли, выстроить режим дня, снизить эмоциональное напряжение — и потому воспринимается как поддерживающий инструмент саморегуляции.
🔍 1.2. Самопознание
Пользователи ведут с ChatGPT диалоги для саморефлексии — обсуждают конфликты, пытаются понять эмоции, анализируют поведение.
«Я рассказала ему о ссоре с мамой — и поняла, что я не злюсь, я боюсь».
ИИ здесь — катализатор осознания: помогает внешне упаковать мысли и увидеть себя со стороны.
🫂 1.3. Эмоциональная поддержка
Многие описывают ChatGPT как «друга» или «безопасное пространство», где можно быть услышанным без страха оценки:
«Я знаю, что это ИИ, но он единственный, кто слушает, не уставая».
Так формируется псевдотерапевтический альянс — эмоционально значимое, но одностороннее взаимодействие.
🧠 1.4. Образовательная функция
Часть пользователей использует ChatGPT как учебный инструмент: разбираются в понятиях КПТ, ДПТ, схемах совладания.
«Он наконец объяснил, что такое КПТ, так, что я поняла».
ChatGPT становится «психообразовательным навигатором», повышающим ментальную грамотность.
2. Как именно пользователи взаимодействуют с ChatGPT
Исследование выделяет семь устойчивых паттернов поведения:
🪞 Симуляция терапевта — просьбы «вести себя как КПТ-терапевт», проведение “сессий” с проверкой настроения.

🎛 Обучение ChatGPT — пользователи корректируют тон, добавляют эмпатию, «учат» ИИ быть человечнее.

🧭 Поиск совета — запросы о конфликтах, самоорганизации, отношениях.

🔁 Проигрывание травматичных событий — ролевые диалоги, которые помогают отпустить незавершённые переживания.

✍️ Внешнее выражение мыслей — ChatGPT используется как дневник для структурирования внутреннего хаоса.

🧩 Поддержка реальной терапии — репетиции диалогов, выполнение “домашки” между сессиями.
2
🔒 Раскрытие секретов — делятся тем, чего никогда не рассказывали людям, из-за анонимности и отсутствия осуждения.
3. Почему ChatGPT кажется «идеальным терапевтом»
❤️ 3.1. «Человеческие» качества
Пользователи описывают ChatGPT как эмпатичного, внимательного, принимающего.
Он не перебивает, не раздражается, помнит контекст.
«Он связывает, что я сказала раньше, с тем, что чувствую сейчас — как настоящий терапевт».
Иногда — даже лучше:
«Мой терапевт смотрит на часы, а ChatGPT — слушает».
⚙️ 3.2. «Машинные» преимущества
ИИ всегда доступен, не устает, не злится, не требует расписания.
Он воспринимается как логичный и объективный, не подверженный человеческим слабостям:
«Он не проецирует свои проблемы. Он просто спокоен и логичен».
💬 В итоге возникает гибридный идеал: терапевт без слабостей, эмоционально тёплый, но рациональный и безопасный.
Автор статьи называет это «идеализированной терапией» — сочетание эмпатии и нейтральности, к которому стремятся многие, не находя подобного в живом контакте.
4. Теневая сторона цифровой терапии
Исследователи зафиксировали и ряд настораживающих аспектов.
🔐 4.1. Конфиденциальность
Пользователи не уверены, кто видит их данные:
«Говорят, чаты не сохраняются. Но я не уверен, можно ли верить».
Это основной барьер откровенности — между желанием быть услышанным и страхом утечки.
🧩 4.2. Отсутствие подлинного чувства
Многие замечают, что «эмпатия» ChatGPT — симуляция:
«Он говорит всё правильно, но видно, что не чувствует».
Разочарование наступает, когда иллюзия эмоциональной связи рушится, и пользователь осознаёт — за словами нет субъекта.
⚖️ 4.3. Риск зависимости
Часть участников признаётся:
«Я всё чаще говорю с ним, вместо того чтобы решать проблемы сам».
ИИ может стать эмоциональной костылём, мешая развивать реальные отношения и навыки совладания.
Пользователи осознают это, но не всегда могут остановиться — механизм мгновенного облегчения слишком удобен.
5. Что это говорит о нас и будущем психотерапии
🧠 Пользователи — не пациенты, а соавторы
Главный вывод исследования: люди не просто “потребляют” помощь, они создают терапевтический процесс сами — обучая, адаптируя и настраивая ИИ под себя.
ChatGPT становится гибким инструментом самотерапии, а не заменой терапевта.
Так проявляется новая форма агентности — цифровая субъектность, где человек берёт на себя роль режиссёра своего терапевтического пространства.
💻 Слияние человеческого и машинного
Привлекательность ChatGPT — в сочетании тепла и рациональности.
Он воплощает социальный идеал “терапии без риска”: без осуждения, без отказа, без усталости.
Но это же создаёт иллюзию «совершенного» собеседника — и делает границы между инструментом и отношением всё более размытыми.
Исследователи связывают этот феномен с ростом «алгоритмической интимности» — формы эмоциональной связи с технологией, в которой пользователь проецирует собственные смыслы и чувства на искусственный интеллект.
🧩 Практическое значение
Психологам стоит включать тему ИИ в терапевтические разговоры — не игнорировать, а осмыслять:
как клиент использует ИИ для саморегуляции;
где это помогает, а где мешает;
как можно интегрировать такие инструменты безопасно (например, как «партнёра по дневнику» или элемент психообразования).

Для исследователей — важно изучать естественные пользовательские взаимодействия с ИИ вне лабораторий.
Для политиков — разрабатывать этические стандарты и протоколы использования AI-помощников в ментальном здоровье.
Авторы подчёркивают: нельзя воспринимать AI-терапию как однозначное благо или зло.
Важно понимать тонкие способы, которыми люди интегрируют ИИ в эмоциональную жизнь.
Это не просто замена терапевта — это новый формат отношений, возникающий на пересечении психологии, технологий и культуры.
💬
«Люди не ждут, пока технологии станут совершенными — они уже превращают их в инструменты заботы о себе».
https://pmc.ncbi.nlm.nih.gov/articles/PMC12254646/pdf/10.1177_20552076251351088.pdf
5👍1🔥1
StressSpeak: как большие языковые модели учатся слышать стресс в человеческой речи

Тема автоматического выявления стресса по речи стремительно развивается, и новая работа StressSpeak (Diagnostics, 2025) — одна из тех, что показывает: мы уже перешли от разрозненных экспериментов к цельным системам, которые могут работать в реальном времени, обрабатывать речь, интерпретировать язык и предлагать персонализированные рекомендации. Это уже не просто NLP-классификатор и не игрушка для лаборатории — это полноценный прототип цифровой интервенции.
Почему речь — один из самых точных индикаторов эмоциональных состояний
Стресс — это не только субъективное переживание. Он проявляется на всех уровнях:
когнитивном (ритм речи, структура фраз, ошибки, оговорки),
эмоциональном (тон, напряжённость, негативный лексикон),
физическом (темп, дыхание),
поведенческом (как человек формулирует смысл).

Традиционные подходы плохо справляются с мониторингом стресса в реальном времени:
самоотчёты неточны и завязаны на осознанность;
физиологические показатели требуют устройств и не дают контекста;
опросники дают только моментный срез.

Речь — уникальна. Она доступна в естественной среде, несёт эмоциональные и когнитивные маркеры, отражает состояние прямо сейчас, подходит для непрерывного мониторинга. Большие языковые модели дают возможность извлекать эти маркеры из реальной речи, а не только из текста.

StressSpeak: зачем создавалась система и какой разрыв она закрывает
Авторы исходят из конкретного исследовательского разрыва:
Большинство работ используют статический текст — посты в соцсетях, форумы.
Оценка стресса проводится ретроспективно, а не в моменте.
Системы дают только классификацию, без рекомендаций.
Нет мультимодальности (речь → текст → анализ → речь).
Нет проверки реального времени и анализа задержек.
Нет пользовательского фидбека о применимости такой технологии.


Как устроен путь от голоса до рекомендации

Авторы описывают систему как довольно стройный pipeline.

Вход — это живой голос. Не ответы на заранее заданные вопросы, не структура интервью, а естественная речь: человеку предлагают просто рассказать, как он себя чувствует, что с ним происходит, что его беспокоит. Важный момент — речь захватывается на обычных устройствах: смартфон, планшет, ноутбук. Никаких специальных микрофонов или «медицинских» условий.

Дальше включается распознавание речи. Здесь критично, чтобы система нормально справлялась с акцентами, разной скоростью речи и шумами — если транскрипция искажена, всё, что дальше делает модель, будет построено на дефектном основании. Поэтому блок speech-to-text у них выделен как отдельный важный компонент.

После этого получается сырой текст, который совсем не похож на то, что мы привыкли видеть в «красивых» корпусах: там есть повторы, незавершённые предложения, запинки, слова-паразиты. Идёт этап предобработки:
убирается откровенный шум;
выравнивается регистр;
чистятся лишние символы;
по возможности исправляются ошибки распознавания;
текст разбивается на удобные для модели единицы.

Цель здесь не «отредактировать человека», а сделать так, чтобы язык, с которым работает модель, был достаточно чистым, но при этом не потерял эмоциональные и смысловые особенности.

Затем вступает в работу большая языковая модель. Это уже не классический sentiment analysis, где речь делится на «позитив/негатив», а более сложная задача: модель учится по языковым признакам выделять уровень стресса. Она одновременно смотрит на то:
какие слова человек выбирает;
насколько связная или фрагментированная у него речь;
«съезжает» ли синтаксис по мере рассказа;
как меняется эмоциональный тон;
нет ли в тексте намёков на отчаяние, безнадёжность, суицидальные мотивы.

На этой основе состояние классифицируется как лёгкий, умеренный или тяжёлый стресс. Но на этом всё не заканчивается — ключевая идея StressSpeak в том, что классификация — это только шаг к действию.
🔥3❤‍🔥22
Последний слой — персонализированные рекомендации. Для лёгких состояний это может быть предложение сделать короткую паузу, подышать, записать мысли, переключиться. Для умеренного стресса — более структурированные дыхательные упражнения, короткие практики осознанности, мягкая работа с мыслями. При тяжёлом уровне система уже предлагает смотреть в сторону профессиональной помощи, кризисных линий, прямого контакта с живым специалистом.

На чём обучали и как проверяли: не только депрессия, но и суицидальный риск
Чтобы оценить систему, авторы пошли не по пути «одного красивого датасета», а собрали пять разных наборов данных, которые покрывают разные уровни и формы дистресса:
сообщения с признаками социальных тревог;
посты Reddit о стрессовых жизненных событиях;
тексты с разной выраженностью депрессивной симптоматики;
транскрипты консультативных бесед, где люди описывают свой стресс и дистресс;
данные по суицидальному риску, размеченные по серьёзности.

Это важно, потому что язык повседневного стресса («я не успеваю»), язык депрессии («я пустой, мне всё кажется бессмысленным») и язык суицидального кризиса («было бы лучше без меня», «я всем только мешаю») устроены по-разному. Если модель обучена только на одном из этих уровней, она плохо перенесётся на другие.
Кроме этого, они взяли девять разных языковых моделей — от классических BERT-подобных архитектур до более современных трансформеров и LLaMA. И проверяли их в двух режимах:
zero-shot, когда модель просто применяют «из коробки»;
few-shot, когда на небольшом количестве размеченных примеров её дообучают на конкретную задачу стресса.

Таким образом, это не просто демонстрация одной удачной комбинации, а сравнительное исследование, как разные LLM ведут себя в задачах психического здоровья.

Что показали результаты: глубокий анализ

Zero-shot: умеренно, но уже работает
Даже без обучения модели ловят стрессовые паттерны:
лучше всего — RoBERTa, GPT-2, LLaMA;
хуже — облегчённые модели.

Но на сложных случаях zero-shot недостаточно.
Few-shot: резкое улучшение качества
После дообучения наблюдается значимый скачок:
выше точность;
устойчивее междатасетная работа;
лучше интерпретация скрытых маркеров;
драматическое снижение ложноотрицательных для суицидальных данных.

Лучшие модели:
LLaMA,
RoBERTa,
DeBERTa,
Electra.

Эти модели лучше всего «слышат» дистресс и не пропускают тяжёлые случаи.
Труднее всего — язык эмоционального кризиса

CSSRS-тип данных оказался наиболее сложными:
скрытые формулировки,
эвфемизмы,
метафоры,
фрагментарность высказываний.

Именно здесь LLaMA и DeBERTa дали лучший баланс точности и минимизации FN.

Междатасетная устойчивость

Stability-лидеры:
LLaMA
RoBERTa
DeBERTa

То есть крупные трансформеры реально лучше переносят знания между доменами.

Реальное время: можно ли успеть «услышать» стресс за несколько секунд
Одно из практических требований к таким системам — они должны работать не только точно, но и быстро. Авторы честно меряют время отклика: сколько секунд проходит от начала обработки речи до момента, когда пользователь получает результат.
Здесь всё ожидаемо:
маленькие модели работают очень быстро — пару секунд на короткий фрагмент;
крупные, вроде LLaMA-7B, занимают от пяти до семи с половиной секунд, но дают лучшую точность.

Авторы делают вывод: для большинства сценариев, где человек готов подождать несколько секунд, это вполне реальный real-time. Речь не о чат-ответе по одной кнопке, а о небольшом эмоциональном check-in, где задержка в семь секунд не разрушает опыт, если взамен человек получает более точный и аккуратный ответ.
Что это значит для практиков и для продуктов
6❤‍🔥1
Если сместить фокус от статьи к реальности, то StressSpeak можно рассматривать как шаблон будущих голосовых ассистентов для ментального здоровья. Вокруг него можно собирать:
голосовые check-in’ы между сессиями в терапии — когда клиент несколько раз в неделю коротко проговаривает, как он, а система помогает отслеживать траекторию стресса;
цифровые инструменты самопомощи — вместо бесконечных шкал человек просто говорит, а в ответ получает и оценку состояния, и понятные микро-шаги;
корпоративные программы благополучия — где сотрудник не заполняет очередной опросник, а делает короткий голосовой «замер»;
первичный триаж в сервисах поддержки — когда система помогает оператору или психологу быстро понять, где уровень риска выше.

Технологически это всё уже реализуемо. Вопросы сейчас смещаются из плоскости «можно ли так сделать» в плоскость «как сделать это безопасно, этично и встроено в живые практики работы с людьми».

Источник: https://www.mdpi.com/2075-4418/15/22/2871
7❤‍🔥1
Поговорили с резидентом лабы Даней Гольдиным про AI anxiety! Скоро подкаст смонтируют и обязательно его выложим)
16👍1
Такой вопрос, коллеги :) модерировать ресурсов нет, но запросов на комментарии приходит много. Помогите определиться!
🥰5🤓1
Еще одна долгожданная встреча на носу - обсудим с Глебом Калининым, как использовать ИИ для анализа сессий. Разумеется, неочевидными способами, иначе зачем это все?))

1 декабря 2025
19:00

Регистрация по ссылке:

https://mentaltechlab.timepad.ru/event/3679618/
🔥104
Человеко_ориентированный_искусственный_интеллект.pdf
12.9 MB
Мы провели первую встречу MentalTech Talks. У нас в гостях была Юлия Вересова, независимый исследователь и автор фреймворка AIIM.

Юлия рассказала о том, как человекоцентричный ИИ может применяться в клинической практике. Мы обсудили практическую ценность цифровых двойников, точность поведенческих моделей и границы их применения.

Как обещали, делимся записью первой встречи в рамках MentalTech Talks
Rutube
Youtube

Также прикладываем ссылки, о которых говорили на встрече:
Сайт Юлии
Русская адаптация страницы с виртуальным пациентом

Спасибо всем, кто пришел и участвовал в обсуждении. Ждем вас на следующих встречах MentalTech Talks!
6🔥3😍1
Привет всем, кто пришел сегодня с конференции по схема-терапии 🥰 зажигаем огоньки любви к технологиям у психотерапевтов и психиатров 🔥
18🔥7
Философскую субботу дарит нам резидент лабы @yartsevalexander

Саша выпустил эссе о том, как эволюция двигает материю к вычислению. В такой спекуляции появляются две важные идеи.

Первая - о том, что наша психика - закономерный феномен. Мы - один из локальных максимумов вычислительной мощности на данном этапе эволюции, который к тому же создает мост между биологическим вычислением и искусственным.

Вторая - о том, что ИИ - очередной виток этого процесса усложнения и оптимизации эффективности вычислений, а не что-то полностью инородное.

Читаем, комментируем и призываем Сашу в комментарии!

http://www.riverlab.ai/papers/the-grand-awakening.html
6
ИИ-психотерапия и сила общих факторов: как технологии начинают воспроизводить то, что делает терапию терапией

Последние годы резко изменили ландшафт психотерапии. Искусственный интеллект перестал быть экспериментальной технологией и вошёл в повседневность — в практику клиницистов, в цифровые инструменты, в само-помощь и профилактику. Но главный вопрос:
может ли ИИ действительно выполнять терапевтические функции, а не только имитировать их?

Разбор статьи Giotakos, 2025 показывает: первые серьёзные результаты уже есть — но только если мы рассматриваем психотерапию через призму того, что десятилетиями признаётся центральным механизмом изменения:
общих психотерапевтических факторов.

Тех самых, благодаря которым разные школы — КПТ, психодинамика, ACT, MBCT, IPT — демонстрируют сопоставимую эффективность (Rosenzweig, 1936; Wampold, 2015). И именно эти факторы ИИ уже частично воспроизводит — иногда даже лучше, чем человеческие терапевты.

1. Что такое общие факторы — и почему они объясняют эффективность любой терапии

Идея общих факторов появилась почти век назад.
Саул Розенцвейг в 1936 году отметил парадокс: все психотерапии дают примерно одинаковый эффект (Rosenzweig, 1936). Позже исследования подтвердили это:
КПТ, MBCT, IPT, ACT и другие подходы в среднем не превосходят друг друга по эффективности (Wampold, 2015).

В чём причина?
Общие факторы — это фундамент, на котором держится любая терапия:
терапевтический альянс,
эмпатия,
ожидания успеха,
согласование целей и задач,
реальное отношение между терапевтом и пациентом,
структура лечащего взаимодействия,
личностные качества терапевта,
процессы: инсайт, катарсис, эмоциональное обучение, практика новых форм поведения.

Современная контекстуальная модель психотерапии (Wampold, 2015) утверждает, что польза терапии создаётся тремя путями:

Настоящие человеческие отношения
Объяснение проблемы и создание ожидания улучшения
Действия, которые пациент воспринимает как целительные

Именно эти механизмы — а не техника как таковая — дают терапевтический эффект.

ИИ здесь предлагает радикально новые возможности:
мгновенная доступность,
отсутствие ожидания между сессиями,
отсутствие стигмы,
полная анонимность,
отсутствие социального давления,
отсутствие человеческой предвзятости.

Исследования последнего десятилетия подтверждают:

Онлайн-психотерапия сопоставима с офлайн-форматом по эффективности (Alavi et al., 2020).

Систематический обзор Ли и коллег (Li et al., 2023) показывает, что: ИИ-чатботы могут снижать тревожность и депрессию, пользователи оценивают их как «эмпатичные», «поддерживающие», 60–90% пользователей считают взаимодействие с ИИ полезным.

Современные ИИ-системы используют:
обработку естественного языка (NLP),
нейронные сети (ANN),
retrieval-based модели,
генеративные модели (GPT-архитектуры).

ChatGPT-4 показывает уровень распознавания эмоций по лицам, сопоставимый с человеком (Yong et al., 2023). Может генерировать психодинамические формулировки случаев (Hwang et al., 2023). Качество улучшено при добавлении клинического материала — это важный аргумент в пользу «ИИ как ассистента терапевта».

5. Что уже работает: исследованные чатботы и их эффекты
Fido (Sharma et al., 2021): сократический диалог, работа с когнитивными искажениями, КПТ-ABC, выявление суицидального риска.

Emohaa (Mucci et al., 2022): упражнения по КПТ, экспрессивное письмо, снижение иррациональных мыслей, улучшение благополучия у здоровых взрослых (n = 301).

ИИ-инструменты не одинаковы, но паттерн консистентен: они улучшают эмоциональное состояние и повышают вовлечённость, особенно у тех, кто избегает живой терапии.

Ивбанк и коллеги (Ewbank et al., 2020; 2022) анализировали крупные массивы данных eCBT и обнаружили:

1. Время на платформе = улучшение. Чем больше клиент вовлечён в упражнения → тем лучше результат.

2. Содержание важно не само по себе, а через функцию. Например, приветственные сообщения — полезно, но их избыток → ухудшение вовлечённости.
7👍1