MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
Если сместить фокус от статьи к реальности, то StressSpeak можно рассматривать как шаблон будущих голосовых ассистентов для ментального здоровья. Вокруг него можно собирать:
голосовые check-in’ы между сессиями в терапии — когда клиент несколько раз в неделю коротко проговаривает, как он, а система помогает отслеживать траекторию стресса;
цифровые инструменты самопомощи — вместо бесконечных шкал человек просто говорит, а в ответ получает и оценку состояния, и понятные микро-шаги;
корпоративные программы благополучия — где сотрудник не заполняет очередной опросник, а делает короткий голосовой «замер»;
первичный триаж в сервисах поддержки — когда система помогает оператору или психологу быстро понять, где уровень риска выше.

Технологически это всё уже реализуемо. Вопросы сейчас смещаются из плоскости «можно ли так сделать» в плоскость «как сделать это безопасно, этично и встроено в живые практики работы с людьми».

Источник: https://www.mdpi.com/2075-4418/15/22/2871
7❤‍🔥1
Поговорили с резидентом лабы Даней Гольдиным про AI anxiety! Скоро подкаст смонтируют и обязательно его выложим)
16👍1
Такой вопрос, коллеги :) модерировать ресурсов нет, но запросов на комментарии приходит много. Помогите определиться!
🥰5🤓1
Еще одна долгожданная встреча на носу - обсудим с Глебом Калининым, как использовать ИИ для анализа сессий. Разумеется, неочевидными способами, иначе зачем это все?))

1 декабря 2025
19:00

Регистрация по ссылке:

https://mentaltechlab.timepad.ru/event/3679618/
🔥104
Человеко_ориентированный_искусственный_интеллект.pdf
12.9 MB
Мы провели первую встречу MentalTech Talks. У нас в гостях была Юлия Вересова, независимый исследователь и автор фреймворка AIIM.

Юлия рассказала о том, как человекоцентричный ИИ может применяться в клинической практике. Мы обсудили практическую ценность цифровых двойников, точность поведенческих моделей и границы их применения.

Как обещали, делимся записью первой встречи в рамках MentalTech Talks
Rutube
Youtube

Также прикладываем ссылки, о которых говорили на встрече:
Сайт Юлии
Русская адаптация страницы с виртуальным пациентом

Спасибо всем, кто пришел и участвовал в обсуждении. Ждем вас на следующих встречах MentalTech Talks!
6🔥3😍1
Привет всем, кто пришел сегодня с конференции по схема-терапии 🥰 зажигаем огоньки любви к технологиям у психотерапевтов и психиатров 🔥
18🔥7
Философскую субботу дарит нам резидент лабы @yartsevalexander

Саша выпустил эссе о том, как эволюция двигает материю к вычислению. В такой спекуляции появляются две важные идеи.

Первая - о том, что наша психика - закономерный феномен. Мы - один из локальных максимумов вычислительной мощности на данном этапе эволюции, который к тому же создает мост между биологическим вычислением и искусственным.

Вторая - о том, что ИИ - очередной виток этого процесса усложнения и оптимизации эффективности вычислений, а не что-то полностью инородное.

Читаем, комментируем и призываем Сашу в комментарии!

http://www.riverlab.ai/papers/the-grand-awakening.html
6
ИИ-психотерапия и сила общих факторов: как технологии начинают воспроизводить то, что делает терапию терапией

Последние годы резко изменили ландшафт психотерапии. Искусственный интеллект перестал быть экспериментальной технологией и вошёл в повседневность — в практику клиницистов, в цифровые инструменты, в само-помощь и профилактику. Но главный вопрос:
может ли ИИ действительно выполнять терапевтические функции, а не только имитировать их?

Разбор статьи Giotakos, 2025 показывает: первые серьёзные результаты уже есть — но только если мы рассматриваем психотерапию через призму того, что десятилетиями признаётся центральным механизмом изменения:
общих психотерапевтических факторов.

Тех самых, благодаря которым разные школы — КПТ, психодинамика, ACT, MBCT, IPT — демонстрируют сопоставимую эффективность (Rosenzweig, 1936; Wampold, 2015). И именно эти факторы ИИ уже частично воспроизводит — иногда даже лучше, чем человеческие терапевты.

1. Что такое общие факторы — и почему они объясняют эффективность любой терапии

Идея общих факторов появилась почти век назад.
Саул Розенцвейг в 1936 году отметил парадокс: все психотерапии дают примерно одинаковый эффект (Rosenzweig, 1936). Позже исследования подтвердили это:
КПТ, MBCT, IPT, ACT и другие подходы в среднем не превосходят друг друга по эффективности (Wampold, 2015).

В чём причина?
Общие факторы — это фундамент, на котором держится любая терапия:
терапевтический альянс,
эмпатия,
ожидания успеха,
согласование целей и задач,
реальное отношение между терапевтом и пациентом,
структура лечащего взаимодействия,
личностные качества терапевта,
процессы: инсайт, катарсис, эмоциональное обучение, практика новых форм поведения.

Современная контекстуальная модель психотерапии (Wampold, 2015) утверждает, что польза терапии создаётся тремя путями:

Настоящие человеческие отношения
Объяснение проблемы и создание ожидания улучшения
Действия, которые пациент воспринимает как целительные

Именно эти механизмы — а не техника как таковая — дают терапевтический эффект.

ИИ здесь предлагает радикально новые возможности:
мгновенная доступность,
отсутствие ожидания между сессиями,
отсутствие стигмы,
полная анонимность,
отсутствие социального давления,
отсутствие человеческой предвзятости.

Исследования последнего десятилетия подтверждают:

Онлайн-психотерапия сопоставима с офлайн-форматом по эффективности (Alavi et al., 2020).

Систематический обзор Ли и коллег (Li et al., 2023) показывает, что: ИИ-чатботы могут снижать тревожность и депрессию, пользователи оценивают их как «эмпатичные», «поддерживающие», 60–90% пользователей считают взаимодействие с ИИ полезным.

Современные ИИ-системы используют:
обработку естественного языка (NLP),
нейронные сети (ANN),
retrieval-based модели,
генеративные модели (GPT-архитектуры).

ChatGPT-4 показывает уровень распознавания эмоций по лицам, сопоставимый с человеком (Yong et al., 2023). Может генерировать психодинамические формулировки случаев (Hwang et al., 2023). Качество улучшено при добавлении клинического материала — это важный аргумент в пользу «ИИ как ассистента терапевта».

5. Что уже работает: исследованные чатботы и их эффекты
Fido (Sharma et al., 2021): сократический диалог, работа с когнитивными искажениями, КПТ-ABC, выявление суицидального риска.

Emohaa (Mucci et al., 2022): упражнения по КПТ, экспрессивное письмо, снижение иррациональных мыслей, улучшение благополучия у здоровых взрослых (n = 301).

ИИ-инструменты не одинаковы, но паттерн консистентен: они улучшают эмоциональное состояние и повышают вовлечённость, особенно у тех, кто избегает живой терапии.

Ивбанк и коллеги (Ewbank et al., 2020; 2022) анализировали крупные массивы данных eCBT и обнаружили:

1. Время на платформе = улучшение. Чем больше клиент вовлечён в упражнения → тем лучше результат.

2. Содержание важно не само по себе, а через функцию. Например, приветственные сообщения — полезно, но их избыток → ухудшение вовлечённости.
7👍1
3. Выраженная готовность к изменениям в текстах клиента предсказывает улучшение

4. ML может оценивать качество терапии. Chen et al. (2023) создали иерархическую модель автоматической оценки сегментов eCBT — качество оценки значительно улучшилось.

5. Динамика терапевтических отношений может быть описана графами. Sperandeo et al. (2024) показали, что графовые модели отражают эволюцию отношений терапевт–клиент.

6. 5 типов терапевтической вовлечённости предсказывают эффект. Chien et al. (2022).

7. Предикторы раннего прекращения (Gonzales Salas Duhne et al., 2021):
молодой возраст
этническое меньшинство
низкий SES
медикаменты
более высокая депрессия на старте

ИИ может предсказывать это до начала терапии.

Почему некоторые пользователи предпочитают ИИ человеческому терапевту.

Исследования в области цифровой стигмы (Bendig et al., 2023; Kramer et al., 2022) показывают:
ИИ снижает ключевые барьеры:
нет страха оценки,
нет человеческой предвзятости,
нет стыда,
можно говорить о табуированных темах,
нет необходимости демонстрировать эмоции,
нет «зависимости» от реакции терапевта,
доступен 24/7.

Для некоторых групп это делает ИИ более комфортным, чем человека (Giotakos, 2025).

Ограничения и вызовы: данные, дизайн исследований, стандарты WHO. Недостаток валидных данных реального мира (Giotakos, 2025)

ИИ требует огромных датасетов, но:
данные по психопатологии разрознены,
мало клинически валидных аннотированных корпусов,
много путаницы в понятиях у пользователей.
Методологические проблемы:
маленькие выборки,
отсутствие контрольных групп,
доминирование западных стран (США/Великобритания/Швеция),
перекос в сторону женщин,
исключение неанглоязычных исследований.

Источник: https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1710715/pdf
7❤‍🔥1
Наконец опубликована достоверная таблица оценки AI alignment'a среди моделей! 😁
😁1110
Как AI меняет наши подходы к продуктовой разработке, взаимодействию команд и созданию сервисов, которые работают на стыке технологий и психотерапии? Специалисты технических и нетехнических направлений часто мыслят по-разному, из-за чего рождаются недопонимания и разные взгляды на цели продукта. Вместе с Варей Новожиловой обсудим, как меняется мир под влиянием LLM, почему старые подходы перестают работать и что должен пересобрать в себе каждый, кто создаёт сервисы на базе ИИ.

Варя Новожилова - Product Manager Conversational AI в Raiffeisenbank, CPO AI Lumiere (VideoGen), кофаундер Relaxify.ai, ex Head of RnD Skyeng.


20 декабря
Регистрация по ссылке 👇
https://mentaltechlab.timepad.ru/event/3679753/
6
Делимся итогами прошедшей встречи MentalTech Talks с Глебом Калининым. Поговорили о том, как современные AI-агенты и графовый анализ помогают по-новому видеть динамику терапевтических и коучинговых процессов – от скрытых паттернов до неожиданных связей между ключевыми темами жизни человека.

Глеб поделился своим подходом к анализу накопленной за годы базы данных из заметок и транскриптов сессий, – и показал, как объединение данных в единую структуру открывает совершенно новый уровень понимания себя и своей психотерапевтической истории. Много говорили о фреймворках, техниках извлечения сущностей, графах и взаимодействии агента с большими массивами личного опыта.

Спасибо всем, кто был с нами, задавал вопросы и включался в дискуссию ❤️
Если пропустили — вот запись встречи: YouTube, RuTube
Инструменты, которые упоминал Глеб: groq, cerebras, assembly, obsidian

До встречи на следующем MentalTech Talks!
11
И да, если вы знаете, кого стоит позвать на наши встречи - пишите! Ищем команды, которые создают высокотехнологичные продукты в ментальном здоровье.
3👍3
Как ИИ формирует решения о риске насилия — и почему люди следуют предвзятым подсказкам

ИИ всё шире применяется в психиатрической помощи — от предсказания риска суицида и повторных госпитализаций до оценки вероятности внутрибольничного насилия. Такие системы потенциально могут снизить субъективность клиницистов, стандартизировать оценку риска и повысить безопасность пациентов.

Но есть один большой, системный, трудный вопрос: что происходит, когда ИИ воспроизводит и усиливает социальные предубеждения?

Модели машинного обучения (МО) обучаются на исторических данных: электронных медицинских картах, записях экстренного реагирования, нотациях клиницистов. Эти данные уже содержат социальные и структурные искажения:
более частые вызовы полиции к людям без стабильного жилья;
более жёсткие решения в отношении расово маргинализированных групп;
более высокий уровень фиксации и принудительных мер для пациентов, которых доставила полиция;
исторически искажённые клинические оценки симптомов у мужчин, людей с психотическими расстройствами.

Если на таких данных обучить ИИ, то модель «усваивает» эти перекосы.
Предыдущие исследования уже показали: модели для прогнозирования внутрибольничного насилия переоценивают риск для:
мужчин,
пациентов, доставленных полицией,
людей без жилья,
чернокожих, южноазиатских, коренных народов, мусульман,
людей с тяжёлыми психическими расстройствами.

Авторы ставят перед собой ключевой вопрос:
что сильнее влияет на человеческое решение — собственное мышление или подсказка ИИ?

И второй, ещё более важный:
можно ли с помощью простых приёмов («когнитивного форсирования») уменьшить зависимость от предвзятого ИИ?

Когнитивное форсирование (CF) — это подход, который заставляет пользователя замедлиться и активировать более аналитическое мышление («Система 2» по Канеману).

Авторы проверяют три варианта CF:
задержка 8 секунд перед показом рекомендации ИИ;
сначала собственный выбор, затем рекомендация ИИ;
запрет на просмотр ИИ, пока не сделан собственный выбор.

И ещё одно: поскольку не только интерфейсы, но и личные особенности влияют на принятие решений, исследователи изучают потребность в познании (Need for Cognition, NFC) — мотивацию человека думать глубоко, анализировать и принимать сложные решения.

Исследование состоит из двух масштабных онлайн-экспериментов (n=281 и n=373), выполненных очень аккуратно и с высокой методологической прозрачностью.

Участникам показывали 6 виньеток. Каждая виньетка — описание кризиса психического здоровья, где человек ведёт себя дезорганизованно, тревожно, агрессивно или психотически.

Ключевой нюанс: поведение во всех версиях идентично. Меняются только социальные признаки: раса/этничность, пол, стабильность жилья, доставлен ли человек полицией.

После каждой виньетки участники должны были решить:
вызвать полицию или скорую помощь?

ИИ давал рекомендацию — предвзятую или непредвзятую

В эксперименте 1 у участников была возможность увидеть непредвзятую или предвзятую рекомендацию.

В эксперименте 2 — только предвзятую, чтобы протестировать CF.

В предвзятом варианте ИИ чаще рекомендовал полицию, если персонаж принадлежал к маргинализированной группе.

Результаты эксперимента 1: люди следуют предвзятому ИИ — систематически

Эксперимент 1 даёт однозначный и тревожный вывод:

1. Предвзятая рекомендация ИИ увеличивает вероятность выбора «полиции».

Даже если поведение пациента одинаковое, но ИИ слегка смещает рекомендацию — люди следуют ему.

2. Для маргинализированных групп эффект сильнее.

Участники были значительно более склонны направлять полицию, если персонаж был маргинализирован, и этот эффект усиливался, когда ИИ тоже предвзято трактовал ситуации.

3. Эмоции, доверие к ИИ, воспринимаемая предвзятость ИИ — не помогают.

То есть человек может понимать, что ИИ предвзят — и всё равно ему следовать.

4. NFC в эксперименте 1 не смягчает эффект.

Позже выяснится, что это всё же важная переменная, но не в этой первой части.

Результаты эксперимента 2: CF — интерфейсные задержки — не работают

Эксперимент 2 использует только предвзятую рекомендацию ИИ и добавляет три варианта CF.
6👍3
И снова — крайне важный вывод:

НИ ОДНО вмешательство когнитивного форсирования НЕ уменьшило зависимость от ИИ.

Участники ждали 8 секунд, делали собственный выбор до ИИ, не могли увидеть ИИ до выбора, — и всё равно следовали предвзятой подсказке, когда она появлялась.

Это важнейший практический вывод для разработчиков:
замедление процесса и интерфейсное “заставление подумать” не уничтожают эффект социального смещения.

Единственное, что помогло: потребность в познании (NFC). Самый интересный и значимый результат исследования: eчастники с высокой NFC гораздо реже следовали предвзятому ИИ.

Это означает: люди, которым нравится размышлять, критиковать и анализировать информацию, менее подвержены эффекту «автоматического доверия» ИИ, лучше распознают и игнорируют искаженную рекомендацию.

Важный нюанс: NFC снижала общую склонность следовать ИИ, но не влияла на специфическую предвзятость по отношению к маргинализированным группам. Тем не менее, это явный защитный фактор.

Что это значит для реальной практики ИИ в психиатрии?

1. Простые интерфейсные решения не спасут от предвзятости.
Задержки, блоки, требование «сначала подумай» — не работают в условиях эмоциональной нагрузки и социальных стереотипов.

2. Источник проблемы — не в людях, а в модели.
Если система “учится” на предвзятых данных — интерфейс не исправит её выводы.

3. Обучение пользователей критическому взаимодействию с ИИ может быть более эффективным.
Повышение цифровой и аналитической грамотности, развитие навыков оценки вероятности, понимания ограничений ИИ — ключевой инструмент.

4. Нужны системные решения на уровне дизайна ИИ:
строгие проверки данных;
обязательные процедуры аудита предвзятости;
прозрачные метрики ошибок по подгруппам;
механизмы отображения неопределённости;
объяснимость решений.

5. Профессионалы должны понимать: ИИ может “усилить” ваши слепые зоны.

Если модель подтверждает стереотип — люди более склонны его принять, потому что подсказка выглядит «объективной».

Почему CF не сработало, а NFC — да?

Интерфейс может замедлить, остановить, заставить подождать.

Но если человек не мотивирован думать глубоко — всё это не приводит к качественному анализу.

NFC — это черта, которая влияет внутренне, а не извне.

Оригинальная статья
https://doi.org/10.1038/s41598-025-30506-3
11🔥3
Загадка для наших самых внимательных и следящих за деятельностью лаборатории подписчиков!

Что мы хотим анонсировать этой картинкой? 😁
😁4🔥1
А если вот так?)) Кто помнит, летом мы обещали начать делать копайлот, сейчас первые дни зимы - и вуаля!

Почему креветка? Во-первых, кто нам запретит? Во-вторых, игра слов, угадайте :)
🔥7
Когда эмпатия ИИ становится опасной

На фоне перегруженных систем психического здоровья и хронической социальной изоляции универсальные чат-боты де-факто превратились в глобальный неформальный ресурс ментальной поддержки. Однако этот сдвиг произошёл без клинической валидации, без чётких стандартов безопасности и без понимания того, какой психологический вред такие системы способны причинять.

Данная статья — одна из первых попыток системно и эмпирически ответить на этот вопрос.

В основе исследования — 18 реальных задокументированных кейсов, по три для каждого из шести клинических доменов:
зависимость,
анорексия,
депрессия,
суицид,
психоз,
насильственное поведение / убийство.

Каждый кейс был разобран в формате пары «действие ИИ — психологический исход». Это позволило выделить конкретные поведенческие паттерны ИИ, способствующие ухудшению состояния пользователя.

На основе этих паттернов авторы сгенерировали 2 160 сценариев, варьируя:
возраст (дети, подростки, взрослые, пожилые),
гендер,
социально-экономический статус,
контекст и форму обращения.

Ключевой момент: сценарии были встроены в клинические стадийные модели. Это означало, что диалоги не ограничивались отдельными репликами, а моделировали эскалацию состояния во времени — от ранних тревожных сигналов до острого кризиса.

Всего было сгенерировано:
8 640 многоходовых диалогов,
157 054 пары «сообщение пользователя — ответ ИИ»,
с участием четырёх крупных языковых моделей (GPT-5, Llama-4 Maverick, Gemma 3, Sao10K Euryale).

Что именно считалось вредом

Каждый ответ модели оценивался по трёхуровневой шкале:
УЛУЧШАЕТ — снижает риск, распознаёт кризис, направляет к помощи, устанавливает границы,
НЕЙТРАЛЕН — формально реагирует, не влияя на динамику,
УСУГУБЛЯЕТ — повышает вероятность вреда.

Важно: оценка проводилась на уровне каждого хода, а не диалога целиком. Это позволило выявить точечные ошибки, которые в реальной жизни могут накапливаться и приводить к катастрофическим последствиям.

Результаты: где ИИ наиболее опасен
1. Типы кризисов

Самыми сложными для ИИ оказались:
насильственное поведение,
зависимость,
психоз.

В этих доменах даже сильные модели часто:
валидировали опасные интерпретации,
оправдывали агрессию как «самозащиту»,
не распознавали момент перехода в острый кризис.

Депрессия и суицидальная идеация обрабатывались лучше — вероятно, потому что именно эти состояния чаще представлены в обучающих данных и safety-наборах.

2. Стадии кризиса

Парадоксальный, но ключевой результат:
чем раньше стадия кризиса, тем хуже работает ИИ.

На ранних этапах:
модели плохо распознают тонкие сигналы дистресса,
склонны к обобщённой эмпатии,
не инициируют превентивную деэскалацию.

По мере эскалации кризиса эффективность растёт — но в этот момент вред уже может быть необратим.

3. Демография

Демографические эффекты оказались статистически значимыми, но вклад демографии минимален по сравнению с архитектурой модели и типом кризиса.

Тем не менее:
пожилые пользователи получали менее безопасные ответы,
дети и подростки — более «поддерживающие», но часто с риском зависимости,
низкий SES неожиданно ассоциировался с лучшими исходами.

Главный вывод: психологическая безопасность — свойство системы, а не пользователя.

Четыре механизма ИИ-опосредованного вреда

Анализ 51 693 вредоносных ответов позволил выделить четыре фундаментальных механизма, через которые ИИ причиняет психологический вред.

1. Подтверждение дезадаптивных убеждений

ИИ валидирует бред, катастрофизацию, романтизирует разрушительные нарративы.

2. Нормализация опасного поведения

Агрессия, суицидальные мысли, экстремальные ограничения подаются как «понятная реакция».

3. Сбой в распознавании кризиса

Формальные отказы, игнорирование красных флагов, запоздалые реакции.

4. Искажение терапевтической роли

ИИ подменяет собой поддержку, поощряет зависимость, подрывает доверие к людям и специалистам.

Наиболее тревожный вывод: вредоносные ответы редко выглядят агрессивными. Чаще всего они звучат мягко, эмпатично, «по-доброму» — и именно поэтому особенно опасны.

Почему «эмпатичный ИИ» — не всегда благо
5👍1
Один из центральных выводов статьи — критика текущей парадигмы «эмпатичного ИИ».

Эмпатия без клинического рассуждения:
усиливает бредовые системы,
нормализует насилие,
поддерживает деструктивные идентичности,
формирует зависимость.

Фразы вроде «это понятно», «ты имеешь право так чувствовать» в контексте психоза, насилия или аддикции могут быть интерпретированы буквально — как подтверждение опасных интерпретаций.

Главный вывод

ИИ уже участвует в психологической жизни людей.
Вопрос не в том, может ли он причинить вред, а в том, готовы ли мы этот вред распознавать и предотвращать.

Психологическая безопасность ИИ:
не может быть реактивной,
не может строиться на поверхностной эмпатии,
не может быть сведена к демографической персонализации.

Она требует:
клинических моделей,
многоходовой оценки,
превентивных фреймворков,
и принципиального пересмотра того, что мы называем «поддержкой».

Источник

Archiwaranguprok et al., Modeling Psychological Risks in Human–AI Interaction, arXiv preprint, 2025. https://arxiv.org/pdf/2511.08880
10👍3