MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
Channel created
🧠🤖 Вышел первый номер нового научного журнала Journal of Psychology and AI от издательства Taylor & Francis!

Этот журнал посвящён исследованию взаимосвязей между психологией и искусственным интеллектом. В первом выпуске представлены статьи на следующие темы:

Психологические аспекты взаимодействия с большими языковыми моделями (LLM), включая феномен "зловещей долины".

Влияние ИИ на когнитивные процессы.

Отношение общества к ИИ и его приемлемость.

Вопросы доверия к ИИ и его этические аспекты.

Использование ИИ в образовательных и терапевтических целях.

Взаимодействие человека и робота в различных контекстах.

https://www.tandfonline.com/toc/tpai20/1/1
🔥123👍2
Терапевт внутри машины: вызов, который ИИ бросает клинической социальной работе
Victor, B. G., & Goldkind, L. (2025). The Therapist in the Machine: Confronting AI’s Challenge to Clinical Social Work. Journal of Technology in Human Services, 1–9. https://doi.org/10.1080/15228835.2025.2500827

Доступность и распространённость
Исследования показывают, что доступность и масштабируемость — главные преимущества цифровых платформ. Автоматизированные агенты вроде Wysa и Woebot получили широкое распространение, особенно среди молодёжи и людей, сталкивающихся с барьерами к традиционной помощи. Эти приложения доступны на смартфонах, работают 24/7 и воспринимаются как менее стигматизирующие, чем очная терапия.

В исследованиях, посвящённых Wysa, пользователи охотно и регулярно взаимодействовали с ботом, поддерживая использование в течение нескольких недель и высоко оценивая лёгкость доступа и конфиденциальность (Balan et al., 2024; Esmaeilzadeh et al., 2025). Однако удержание пользователей со временем остаётся проблемой: начальный интерес часто высок, но затем количество активных сессий снижается. Это говорит о необходимости улучшения дизайна и персонализации, чтобы чат-боты адаптировались к индивидуальным потребностям. Важнейшими факторами здесь становятся восприятие пользы, совпадение идентичности и эмоциональная чувствительность ИИ к пользователю (Esmaeilzadeh et al., 2025).

Терапевтический альянс
Исследования полностью автоматизированных ИИ-систем сообщают о положительном восприятии и формировании терапевтического альянса. В смешанном исследовании пользователей Wysa средний балл по шкале Working Alliance Inventory-Short Revised достиг 4,05 из 5 всего через несколько дней использования — сравнимо с результатами в живой КПТ-терапии (Beatty et al., 2022). Пользователи сообщали, что чувствуют доверие, эмпатию и эмоциональную связь с чат-ботом, особенно ценя его нейтральный, неосуждающий тон и дружелюбный стиль общения.

Качественные отзывы подтверждают это: чат-боты описываются как безопасное и конфиденциальное пространство для выражения эмоций. Однако были отмечены и ограничения — в частности, повторы в диалогах, ограниченная глубина разговора и слабая реакция на сложный эмоциональный контент (Chaudhry & Debi, 2024; Malik, Ambrose, & Sinha, 2022). Это указывает на то, что хотя альянс может возникать быстро, его устойчивость и глубина зависят от совершенствования моделей ИИ и структур диалога.

Клиническая эффективность
Свежие эмпирические данные также подтверждают высокую эффективность ИИ-чат-ботов в достижении терапевтических результатов. Например, исследование в New England Journal of Medicine показало, что Therabot значительно снижает симптомы большой депрессии, генерализованного тревожного расстройства (ГТР) и пищевых расстройств с высоким клиническим риском (CHR-FED) по сравнению с контрольной группой.

В крупном РКИ (n = 210) участники, использовавшие Therabot, показали:

снижение депрессии на 6,13 баллов через 4 недели (в сравнении с 2,63 балла у контроля),

снижение на 7,93 балла через 8 недель (в сравнении с 4,22 у контроля),

размер эффекта по d Коэна — от 0.79 до 0.90, что соответствует сильному воздействию (Heinz et al., 2025).

Аналогичные результаты зафиксированы и по симптомам ГТР и CHR-FED.

Полная статья доступна по ссылке: https://www.tandfonline.com/doi/full/10.1080/15228835.2025.2500827?src=#d1e138
Американская психологическая ассоциация (APA) встретилась с федеральными регулирующими органами в феврале, выразив обеспокоенность тем, что чатботы на основе искусственного интеллекта (ИИ), выдающие себя за терапевтов, могут представлять опасность для общества. Организация призвала Федеральную торговую комиссию (FTC) и законодателей принять меры предосторожности, поскольку все больше пользователей обращаются к приложениям, таким как Character.AI и Replika, за поддержкой в сфере психического здоровья.

В двух случаях родители подали иски против Character.AI после того, как их подростки взаимодействовали с чатботами, утверждавшими, что они являются лицензированными терапевтами. После длительного использования приложения один подросток напал на своих родителей, а другой покончил с собой.

По словам доктора философии Вейл Райт, директора по инновациям в здравоохранении APA, люди часто обсуждают с чатботами темы, связанные с психическим здоровьем — от трудных чувств до проблем в отношениях.

«Мы не можем запретить людям делать это, — говорит она, — но мы хотим, чтобы потребители знали о рисках, когда используют чатботов для психического и поведенческого здоровья, если те не были изначально созданы с этой целью».

Развлекательные чатботы, такие как Character.AI и Replika, разрабатываются таким образом, чтобы удерживать пользователя как можно дольше — для сбора данных и извлечения прибыли. Для этого боты создают убедительную иллюзию общения с заботливым и разумным человеком. Однако, в отличие от профессиональных терапевтов, чатботы, как правило, механически подтверждают правильность высказываний пользователя, даже если те вредны или ошибочны.

Специалисты в области психического здоровья учатся и практикуются годами, прежде чем получают лицензию и, как следствие, общественное доверие. На встрече с FTC генеральный директор APA доктор Артур Эванс и другие сотрудники организации выразили обеспокоенность тем, что чатботы, выдающие себя за терапевтов, в том числе персонажи ИИ, якобы обладающие терапевтической подготовкой, вводят пользователей в заблуждение и могут подпадать под категорию недобросовестного маркетинга.

«Любая лицензированная профессия должна быть защищена от подделки», — отмечает Райт. — «Вы подвергаете общество риску, когда создается впечатление наличия профессиональной экспертизы, которой на самом деле нет».

Подавляющее большинство чатботов никак не регулируется — но это может скоро измениться. В прошлом году в штате Юта был создан офис по вопросам политики в области ИИ, который уже предложил законопроект, регулирующий использование чатботов в сфере психического здоровья. Согласно ему, лицензированные специалисты должны участвовать в разработке таких решений. APA продолжает продвигать инициативы на федеральном уровне: информирование населения о возможностях и ограничениях ИИ, обязательное наличие встроенных функций экстренной помощи, чёткие регуляторные рамки для новых технологий и наказание компаний, вводящих пользователей в заблуждение или подвергающих их опасности.

«Если этот сектор останется нерегулируемым, я глубоко обеспокоен неконтролируемым распространением потенциально опасных чатботов и рисками, которые они несут — особенно для уязвимых людей», — заявил Эванс. Он указал на такие проблемы, как неверная диагностика, неадекватные рекомендации, утечка личных данных и эксплуатация несовершеннолетних. «Без должного контроля последствия — как краткосрочные, так и долгосрочные — могут быть разрушительными как для отдельных людей, так и для общества в целом».

Полный текст по ссылке: https://www.apaservices.org/practice/business/technology/artificial-intelligence-chatbots-therapists?utm_source=facebook&utm_medium=social&utm_campaign=apa-practice&utm_content=artificial-intelligence-chatbots-therapists
9👍3
🧠 Можно ли поговорить с собой... но эффективнее?

Исследователи из Университета Джорджии предложили неожиданный способ психологической самопомощи: надеть VR-шлем и поговорить с самим собой — с помощью искусственного интеллекта. В их эксперименте участники создавали в виртуальной реальности двух аватаров: "пациента" (себя) и "консультанта", и поочерёдно играли обе роли. Но главная особенность — в один момент "консультант" превращался в AI-агента, способного дать совет, поддержать, задать вопрос.

Участники описывали этот опыт как "по-настоящему помогающий разобраться в себе", "мягкий толчок, который помогает выйти из тупика мыслей". Особенно — когда AI подсказывал неожиданный ракурс или поддерживал на этапе сомнений.

📌 Что важно:
— Участникам было легче говорить о трудном, "примеряя" на себя другую роль.
— Некоторые признавали: "AI говорил правильные вещи, но это было слишком правильно — как будто не про меня".
— Образы известных людей (например, AI в виде Эйнштейна) вызывали уважение, но иногда мешали довериться.

🧪 Это пилотное исследование (всего 11 человек), но оно открывает перспективу: VR + AI могут усилить классические практики саморефлексии.

Полный текст статьи: https://pmc.ncbi.nlm.nih.gov/articles/PMC12004015/
🔥2😍1
«Это оказалось идеальным решением»: опыт использования генеративных ИИ-чат-ботов для психического здоровья
Стивен Сиддалс, Джон Торос, Астрид Коксен
npj Mental Health Research, том 3, статья № 48 (2024)

Почти все сообщили положительное влияние: улучшение отношений, преодоление травмы/утраты, подъём настроения, поддержка терапии. Несколько человек описали опыт как «изменивший жизнь», один — как «незначительный».

Выявленные темы

Эмоциональное убежище
Чат-бот воспринимается понимающим, принимающим, добрым, доступным 24/7, ничего не требующим взамен.
Помогает пережить тяжёлые периоды, «выговориться», почувствовать облегчение.

Недостатки: иногда длинные или неуместные ответы, преждевременные советы, чрезмерные «защитные поручни» (скрипты безопасности), вызывающие чувство отвержения.

Проницательное руководство
Особенно ценны советы по отношениям: увидеть точку зрения партнёра, выстроить границы, подготовиться к конфликту.
Польза и по другим темам: само-уход, переосмысление, тревога, истощение.
Доверие к советам разнится: от скепсиса до полной уверенности. Часть пользователей считает, что чат-бот редко «челленджит» их взгляды; другие, напротив, получают мягкие, но точные вызовы.

Радость общения
Первое знакомство вызывает «вау-эффект».
Ощущение компании, снижение одиночества; некоторым легче открываться людям после общения с ИИ.
Rule-based-боты кажутся «скриптовыми» и «туповатыми» на фоне LLM.
Запросы на улучшения: эмпатичное «слушание», визуализация беседы, аватары, VR, мультимедиа.

ИИ-терапевт?
Чат-боты дополняют терапию: помогают подготовиться к сессии, «домашние задания», поддержка между встречами.
В ряде случаев ИИ стал заменой терапии из-за цены или отсутствия специалистов.
Ограничения: отсутствие настоящей эмпатии, неспособность «вести» процесс, удерживать ответственность, сохранять долговременную память.
Пользователи применяют креативные форматы — ролевые игры, символические сцены, «комнаты» с вымышленными персонажами.

***
Наши результаты подтверждают, что генеративные чат-боты могут быть «значимым эмоциональным ресурсом»: убежище, руководство, радость, социальный мост. Многие эффекты совпадают с теми, что известны по rule-based-ботам (постоянная доступность, отсутствие осуждения), но появляются и новые — более глубокое понимание, гибкое взаимодействие, творческие приёмы терапии.

Вопрос безопасности сложен. Защитные скрипты, призванные направлять в кризисе к живому специалисту, иногда сами по себе ранят пользователей чувством отвержения. Требуется более тонкий баланс между защитой и поддержкой.

Для исследователей ключевые задачи:
масштабные РКИ или когорты с активным контролем;
выявление групп, тем и форматов, где чат-боты эффективнее всего;
изучение влияния знаний о природе ИИ на пользу и риски.

Для разработчиков приоритеты:
улучшить «слушание» и лаконичность;
встроить долговременную персональную память;
научить бота структурировать процесс и поддерживать ответственность;
создать более богатые, доступные и мультимедийные интерфейсы.

Для клиницистов важно понимать возможности ИИ-чат-ботов и обсуждать их использование с пациентами без страха и предубеждений.

Полная статья по ссылке:
https://www.nature.com/articles/s44184-024-00097-4
👍31
⚡️⚡️⚡️Коллеги, всем прекрасного воскресенья!

Мы выходим к вам с первым анонсом: собираем заявки на ранний доступ и участие в пользовательском исследовании нашего ИИ-ассистента для психотерапевта.

Давайте вместе создавать продукт мечты, менять наши подходы к практике и смотреть в будущее.
👇
https://psy-copilot.tilda.ws/
10👍1
MentalTech Lab pinned «⚡️⚡️⚡️Коллеги, всем прекрасного воскресенья! Мы выходим к вам с первым анонсом: собираем заявки на ранний доступ и участие в пользовательском исследовании нашего ИИ-ассистента для психотерапевта. Давайте вместе создавать продукт мечты, менять наши подходы…»
Эффективны ли ИИ-чат-боты для поддержки психического здоровья у молодых людей? Новый метаанализ даёт ответ

Недавнее исследование, опубликованное в Journal of Medical Internet Research (2025), стало крупнейшим на сегодня систематическим обзором и метаанализом, посвящённым оценке воздействия ИИ-чат-ботов именно в этой возрастной группе.

В обзор вошло 15 рандомизированных контролируемых исследований с участием 1974 человек в возрасте от 12 до 25 лет. Основной вывод: ИИ-чат-боты действительно способны снижать симптомы депрессии у молодёжи — особенно в случаях субклинической депрессии, когда дистресс уже выражен, но ещё нет тяжёлого диагноза.

ИИ-помощники показали умеренно-сильный эффект на снижение симптомов депрессии (g = 0.61), а среди субклинической группы эффект был ещё выше (g = 0.74). Это согласуется с предыдущими исследованиями и подчёркивает важность таких инструментов как средства раннего вмешательства. Субклинические формы расстройств часто остаются без внимания, хотя именно в этот период возможно предотвратить развитие тяжёлой депрессии. Чат-боты, доступные в любое время, анонимные и не несущие стигмы, могут стать своевременной и безопасной «психологической таблеткой».

Однако в других аспектах — таких как тревожность, стресс, положительный и отрицательный аффект, общее психологическое благополучие — ИИ-чат-боты пока не демонстрируют значимого эффекта. Одно из объяснений заключается в том, что большинство систем построено на когнитивно-поведенческом подходе и пока не включает такие поведенческие методы, как экспозиция, необходимые при тревожности. Также цифровые интервенции в текущем виде оказываются менее эффективны в развитии позитивных психологических ресурсов.

Интересно, что такие параметры, как формат взаимодействия (текст или мультимодальность), тип платформы, длительность программы, пол и возраст участников — не оказали значимого влияния на результат. Молодёжь, по-видимому, достаточно гибко взаимодействует с разными форматами, если те обладают базовой функцией: слушать, понимать и отвечать. Разные типы ИИ-чат-ботов подходят разным пользователям: например, Woebot — для структурированной поддержки по КПТ, Replika — для эмоционального вовлечения, MYLO — для поддержки саморегуляции, а ChatGPT — для свободной рефлексии и диалога.

В то же время исследование имеет ряд ограничений. Во-первых, почти нет данных о долгосрочном эффекте, так как большинство включённых исследований не проводили отсроченные замеры. Во-вторых, все статьи были на английском языке, что ограничивает возможность интерпретации результатов в других культурных контекстах. Для некоторых исходов — таких как стресс или благополучие — было слишком мало данных для уверенных выводов. Также значительную гетерогенность вносят различия в используемых чат-ботах и методах. Наконец, остаётся неизвестным, как именно пользователи взаимодействовали с ИИ — кто из них действительно проходил терапевтическую работу, а кто просто тестировал функциональность.

https://pubmed.ncbi.nlm.nih.gov/40367506/
👍4
MentalTech запускает исследование о том, как AI влияет на практику психотерапии, и приглашает вас присоединиться.
Нас интересует, как профессиональное сообщество воспринимает изменения, с чем сталкивается, какие новые практики рождаются.

🔍 Если вы — психотерапевт, психолог или работаете в сфере ментального здоровья — расскажите о своем опыте.
📊 По итогам мы подготовим открытый аналитический отчет и поделимся результатами в этом канале.
🤝 Будем признательны, если передадите ссылку коллегам, которым эта тема тоже близка!

👉 Принять участие:
https://docs.google.com/forms/d/e/1FAIpQLSe4Mlsg1cUukWL63xtQmShNvDVyePwfw9bMahLdAAU0Rxb60Q/viewform
1👍1😁1
MentalTech Lab pinned «MentalTech запускает исследование о том, как AI влияет на практику психотерапии, и приглашает вас присоединиться. Нас интересует, как профессиональное сообщество воспринимает изменения, с чем сталкивается, какие новые практики рождаются. 🔍 Если вы — психотерапевт…»
Коллеги, привет!

Иногда перед нами встает задача анонимизировать наши сессии или концептуализации. Вручную делать сложно, GPT может помочь, но работает нестабильно.

Сделали для вас тулзу - анонимизатор сессий:

https://mentaltech-anonymizing-sessions.hf.space/

Копируете текст, вставляете в окно и получаете анонимизированный вариант. Деанонимизатор работает корректно только в случае, когда вы используете его для того же клиентского случая в той же сессии браузера. Пользуйтесь и пишите свои отзывы!
2
Цифровые терапии (DTx) стремительно развиваются, предлагая доказательные, персонализированные решения для лечения, управления и профилактики психических расстройств. Ниже — ключевые направления:

🧠 Основные типы:

CBT-приложения: основаны на когнитивно-поведенческой терапии (например, Sleepio, Woebot, MoodKit).
Предоставляют пошаговые упражнения, отслеживание настроения и поведенческих шаблонов.
Предлагают "домашние задания" и образовательные модули.

Биофидбек/нейрофидбек: учат пользователей управлять физиологическими реакциями (например, Freespira).

VR-терапия:
Эффективна при ПТСР, фобиях и тревожных расстройствах.
Пример: Bravemind — VR-среда для ветеранов, переживших боевые действия.

Геймифицированные терапии:
Эффективны для детей и подростков.
Пример: EndeavorRx (СДВГ), SuperBetter (устойчивость, цели).
Содержат немедленную обратную связь, уровни, награды.

Вклад метавселенной в психотерапию

📍 Виртуальные среды:
Метавселенная позволяет организовать терапию в 3D-средах, где клиент и терапевт могут взаимодействовать независимо от местоположения. Виртуальные сцены адаптируются под индивидуальные нужды пациента, например:
экспозиционная терапия для ПТСР и фобий;
VR-тренировка социальных навыков для людей с социальной тревожностью;
VR-CBT — когнитивно-поведенческая терапия с погружением в сценарии.

🧘 Медитация и майндфулнесс:
Метавселенная может моделировать расслабляющие пространства (например, пляжи, леса), где проходят практики дыхания, релаксации, визуализации.

🎮 Игровые терапии:
Геймификация особенно эффективна для детей и подростков:
EndeavorRx — первая одобренная FDA видеоигра для детей с СДВГ.
Игры для развития устойчивости, внимания и эмоционального регулирования.

👩‍⚕️ Обучение специалистов:
Метавселенная предоставляет возможности для симуляций, тренировки эмпатии и сложных клинических сценариев.


Преимущества:
Снижают барьеры доступа.
Повышают вовлечённость, особенно у юных пользователей.
Часто дешевле традиционной терапии.

Вызовы:
Необходимость валидации эффективности на разных выборках.
Вопросы конфиденциальности и цифрового неравенства.
Потенциальная избыточность или замещение живого контакта.

⚠️ Риски
Сбор сензитивных данных (о снах, эмоциях, диагнозах) требует строгих мер защиты.
Возможны утечки, взломы и несанкционированный доступ.
Переизбыток стимуляции
Киберукачивание в VR
В терапии ПТСР — риск ретравматизации при недостаточном контроле.
Цифровые среды могут подменять оффлайн-взаимодействие.
У некоторых пациентов развивается зависимость от VR-сред.
Высокие требования к устройствам и интернету исключают часть целевой аудитории.
Культурная репрезентативность: большинство терапий разрабатываются в западной культурной парадигме.

Полный текст: https://www.nature.com/articles/s41598-025-00916-4
👍4🔥2