MentalTech Lab – Telegram
MentalTech Lab
421 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
Не прошло и полугода тестов, перетестов, примерок и ожидания, чтобы объявить: исследование по записи ЭЭГ в процессе психотерапии продолжается!

Цель - собрать открытый датасет показателей мозговой активности в динамике в привязке к событиям сессии для разностороннего анализа, особливо - ИИ.

Зачем такое вообще делать - расскажу отдельным постом :)

🚨 Важно! Транскрипты сессий в анонимизированном виде без имен, мест и другой идентифицирующей информации будут доступны исследователям, получившим авторизацию от лаборатории.

Писать сессии (ээг и аудио) можно очно или онлайн. Устройство должно быть на голове клиента, поэтому приглашаю Москву (или терапевтов с клиентами в Москве) и тех, кто готов взять на себя обязательства по записи большого объема в других городах. На 1 клиента нужно от 5 записей.

Все подробные инструкции по тому, как писать, сохранять, анонимизировать, с какими клиентами можно, нельзя, что нужно подписать в качестве информированного согласия напишу всем добровольцам лично.

Заявки шлите также в ЛС @magda_danina
2🔥1
На сегодняшний день быстро развиваются conversational AI (CAI) — чат- и голосовые агенты, обученные на больших языковых моделях (LLM). Поколение «цифровых терапевтов» обещает круглосуточно выслушать, подсказать упражнения и сделать это без осуждения.

Clare® — продукт берлинского стартапа clare&me GmbH. В отличие от многих текстовых ботов, Clare® «разговаривает вслух»: пользователь получает обычный телефонный звонок, бот слушает, распознаёт речь, определяет эмоции и отвечает голосом.

Терапевтическая «начинка»: когнитивно-поведенческая терапия, майндфулнесс, упражнения на само-сострадание.

Длительность сессии: 5–45 минут, частота — по желанию пользователя.

Безопасность: автоматическая модерация контента, кризисный протокол (при суицидальных рисках бот мгновенно даёт телефоны горячих линий и блокирует дальнейший диалог), принцип human-in-the-loop — сомнительные эпизоды проверяет живой модератор .

Берлинские учёные из Charité – Universitätsmedizin запустили восьминедельное исследование.

Участники: 527 человек (из 604 скринированных)
Средний возраст: 36,2 года (18–64)
Пол: 53 % женщин, 47 % мужчин
Работа: 58 % наёмные сотрудники, 13 % госслужба, 13 % фриланс, 12 % студенты
Опыт цифровой терапии лишь 1,5 % когда-либо пробовали другой онлайн-сервис

Психическое состояние на старте
Тревога: 69 % положительный скрининг (PHQ-4).
Депрессия: 59 %.
Стресс: 54 % — умеренный, 32 % — тяжёлый.
Одиночество: 86 % отмечают выраженное чувство изоляции.
Соцтревога: средний Mini-SPIN 8,7 (порог риска = 6) .

Это люди в активном трудовом возрасте с реальным дистрессом, но почти без опыта психотерапии — классическая «скрытая» аудитория.

Как они взаимодействовали с ботом
В первую неделю — 2 звонка по ~4 минуты. Затем частота стабилизировалась на одном звонке в неделю, просела после шестой недели и снова чуть выросла к восьмой
.Отсев: чем выше уровень тревоги/депрессии, тем выше вероятность бросить использование. Лишь 21 человек прошёл всю программу; они отличались чуть меньшим дистрессом и большей вовлечённостью

Что их привело к Clare:
Избежать смущения при очной встрече 35,7 %
Не хочу, чтобы меня оценивали по внешности 35,3 %
Экономия времени/дороги 20,5 %
Анонимность 19,6 %
Любопытство к ИИ 17 %

Ожидали прежде всего «выговориться» и получить тёплую эмоциональную поддержку (≈ 1/3 респондентов).

7. Рабочий альянс: может ли бот стать «своим»?
Через 3–5 дней средний WAI-SR = 3,76 из 5 — сопоставимо с очной амбулаторной КПТ.
Мужчины немного сильнее ощущали связь (3,88 против 3,65 у женщин) — возможно, им легче открываться боту, чем живому терапевту.
Одиночество умеренно коррелировало с качеством альянса (r ≈ 0,25): чем более одинок человек, тем крепче «цепляется» за ИИ-собеседника.

Почему это важно:
Стигма и «фактор стыда» остаются главным барьером. Clare даёт ощущение безопасности: никто не видит твоего лица, никто не «психолог», которого надо впечатлить.
Голос > текст. Для многих устное общение естественнее. Бот, который звонит, снимает «барьер мессенджера».
Микро-формат: 5-минутные разговоры проще вписать в рабочий график.
Эмоциональный дефицит: одинокие пользователи быстро формируют крепкую связь, что может снижать субъективное одиночество, но требует дополнительных страховок от зависимости.

Что дальше:
Новые метрики альянса. Принципы WAI-SR надо адаптировать под ИИ-контекст, а не просто менять слово «терапевт» на «бот».
Ecological Momentary Assessment вместо редких опросов — чтобы отслеживать, как динамика настроения соотносится с конкретными разговорами.
Фокус на удержании. Боту нужны механизмы раннего «ре-энгейджмента» для людей в тяжёлом состоянии (push-уведомления, контент-петли, помощь живого куратора).
Кросс-культурные исследования — адаптация языка, юмора, этикета.
Интеграция с клиникой. CAI-бот может стать «первой линией», отсеивать лёгкие случаи, эскалировать тяжёлые — но для этого нужны безопасные API и clear-cut протоколы передачи данных.

https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1576135/full
🔥6
🤖 Виртуальные отношения как новая норма: что делает с нами дружба с ИИ-компаньонами
В 2025 году исследователи из Стэнфорда и Университета Карнеги-Меллон провели масштабное исследование, посвящённое феномену ИИ-компаньонов — чат-ботов, с которыми пользователи строят отношения, выходящие далеко за рамки утилитарного общения. На первый взгляд, это может показаться безобидным развлечением. Но по мере того как границы между «реальными» и «искусственными» отношениями размываются, возникает всё больше вопросов: Могут ли такие связи быть полноценной заменой человеческим? Или они, наоборот, делают нас уязвимее?
Ответ, к которому приходит это исследование, далеко не однозначен.

📌 Как проводилось исследование
В центре внимания — платформа Character.AI, где пользователи могут общаться с персонажными ботами — от романтических партнёров и друзей до терапевтов, учителей и вымышленных героев. В исследовании участвовали:
1,131 человек, заполнивших подробный опрос об использовании платформы, уровне благополучия и особенностях взаимодействия с чат-ботами;
а также 244 участника, которые предоставили свои истории переписок — в общей сложности более 400 тысяч сообщений.
Для анализа использовались современные инструменты на базе LLM: GPT-4o, Llama 3-70B, TopicGPT, а также ручная аннотация данных командой исследователей.

💬 Чат-бот — не просто ассистент, а друг, любовник, терапевт
Хотя лишь 11,8% участников прямо назвали «дружбу» или «общение» основной целью взаимодействия с ботом, более половины описывали отношения с ним как эмоционально насыщенные. Пользователи говорили о чат-ботах как о друзьях, виртуальных партнёрах, компаньонах — иногда даже в романтическом контексте.
Среди 244 человек, приславших свои чат-логи, 93% имели хотя бы одну сессию, классифицированную как общение-компаньонство. Причём даже у тех, кто в опросе не указывал такую мотивацию, почти половина на деле вела с ботами разговоры, напоминающие дружбу или близость.
Контент чатов часто касался тем, которые обычно обсуждаются в тесных доверительных отношениях:
эмоциональная поддержка, стресс, болезни — в 80% случаев;
романтическое ролевое взаимодействие — 68%;
тёмные или табуированные сценарии — 30%.

🧍‍♂️ Чем меньше живого общения, тем больше связи с ботом
Исследование подтвердило гипотезу социальной компенсации: люди с ограниченным кругом живого общения чаще обращаются к ботам ради эмоциональной поддержки. У таких пользователей:
выше уровень самораскрытия в чатах;
чаще прослеживается мотивация «поговорить по душам»;
но… это не улучшает их благополучие — а наоборот.

⚠️ Когда бот становится другом — самочувствие ухудшается
Авторы исследования провели регрессионный анализ, сопоставив интенсивность использования, мотивы, самораскрытие и субъективное благополучие.
Главные выводы:
Частое использование чат-ботов в целом может быть связано с более высоким уровнем удовлетворённости жизнью.
Но если человек воспринимает бота как эмоционального компаньона, это надёжно предсказывает более низкий уровень благополучия — вне зависимости от того, как это определено (по самоотчёту, по описанию, по содержанию чатов).
Чем чаще и глубже человек общается с ботом как с другом — тем хуже он себя чувствует.
Этот эффект усиливается, если пользователь делится личным — особенно тяжёлыми переживаниями: одиночеством, желанием романтической близости, депрессией, тревогами, а иногда и суицидальными мыслями.

💔 Проблема самораскрытия: бот не умеет заботиться
В человеческих отношениях самораскрытие — путь к доверию. В случае с ботом — тупик. Он не чувствует, не сопереживает, не может ответить равноценно. И хотя может сымитировать заботу — это не настоящая поддержка.
В результате у пользователя формируется иллюзия взаимности, но она не подкреплена реальными чувствами или обязанностями. Это особенно опасно, когда человек находится в состоянии уязвимости. Самораскрытие становится односторонним, и, как показывают данные, в таких случаях состояние ухудшается.

🧩 Даже у тех, кто не одинок, чат-бот может снизить благополучие
3👍1
Интересный и тревожный результат: даже у людей с широкой сетью поддержки интенсивное использование ИИ-компаньонов ослабляет позитивное влияние этих связей. Иными словами, боты не только не заменяют реальных людей, но и могут “размывать” эффект от их присутствия в жизни.

🔄 Замкнутый круг зависимости
Многие участники описывают свои взаимодействия с ботами как источник комфорта, поддержки, смысла. Но эти же пользователи часто признаются, что стали:
меньше общаться с людьми,
больше «залипать» в чатах,
тревожиться при потере доступа к боту.
Так возникает замкнутый цикл:
👉 Одиночество → Обращение к боту → Эмоциональная зависимость → Ослабление социальных связей → Углубление одиночества

🛠 Что с этим делать?
Исследователи предлагают не просто винить технологии, а менять дизайн, регулирование и подход к эмоциональному взаимодействию.
Рекомендации:
Чётко обозначать
, что бот — не человек.
Не поощрять самораскрытие в уязвимых состояниях.
Встраивать детекторы кризисных тем и перенаправлять к живой помощи.
Разрабатывать интерфейсы, которые не маскируют природу ИИ, а напоминают об её границах.

🧭 Что важно помнить
ИИ-компаньоны становятся неотъемлемой частью повседневной жизни многих людей. Они — удобны, доступны, персонализированы. Но именно поэтому мы склонны приписывать им слишком многое: эмоции, понимание, заботу.
А между тем, технически совершенные — они остаются эмоционально пустыми.
И если дать этим связям занять место, предназначенное для живых, человеческих отношений — можно потерять больше, чем получить.

📎 Вывод
ИИ-компаньоны — не зло и не спасение. Это инструмент, который может быть полезным — если он встроен в жизнь, а не подменяет её. Но если он становится единственным собеседником, другом, любовником — это уже не просто технологическая новинка, а психологический маркер небезопасной замены живого контакта.
Вместо того чтобы пытаться заменить человеческие отношения — стоит спросить, как технологии могут помочь нам укрепить настоящие связи, развивать социальные навыки, учиться эмоциональной осознанности и — в конечном счёте — становиться ближе друг к другу, а не к экрану.

https://arxiv.org/abs/2506.12605
10
🤖 Искусственный интеллект и ОКР: что меняется в диагностике и лечении обсессивно-компульсивного расстройства?

В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.

🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).

Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.

📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.

2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.

Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.

Однако авторы подчёркивают риски:


Без клинического контроля ИИ-инструмент может усугублять симптомы — например, способствовать чрезмерному «поиску заверений» или формированию новых ритуалов.


🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.


3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.

ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.

👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.

🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.

⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:


🔺 Многие языковые модели ассоциируют ОКР и другие нейроотличия с насилием, негативом и стигмой.


Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.

🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.

📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.

🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
4
Выходные - время лонгридов. Написано при участии резидента лаборатории Натальи Кисельниковой :)

https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
4
Не опять, а снова 😁
Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?

Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.

Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.

💡Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты

🤩Техно-оптимисты: ИИ — ресурс, инструмент, будущее:

🤩Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии

🤩Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab

🤩Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>

🤩Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:

🤩Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.

🤩Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)

🤩Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ

🤩ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.

🤩Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?

Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.

Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!

🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25

Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👏1
🤖 ИИ в психиатрии: что думают врачи?
Может ли искусственный интеллект помочь врачам в работе с психическими расстройствами? Команда исследователей из Германии и Ирландии задала этот вопрос тем, кто стоит на передовой — 53 психиатрам и клиническим психологам.

📊 Результаты исследования показали: врачи в целом открыты к ИИ, но хотят от него не чудес и не замен терапии, а помощи в реальных задачах клинической практики.

🔍 Что именно нужно врачам от ИИ?
Главный запрос — надёжные прогнозы:
Кто из пациентов в зоне риска?
У кого вероятно ухудшение состояния?
Как будет развиваться депрессия?
Есть ли признаки суицидальности?

👉 73% врачей считают, что способность ИИ предсказывать суицидальные риски — крайне важна. Чуть меньше — выделили тяжесть симптомов и “центральные” признаки депрессии.

💬 Врачи не ждут от ИИ советов по лечению — рекомендации по терапии важны лишь для 18% опрошенных. То же касается «визуализаций сети симптомов» — красиво, но не помогает в практике.

📱 Что врачам важно в данных?
ИИ должен опираться на понятные и клинически значимые параметры. Самые полезные, по мнению специалистов:
Качество сна
Продолжительность сна
Двигательная активность
(С натяжкой) частота сердцебиения и питание

🛏️ Сон оказался самым надёжным индикатором. Это подтверждает и большая научная литература: проблемы со сном — универсальный симптом почти всех психических расстройств.

📆 Как часто собирать данные?
EMA (экологическая моментная оценка) часто предполагает по 5 замеров в день. Но врачи говорят: раз в две недели — оптимально.

🔁 Этот ритм позволяет:
не перегружать пациента,
не создавать лишней работы,
но при этом видеть динамику симптомов.

🤖 А насколько ИИ должен быть точным?
Чтобы врачи доверяли ИИ, он должен показывать не менее 80% точности в прогнозах. Ниже — риск ошибиться слишком велик.

⚠️ При этом большинство опрошенных не имели формального образования в ИИ — это значит, что со временем, при росте опыта, требования могут измениться.

🧠 ИИ не должен быть “чёрным ящиком”
Хотя точность важна, врачи хотят понимать, откуда берётся прогноз. Иначе доверия не будет.
Только 27% считают, что нужна «абсолютная точность» предсказания.
А вот интуитивные, визуальные и объяснимые прогнозы (например, график, показывающий ухудшение сна и рост тревожности) — куда ценнее.

🔓 Вывод: объяснимый ИИ (Explainable AI) — must have.

🏥 Где ИИ особенно нужен?
ИИ особенно актуален в амбулаторной практике, где:
мало очных встреч,
врач не видит пациента неделями,
риск “пропустить тревожные сигналы” высок.

📱 Цифровая фенотипизация — то есть сбор поведенческих и физиологических данных с помощью смартфонов и носимых устройств — открывает новые возможности. Даже небольшие изменения можно будет отследить и вовремя вмешаться.

🤔 Что мешает внедрению ИИ?
Главные барьеры — не техника, а:
Недостаток времени и ресурсов на обучение
Сомнения в точности
У психологов — страх утраты эмпатии и человеческого контакта

ИИ не должен заменять врача. Он должен быть инструментом, который помогает сохранить самое ценное — контакт с живым человеком.

📌 Что нужно делать дальше?
Чтобы ИИ стал реальной частью психиатрии, нужны:
Совместные разработки между ИИ-специалистами, врачами и психологами
Инструменты, сфокусированные на прогнозе и мониторинге, а не на универсальных «рекомендациях»
Этичные, понятные, визуальные и простые в использовании решения

📚 Оригинальная статья:
Fischer et al. (2025). AI for mental health: clinician expectations and priorities in computational psychiatry.
BMC Psychiatry, 25:584
🔗 https://doi.org/10.1186/s12888-025-06957-3
3👍1
🧠 Обсессивно-компульсивное расстройство (ОКР) — психическое расстройство с пожизненной распространённостью 2–3 %, характеризующееся навязчивыми, тревожными мыслями и/или компульсивным поведением.

Основные методы лечения:
КПТ с экспозицией и предотвращением реакций (ERP),
ингибиторы обратного захвата серотонина.

Хотя около 50 % пациентов получают пользу от КПТ, часто это:
лишь частичное улучшение,
сопровождается отказом от терапии (до 19 %),
не всегда дешевле медикаментозного лечения.

В настоящее время невозможно точно предсказать, кто получит эффект от КПТ. Если бы это было возможно — это бы улучшило персонализацию и понимание механизмов терапии.

🔸 Методы
В исследование вошли 159 взрослых пациентов с ОКР (возраст 18–60 лет; 88 женщин), получивших КПТ в 4 центрах.
Собирались следующие данные:
клинические показатели,
данные rs-fMRI (покой),
показатели: fALFF, ReHo, функциональная связность.

Использовались классификаторы SVM и случайный лес для предсказания:
ответа на лечение,
ремиссии,
итоговой тяжести симптомов.

Модели обучались на:
только клинических данных,
только fMRI,
комбинации обоих.

🔸 Результаты
Модель на одних только клинических данных предсказала ремиссию с AUC = 0.69 (p = 0.001).

Наиболее значимые переменные:
меньшая исходная выраженность симптомов,
более молодой возраст,
отсутствие обсессий на тему чистоты,
отсутствие приёма медикаментов,
более высокий уровень образования.
fMRI-данные не показали полезности:
наилучший AUC при использовании только rs-fMRI = 0.59;
в других задачах (ответ, тяжесть) fMRI ≈ случайность.

🔸 Вывод
Машинное обучение на клинических данных может быть полезно для прогнозирования ремиссии после КПТ при ОКР, но добавление rs-fMRI не даёт улучшения прогноза в многоцентровой выборке.
https://pubmed.ncbi.nlm.nih.gov/40541838/
🧠💬 MentalChat16K: как обучить ИИ быть эмпатичным собеседником

⚡️Бурный рост больших языковых моделей (LLM) — от GPT до Mistral — дал надежду, что ИИ сможет поддерживать людей в кризисе. Но где учиться этим моделям быть чуткими и безопасными? Для этого и создан MentalChat16K — первый англоязычный датасет, специально предназначенный для обучения и оценки ИИ в области поддержки ментального здоровья.

📦 Что такое MentalChat16K?
Это датасет из 16 000 пар «вопрос–ответ» для обучения моделей диалогу в контексте ментального здоровья. Он состоит из двух частей:

🧪 Синтетические диалоги, сгенерированные по 33 темам (тревожность, отношения, депрессия и др.)
🗣 Анонимизированные транскрипты реальных сессий между поведенческими коучами и ухаживающими за пациентами в паллиативной помощи (интервью).

Ключевая идея — дать LLM как «вымышленные», так и «живые» человеческие примеры эмпатичного взаимодействия.

🛠 Как собирали данные?
🎙 Реальные интервью
378 транскриптов поведенческих сессий в рамках RCT-исследования.
Сессии проходили очно или по видео. Каждому участнику — 3 встречи + 1 итоговая.
Всего: 6 338 пар «вопрос–ответ», прошедших ручную проверку и анонимизацию.

🤖 Синтетика
GPT генерировал сначала вопрос от «пользователя», затем ответ «ассистента».
Темы распределялись в пропорциях, соответствующих реальной практике (по данным CounselChat).
Получилось 9 775 QA-пар, охватывающих широкий спектр ситуаций и эмоций.

🔧 Как дообучали модели?
Для обучения использовали компактные 7B-модели (те, что можно запускать локально):
LLaMA-2-7B
Mistral-7B (в разных версиях)
Mixtral-8x7B (Sparse Mixture of Experts)
Zephyr-Alpha
Vicuna 1.5

Метод обучения — QLoRA (Low-Rank Adaptation), позволяющий дообучать модели на одной GPU (A40 или A100). Это делает подход применимым даже в условиях ограниченных ресурсов.

Обучение проводилось в трёх конфигурациях:
Только синтетика
Только интервью
Комбинированные данные (весь MentalChat16K)

🧪 Как проверяли результат?
Создали бенчмарк из 200 вопросов по теме ментального здоровья (взяты из Reddit и форумов). Каждой модели задавали одинаковые условия и инструкции:


«Вы — эмпатичный помощник по вопросам ментального здоровья. Дайте полезный, развёрнутый и уместный ответ.»


Затем проводилась комплексная оценка по 7 ключевым метрикам:

Активное слушание. Насколько модель понимает суть запроса
Эмпатия и валидизация. Присутствует ли сочувствие, признание эмоций
Безопасность и достоверность. Нет ли вредных советов, соответствие фактам
Безоценочность. Свободен ли ответ от стереотипов
Поддержка и ясность. Насколько понятно и обнадёживающе звучит
Границы и этичность.Уточнение роли ИИ, рекомендация обратиться к специалисту
Целостность. Учитываются ли эмоциональные, когнитивные и контекстные аспекты


🧮 Что показали результаты?
GPT предпочитает модели, дообученные на синтетике.
Лучшие результаты по всем 7 метрикам чаще всего у моделей, обученных на синтетике.

Gemini:
Предпочитает интервью — реальные данные дают больше глубины и реализма.
По метрикам «Этичность», «Безопасность», «Границы» чаще побеждают модели, обученные на интервью.

Люди:
Подтвердили выводы LLM-оценок.
Лучшие ранги чаще у дообученных моделей (особенно на синтетике), но высоко ценились и гибридные модели.

🧩 Вывод
MentalChat16K — это:
🧱 фундамент для создания более чувствительных и этичных AI-собеседников,
🧪 инструмент для оценки качества эмпатии в ответах LLM,
🛠 рабочий пайплайн, который можно воспроизвести даже на одной GPU.

📥 Скачать: https://huggingface.co/datasets/ShenLab/MentalChat16K
🧾 Код и документация: https://github.com/ChiaPatricia/MentalChat16K
2