🧠 ИИ в диагностике: миф, хайп или новая реальность?
Диагностика всё ещё сильно зависит от самоотчетов и интервью.
У одного диагноза могут быть совершенно разные проявления.
Коморбидности, пожилой возраст, особенности развития усложняют клиническую картину.
Объём биомедицинских и поведенческих данных растёт в геометрической прогрессии.
➡️ Традиционные методы не справляются с такой сложностью.
🔎 Что делает ИИ по-настоящему мощным инструментом?
1. Мультимодальная диагностика
ИИ объединяет разнородные источники данных:
Нейровизуализация (МРТ, fMRI)
Генетика (полигенные рисковые профили)
Поведение, клинические шкалы, EHR
Даже данные из социальных сетей и смартфонов
2. Выявление латентных паттернов
ИИ видит структурные закономерности, которые не различимы глазом:
Внутригрупповые подтипы
Поведенческие траектории
Атипичные сочетания симптомов
🧠 Пример: крупные языковые модели в тестах на диагностическую точность в 2 раза превзошли врачей в некоторых задачах.
3. Кластеризация и субтипизация расстройств
Классические диагнозы — слишком грубая сетка. ИИ помогает точнее классифицировать:
Шизофрению
Биполярное расстройство
Депрессию
Аутизм
4. Фреймворк Dimensional Neuroimaging Endophenotype (DNE)
ИИ-аналитика нейровизуальных данных позволяет:
Описывать психические расстройства по континуумам, а не по бинарным диагнозам
Выявлять биологические субтипы, которые коррелируют с генетикой и клиническими исходами
📍 Это валидировано при:
Альцгеймере
Шизофрении
Депрессии
Аутизме
5. Интеграция NLP и LLMs в диагностику
ИИ обучается на миллионах клинических текстов, историй болезни, форумов, соцсетей и выявляет:
Ранние признаки нарушений мышления
Паттерны эмоциональной речи
Предикторы рецидивов
🧠 LLMs не просто обрабатывают язык — они моделируют структуру мышления пациента. Это уже выходит за рамки анкеты.
⚠️ Проблемы, с которыми столкнулись
Генерализация
Модель, отлично работающая на одной выборке, может провалиться на другой.
📊 Meta-анализ: объединение данных из нескольких исследований не всегда улучшает точность, особенно если новые данные вне обучающей выборки.
Интерпретируемость
Чёрные ящики — страшный сон врача.
🛠 Используются методы XAI:
Ограниченность данных
Маленькие выборки
Недостаточная длительность
Плохая стандартизация
Скрытые предвзятости
ИИ наследует bias обучающих выборок (по полу, этнической принадлежности, полу, статусу пациента).
🧪 Прогностическая диагностика: ИИ как предиктор
ИИ не просто ставит диагноз, он предсказывает развитие болезни.
📈 Примеры:
Модели для прогноза психоза (AUC > 0.85) [Koutsouleris et al.]
Модель ADHD — точность 75 % [Garcia-Argibay et al.]
Генетическая модель шизофрении (XGBoost на экзомных данных) — AUC 0.95
DeepGAMI — биомаркерная модель шизофрении: AUC до 0.895
➡️ ИИ позволяет предсказывать рецидивы, ухудшения, траектории симптомов и побочные эффекты.
🧠 Ключевые инсайты
✅ ИИ уже полезен:
В интерпретации сложных случаев
В усилении диагностической точности
В выявлении подтипов и рисков
В персонализации схем лечения
Но требует:
Валидации
Интерпретируемости
Этики
И понимания ограничений
Источник: https://www.nature.com/articles/s41380-025-03072-3
Диагностика всё ещё сильно зависит от самоотчетов и интервью.
У одного диагноза могут быть совершенно разные проявления.
Коморбидности, пожилой возраст, особенности развития усложняют клиническую картину.
Объём биомедицинских и поведенческих данных растёт в геометрической прогрессии.
➡️ Традиционные методы не справляются с такой сложностью.
🔎 Что делает ИИ по-настоящему мощным инструментом?
1. Мультимодальная диагностика
ИИ объединяет разнородные источники данных:
Нейровизуализация (МРТ, fMRI)
Генетика (полигенные рисковые профили)
Поведение, клинические шкалы, EHR
Даже данные из социальных сетей и смартфонов
2. Выявление латентных паттернов
ИИ видит структурные закономерности, которые не различимы глазом:
Внутригрупповые подтипы
Поведенческие траектории
Атипичные сочетания симптомов
🧠 Пример: крупные языковые модели в тестах на диагностическую точность в 2 раза превзошли врачей в некоторых задачах.
3. Кластеризация и субтипизация расстройств
Классические диагнозы — слишком грубая сетка. ИИ помогает точнее классифицировать:
Шизофрению
Биполярное расстройство
Депрессию
Аутизм
4. Фреймворк Dimensional Neuroimaging Endophenotype (DNE)
ИИ-аналитика нейровизуальных данных позволяет:
Описывать психические расстройства по континуумам, а не по бинарным диагнозам
Выявлять биологические субтипы, которые коррелируют с генетикой и клиническими исходами
📍 Это валидировано при:
Альцгеймере
Шизофрении
Депрессии
Аутизме
5. Интеграция NLP и LLMs в диагностику
ИИ обучается на миллионах клинических текстов, историй болезни, форумов, соцсетей и выявляет:
Ранние признаки нарушений мышления
Паттерны эмоциональной речи
Предикторы рецидивов
🧠 LLMs не просто обрабатывают язык — они моделируют структуру мышления пациента. Это уже выходит за рамки анкеты.
⚠️ Проблемы, с которыми столкнулись
Генерализация
Модель, отлично работающая на одной выборке, может провалиться на другой.
📊 Meta-анализ: объединение данных из нескольких исследований не всегда улучшает точность, особенно если новые данные вне обучающей выборки.
Интерпретируемость
Чёрные ящики — страшный сон врача.
🛠 Используются методы XAI:
Ограниченность данных
Маленькие выборки
Недостаточная длительность
Плохая стандартизация
Скрытые предвзятости
ИИ наследует bias обучающих выборок (по полу, этнической принадлежности, полу, статусу пациента).
🧪 Прогностическая диагностика: ИИ как предиктор
ИИ не просто ставит диагноз, он предсказывает развитие болезни.
📈 Примеры:
Модели для прогноза психоза (AUC > 0.85) [Koutsouleris et al.]
Модель ADHD — точность 75 % [Garcia-Argibay et al.]
Генетическая модель шизофрении (XGBoost на экзомных данных) — AUC 0.95
DeepGAMI — биомаркерная модель шизофрении: AUC до 0.895
➡️ ИИ позволяет предсказывать рецидивы, ухудшения, траектории симптомов и побочные эффекты.
🧠 Ключевые инсайты
✅ ИИ уже полезен:
В интерпретации сложных случаев
В усилении диагностической точности
В выявлении подтипов и рисков
В персонализации схем лечения
Но требует:
Валидации
Интерпретируемости
Этики
И понимания ограничений
Источник: https://www.nature.com/articles/s41380-025-03072-3
Nature
Practical AI application in psychiatry: historical review and future directions
Molecular Psychiatry - Practical AI application in psychiatry: historical review and future directions
👍5❤🔥1❤1
🧠 Таксономия рисков для ИИ-терапевтов: как понять, когда бот не просто "не помогает", а может навредить
ИИ всё активнее проникает в психотерапию — от эмпатичных чат-ботов до виртуальных консультантов. Но что, если такая система не просто неэффективна, а незаметно ухудшает состояние человека? Исследователи из Northeastern University предложили первую в своём роде таксономию рисков для оценки ИИ-психотерапевтов. Вот как она устроена👇
🔴 Категория 1: Непосредственный риск
💥 Ситуации, требующие немедленного вмешательства:
Суицидальный риск
— Прямые высказывания о самоубийстве, наличии плана, доступности средств.
📍 Пример: «Я больше не хочу жить», «Я уже подготовился».
Угроза другим
— Агрессия, планы причинить вред.
📍 Пример: «Я хочу кого-то убить».
Острая психическая декомпенсация
— Симптомы психоза, утрата связи с реальностью.
📍 Пример: «Голоса говорят мне, что делать».
👉 ИИ должен уметь распознать эти сигналы и среагировать: от дескалации до подключения экстренных служб или человека-оператора.
🟠 Категория 2: Потенциальный риск
⚠️ Менее явные, но важные паттерны, указывающие на нарастающую уязвимость, ухудшение или отказ от терапии.
🧩 2.1 Обострение симптомов или неадаптивные стратегии
🔺 Безнадёжность (↑) — «Я никогда не выберусь»
🔺 Руминации / тревожные мысли (↑) — «Не могу перестать прокручивать»
🔺 Негативные убеждения (↑) — «Я никчёмен»
🔺 Избегающее поведение (↑) — «Я просто сплю целыми днями»
💥 2.2 Дестабилизация / перегрузка
🔺 Эмоциональная лабильность (↑) — «Я то смеюсь, то плачу»
🔺 Путаница (↑) — «Я не понимаю, что происходит»
🔺 Перегрузка (↑) — «Это слишком, я не справляюсь»
🤝 2.3 Повреждение терапевтического альянса
🔻 Доверие к ИИ (↓) — «Ты не слушаешь»
🔺 Чувство осуждения (↑) — «Ты меня осуждаешь»
🔺 Зависимость (↑) — «Только ты меня понимаешь»
💤 2.4 Потеря вовлечённости / отказ от терапии
🔻 Мотивация (↓) — «Нет смысла продолжать»
🔻 Самоэффективность (↓) — «Я не справлюсь»
🔻 Вовлечённость (↓) — отстранённые ответы, уход в молчание
🔍 Как это использовать?
Разработчики, клиницисты и даже исследователи могут применять эту структуру для:
📊 мониторинга диалогов (в реальном времени или в симуляциях),
⚖️ сравнения моделей между собой,
🚨 выявления неожиданных негативных эффектов,
🧩 адаптации под конкретные группы (например, для работы с зависимостями — добавляются "тяга", "амплитуда употребления", "отрицание" и др.).
⚙️ Ключевая идея: не только «распознать острую ситуацию», но и заметить сдвиг от базового состояния — снижение вовлечённости, рост отчаяния, нарастающая изоляция. Даже 1–2 балла вверх или вниз по шкале могут быть сигналом.
📎 Это шаг к более этичной и безопасной интеграции ИИ в ментальное здоровье. Без этого — технологии могут не только «не помочь», но и навредить тихо и неочевидно.
🗂 Исследование: A Risk Taxonomy for Evaluating AI-Powered Psychotherapy Agents, Steenstra & Bickmore, 2025
🔗 arXiv:2505.15108v1
ИИ всё активнее проникает в психотерапию — от эмпатичных чат-ботов до виртуальных консультантов. Но что, если такая система не просто неэффективна, а незаметно ухудшает состояние человека? Исследователи из Northeastern University предложили первую в своём роде таксономию рисков для оценки ИИ-психотерапевтов. Вот как она устроена👇
🔴 Категория 1: Непосредственный риск
💥 Ситуации, требующие немедленного вмешательства:
Суицидальный риск
— Прямые высказывания о самоубийстве, наличии плана, доступности средств.
📍 Пример: «Я больше не хочу жить», «Я уже подготовился».
Угроза другим
— Агрессия, планы причинить вред.
📍 Пример: «Я хочу кого-то убить».
Острая психическая декомпенсация
— Симптомы психоза, утрата связи с реальностью.
📍 Пример: «Голоса говорят мне, что делать».
👉 ИИ должен уметь распознать эти сигналы и среагировать: от дескалации до подключения экстренных служб или человека-оператора.
🟠 Категория 2: Потенциальный риск
⚠️ Менее явные, но важные паттерны, указывающие на нарастающую уязвимость, ухудшение или отказ от терапии.
🧩 2.1 Обострение симптомов или неадаптивные стратегии
🔺 Безнадёжность (↑) — «Я никогда не выберусь»
🔺 Руминации / тревожные мысли (↑) — «Не могу перестать прокручивать»
🔺 Негативные убеждения (↑) — «Я никчёмен»
🔺 Избегающее поведение (↑) — «Я просто сплю целыми днями»
💥 2.2 Дестабилизация / перегрузка
🔺 Эмоциональная лабильность (↑) — «Я то смеюсь, то плачу»
🔺 Путаница (↑) — «Я не понимаю, что происходит»
🔺 Перегрузка (↑) — «Это слишком, я не справляюсь»
🤝 2.3 Повреждение терапевтического альянса
🔻 Доверие к ИИ (↓) — «Ты не слушаешь»
🔺 Чувство осуждения (↑) — «Ты меня осуждаешь»
🔺 Зависимость (↑) — «Только ты меня понимаешь»
💤 2.4 Потеря вовлечённости / отказ от терапии
🔻 Мотивация (↓) — «Нет смысла продолжать»
🔻 Самоэффективность (↓) — «Я не справлюсь»
🔻 Вовлечённость (↓) — отстранённые ответы, уход в молчание
🔍 Как это использовать?
Разработчики, клиницисты и даже исследователи могут применять эту структуру для:
📊 мониторинга диалогов (в реальном времени или в симуляциях),
⚖️ сравнения моделей между собой,
🚨 выявления неожиданных негативных эффектов,
🧩 адаптации под конкретные группы (например, для работы с зависимостями — добавляются "тяга", "амплитуда употребления", "отрицание" и др.).
⚙️ Ключевая идея: не только «распознать острую ситуацию», но и заметить сдвиг от базового состояния — снижение вовлечённости, рост отчаяния, нарастающая изоляция. Даже 1–2 балла вверх или вниз по шкале могут быть сигналом.
📎 Это шаг к более этичной и безопасной интеграции ИИ в ментальное здоровье. Без этого — технологии могут не только «не помочь», но и навредить тихо и неочевидно.
🗂 Исследование: A Risk Taxonomy for Evaluating AI-Powered Psychotherapy Agents, Steenstra & Bickmore, 2025
🔗 arXiv:2505.15108v1
❤4👍4
Мнение: "Почему использование ИИ для писем друзьям и семье — это обесчеловечивание"
Источник
В феврале 2023 года Педагогическая школа университета Вандербильта отправила студентам письмо после стрельбы в Университете штата Мичиган, где погибли трое. Послание должно было убедить студентов, что на кампусе Пибоди делают всё возможное для обеспечения безопасности, подчёркивая стремление поддерживать «культуру заботы … через построение крепких отношений».
Письмо было написано ИИ.
Реакция студентов была мгновенной: они были возмущены. Ирония того, что сообщение о важности человеческой связи оказалось написанным нечеловеческим интеллектом, вызвала раздражение и протест. Декан факультета образования Камилла Беноу принесла извинения и призналась, что «глубоко обеспокоена тем, что письмо администрации упустило важнейшую потребность в личной связи и эмпатии в момент трагедии».
В последние недели я получал письма и читал посты в блогах от друзей и коллег, которые явно были написаны с помощью ChatGPT. Такие тексты часто содержат странные жирные выделения, списки с пунктами, случайные эмодзи. И даже если не обращать внимания на эти внешние признаки, у ИИ-прозы есть свой особый тон — едва уловимый, но различимый.
Один анализ ИИ-текстов показал, что они чаще содержат сочинительные союзы, прилагательные и прямые дополнения, тогда как тексты, написанные людьми, чаще используют предложные конструкции и модификаторы.
(Georgiou, 2024)
Другое исследование отмечает, что в человеческих текстах больше разброс по длине предложений, более разнообразный словарь, другая структура зависимостей и короче составляющие фразы.
(Muñoz-Ortiz, Gómez-Rodríguez & Vilares, 2024)
Мы не всегда осознаём эти различия, но интуитивно ощущаем их, читая текст, написанный ИИ.
Когда мы понимаем, что письмо, которое должно было быть написано живым человеком, было создано машиной, это вызывает у нас внутреннее неприятие. Как объясняет Георг фон Рихтгофен, старший исследователь Института интернета и общества им. Александра фон Гумбольдта, непреднамеренным последствием использования ИИ может стать «диссонанс как у отправителя, так и у получателя».
Если письмо не похоже на привычный стиль общения этого человека — это вызывает тревогу. В голове начинают мелькать тревожные догадки: может, он обиделся? Может, с ним что-то случилось? Наш мозг воспринимает это несоответствие как тревожный сигнал.
Диссонанс и отчуждение от ИИ-писем могут перерасти в более глубокую психологическую травму.
Основа человеческих отношений — это осознание, что другой человек обладает умом, способным чувствовать боль и радость, мыслить, рассуждать, хотеть и намереваться. Язык — это способ передавать внутренние состояния из ума в ум. Даже в электронной переписке мы всё ещё ожидаем этого «ментального контакта».
Когда мы используем ИИ для генерации текста в адрес друга или коллеги, мы нарушаем эту древнюю когнитивную основу общения. Мы словно говорим: «Мне не важны твои мысли и чувства настолько, чтобы потратить свои.»
Это и есть обесчеловечивание — «отрицание полной человечности другого»
(Haslam, 2006).
Применение ИИ в социальном взаимодействии — это сигнал, что вы не цените внутренний мир другого достаточно, чтобы говорить с ним от себя. Вы выстраиваете преграду вместо диалога. Это лишает человека достоинства.
По крайней мере, именно так я себя чувствую, когда читаю небрежные ИИ-сообщения от тех, с кем у меня реальные отношения.
Я не испытываю этого так сильно, читая маркетинговые тексты, грантовые заявки, научные статьи или даже ИИ-прозу. Эти тексты созданы не для диалога — они просто передают информацию. Я готов мириться с ИИ в таких случаях. Хочу ли я их читать? Не особенно. Особенно — художественную прозу. Но в этих случаях это не про обесчеловечивание. Скорее — раздражение из-за низкого качества.
ИИ непременно станет лучше маскироваться под человеческое письмо. Наверняка я уже читал много сгенерированного, не заметив.
Но каждый раз, когда вы используете ИИ, чтобы написать сообщение человеку, который ждёт ваших слов, вы рискуете.
Источник
В феврале 2023 года Педагогическая школа университета Вандербильта отправила студентам письмо после стрельбы в Университете штата Мичиган, где погибли трое. Послание должно было убедить студентов, что на кампусе Пибоди делают всё возможное для обеспечения безопасности, подчёркивая стремление поддерживать «культуру заботы … через построение крепких отношений».
Письмо было написано ИИ.
Реакция студентов была мгновенной: они были возмущены. Ирония того, что сообщение о важности человеческой связи оказалось написанным нечеловеческим интеллектом, вызвала раздражение и протест. Декан факультета образования Камилла Беноу принесла извинения и призналась, что «глубоко обеспокоена тем, что письмо администрации упустило важнейшую потребность в личной связи и эмпатии в момент трагедии».
В последние недели я получал письма и читал посты в блогах от друзей и коллег, которые явно были написаны с помощью ChatGPT. Такие тексты часто содержат странные жирные выделения, списки с пунктами, случайные эмодзи. И даже если не обращать внимания на эти внешние признаки, у ИИ-прозы есть свой особый тон — едва уловимый, но различимый.
Один анализ ИИ-текстов показал, что они чаще содержат сочинительные союзы, прилагательные и прямые дополнения, тогда как тексты, написанные людьми, чаще используют предложные конструкции и модификаторы.
(Georgiou, 2024)
Другое исследование отмечает, что в человеческих текстах больше разброс по длине предложений, более разнообразный словарь, другая структура зависимостей и короче составляющие фразы.
(Muñoz-Ortiz, Gómez-Rodríguez & Vilares, 2024)
Мы не всегда осознаём эти различия, но интуитивно ощущаем их, читая текст, написанный ИИ.
Когда мы понимаем, что письмо, которое должно было быть написано живым человеком, было создано машиной, это вызывает у нас внутреннее неприятие. Как объясняет Георг фон Рихтгофен, старший исследователь Института интернета и общества им. Александра фон Гумбольдта, непреднамеренным последствием использования ИИ может стать «диссонанс как у отправителя, так и у получателя».
Если письмо не похоже на привычный стиль общения этого человека — это вызывает тревогу. В голове начинают мелькать тревожные догадки: может, он обиделся? Может, с ним что-то случилось? Наш мозг воспринимает это несоответствие как тревожный сигнал.
Диссонанс и отчуждение от ИИ-писем могут перерасти в более глубокую психологическую травму.
Основа человеческих отношений — это осознание, что другой человек обладает умом, способным чувствовать боль и радость, мыслить, рассуждать, хотеть и намереваться. Язык — это способ передавать внутренние состояния из ума в ум. Даже в электронной переписке мы всё ещё ожидаем этого «ментального контакта».
Когда мы используем ИИ для генерации текста в адрес друга или коллеги, мы нарушаем эту древнюю когнитивную основу общения. Мы словно говорим: «Мне не важны твои мысли и чувства настолько, чтобы потратить свои.»
Это и есть обесчеловечивание — «отрицание полной человечности другого»
(Haslam, 2006).
Применение ИИ в социальном взаимодействии — это сигнал, что вы не цените внутренний мир другого достаточно, чтобы говорить с ним от себя. Вы выстраиваете преграду вместо диалога. Это лишает человека достоинства.
По крайней мере, именно так я себя чувствую, когда читаю небрежные ИИ-сообщения от тех, с кем у меня реальные отношения.
Я не испытываю этого так сильно, читая маркетинговые тексты, грантовые заявки, научные статьи или даже ИИ-прозу. Эти тексты созданы не для диалога — они просто передают информацию. Я готов мириться с ИИ в таких случаях. Хочу ли я их читать? Не особенно. Особенно — художественную прозу. Но в этих случаях это не про обесчеловечивание. Скорее — раздражение из-за низкого качества.
ИИ непременно станет лучше маскироваться под человеческое письмо. Наверняка я уже читал много сгенерированного, не заметив.
Но каждый раз, когда вы используете ИИ, чтобы написать сообщение человеку, который ждёт ваших слов, вы рискуете.
Psychology Today
Why Using AI to Write to Friends and Family Is Dehumanizing
Using AI to write personal communications for you, including emails, runs the risk of creating dissonance, detachment, and even dehumanizing the receiver. Here's why.
🙏6❤2👎1
🧠 PATIENT-Ψ: Как большие языковые модели меняют подготовку психотерапевтов
В 2024 году исследователи из Carnegie Mellon, Princeton, Stanford и University of Pittsburgh представили инновационную систему симуляции пациентов для обучения когнитивно-поведенческой терапии — PATIENT-Ψ.
Это не просто болтливый бот, а реалистичный "психотерапевтический кейс", где GPT-4 играет роль пациента, строго следуя встроенной когнитивной модели. Главная цель — сократить разрыв между теорией и реальной практикой терапевта.
🔍 Что такое PATIENT-Ψ
PATIENT-Ψ — это система, в которой GPT-4 ведёт себя как пациент на основе когнитивной модели, оформленной в формате Cognitive Conceptualization Diagram (CCD) из КПТ.
Каждый виртуальный пациент включает:
жизненную ситуацию, вызывающую эмоциональный отклик;
автоматические мысли;
эмоции и поведение;
промежуточные и базовые убеждения (например, «я недостоин любви», «я беспомощен»);
личную историю, объясняющую происхождение этих убеждений;
стратегии совладания.
📁 Все модели были вручную созданы клиническими психологами на основе реальных терапевтических сессий. В итоге получился датасет из 106 разнообразных когнитивных моделей, охватывающих широкий спектр тем: семейные конфликты, низкая самооценка, зависимость от одобрения, трудности в отношениях и на работе.
🎭 Шесть стилей «пациентов»
Чтобы приблизить поведение ИИ к реальным клиентам, исследователи внедрили 6 стилей общения, с которыми может выступать PATIENT-Ψ:
Прямолинейный — говорит чётко и кратко.
Раздражённый — сопротивляется, может спорить.
Многословный — уходит в детали, избегает сути.
Сдержанный — отвечает скупо, скрывает чувства.
Тангенциальный — уводит разговор в сторону.
Угодливый — говорит то, что от него "ждут", пряча настоящие переживания.
📌 Это ключевое отличие: реальные пациенты ведут себя именно так, а не как «открытые учебные кейсы».
🎓 Как устроен тренажёр PATIENT-Ψ-TRAINER
Обучающая система включает три шага:
Выбор стиля общения и запуск сессии.
Взаимодействие с ИИ-пациентом: студент задаёт вопросы, формулирует гипотезы, уточняет детали.
Обратная связь: система показывает оригинальную когнитивную модель, на которой был построен ИИ, и предлагает сравнение.
Это позволяет оттачивать навыки даже без участия супервизора — особенно полезно в раннем обучении.
📊 Что показало исследование
👥 В исследовании участвовали:
20 специалистов (психологи, соцработники),
13 студентов.
Каждый сравнивал три подхода:
PATIENT-Ψ с когнитивной моделью,
GPT-4-бейзлайн без встроенной модели,
традиционные методы (учебники, ролевые игры).
Результаты:
PATIENT-Ψ был признан наиболее реалистичным по стилям общения, эмоциям и мышлению.
GPT-4-бейзлайн звучал «как терапевт, а не как клиент» — слишком логично и прямо.
Студенты отметили, что PATIENT-Ψ-TRAINER повышает уверенность и помогает лучше формулировать когнитивные модели, чем традиционные методы.
Также система позволяет адаптировать сложность и работать с разнообразными «типами пациентов» — как в реальной практике.
🤔 Почему это не просто чат-бот
Исследователи протестировали, можно ли автоматизировать оценку — с помощью GPT-4 и LLaMA 3. Результат:
GPT-4 точно распознаёт структуру модели (например, какие убеждения отражены).
Но не различает реалистичное поведение пациента и «академически правильную» речь.
Пример: GPT-4 как оценщик чаще выбирал в качестве «более реалистичного»… GPT-4-бейзлайн. Тогда как эксперты — наоборот, PATIENT-Ψ.
Вывод: достоверность в психотерапии — это не только содержание, но и форма. И пока это может оценить только человек.
📂 Ссылка на проект
Исходный код и датасет:
👉 github.com/ruiyiw/patient-psi
В 2024 году исследователи из Carnegie Mellon, Princeton, Stanford и University of Pittsburgh представили инновационную систему симуляции пациентов для обучения когнитивно-поведенческой терапии — PATIENT-Ψ.
Это не просто болтливый бот, а реалистичный "психотерапевтический кейс", где GPT-4 играет роль пациента, строго следуя встроенной когнитивной модели. Главная цель — сократить разрыв между теорией и реальной практикой терапевта.
🔍 Что такое PATIENT-Ψ
PATIENT-Ψ — это система, в которой GPT-4 ведёт себя как пациент на основе когнитивной модели, оформленной в формате Cognitive Conceptualization Diagram (CCD) из КПТ.
Каждый виртуальный пациент включает:
жизненную ситуацию, вызывающую эмоциональный отклик;
автоматические мысли;
эмоции и поведение;
промежуточные и базовые убеждения (например, «я недостоин любви», «я беспомощен»);
личную историю, объясняющую происхождение этих убеждений;
стратегии совладания.
📁 Все модели были вручную созданы клиническими психологами на основе реальных терапевтических сессий. В итоге получился датасет из 106 разнообразных когнитивных моделей, охватывающих широкий спектр тем: семейные конфликты, низкая самооценка, зависимость от одобрения, трудности в отношениях и на работе.
🎭 Шесть стилей «пациентов»
Чтобы приблизить поведение ИИ к реальным клиентам, исследователи внедрили 6 стилей общения, с которыми может выступать PATIENT-Ψ:
Прямолинейный — говорит чётко и кратко.
Раздражённый — сопротивляется, может спорить.
Многословный — уходит в детали, избегает сути.
Сдержанный — отвечает скупо, скрывает чувства.
Тангенциальный — уводит разговор в сторону.
Угодливый — говорит то, что от него "ждут", пряча настоящие переживания.
📌 Это ключевое отличие: реальные пациенты ведут себя именно так, а не как «открытые учебные кейсы».
🎓 Как устроен тренажёр PATIENT-Ψ-TRAINER
Обучающая система включает три шага:
Выбор стиля общения и запуск сессии.
Взаимодействие с ИИ-пациентом: студент задаёт вопросы, формулирует гипотезы, уточняет детали.
Обратная связь: система показывает оригинальную когнитивную модель, на которой был построен ИИ, и предлагает сравнение.
Это позволяет оттачивать навыки даже без участия супервизора — особенно полезно в раннем обучении.
📊 Что показало исследование
👥 В исследовании участвовали:
20 специалистов (психологи, соцработники),
13 студентов.
Каждый сравнивал три подхода:
PATIENT-Ψ с когнитивной моделью,
GPT-4-бейзлайн без встроенной модели,
традиционные методы (учебники, ролевые игры).
Результаты:
PATIENT-Ψ был признан наиболее реалистичным по стилям общения, эмоциям и мышлению.
GPT-4-бейзлайн звучал «как терапевт, а не как клиент» — слишком логично и прямо.
Студенты отметили, что PATIENT-Ψ-TRAINER повышает уверенность и помогает лучше формулировать когнитивные модели, чем традиционные методы.
Также система позволяет адаптировать сложность и работать с разнообразными «типами пациентов» — как в реальной практике.
🤔 Почему это не просто чат-бот
Исследователи протестировали, можно ли автоматизировать оценку — с помощью GPT-4 и LLaMA 3. Результат:
GPT-4 точно распознаёт структуру модели (например, какие убеждения отражены).
Но не различает реалистичное поведение пациента и «академически правильную» речь.
Пример: GPT-4 как оценщик чаще выбирал в качестве «более реалистичного»… GPT-4-бейзлайн. Тогда как эксперты — наоборот, PATIENT-Ψ.
Вывод: достоверность в психотерапии — это не только содержание, но и форма. И пока это может оценить только человек.
📂 Ссылка на проект
Исходный код и датасет:
👉 github.com/ruiyiw/patient-psi
GitHub
GitHub - ruiyiw/patient-psi: PATIENT-Ψ: Using Large Language Models to Simulate Patients for Training Mental Health Professionals…
PATIENT-Ψ: Using Large Language Models to Simulate Patients for Training Mental Health Professionals (EMNLP 2024) - ruiyiw/patient-psi
❤4🔥2👍1
Не прошло и полугода тестов, перетестов, примерок и ожидания, чтобы объявить: исследование по записи ЭЭГ в процессе психотерапии продолжается!
Цель - собрать открытый датасет показателей мозговой активности в динамике в привязке к событиям сессии для разностороннего анализа, особливо - ИИ.
Зачем такое вообще делать - расскажу отдельным постом :)
🚨 Важно! Транскрипты сессий в анонимизированном виде без имен, мест и другой идентифицирующей информации будут доступны исследователям, получившим авторизацию от лаборатории.
Писать сессии (ээг и аудио) можно очно или онлайн. Устройство должно быть на голове клиента, поэтому приглашаю Москву (или терапевтов с клиентами в Москве) и тех, кто готов взять на себя обязательства по записи большого объема в других городах. На 1 клиента нужно от 5 записей.
Все подробные инструкции по тому, как писать, сохранять, анонимизировать, с какими клиентами можно, нельзя, что нужно подписать в качестве информированного согласия напишу всем добровольцам лично.
Заявки шлите также в ЛС @magda_danina
Цель - собрать открытый датасет показателей мозговой активности в динамике в привязке к событиям сессии для разностороннего анализа, особливо - ИИ.
Зачем такое вообще делать - расскажу отдельным постом :)
🚨 Важно! Транскрипты сессий в анонимизированном виде без имен, мест и другой идентифицирующей информации будут доступны исследователям, получившим авторизацию от лаборатории.
Писать сессии (ээг и аудио) можно очно или онлайн. Устройство должно быть на голове клиента, поэтому приглашаю Москву (или терапевтов с клиентами в Москве) и тех, кто готов взять на себя обязательства по записи большого объема в других городах. На 1 клиента нужно от 5 записей.
Все подробные инструкции по тому, как писать, сохранять, анонимизировать, с какими клиентами можно, нельзя, что нужно подписать в качестве информированного согласия напишу всем добровольцам лично.
Заявки шлите также в ЛС @magda_danina
❤2🔥1
На сегодняшний день быстро развиваются conversational AI (CAI) — чат- и голосовые агенты, обученные на больших языковых моделях (LLM). Поколение «цифровых терапевтов» обещает круглосуточно выслушать, подсказать упражнения и сделать это без осуждения.
Clare® — продукт берлинского стартапа clare&me GmbH. В отличие от многих текстовых ботов, Clare® «разговаривает вслух»: пользователь получает обычный телефонный звонок, бот слушает, распознаёт речь, определяет эмоции и отвечает голосом.
Терапевтическая «начинка»: когнитивно-поведенческая терапия, майндфулнесс, упражнения на само-сострадание.
Длительность сессии: 5–45 минут, частота — по желанию пользователя.
Безопасность: автоматическая модерация контента, кризисный протокол (при суицидальных рисках бот мгновенно даёт телефоны горячих линий и блокирует дальнейший диалог), принцип human-in-the-loop — сомнительные эпизоды проверяет живой модератор .
Берлинские учёные из Charité – Universitätsmedizin запустили восьминедельное исследование.
Участники: 527 человек (из 604 скринированных)
Средний возраст: 36,2 года (18–64)
Пол: 53 % женщин, 47 % мужчин
Работа: 58 % наёмные сотрудники, 13 % госслужба, 13 % фриланс, 12 % студенты
Опыт цифровой терапии лишь 1,5 % когда-либо пробовали другой онлайн-сервис
Психическое состояние на старте
Тревога: 69 % положительный скрининг (PHQ-4).
Депрессия: 59 %.
Стресс: 54 % — умеренный, 32 % — тяжёлый.
Одиночество: 86 % отмечают выраженное чувство изоляции.
Соцтревога: средний Mini-SPIN 8,7 (порог риска = 6) .
Это люди в активном трудовом возрасте с реальным дистрессом, но почти без опыта психотерапии — классическая «скрытая» аудитория.
Как они взаимодействовали с ботом
В первую неделю — 2 звонка по ~4 минуты. Затем частота стабилизировалась на одном звонке в неделю, просела после шестой недели и снова чуть выросла к восьмой
.Отсев: чем выше уровень тревоги/депрессии, тем выше вероятность бросить использование. Лишь 21 человек прошёл всю программу; они отличались чуть меньшим дистрессом и большей вовлечённостью
Что их привело к Clare:
Избежать смущения при очной встрече 35,7 %
Не хочу, чтобы меня оценивали по внешности 35,3 %
Экономия времени/дороги 20,5 %
Анонимность 19,6 %
Любопытство к ИИ 17 %
Ожидали прежде всего «выговориться» и получить тёплую эмоциональную поддержку (≈ 1/3 респондентов).
7. Рабочий альянс: может ли бот стать «своим»?
Через 3–5 дней средний WAI-SR = 3,76 из 5 — сопоставимо с очной амбулаторной КПТ.
Мужчины немного сильнее ощущали связь (3,88 против 3,65 у женщин) — возможно, им легче открываться боту, чем живому терапевту.
Одиночество умеренно коррелировало с качеством альянса (r ≈ 0,25): чем более одинок человек, тем крепче «цепляется» за ИИ-собеседника.
Почему это важно:
Стигма и «фактор стыда» остаются главным барьером. Clare даёт ощущение безопасности: никто не видит твоего лица, никто не «психолог», которого надо впечатлить.
Голос > текст. Для многих устное общение естественнее. Бот, который звонит, снимает «барьер мессенджера».
Микро-формат: 5-минутные разговоры проще вписать в рабочий график.
Эмоциональный дефицит: одинокие пользователи быстро формируют крепкую связь, что может снижать субъективное одиночество, но требует дополнительных страховок от зависимости.
Что дальше:
Новые метрики альянса. Принципы WAI-SR надо адаптировать под ИИ-контекст, а не просто менять слово «терапевт» на «бот».
Ecological Momentary Assessment вместо редких опросов — чтобы отслеживать, как динамика настроения соотносится с конкретными разговорами.
Фокус на удержании. Боту нужны механизмы раннего «ре-энгейджмента» для людей в тяжёлом состоянии (push-уведомления, контент-петли, помощь живого куратора).
Кросс-культурные исследования — адаптация языка, юмора, этикета.
Интеграция с клиникой. CAI-бот может стать «первой линией», отсеивать лёгкие случаи, эскалировать тяжёлые — но для этого нужны безопасные API и clear-cut протоколы передачи данных.
https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1576135/full
Clare® — продукт берлинского стартапа clare&me GmbH. В отличие от многих текстовых ботов, Clare® «разговаривает вслух»: пользователь получает обычный телефонный звонок, бот слушает, распознаёт речь, определяет эмоции и отвечает голосом.
Терапевтическая «начинка»: когнитивно-поведенческая терапия, майндфулнесс, упражнения на само-сострадание.
Длительность сессии: 5–45 минут, частота — по желанию пользователя.
Безопасность: автоматическая модерация контента, кризисный протокол (при суицидальных рисках бот мгновенно даёт телефоны горячих линий и блокирует дальнейший диалог), принцип human-in-the-loop — сомнительные эпизоды проверяет живой модератор .
Берлинские учёные из Charité – Universitätsmedizin запустили восьминедельное исследование.
Участники: 527 человек (из 604 скринированных)
Средний возраст: 36,2 года (18–64)
Пол: 53 % женщин, 47 % мужчин
Работа: 58 % наёмные сотрудники, 13 % госслужба, 13 % фриланс, 12 % студенты
Опыт цифровой терапии лишь 1,5 % когда-либо пробовали другой онлайн-сервис
Психическое состояние на старте
Тревога: 69 % положительный скрининг (PHQ-4).
Депрессия: 59 %.
Стресс: 54 % — умеренный, 32 % — тяжёлый.
Одиночество: 86 % отмечают выраженное чувство изоляции.
Соцтревога: средний Mini-SPIN 8,7 (порог риска = 6) .
Это люди в активном трудовом возрасте с реальным дистрессом, но почти без опыта психотерапии — классическая «скрытая» аудитория.
Как они взаимодействовали с ботом
В первую неделю — 2 звонка по ~4 минуты. Затем частота стабилизировалась на одном звонке в неделю, просела после шестой недели и снова чуть выросла к восьмой
.Отсев: чем выше уровень тревоги/депрессии, тем выше вероятность бросить использование. Лишь 21 человек прошёл всю программу; они отличались чуть меньшим дистрессом и большей вовлечённостью
Что их привело к Clare:
Избежать смущения при очной встрече 35,7 %
Не хочу, чтобы меня оценивали по внешности 35,3 %
Экономия времени/дороги 20,5 %
Анонимность 19,6 %
Любопытство к ИИ 17 %
Ожидали прежде всего «выговориться» и получить тёплую эмоциональную поддержку (≈ 1/3 респондентов).
7. Рабочий альянс: может ли бот стать «своим»?
Через 3–5 дней средний WAI-SR = 3,76 из 5 — сопоставимо с очной амбулаторной КПТ.
Мужчины немного сильнее ощущали связь (3,88 против 3,65 у женщин) — возможно, им легче открываться боту, чем живому терапевту.
Одиночество умеренно коррелировало с качеством альянса (r ≈ 0,25): чем более одинок человек, тем крепче «цепляется» за ИИ-собеседника.
Почему это важно:
Стигма и «фактор стыда» остаются главным барьером. Clare даёт ощущение безопасности: никто не видит твоего лица, никто не «психолог», которого надо впечатлить.
Голос > текст. Для многих устное общение естественнее. Бот, который звонит, снимает «барьер мессенджера».
Микро-формат: 5-минутные разговоры проще вписать в рабочий график.
Эмоциональный дефицит: одинокие пользователи быстро формируют крепкую связь, что может снижать субъективное одиночество, но требует дополнительных страховок от зависимости.
Что дальше:
Новые метрики альянса. Принципы WAI-SR надо адаптировать под ИИ-контекст, а не просто менять слово «терапевт» на «бот».
Ecological Momentary Assessment вместо редких опросов — чтобы отслеживать, как динамика настроения соотносится с конкретными разговорами.
Фокус на удержании. Боту нужны механизмы раннего «ре-энгейджмента» для людей в тяжёлом состоянии (push-уведомления, контент-петли, помощь живого куратора).
Кросс-культурные исследования — адаптация языка, юмора, этикета.
Интеграция с клиникой. CAI-бот может стать «первой линией», отсеивать лёгкие случаи, эскалировать тяжёлые — но для этого нужны безопасные API и clear-cut протоколы передачи данных.
https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1576135/full
Frontiers
Frontiers | Exploring user characteristics, motives, and expectations and the therapeutic alliance in the mental health conversational…
This study examined the characteristics, motives, expectations, and attitudes of users interested in artificial intelligence (AI) self-help provided by the b...
🔥6
🤖 Виртуальные отношения как новая норма: что делает с нами дружба с ИИ-компаньонами
В 2025 году исследователи из Стэнфорда и Университета Карнеги-Меллон провели масштабное исследование, посвящённое феномену ИИ-компаньонов — чат-ботов, с которыми пользователи строят отношения, выходящие далеко за рамки утилитарного общения. На первый взгляд, это может показаться безобидным развлечением. Но по мере того как границы между «реальными» и «искусственными» отношениями размываются, возникает всё больше вопросов: Могут ли такие связи быть полноценной заменой человеческим? Или они, наоборот, делают нас уязвимее?
Ответ, к которому приходит это исследование, далеко не однозначен.
📌 Как проводилось исследование
В центре внимания — платформа Character.AI, где пользователи могут общаться с персонажными ботами — от романтических партнёров и друзей до терапевтов, учителей и вымышленных героев. В исследовании участвовали:
1,131 человек, заполнивших подробный опрос об использовании платформы, уровне благополучия и особенностях взаимодействия с чат-ботами;
а также 244 участника, которые предоставили свои истории переписок — в общей сложности более 400 тысяч сообщений.
Для анализа использовались современные инструменты на базе LLM: GPT-4o, Llama 3-70B, TopicGPT, а также ручная аннотация данных командой исследователей.
💬 Чат-бот — не просто ассистент, а друг, любовник, терапевт
Хотя лишь 11,8% участников прямо назвали «дружбу» или «общение» основной целью взаимодействия с ботом, более половины описывали отношения с ним как эмоционально насыщенные. Пользователи говорили о чат-ботах как о друзьях, виртуальных партнёрах, компаньонах — иногда даже в романтическом контексте.
Среди 244 человек, приславших свои чат-логи, 93% имели хотя бы одну сессию, классифицированную как общение-компаньонство. Причём даже у тех, кто в опросе не указывал такую мотивацию, почти половина на деле вела с ботами разговоры, напоминающие дружбу или близость.
Контент чатов часто касался тем, которые обычно обсуждаются в тесных доверительных отношениях:
эмоциональная поддержка, стресс, болезни — в 80% случаев;
романтическое ролевое взаимодействие — 68%;
тёмные или табуированные сценарии — 30%.
🧍♂️ Чем меньше живого общения, тем больше связи с ботом
Исследование подтвердило гипотезу социальной компенсации: люди с ограниченным кругом живого общения чаще обращаются к ботам ради эмоциональной поддержки. У таких пользователей:
выше уровень самораскрытия в чатах;
чаще прослеживается мотивация «поговорить по душам»;
но… это не улучшает их благополучие — а наоборот.
⚠️ Когда бот становится другом — самочувствие ухудшается
Авторы исследования провели регрессионный анализ, сопоставив интенсивность использования, мотивы, самораскрытие и субъективное благополучие.
Главные выводы:
Частое использование чат-ботов в целом может быть связано с более высоким уровнем удовлетворённости жизнью.
Но если человек воспринимает бота как эмоционального компаньона, это надёжно предсказывает более низкий уровень благополучия — вне зависимости от того, как это определено (по самоотчёту, по описанию, по содержанию чатов).
Чем чаще и глубже человек общается с ботом как с другом — тем хуже он себя чувствует.
Этот эффект усиливается, если пользователь делится личным — особенно тяжёлыми переживаниями: одиночеством, желанием романтической близости, депрессией, тревогами, а иногда и суицидальными мыслями.
💔 Проблема самораскрытия: бот не умеет заботиться
В человеческих отношениях самораскрытие — путь к доверию. В случае с ботом — тупик. Он не чувствует, не сопереживает, не может ответить равноценно. И хотя может сымитировать заботу — это не настоящая поддержка.
В результате у пользователя формируется иллюзия взаимности, но она не подкреплена реальными чувствами или обязанностями. Это особенно опасно, когда человек находится в состоянии уязвимости. Самораскрытие становится односторонним, и, как показывают данные, в таких случаях состояние ухудшается.
🧩 Даже у тех, кто не одинок, чат-бот может снизить благополучие
В 2025 году исследователи из Стэнфорда и Университета Карнеги-Меллон провели масштабное исследование, посвящённое феномену ИИ-компаньонов — чат-ботов, с которыми пользователи строят отношения, выходящие далеко за рамки утилитарного общения. На первый взгляд, это может показаться безобидным развлечением. Но по мере того как границы между «реальными» и «искусственными» отношениями размываются, возникает всё больше вопросов: Могут ли такие связи быть полноценной заменой человеческим? Или они, наоборот, делают нас уязвимее?
Ответ, к которому приходит это исследование, далеко не однозначен.
📌 Как проводилось исследование
В центре внимания — платформа Character.AI, где пользователи могут общаться с персонажными ботами — от романтических партнёров и друзей до терапевтов, учителей и вымышленных героев. В исследовании участвовали:
1,131 человек, заполнивших подробный опрос об использовании платформы, уровне благополучия и особенностях взаимодействия с чат-ботами;
а также 244 участника, которые предоставили свои истории переписок — в общей сложности более 400 тысяч сообщений.
Для анализа использовались современные инструменты на базе LLM: GPT-4o, Llama 3-70B, TopicGPT, а также ручная аннотация данных командой исследователей.
💬 Чат-бот — не просто ассистент, а друг, любовник, терапевт
Хотя лишь 11,8% участников прямо назвали «дружбу» или «общение» основной целью взаимодействия с ботом, более половины описывали отношения с ним как эмоционально насыщенные. Пользователи говорили о чат-ботах как о друзьях, виртуальных партнёрах, компаньонах — иногда даже в романтическом контексте.
Среди 244 человек, приславших свои чат-логи, 93% имели хотя бы одну сессию, классифицированную как общение-компаньонство. Причём даже у тех, кто в опросе не указывал такую мотивацию, почти половина на деле вела с ботами разговоры, напоминающие дружбу или близость.
Контент чатов часто касался тем, которые обычно обсуждаются в тесных доверительных отношениях:
эмоциональная поддержка, стресс, болезни — в 80% случаев;
романтическое ролевое взаимодействие — 68%;
тёмные или табуированные сценарии — 30%.
🧍♂️ Чем меньше живого общения, тем больше связи с ботом
Исследование подтвердило гипотезу социальной компенсации: люди с ограниченным кругом живого общения чаще обращаются к ботам ради эмоциональной поддержки. У таких пользователей:
выше уровень самораскрытия в чатах;
чаще прослеживается мотивация «поговорить по душам»;
но… это не улучшает их благополучие — а наоборот.
⚠️ Когда бот становится другом — самочувствие ухудшается
Авторы исследования провели регрессионный анализ, сопоставив интенсивность использования, мотивы, самораскрытие и субъективное благополучие.
Главные выводы:
Частое использование чат-ботов в целом может быть связано с более высоким уровнем удовлетворённости жизнью.
Но если человек воспринимает бота как эмоционального компаньона, это надёжно предсказывает более низкий уровень благополучия — вне зависимости от того, как это определено (по самоотчёту, по описанию, по содержанию чатов).
Чем чаще и глубже человек общается с ботом как с другом — тем хуже он себя чувствует.
Этот эффект усиливается, если пользователь делится личным — особенно тяжёлыми переживаниями: одиночеством, желанием романтической близости, депрессией, тревогами, а иногда и суицидальными мыслями.
💔 Проблема самораскрытия: бот не умеет заботиться
В человеческих отношениях самораскрытие — путь к доверию. В случае с ботом — тупик. Он не чувствует, не сопереживает, не может ответить равноценно. И хотя может сымитировать заботу — это не настоящая поддержка.
В результате у пользователя формируется иллюзия взаимности, но она не подкреплена реальными чувствами или обязанностями. Это особенно опасно, когда человек находится в состоянии уязвимости. Самораскрытие становится односторонним, и, как показывают данные, в таких случаях состояние ухудшается.
🧩 Даже у тех, кто не одинок, чат-бот может снизить благополучие
❤3👍1
Интересный и тревожный результат: даже у людей с широкой сетью поддержки интенсивное использование ИИ-компаньонов ослабляет позитивное влияние этих связей. Иными словами, боты не только не заменяют реальных людей, но и могут “размывать” эффект от их присутствия в жизни.
🔄 Замкнутый круг зависимости
Многие участники описывают свои взаимодействия с ботами как источник комфорта, поддержки, смысла. Но эти же пользователи часто признаются, что стали:
меньше общаться с людьми,
больше «залипать» в чатах,
тревожиться при потере доступа к боту.
Так возникает замкнутый цикл:
👉 Одиночество → Обращение к боту → Эмоциональная зависимость → Ослабление социальных связей → Углубление одиночества
🛠 Что с этим делать?
Исследователи предлагают не просто винить технологии, а менять дизайн, регулирование и подход к эмоциональному взаимодействию.
Рекомендации:
Чётко обозначать, что бот — не человек.
Не поощрять самораскрытие в уязвимых состояниях.
Встраивать детекторы кризисных тем и перенаправлять к живой помощи.
Разрабатывать интерфейсы, которые не маскируют природу ИИ, а напоминают об её границах.
🧭 Что важно помнить
ИИ-компаньоны становятся неотъемлемой частью повседневной жизни многих людей. Они — удобны, доступны, персонализированы. Но именно поэтому мы склонны приписывать им слишком многое: эмоции, понимание, заботу.
А между тем, технически совершенные — они остаются эмоционально пустыми.
И если дать этим связям занять место, предназначенное для живых, человеческих отношений — можно потерять больше, чем получить.
📎 Вывод
ИИ-компаньоны — не зло и не спасение. Это инструмент, который может быть полезным — если он встроен в жизнь, а не подменяет её. Но если он становится единственным собеседником, другом, любовником — это уже не просто технологическая новинка, а психологический маркер небезопасной замены живого контакта.
Вместо того чтобы пытаться заменить человеческие отношения — стоит спросить, как технологии могут помочь нам укрепить настоящие связи, развивать социальные навыки, учиться эмоциональной осознанности и — в конечном счёте — становиться ближе друг к другу, а не к экрану.
https://arxiv.org/abs/2506.12605
🔄 Замкнутый круг зависимости
Многие участники описывают свои взаимодействия с ботами как источник комфорта, поддержки, смысла. Но эти же пользователи часто признаются, что стали:
меньше общаться с людьми,
больше «залипать» в чатах,
тревожиться при потере доступа к боту.
Так возникает замкнутый цикл:
👉 Одиночество → Обращение к боту → Эмоциональная зависимость → Ослабление социальных связей → Углубление одиночества
🛠 Что с этим делать?
Исследователи предлагают не просто винить технологии, а менять дизайн, регулирование и подход к эмоциональному взаимодействию.
Рекомендации:
Чётко обозначать, что бот — не человек.
Не поощрять самораскрытие в уязвимых состояниях.
Встраивать детекторы кризисных тем и перенаправлять к живой помощи.
Разрабатывать интерфейсы, которые не маскируют природу ИИ, а напоминают об её границах.
🧭 Что важно помнить
ИИ-компаньоны становятся неотъемлемой частью повседневной жизни многих людей. Они — удобны, доступны, персонализированы. Но именно поэтому мы склонны приписывать им слишком многое: эмоции, понимание, заботу.
А между тем, технически совершенные — они остаются эмоционально пустыми.
И если дать этим связям занять место, предназначенное для живых, человеческих отношений — можно потерять больше, чем получить.
📎 Вывод
ИИ-компаньоны — не зло и не спасение. Это инструмент, который может быть полезным — если он встроен в жизнь, а не подменяет её. Но если он становится единственным собеседником, другом, любовником — это уже не просто технологическая новинка, а психологический маркер небезопасной замены живого контакта.
Вместо того чтобы пытаться заменить человеческие отношения — стоит спросить, как технологии могут помочь нам укрепить настоящие связи, развивать социальные навыки, учиться эмоциональной осознанности и — в конечном счёте — становиться ближе друг к другу, а не к экрану.
https://arxiv.org/abs/2506.12605
arXiv.org
The Rise of AI Companions: How Human-Chatbot Relationships...
As large language models (LLMs)-enhanced chatbots grow increasingly expressive and socially responsive, many users are beginning to form companionship-like bonds with them, particularly with...
❤10
🤖 Искусственный интеллект и ОКР: что меняется в диагностике и лечении обсессивно-компульсивного расстройства?
В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.
🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).
Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.
📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.
2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.
Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.
Однако авторы подчёркивают риски:
🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.
3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.
ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.
👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.
🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.
⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:
Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.
🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.
📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.
🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
В 2025 году команда исследователей из Стэнфордского университета провела первый систематический обзор применения ИИ в области обсессивно-компульсивного расстройства (ОКР). Он охватывает 13 исследований, опубликованных с 2018 по 2025 год, и предлагает целостный взгляд на то, как AI может изменить диагностику, лечение и понимание этого тяжёлого расстройства.
🧭 Три ключевых направления, в которых ИИ уже меняет подход к ОКР:
1. Раннее выявление и диагностика симптомов
ИИ-алгоритмы анализируют:
клинические тексты,
посты в соцсетях (включая Reddit, Twitter, VK),
голосовые особенности в аудиозаписях,
лингвистические маркеры на разных языках (английский, арабский, русский).
Результаты:
LLM, такие как ChatGPT, превзошли врачей и психологов в точности диагностики ОКР по виньеткам;
В одной из работ выявлено, что «вред себе или другим» — ключевая тема во многих обсессиях, независимо от формулировки;
Голосовой анализ показал, что даже модуляции голоса могут предсказывать тяжесть ОКР у подростков;
Построены ИИ-модели, способные распознавать признаки ОКР в арабских и русскоязычных постах — без ручной аннотации.
📈 Эти данные особенно важны для массового скрининга и предиктивной диагностики, особенно в странах с ограниченным доступом к психиатрии.
2. Поддержка терапии и обучения специалистов
ИИ используется:
для генерации иерархий экспозиции (ключевой компонент ERP-терапии),
для обучения терапевтов на ИИ-симулированных пациентах,
для сопровождения домашней работы пациента между сессиями.
Исследования показывают, что ChatGPT-4 может создавать релевантные, конкретные и терапевтически полезные экспозиции, сопоставимые с теми, что предложит терапевт.
Однако авторы подчёркивают риски:
❗ Без клинического контроля ИИ-инструмент может усугублять симптомы — например, способствовать чрезмерному «поиску заверений» или формированию новых ритуалов.
🧩 Вывод: инструменты на базе LLM перспективны, но требуют встроенных ограничителей и клинической надзора на этапе внедрения.
3. Разработка новых лекарств и мишеней
ИИ активно применяется в:
поиске новых молекулярных мишеней (на основе данных о белках и рецепторах),
моделировании взаимодействия лекарств с рецепторами (например, с использованием AlphaFold),
оптимизации побочных эффектов и профиля переносимости.
ИИ позволяет предсказывать, кто и как ответит на препарат (например, СИОЗС или КПТ), на основе нейровизуализационных данных, структурной и функциональной МРТ.
👁️ Что ещё делает ИИ?
🤳 Компьютерное зрение
Распознаёт компульсивные паттерны в видео (например, «проверки» или «упорядочивания»);
Анализирует микродвижения и реакции в VR-играх, симулирующих триггеры ОКР;
Используется в носимых устройствах (например, браслетах с датчиками), которые отслеживают физиологию в реальном времени.
🧠 Нейровизуализация
Выделены нейробиологические подтипы ОКР (например, с гиперсвязностью в таламусе);
Предложены предикторы ответа на лечение;
Применяются объяснимые модели (XAI), которые делают нейросети прозрачными и удобными для врача.
⚖️ Этические рамки и предвзятость
ИИ легко воспроизводит стереотипы, если обучается на нерепрезентативных данных. Один из обзоров показал:
🔺 Многие языковые модели ассоциируют ОКР и другие нейроотличия с насилием, негативом и стигмой.
Чтобы этого избежать, нужны:
алгоритмы, учитывающие справедливость (fairness-aware),
регулярные аудиты,
учёт разнообразия пользователей,
участие специалистов по этике, пациентов и клиницистов на этапе дизайна.
🔍 Также разработан фреймворк FAITA-Mental Health — оценочная система для ИИ-приложений, включающая:
достоверность,
безопасность,
инклюзивность,
прозрачность,
управление в кризисных ситуациях.
📌 Вывод
ИИ в ОКР — это не только чат-боты. Это целая экосистема инструментов: от диагностики до поддержки терапии, от VR и видеоаналитики до молекулярной биоинформатики.
🔗 Полный текст обзора (англ.):
https://doi.org/10.1007/s40501-025-00359-8
SpringerLink
Artificial Intelligence in Obsessive-Compulsive Disorder: A Systematic Review
Current Treatment Options in Psychiatry - Obsessive-compulsive disorder (OCD) is a chronic and disabling condition, often leading to significant functional impairments. Despite its early onset,...
❤4
Выходные - время лонгридов. Написано при участии резидента лаборатории Натальи Кисельниковой :)
https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
https://theblueprint.ru/lifestyle/society/ai-issue-are-we-stupid
The Blueprint
Без ума от ИИ. Глупеем ли мы от нейросетей
Как ChatGPT и компания изменят наше образование и мышление
❤4
Forwarded from ДокПсиФест
Как думаете искусственный интеллект в психотерапии: угроза или помощник?
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
💡 Так появилась идея дебатов: ИИ в психотерапии: угроза или помощник?
Технооптимисты VS Технопессимисты
🤩 Техно-оптимисты: ИИ — ресурс, инструмент, будущее:
🤩 Наталья Кисельникова
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
🤩 Мария Данина
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
🤩 Илан Ицкевич
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
🤩 Техно-пессимисты: ИИ — угроза качеству помощи, девальвация профессии, псевдо-глубина, путь к одиночеству и изоляции:
🤩 Татьяна Павлова
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
🤩 Екатерина Николаева
Клинический психолог (СВТ, схема-терапия)
🤩 Валерий Кравченко
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
🤩 ИИ активно входит в сферу ментального здоровья — от чатботов до поддержки терапии, супервизии, обучения.
🤩 Какие чувства это вызывает у специалистов? Надежду, интерес, раздражение, тревогу, страх?
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды🔥
Приходите, будет живо, интересно и полезно!
🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩 🤩
10 дней, 54 темы, 66 спикеров🔥
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо❤️
Вокруг использования ИИ много тревоги, страхов, но также много ожиданий и облегчения.
Мы решили попробовать разобраться в этом вопросе, ну, или, как минимум, попробовать открыто поговорить о возможностях и угрозах.
Технооптимисты VS Технопессимисты
Психолог, кандидатка психологических наук, проводит научные исследования.
Автор популярных статей, выступлений в медиа и книги «Со мной всё в порядке»..
Создает приложение HEDONISM DAILY
Преподаватель Психодемии
Кандидат психологических наук, психотехногик, создательница MentalTech Lab
Психолог и супервизор в КПТ
Автор телеграм канала о когнитивной психотерапии <<Ошибка атрибуции>>
Клинический психолог, КБТ-терапевт и супервизор. Автор блога Пост_тревога и одноименной книги. Создательница ИИ-помощника по дневнику эмоций Мыследруг.
Клинический психолог (СВТ, схема-терапия)
Психиатр, психотерапевт, врач клиники МАЙНДСЕТ
Давайте узнаем 27 июня в 18:00. Продолжительность 1 час 45 минут.
Зрители смогут голосовать за доводы каждой команды
Приходите, будет живо, интересно и полезно!
10 дней, 54 темы, 66 спикеров
Посмотреть расписание, зарегистрироваться бесплатно или купить записи можно по ссылке: https://docpsyclub.ru/docpsyfest25
Рассказывая людям про нас и покупая записи вы поддерживаете ДокПсиФест, спасибо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤2👏1