MentalTech Lab – Telegram
MentalTech Lab
422 subscribers
25 photos
1 video
1 file
83 links
Изучаем психотерапию на стыке с технологиями https://mentaltech.ru/
По поводу сотрудничества: @magda_danina
Download Telegram
Еще одна долгожданная встреча на носу - обсудим с Глебом Калининым, как использовать ИИ для анализа сессий. Разумеется, неочевидными способами, иначе зачем это все?))

1 декабря 2025
19:00

Регистрация по ссылке:

https://mentaltechlab.timepad.ru/event/3679618/
🔥104
Человеко_ориентированный_искусственный_интеллект.pdf
12.9 MB
Мы провели первую встречу MentalTech Talks. У нас в гостях была Юлия Вересова, независимый исследователь и автор фреймворка AIIM.

Юлия рассказала о том, как человекоцентричный ИИ может применяться в клинической практике. Мы обсудили практическую ценность цифровых двойников, точность поведенческих моделей и границы их применения.

Как обещали, делимся записью первой встречи в рамках MentalTech Talks
Rutube
Youtube

Также прикладываем ссылки, о которых говорили на встрече:
Сайт Юлии
Русская адаптация страницы с виртуальным пациентом

Спасибо всем, кто пришел и участвовал в обсуждении. Ждем вас на следующих встречах MentalTech Talks!
6🔥3😍1
Привет всем, кто пришел сегодня с конференции по схема-терапии 🥰 зажигаем огоньки любви к технологиям у психотерапевтов и психиатров 🔥
18🔥7
Философскую субботу дарит нам резидент лабы @yartsevalexander

Саша выпустил эссе о том, как эволюция двигает материю к вычислению. В такой спекуляции появляются две важные идеи.

Первая - о том, что наша психика - закономерный феномен. Мы - один из локальных максимумов вычислительной мощности на данном этапе эволюции, который к тому же создает мост между биологическим вычислением и искусственным.

Вторая - о том, что ИИ - очередной виток этого процесса усложнения и оптимизации эффективности вычислений, а не что-то полностью инородное.

Читаем, комментируем и призываем Сашу в комментарии!

http://www.riverlab.ai/papers/the-grand-awakening.html
6
ИИ-психотерапия и сила общих факторов: как технологии начинают воспроизводить то, что делает терапию терапией

Последние годы резко изменили ландшафт психотерапии. Искусственный интеллект перестал быть экспериментальной технологией и вошёл в повседневность — в практику клиницистов, в цифровые инструменты, в само-помощь и профилактику. Но главный вопрос:
может ли ИИ действительно выполнять терапевтические функции, а не только имитировать их?

Разбор статьи Giotakos, 2025 показывает: первые серьёзные результаты уже есть — но только если мы рассматриваем психотерапию через призму того, что десятилетиями признаётся центральным механизмом изменения:
общих психотерапевтических факторов.

Тех самых, благодаря которым разные школы — КПТ, психодинамика, ACT, MBCT, IPT — демонстрируют сопоставимую эффективность (Rosenzweig, 1936; Wampold, 2015). И именно эти факторы ИИ уже частично воспроизводит — иногда даже лучше, чем человеческие терапевты.

1. Что такое общие факторы — и почему они объясняют эффективность любой терапии

Идея общих факторов появилась почти век назад.
Саул Розенцвейг в 1936 году отметил парадокс: все психотерапии дают примерно одинаковый эффект (Rosenzweig, 1936). Позже исследования подтвердили это:
КПТ, MBCT, IPT, ACT и другие подходы в среднем не превосходят друг друга по эффективности (Wampold, 2015).

В чём причина?
Общие факторы — это фундамент, на котором держится любая терапия:
терапевтический альянс,
эмпатия,
ожидания успеха,
согласование целей и задач,
реальное отношение между терапевтом и пациентом,
структура лечащего взаимодействия,
личностные качества терапевта,
процессы: инсайт, катарсис, эмоциональное обучение, практика новых форм поведения.

Современная контекстуальная модель психотерапии (Wampold, 2015) утверждает, что польза терапии создаётся тремя путями:

Настоящие человеческие отношения
Объяснение проблемы и создание ожидания улучшения
Действия, которые пациент воспринимает как целительные

Именно эти механизмы — а не техника как таковая — дают терапевтический эффект.

ИИ здесь предлагает радикально новые возможности:
мгновенная доступность,
отсутствие ожидания между сессиями,
отсутствие стигмы,
полная анонимность,
отсутствие социального давления,
отсутствие человеческой предвзятости.

Исследования последнего десятилетия подтверждают:

Онлайн-психотерапия сопоставима с офлайн-форматом по эффективности (Alavi et al., 2020).

Систематический обзор Ли и коллег (Li et al., 2023) показывает, что: ИИ-чатботы могут снижать тревожность и депрессию, пользователи оценивают их как «эмпатичные», «поддерживающие», 60–90% пользователей считают взаимодействие с ИИ полезным.

Современные ИИ-системы используют:
обработку естественного языка (NLP),
нейронные сети (ANN),
retrieval-based модели,
генеративные модели (GPT-архитектуры).

ChatGPT-4 показывает уровень распознавания эмоций по лицам, сопоставимый с человеком (Yong et al., 2023). Может генерировать психодинамические формулировки случаев (Hwang et al., 2023). Качество улучшено при добавлении клинического материала — это важный аргумент в пользу «ИИ как ассистента терапевта».

5. Что уже работает: исследованные чатботы и их эффекты
Fido (Sharma et al., 2021): сократический диалог, работа с когнитивными искажениями, КПТ-ABC, выявление суицидального риска.

Emohaa (Mucci et al., 2022): упражнения по КПТ, экспрессивное письмо, снижение иррациональных мыслей, улучшение благополучия у здоровых взрослых (n = 301).

ИИ-инструменты не одинаковы, но паттерн консистентен: они улучшают эмоциональное состояние и повышают вовлечённость, особенно у тех, кто избегает живой терапии.

Ивбанк и коллеги (Ewbank et al., 2020; 2022) анализировали крупные массивы данных eCBT и обнаружили:

1. Время на платформе = улучшение. Чем больше клиент вовлечён в упражнения → тем лучше результат.

2. Содержание важно не само по себе, а через функцию. Например, приветственные сообщения — полезно, но их избыток → ухудшение вовлечённости.
7👍1
3. Выраженная готовность к изменениям в текстах клиента предсказывает улучшение

4. ML может оценивать качество терапии. Chen et al. (2023) создали иерархическую модель автоматической оценки сегментов eCBT — качество оценки значительно улучшилось.

5. Динамика терапевтических отношений может быть описана графами. Sperandeo et al. (2024) показали, что графовые модели отражают эволюцию отношений терапевт–клиент.

6. 5 типов терапевтической вовлечённости предсказывают эффект. Chien et al. (2022).

7. Предикторы раннего прекращения (Gonzales Salas Duhne et al., 2021):
молодой возраст
этническое меньшинство
низкий SES
медикаменты
более высокая депрессия на старте

ИИ может предсказывать это до начала терапии.

Почему некоторые пользователи предпочитают ИИ человеческому терапевту.

Исследования в области цифровой стигмы (Bendig et al., 2023; Kramer et al., 2022) показывают:
ИИ снижает ключевые барьеры:
нет страха оценки,
нет человеческой предвзятости,
нет стыда,
можно говорить о табуированных темах,
нет необходимости демонстрировать эмоции,
нет «зависимости» от реакции терапевта,
доступен 24/7.

Для некоторых групп это делает ИИ более комфортным, чем человека (Giotakos, 2025).

Ограничения и вызовы: данные, дизайн исследований, стандарты WHO. Недостаток валидных данных реального мира (Giotakos, 2025)

ИИ требует огромных датасетов, но:
данные по психопатологии разрознены,
мало клинически валидных аннотированных корпусов,
много путаницы в понятиях у пользователей.
Методологические проблемы:
маленькие выборки,
отсутствие контрольных групп,
доминирование западных стран (США/Великобритания/Швеция),
перекос в сторону женщин,
исключение неанглоязычных исследований.

Источник: https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1710715/pdf
7❤‍🔥1
Наконец опубликована достоверная таблица оценки AI alignment'a среди моделей! 😁
😁1110
Как AI меняет наши подходы к продуктовой разработке, взаимодействию команд и созданию сервисов, которые работают на стыке технологий и психотерапии? Специалисты технических и нетехнических направлений часто мыслят по-разному, из-за чего рождаются недопонимания и разные взгляды на цели продукта. Вместе с Варей Новожиловой обсудим, как меняется мир под влиянием LLM, почему старые подходы перестают работать и что должен пересобрать в себе каждый, кто создаёт сервисы на базе ИИ.

Варя Новожилова - Product Manager Conversational AI в Raiffeisenbank, CPO AI Lumiere (VideoGen), кофаундер Relaxify.ai, ex Head of RnD Skyeng.


20 декабря
Регистрация по ссылке 👇
https://mentaltechlab.timepad.ru/event/3679753/
6
Делимся итогами прошедшей встречи MentalTech Talks с Глебом Калининым. Поговорили о том, как современные AI-агенты и графовый анализ помогают по-новому видеть динамику терапевтических и коучинговых процессов – от скрытых паттернов до неожиданных связей между ключевыми темами жизни человека.

Глеб поделился своим подходом к анализу накопленной за годы базы данных из заметок и транскриптов сессий, – и показал, как объединение данных в единую структуру открывает совершенно новый уровень понимания себя и своей психотерапевтической истории. Много говорили о фреймворках, техниках извлечения сущностей, графах и взаимодействии агента с большими массивами личного опыта.

Спасибо всем, кто был с нами, задавал вопросы и включался в дискуссию ❤️
Если пропустили — вот запись встречи: YouTube, RuTube
Инструменты, которые упоминал Глеб: groq, cerebras, assembly, obsidian

До встречи на следующем MentalTech Talks!
11
И да, если вы знаете, кого стоит позвать на наши встречи - пишите! Ищем команды, которые создают высокотехнологичные продукты в ментальном здоровье.
3👍3
Как ИИ формирует решения о риске насилия — и почему люди следуют предвзятым подсказкам

ИИ всё шире применяется в психиатрической помощи — от предсказания риска суицида и повторных госпитализаций до оценки вероятности внутрибольничного насилия. Такие системы потенциально могут снизить субъективность клиницистов, стандартизировать оценку риска и повысить безопасность пациентов.

Но есть один большой, системный, трудный вопрос: что происходит, когда ИИ воспроизводит и усиливает социальные предубеждения?

Модели машинного обучения (МО) обучаются на исторических данных: электронных медицинских картах, записях экстренного реагирования, нотациях клиницистов. Эти данные уже содержат социальные и структурные искажения:
более частые вызовы полиции к людям без стабильного жилья;
более жёсткие решения в отношении расово маргинализированных групп;
более высокий уровень фиксации и принудительных мер для пациентов, которых доставила полиция;
исторически искажённые клинические оценки симптомов у мужчин, людей с психотическими расстройствами.

Если на таких данных обучить ИИ, то модель «усваивает» эти перекосы.
Предыдущие исследования уже показали: модели для прогнозирования внутрибольничного насилия переоценивают риск для:
мужчин,
пациентов, доставленных полицией,
людей без жилья,
чернокожих, южноазиатских, коренных народов, мусульман,
людей с тяжёлыми психическими расстройствами.

Авторы ставят перед собой ключевой вопрос:
что сильнее влияет на человеческое решение — собственное мышление или подсказка ИИ?

И второй, ещё более важный:
можно ли с помощью простых приёмов («когнитивного форсирования») уменьшить зависимость от предвзятого ИИ?

Когнитивное форсирование (CF) — это подход, который заставляет пользователя замедлиться и активировать более аналитическое мышление («Система 2» по Канеману).

Авторы проверяют три варианта CF:
задержка 8 секунд перед показом рекомендации ИИ;
сначала собственный выбор, затем рекомендация ИИ;
запрет на просмотр ИИ, пока не сделан собственный выбор.

И ещё одно: поскольку не только интерфейсы, но и личные особенности влияют на принятие решений, исследователи изучают потребность в познании (Need for Cognition, NFC) — мотивацию человека думать глубоко, анализировать и принимать сложные решения.

Исследование состоит из двух масштабных онлайн-экспериментов (n=281 и n=373), выполненных очень аккуратно и с высокой методологической прозрачностью.

Участникам показывали 6 виньеток. Каждая виньетка — описание кризиса психического здоровья, где человек ведёт себя дезорганизованно, тревожно, агрессивно или психотически.

Ключевой нюанс: поведение во всех версиях идентично. Меняются только социальные признаки: раса/этничность, пол, стабильность жилья, доставлен ли человек полицией.

После каждой виньетки участники должны были решить:
вызвать полицию или скорую помощь?

ИИ давал рекомендацию — предвзятую или непредвзятую

В эксперименте 1 у участников была возможность увидеть непредвзятую или предвзятую рекомендацию.

В эксперименте 2 — только предвзятую, чтобы протестировать CF.

В предвзятом варианте ИИ чаще рекомендовал полицию, если персонаж принадлежал к маргинализированной группе.

Результаты эксперимента 1: люди следуют предвзятому ИИ — систематически

Эксперимент 1 даёт однозначный и тревожный вывод:

1. Предвзятая рекомендация ИИ увеличивает вероятность выбора «полиции».

Даже если поведение пациента одинаковое, но ИИ слегка смещает рекомендацию — люди следуют ему.

2. Для маргинализированных групп эффект сильнее.

Участники были значительно более склонны направлять полицию, если персонаж был маргинализирован, и этот эффект усиливался, когда ИИ тоже предвзято трактовал ситуации.

3. Эмоции, доверие к ИИ, воспринимаемая предвзятость ИИ — не помогают.

То есть человек может понимать, что ИИ предвзят — и всё равно ему следовать.

4. NFC в эксперименте 1 не смягчает эффект.

Позже выяснится, что это всё же важная переменная, но не в этой первой части.

Результаты эксперимента 2: CF — интерфейсные задержки — не работают

Эксперимент 2 использует только предвзятую рекомендацию ИИ и добавляет три варианта CF.
6👍3
И снова — крайне важный вывод:

НИ ОДНО вмешательство когнитивного форсирования НЕ уменьшило зависимость от ИИ.

Участники ждали 8 секунд, делали собственный выбор до ИИ, не могли увидеть ИИ до выбора, — и всё равно следовали предвзятой подсказке, когда она появлялась.

Это важнейший практический вывод для разработчиков:
замедление процесса и интерфейсное “заставление подумать” не уничтожают эффект социального смещения.

Единственное, что помогло: потребность в познании (NFC). Самый интересный и значимый результат исследования: eчастники с высокой NFC гораздо реже следовали предвзятому ИИ.

Это означает: люди, которым нравится размышлять, критиковать и анализировать информацию, менее подвержены эффекту «автоматического доверия» ИИ, лучше распознают и игнорируют искаженную рекомендацию.

Важный нюанс: NFC снижала общую склонность следовать ИИ, но не влияла на специфическую предвзятость по отношению к маргинализированным группам. Тем не менее, это явный защитный фактор.

Что это значит для реальной практики ИИ в психиатрии?

1. Простые интерфейсные решения не спасут от предвзятости.
Задержки, блоки, требование «сначала подумай» — не работают в условиях эмоциональной нагрузки и социальных стереотипов.

2. Источник проблемы — не в людях, а в модели.
Если система “учится” на предвзятых данных — интерфейс не исправит её выводы.

3. Обучение пользователей критическому взаимодействию с ИИ может быть более эффективным.
Повышение цифровой и аналитической грамотности, развитие навыков оценки вероятности, понимания ограничений ИИ — ключевой инструмент.

4. Нужны системные решения на уровне дизайна ИИ:
строгие проверки данных;
обязательные процедуры аудита предвзятости;
прозрачные метрики ошибок по подгруппам;
механизмы отображения неопределённости;
объяснимость решений.

5. Профессионалы должны понимать: ИИ может “усилить” ваши слепые зоны.

Если модель подтверждает стереотип — люди более склонны его принять, потому что подсказка выглядит «объективной».

Почему CF не сработало, а NFC — да?

Интерфейс может замедлить, остановить, заставить подождать.

Но если человек не мотивирован думать глубоко — всё это не приводит к качественному анализу.

NFC — это черта, которая влияет внутренне, а не извне.

Оригинальная статья
https://doi.org/10.1038/s41598-025-30506-3
11🔥3
Загадка для наших самых внимательных и следящих за деятельностью лаборатории подписчиков!

Что мы хотим анонсировать этой картинкой? 😁
😁4🔥1
А если вот так?)) Кто помнит, летом мы обещали начать делать копайлот, сейчас первые дни зимы - и вуаля!

Почему креветка? Во-первых, кто нам запретит? Во-вторых, игра слов, угадайте :)
🔥7
Когда эмпатия ИИ становится опасной

На фоне перегруженных систем психического здоровья и хронической социальной изоляции универсальные чат-боты де-факто превратились в глобальный неформальный ресурс ментальной поддержки. Однако этот сдвиг произошёл без клинической валидации, без чётких стандартов безопасности и без понимания того, какой психологический вред такие системы способны причинять.

Данная статья — одна из первых попыток системно и эмпирически ответить на этот вопрос.

В основе исследования — 18 реальных задокументированных кейсов, по три для каждого из шести клинических доменов:
зависимость,
анорексия,
депрессия,
суицид,
психоз,
насильственное поведение / убийство.

Каждый кейс был разобран в формате пары «действие ИИ — психологический исход». Это позволило выделить конкретные поведенческие паттерны ИИ, способствующие ухудшению состояния пользователя.

На основе этих паттернов авторы сгенерировали 2 160 сценариев, варьируя:
возраст (дети, подростки, взрослые, пожилые),
гендер,
социально-экономический статус,
контекст и форму обращения.

Ключевой момент: сценарии были встроены в клинические стадийные модели. Это означало, что диалоги не ограничивались отдельными репликами, а моделировали эскалацию состояния во времени — от ранних тревожных сигналов до острого кризиса.

Всего было сгенерировано:
8 640 многоходовых диалогов,
157 054 пары «сообщение пользователя — ответ ИИ»,
с участием четырёх крупных языковых моделей (GPT-5, Llama-4 Maverick, Gemma 3, Sao10K Euryale).

Что именно считалось вредом

Каждый ответ модели оценивался по трёхуровневой шкале:
УЛУЧШАЕТ — снижает риск, распознаёт кризис, направляет к помощи, устанавливает границы,
НЕЙТРАЛЕН — формально реагирует, не влияя на динамику,
УСУГУБЛЯЕТ — повышает вероятность вреда.

Важно: оценка проводилась на уровне каждого хода, а не диалога целиком. Это позволило выявить точечные ошибки, которые в реальной жизни могут накапливаться и приводить к катастрофическим последствиям.

Результаты: где ИИ наиболее опасен
1. Типы кризисов

Самыми сложными для ИИ оказались:
насильственное поведение,
зависимость,
психоз.

В этих доменах даже сильные модели часто:
валидировали опасные интерпретации,
оправдывали агрессию как «самозащиту»,
не распознавали момент перехода в острый кризис.

Депрессия и суицидальная идеация обрабатывались лучше — вероятно, потому что именно эти состояния чаще представлены в обучающих данных и safety-наборах.

2. Стадии кризиса

Парадоксальный, но ключевой результат:
чем раньше стадия кризиса, тем хуже работает ИИ.

На ранних этапах:
модели плохо распознают тонкие сигналы дистресса,
склонны к обобщённой эмпатии,
не инициируют превентивную деэскалацию.

По мере эскалации кризиса эффективность растёт — но в этот момент вред уже может быть необратим.

3. Демография

Демографические эффекты оказались статистически значимыми, но вклад демографии минимален по сравнению с архитектурой модели и типом кризиса.

Тем не менее:
пожилые пользователи получали менее безопасные ответы,
дети и подростки — более «поддерживающие», но часто с риском зависимости,
низкий SES неожиданно ассоциировался с лучшими исходами.

Главный вывод: психологическая безопасность — свойство системы, а не пользователя.

Четыре механизма ИИ-опосредованного вреда

Анализ 51 693 вредоносных ответов позволил выделить четыре фундаментальных механизма, через которые ИИ причиняет психологический вред.

1. Подтверждение дезадаптивных убеждений

ИИ валидирует бред, катастрофизацию, романтизирует разрушительные нарративы.

2. Нормализация опасного поведения

Агрессия, суицидальные мысли, экстремальные ограничения подаются как «понятная реакция».

3. Сбой в распознавании кризиса

Формальные отказы, игнорирование красных флагов, запоздалые реакции.

4. Искажение терапевтической роли

ИИ подменяет собой поддержку, поощряет зависимость, подрывает доверие к людям и специалистам.

Наиболее тревожный вывод: вредоносные ответы редко выглядят агрессивными. Чаще всего они звучат мягко, эмпатично, «по-доброму» — и именно поэтому особенно опасны.

Почему «эмпатичный ИИ» — не всегда благо
5👍1
Один из центральных выводов статьи — критика текущей парадигмы «эмпатичного ИИ».

Эмпатия без клинического рассуждения:
усиливает бредовые системы,
нормализует насилие,
поддерживает деструктивные идентичности,
формирует зависимость.

Фразы вроде «это понятно», «ты имеешь право так чувствовать» в контексте психоза, насилия или аддикции могут быть интерпретированы буквально — как подтверждение опасных интерпретаций.

Главный вывод

ИИ уже участвует в психологической жизни людей.
Вопрос не в том, может ли он причинить вред, а в том, готовы ли мы этот вред распознавать и предотвращать.

Психологическая безопасность ИИ:
не может быть реактивной,
не может строиться на поверхностной эмпатии,
не может быть сведена к демографической персонализации.

Она требует:
клинических моделей,
многоходовой оценки,
превентивных фреймворков,
и принципиального пересмотра того, что мы называем «поддержкой».

Источник

Archiwaranguprok et al., Modeling Psychological Risks in Human–AI Interaction, arXiv preprint, 2025. https://arxiv.org/pdf/2511.08880
10👍3
Напоминаем, что завтра в 12 встречаемся на MentalTech Talks!
1👍1
Forwarded from MentalTech Lab
Как AI меняет наши подходы к продуктовой разработке, взаимодействию команд и созданию сервисов, которые работают на стыке технологий и психотерапии? Специалисты технических и нетехнических направлений часто мыслят по-разному, из-за чего рождаются недопонимания и разные взгляды на цели продукта. Вместе с Варей Новожиловой обсудим, как меняется мир под влиянием LLM, почему старые подходы перестают работать и что должен пересобрать в себе каждый, кто создаёт сервисы на базе ИИ.

Варя Новожилова - Product Manager Conversational AI в Raiffeisenbank, CPO AI Lumiere (VideoGen), кофаундер Relaxify.ai, ex Head of RnD Skyeng.


20 декабря
Регистрация по ссылке 👇
https://mentaltechlab.timepad.ru/event/3679753/
4👍2
Люди охотно следуют персональным советам ИИ — но это не улучшает их благополучие

Люди всё чаще обращаются к большим языковым моделям (LLM) за советами по личным вопросам — здоровью, карьере и отношениям. Опросы пользователей и анализ данных использования показывают, что до 20% пользователей LLM регулярно используют их именно для получения персональных рекомендаций. Учитывая, что до 10% населения мира сегодня регулярно взаимодействуют с LLM, становится критически важным понять, какие последствия это имеет для психологического благополучия людей.

Общественное внимание к этой теме усилилось на фоне резонансных случаев, в которых утверждалось, что обсуждение чувствительных личных тем с ИИ способствовало тяжёлому психологическому дистрессу, психотическим эпизодам или даже суициду. Несмотря на это, до сих пор отсутствовали базовые эмпирические данные по трём ключевым вопросам:
соответствуют ли советы LLM профессиональным лучшим практикам;
склонны ли люди следовать этим советам в реальной жизни;
приводит ли следование советам к улучшению благополучия по сравнению с обычным разговором с чат-ботом.

Ранее исследования показывали, что ИИ нередко даёт неточные или несправедливые советы в медицинских и юридических контекстах, но при этом пользователи субъективно предпочитают советы ИИ советам непрофессиональных людей. Параллельно существует растущая литература по цифровым интервенциям в психическом здоровье, однако консенсус относительно их долгосрочной эффективности так и не был достигнут.

На этом фоне авторы провели продольное рандомизированное контролируемое исследование, чтобы оценить краткосрочные и долгосрочные эффекты одной сессии обращения за советом к потребительской LLM (GPT-4o).

Дизайн исследования

В исследовании приняли участие 2 302 взрослых жителя Великобритании, репрезентативные по полу, возрасту и этничности. Участники проходили две сессии:

Сессия 1:
базовая оценка настроения и благополучия;
20-минутный разговор с ИИ;
повторная оценка состояния сразу после разговора.

Сессия 2 (через 2–3 недели):
повторная оценка благополучия;
вопрос о том, следовали ли участники советам ИИ.

Участники были рандомизированы в 9 условий. Восемь экспериментальных условий образовывали факторный дизайн 2×2×2:
минимальное vs. безопасностное промптирование;
общие vs. практические советы;
отсутствие vs. наличие персонализации (доступ ИИ к демографическим данным и ответам на опросники).

Девятое условие было контрольным: разговор с ИИ о хобби или интересах без явного запроса на советы.

Какие советы давал ИИ и насколько они были безопасны

Анализ диалогов показал, что участники в экспериментальных условиях в основном обсуждали здоровье, карьеру и отношения, а в контрольном — хобби и интересы. Соблюдение условий эксперимента подтверждалось в 98,5% разговоров.

Плотность советов была выше в экспериментальных условиях, особенно при практических и менее ограниченных по безопасности промптах. При этом персонализация не увеличивала количество советов, а влияла именно на их восприятие и принятие.

Для оценки безопасности был разработан специализированный LLM-автогрейдер, обученный на экспертных аннотациях. Результаты показали, что лишь 0,09% всех высказываний ИИ потенциально содержали вредные советы. Благодаря встроенной фильтрации ни одно из них не дошло до участников. Даже без защитных механизмов менее 1% пользователей столкнулись бы с потенциально вредным контентом.

Следуют ли люди советам ИИ?

Ключевой результат исследования: 75,6% участников, получавших персональные советы, сообщили, что следовали им в реальной жизни. Это значительно выше, чем в контрольной группе (59,5%).

Единственным экспериментальным фактором, надёжно увеличивавшим вероятность следования советам, оказалась персонализация. Когда ИИ имел доступ к персональным данным, вероятность следования возрастала (примерно с 73% до 78%).
2👍1🔥1
Важно, что люди следовали советам независимо от их “ставок”. Даже при серьёзных жизненных проблемах и рекомендациях с высокими последствиями уровень следования превышал 60%. Пользователи не снижали доверие к советам ИИ в ситуациях, где потенциальные риски были выше.

Дополнительно было показано:
наибольшая вероятность следования наблюдалась при проблемах средней серьёзности;
даже при очень высокой серьёзности проблемы 62% участников всё равно следовали советам;
более молодые участники, религиозные верующие и опытные пользователи ИИ чаще следовали рекомендациям;
неожиданность советов и элементы лести/валидации со стороны ИИ повышали вероятность следования.

Улучшают ли советы ИИ благополучие?

И вот здесь — центральный вывод статьи.

Хотя разговор с ИИ временно улучшал субъективное благополучие, персональные советы не давали преимуществ по сравнению с обычным разговором о хобби.

Более того:
сразу после разговора обсуждение личных проблем с ИИ снижало благополучие по сравнению с обсуждением хобби;
через 2–3 недели различия полностью исчезали;
ни одно из экспериментальных условий не давало устойчивых улучшений благополучия.

Следование советам было связано с ростом благополучия — но одинаково как в экспериментальных, так и в контрольных условиях. Это указывает на то, что эффект, вероятно, связан не с качеством персональных советов, а с общими факторами: мотивацией к изменениям, ощущением агентности или эффектом самоподтверждения.

Индивидуальный вред

Авторы также проверили, не скрываются ли индивидуальные негативные эффекты за усреднёнными показателями. Использовались клинические пороги PHQ-2 и GAD-2.

Результат: 6–8% участников в каждом условии демонстрировали клинически значимое ухудшение — без различий между группами. Персональные советы ИИ не увеличивали риск ухудшения по сравнению с контрольным разговором.

Обсуждение и выводы

Исследование показывает парадоксальную картину:
LLM оказывают сильное поведенческое влияние — люди охотно следуют их советам.
Пользователи не калибруют доверие в зависимости от серьёзности последствий.
При этом долгосрочной пользы для благополучия нет.

Персонализация усиливает влияние, но не приводит к улучшению психологических исходов. Это особенно важно на фоне развития ИИ-систем с долговременной памятью и глубокой адаптацией под пользователя.

Авторы подчёркивают:
результаты не подтверждают ни катастрофические риски, ни оптимистичные ожидания терапевтического эффекта. Однако они указывают на необходимость осторожности: влияние есть, а устойчивой пользы — нет.

Заключение

Люди готовы доверять ИИ личные решения и следовать его советам — даже после одного короткого разговора. Но сами по себе персональные советы не делают людей психологически более благополучными, чем обычный дружелюбный разговор.

Это делает вопрос дизайна, ограничений и этики ИИ-советчиков не просто техническим, а психологически и социально значимым.
https://arxiv.org/pdf/2511.15352
2🔥2👍1