🌐 Группа «ИИ в промышленности» Исследовательского института искусственного интеллекта (Artificial Intelligence Research Institute — AIRI) в Москве изучила работу как нейросети копируют человеческие эмоции в заданной ситуации.
👤 Специалисты конструировали в нейросети контекст, в котором люди обычно проявляют те или иные эмоции, например, задавали этические задачи. Затем они оценивали, насколько точно ИИ копировал среднестатические поведенческие модели реальных людей в аналогичных условиях.
ℹ️ В исследовании задействовали коммерческие нейросети (GPT-4, GPT-3.5, Claude) и открытые модели (LLaMA-2, OpenChat, GigaChat). По итогам эксперимента специалисты AIRI пришли к следующим выводам:
➡️ В целом ИИ повторял реальные переживания людей довольно точно и адекватно заданной ситуации. Например, положительные эмоции повышали склонность к кооперации, а негативные усиливали эгоизм.
➡️ В отдельных случаях нейросети, что называется, перегибали палку, демонстрируя в целом ожидаемые, но слишком сильно выраженные эмоции. Например, излишнюю категоричность в состоянии гнева.
➡️ Эмоции влияли на рациональное поведение, усиливая или искажая его. В перспективе разработчикам предстоит найти способ нивелировать эту особенность, чтобы ИИ сохранял объективность, рациональность и критичность при решении задач. Искусственный интеллект применяют для анализа медицинской информации, юридических кейсов. Обрабатывая текст, программа копирует естественную реакцию людей. Меж тем, ИИ полезен именно тем, что способен оценивать данные сухо, рационально и объективно, не поддаваясь страстям.
💬 Также ученые констатировали: текстовые нейросети ограничены в считывании контекста, потому что эмоции часто выражаются невербально. Предполагается, что мультимодальные модели покажут более точные результаты. Поэтому приближение реакций ИИ к реальным эмоциям людей — выравнивание или алайнмент (alignment) — актуальное направление развития нейросетей.
💳 Читайте подробный отчет об исследовании на
странице