Благодаря исследованию трех университетов: Корнеллского университета, Олин-колледжа и Стэнфордского университета, они пришли к выводу, что возможности ИИ проявлять эмпатию к агентам общения, таким как Alexa и Siri, довольно ограничены. Результаты этого исследования, представленные на конференции CHI 2024, показывают, что, хотя центры сертификации хорошо демонстрируют эмоциональные реакции, ситуация усложняется при интерпретации и изучении опыта пользователей.

Обнаружены предубеждения и дискриминация

 Используя данные, собранные исследователем Андреа Куадра из Стэнфорда, это исследование направлено на измерение того, как ЦС обнаруживают и реагируют на различные социальные идентичности среди людей. Протестировав 65 различных идентичностей, исследование показало, что ЦА склонны классифицировать людей, и идентичности, особенно касающиеся сексуальной ориентации или религии, наиболее уязвимы для этой привычки. 

Центры сертификации, знания которых включены в языковые модели (LLM), обученные на больших объемах данных, созданных человеком, поэтому могут иметь вредные предвзятости в данных, которые они использовали. В частности, он склонен к дискриминации, сам ЦС может проявлять солидарность с идеологиями, которые оказывают негативное воздействие на людей, такими как нацизм. 

Последствия автоматической эмпатии 

 Из его концепции искусственной эмпатии выяснилось, что ее применение в образовании и здравоохранении разнообразно. С другой стороны, большое внимание уделяется необходимости сохранять бдительность и избегать возникновения проблем, которые могут возникнуть в результате таких достижений. 

Как заявляют исследователи, LLM демонстрируют высокую способность давать эмоциональные реакции, но в то же время они хромают или не имеют достаточных способностей к интерпретации и исследованию пользовательского опыта. Это обратная сторона, поскольку пользовательские интерфейсы могут быть не в состоянии полностью взаимодействовать с клиентами в глубоких эмоциональных взаимодействиях, помимо тех, чьи слои были удалены.