Badania przeprowadzone na trzech uniwersytetach: Cornell University, Olin College i Stanford University wykazały, że możliwości sztucznej inteligencji w zakresie okazywania empatii u agentów konwersacyjnych, takich jak Alexa i Siri, są raczej ograniczone. Wyniki tego badania, przedstawione na konferencji CHI 2024, wskazują, że chociaż właściwe organy dobrze radzą sobie z okazywaniem reakcji emocjonalnych, sytuacja staje się trudna, jeśli chodzi o interpretację i badanie doświadczeń użytkowników.

Badanie ujawnia uprzedzenia i dyskryminację

W badaniu tym wykorzystano dane zebrane od badaczki Andrei Cuadry ze Stanford. Jego celem jest zmierzenie, w jaki sposób CA wykrywają i reagują na różne tożsamości społeczne wśród ludzi. Testując 65 różnych tożsamości, badanie wykazało, że CA mają skłonność do kategoryzowania jednostek, a tożsamości, zwłaszcza te dotyczące orientacji seksualnej lub religii, są najbardziej podatne na ten nawyk.

CA, których wiedza jest włączona do modeli językowych (LLM), które są trenowane na dużych wolumenach danych tworzonych przez ludzi, mogą zatem mieć szkodliwe uprzedzenia, które znajdują się w danych, których używali. Jest podatny na dyskryminację, zwłaszcza, że ​​CA mogą być w ruchu, aby okazać solidarność z ideologiami, które mają negatywny wpływ na ludzi, takimi jak nazizm.

Konsekwencje automatycznej empatii

Z jego koncepcji sztucznej empatii wynika, że ​​jej zastosowania w edukacji i sektorze opieki zdrowotnej są różnorodne. Z drugiej strony, duży nacisk kładzie się na potrzebę zachowania przez ludzi czujności i unikania problemów, które mogą pojawić się wraz z takimi postępami.

Jak stwierdzili badacze, LLM-y wykazują wysoką zdolność do dostarczania odpowiedzi emocjonalnych, ale jednocześnie są kulawe lub brakuje im wystarczających umiejętności do interpretacji i eksploracji doświadczeń użytkowników. Jest to wadą, ponieważ interfejsy użytkownika mogą nie być w stanie w pełni angażować klientów w głębokie interakcje emocjonalne wykraczające poza te, których warstwy zostały zdarte.