Dzięki badaniu przeprowadzonemu na trzech uniwersytetach: Cornell University, Olin College i Stanford University zdali sobie sprawę, że możliwości sztucznej inteligencji w zakresie okazywania empatii u agentów konwersacyjnych, takich jak Alexa i Siri, są raczej ograniczone. Wyniki tego badania, przedstawione na konferencji CHI 2024, wskazują, że chociaż właściwe organy dobrze potrafią okazywać reakcje emocjonalne, sytuacja staje się trudna, jeśli chodzi o interpretację i badanie doświadczeń użytkowników.

Odkryto uprzedzenia i dyskryminację

W badaniu tym wykorzystano dane zebrane od badaczki Andrei Cuadry ze Stanford. Jego celem jest zmierzenie, w jaki sposób CA wykrywają i reagują na różne tożsamości społeczne wśród ludzi. Testując 65 różnych tożsamości, badanie wykazało, że CA mają skłonność do kategoryzowania jednostek, a tożsamości, zwłaszcza te dotyczące orientacji seksualnej lub religii, są najbardziej podatne na ten nawyk.

CA, których wiedza jest włączona do modeli językowych (LLM), które są trenowane na dużych wolumenach danych tworzonych przez ludzi, mogą zatem mieć szkodliwe uprzedzenia w danych, których używają. Jest podatny na dyskryminację, zwłaszcza CA może być w ruchu, aby okazać solidarność z ideologiami, które mają negatywny wpływ na ludzi, takimi jak nazizm.

Konsekwencje automatycznej empatii

Z jego koncepcji sztucznej empatii wynika, że ​​jej zastosowania w edukacji i sektorze opieki zdrowotnej są różnorodne. Z drugiej strony kładzie się duży nacisk na potrzebę zachowania przez ludzi czujności i unikania problemów, które mogą pojawić się wraz z takimi postępami.

Jak stwierdzili badacze, LLM-y wykazują wysoką zdolność do dostarczania odpowiedzi emocjonalnych, ale jednocześnie są kulawe lub nie mają wystarczających umiejętności do interpretacji i eksploracji doświadczeń użytkowników. Jest to wadą, ponieważ interfejsy użytkownika mogą nie być w stanie w pełni angażować klientów w głębokie interakcje emocjonalne wykraczające poza te, których warstwy zostały zdarte.