Prostřednictvím studie ze tří univerzit: Cornell University, Olin College a Stanford University si uvědomili, že schopnosti umělé inteligence projevovat empatii u konverzačních agentů, jako jsou Alexa a Siri, jsou poměrně omezené. Zjištění této studie předložené na konferenci CHI 2024 naznačují, že ačkoli jsou CA dobří v ukazování emocionálních reakcí, situace se stává obtížnou, pokud jde o interpretaci a zkoumání zkušeností uživatelů.

Předsudky a diskriminace odhaleny

 S využitím dat shromážděných od výzkumníka Andrea Cuadra ze Stanfordu je tato studie zaměřena na měření toho, jak CA detekují a reagují na různé sociální identity mezi lidmi. Testováním na 65 různých identit výzkumná studie zjistila, že CA mají sklon jednotlivce kategorizovat a identity týkající se zejména sexuální orientace nebo náboženství jsou vůči tomuto zvyku nejzranitelnější. 

CA, jejichž znalost je začleněna do jazykových modelů (LLM), které jsou trénovány na velkém množství dat vytvořených lidmi, mohou mít proto škodlivé předsudky, které jsou v datech, které použily. Konkrétně je náchylná k diskriminaci, samotní CA mohou být na cestách, aby projevili solidaritu s ideologiemi, které mají negativní dopady na lidi, jako je nacismus. 

Důsledky automatické empatie 

 Z jeho umělého konceptu empatie vyplynulo, že jeho aplikace ve školství a zdravotnictví jsou různorodé. Na druhé straně se klade velký důraz na potřebu, aby lidé zůstali ostražití a vyhýbali se obdělávání problémů, které mohou s takovými pokroky nastat. 

Jak uvedli výzkumníci, LLM vykazují vysokou schopnost poskytovat emocionální reakce, ale zároveň kulhají nebo postrádají dostatečné schopnosti pro interpretaci a zkoumání uživatelských zkušeností. To je nevýhoda, protože uživatelská rozhraní nemusí být schopna plně zapojit klienty do hlubokých emocionálních interakcí mimo ty, jejichž vrstvy byly odstraněny.