Prostřednictvím studie ze tří univerzit, Cornell University, Olin College a Stanford University, si uvědomili, že schopnosti umělé inteligence projevovat empatii u konverzačních agentů, jako jsou Alexa a Siri, jsou poměrně omezené. Zjištění této studie předložené na konferenci CHI 2024 naznačují, že ačkoli jsou CA dobří v ukazování emocionálních reakcí, situace se stává obtížnou, pokud jde o interpretaci a zkoumání zkušeností uživatelů.

Studie odhaluje předsudky a diskriminaci

 S využitím dat shromážděných od výzkumníka Andrea Cuadra ze Stanfordu je tato studie zaměřena na měření toho, jak CA detekují a reagují na různé sociální identity mezi lidmi. Testováním na 65 různých identit výzkumná studie zjistila, že CA mají sklon jednotlivce kategorizovat a identity týkající se zejména sexuální orientace nebo náboženství jsou vůči tomuto zvyku nejzranitelnější. 

CA, jejichž znalost je začleněna do jazykových modelů (LLM), které jsou trénovány na velkém množství dat vytvořených lidmi, mohou mít proto škodlivé předsudky, které jsou v datech, které použily. Je náchylná k diskriminaci konkrétně, CA mohou být na cestách, aby projevili solidaritu s ideologiemi, které mají negativní dopady na lidi, jako je nacismus. 

Důsledky automatické empatie 

 Z jeho umělého konceptu empatie vyplynulo, že jeho aplikace ve školství a zdravotnictví jsou různorodé. Na druhé straně velký důraz na potřebu lidí zůstat ostražití a vyhnout se obdělávání problémů, které mohou s takovými pokroky nastat. 

Jak uvedli výzkumníci, LLM vykazují vysokou schopnost poskytovat emocionální reakce, ale zároveň kulhají nebo postrádají dostatečné schopnosti pro interpretaci a zkoumání uživatelských zkušeností. To je nevýhoda, protože uživatelská rozhraní nemusí být schopna plně se zapojit do hlubokých emocionálních interakcí s klienty mimo toho, jehož vrstvy byly odstraněny.