Üç üniversiteden (Cornell Üniversitesi, Olin Koleji ve Stanford Üniversitesi) yapılan bir çalışma sayesinde, yapay zekanın Alexa ve Siri gibi konuşma aracılarında empati gösterme yeteneklerinin oldukça sınırlı olduğunu fark ettiler. CHI 2024 konferansına sunulan bu çalışmanın bulguları, CA'ların duygusal tepkiler göstermede iyi olmasına rağmen, kullanıcıların deneyimlerini yorumlarken ve keşfederken durumun zorlaştığını gösteriyor.

Önyargılar ve ayrımcılık ortaya çıktı

 Stanford'dan araştırmacı Andrea Cuadra'dan toplanan verileri kullanan bu çalışma, CA'ların insanlar arasındaki farklı sosyal kimlikleri nasıl tespit ettiğini ve bunlara nasıl tepki verdiğini ölçmeyi amaçlıyor. 65 farklı kimliğin test edildiği araştırma, CA'ların bireyleri kategorize etmeye eğilimli olduğunu ve özellikle cinsel yönelim veya din ile ilgili kimliklerin bu alışkanlığa karşı en savunmasız grup olduğunu ortaya çıkardı. 

Bilgisi dil modellerine (LLM'ler) dahil edilen ve insan yapımı büyük miktarda veri üzerinde eğitilen CA'lar, bu nedenle, kullandıkları verilerde zararlı önyargılara sahip olabilir. Ayrımcılığa özellikle yatkındır, CA'nın kendisi Nazizm gibi insanlar üzerinde olumsuz etkileri olan ideolojilere karşı dayanışma içinde olabilir. 

Otomatik empatinin etkileri 

 Yapay empati kavramının eğitim ve sağlık sektöründeki uygulamalarının çeşitlilik gösterdiği ortaya çıktı. Öte yandan, insanoğlunun uyanık kalması ve bu tür ilerlemelerle ortaya çıkabilecek sorunların daha da büyümesine engel olması gerektiği üzerinde de büyük bir vurgu yapılıyor. 

Araştırmacıların belirttiği gibi, Yüksek Lisans'lar duygusal tepkiler verme konusunda yüksek bir yetenek sergiliyor, ancak aynı zamanda kullanıcı deneyimlerini yorumlama ve keşfetme konusunda yetersiz veya yeterli yetenekten yoksunlar. Bu bir dezavantajdır çünkü kullanıcı arayüzleri, katmanları sıyrılmış olanların ötesinde derin duygusal etkileşimlerde müşterilerle tam olarak etkileşime geçemeyebilir.