Cornell Üniversitesi, Olin Koleji ve Stanford Üniversitesi olmak üzere üç üniversite tarafından yapılan bir çalışma sayesinde, yapay zekanın Alexa ve Siri gibi konuşma aracılarında empati gösterme yeteneklerinin oldukça sınırlı olduğunu fark ettiler. CHI 2024 konferansına sunulan bu çalışmanın bulguları, CA'ların duygusal tepkiler gösterme konusunda iyi olmasına rağmen, kullanıcıların deneyimlerini yorumlama ve keşfetme konusunda durumun zorlaştığını gösteriyor.

Araştırma önyargıları ve ayrımcılığı ortaya çıkarıyor

Stanford'dan araştırmacı Andrea Cuadra'dan toplanan verileri kullanan bu çalışma, CA'ların insanlar arasındaki farklı sosyal kimlikleri nasıl tespit ettiğini ve bunlara nasıl tepki verdiğini ölçmeyi amaçlıyor. 65 farklı kimliğin test edildiği araştırma, CA'ların bireyleri kategorize etmeye eğilimli olduğunu ve özellikle cinsel yönelim veya din ile ilgili kimliklerin bu alışkanlığa karşı en savunmasız grup olduğunu ortaya çıkardı.

Bilgileri dil modellerine (LLM'ler) dahil edilen ve insan tarafından oluşturulan büyük miktarda veri üzerinde eğitilen CA'lar, bu nedenle, kullandıkları verilerde zararlı önyargılara sahip olabilir. Özellikle ayrımcılığa yatkındır, CA'nın benliği Nazizm gibi insanlar üzerinde olumsuz etkileri olan ideolojilere karşı dayanışma içinde olabilir.

Otomatik empatinin etkileri

Yapay empati kavramının eğitim ve sağlık sektöründeki uygulamalarının çeşitlilik gösterdiği ortaya çıktı. Öte yandan, insanoğlunun uyanık kalması ve bu tür ilerlemelerle ortaya çıkabilecek sorunların daha da büyümesine engel olması gerektiğine de büyük önem veriliyor.

Araştırmacıların belirttiği gibi, Yüksek Lisans'lar duygusal tepkiler sağlama konusunda yüksek bir yetenek sergiliyorlar, ancak aynı zamanda kullanıcı deneyimlerini yorumlama ve keşfetme konusunda yetersiz veya yeterli yetenekten yoksunlar. Bu bir dezavantajdır çünkü kullanıcı arayüzleri, katmanları sıyrılmış olanın ötesinde derin duygusal etkileşimlerde müşterilerle tam olarak etkileşime geçemeyebilir.