Melalui studi dari tiga universitas, Cornell University, Olin College, dan Stanford University, Mereka menyadari bahwa kemampuan AI dalam menampilkan empati pada agen percakapan, seperti Alexa dan Siri, agak terbatas. Temuan penelitian ini, yang diserahkan ke konferensi CHI 2024, menunjukkan bahwa meskipun CA pandai menunjukkan reaksi emosional, situasinya menjadi sulit ketika menafsirkan dan mengeksplorasi pengalaman pengguna.

Studi mengungkap bias dan diskriminasi

Menggunakan data yang dikumpulkan dari peneliti Andrea Cuadra dari Stanford, penelitian ini bertujuan untuk mengukur bagaimana CA mendeteksi dan merespons berbagai identitas sosial di antara manusia. Menguji 65 identitas yang berbeda, studi penelitian menemukan bahwa CA cenderung mengkategorikan individu, dan identitas terutama yang berkaitan dengan orientasi seksual atau agama adalah yang paling rentan terhadap kebiasaan ini.

CA, yang pengetahuannya dimasukkan ke dalam model bahasa (LLM), yang dilatih pada data buatan manusia dalam jumlah besar, mungkin memiliki bias berbahaya pada data yang mereka gunakan. Khususnya rentan terhadap diskriminasi, CA dapat dengan cepat menunjukkan solidaritas terhadap ideologi yang berdampak negatif pada orang-orang seperti Nazisme.

Implikasi dari empati otomatis

Dari konsep empati buatannya terungkap bahwa penerapannya dalam bidang pendidikan dan kesehatan sangat beragam. Di sisi lain, banyak penekanan pada perlunya manusia untuk tetap waspada dan menghindari timbulnya masalah yang mungkin timbul dengan kemajuan tersebut.

Seperti yang dinyatakan oleh para peneliti, LLM menunjukkan kemampuan tinggi dalam memberikan respons emosional, tetapi pada saat yang sama, mereka lemah atau kurang memiliki kemampuan untuk menafsirkan dan mengeksplorasi pengalaman pengguna. Hal ini merupakan kelemahan karena UI mungkin tidak dapat sepenuhnya terlibat dengan klien dalam interaksi emosional yang mendalam di luar interaksi yang lapisannya telah dilucuti.