Melalui studi di tiga universitas: Cornell University, Olin College, dan Stanford University, mereka menyadari bahwa kemampuan AI dalam menampilkan empati pada agen percakapan, seperti Alexa dan Siri, agak terbatas. Temuan penelitian ini, yang diserahkan ke konferensi CHI 2024, menunjukkan bahwa meskipun CA pandai menunjukkan reaksi emosional, situasinya menjadi sulit ketika menafsirkan dan mengeksplorasi pengalaman pengguna yang bersangkutan.

Bias dan diskriminasi terungkap

Menggunakan data yang dikumpulkan dari peneliti Andrea Cuadra dari Stanford, penelitian ini bertujuan untuk mengukur bagaimana CA mendeteksi dan merespons berbagai identitas sosial di antara manusia. Menguji 65 identitas yang berbeda, studi penelitian menemukan bahwa CA cenderung mengkategorikan individu, dan identitas terutama yang berkaitan dengan orientasi seksual atau agama adalah yang paling rentan terhadap kebiasaan ini.

CA, yang pengetahuannya dimasukkan ke dalam model bahasa (LLM), yang dilatih pada data buatan manusia dalam jumlah besar, mungkin memiliki bias berbahaya dalam data yang mereka gunakan. Khususnya rentan terhadap diskriminasi, CA sendiri dapat bergerak untuk menunjukkan solidaritas terhadap ideologi yang berdampak negatif pada masyarakat seperti Nazisme.

Implikasi dari empati otomatis

Dari konsep empati buatannya terungkap bahwa penerapannya dalam bidang pendidikan dan kesehatan sangat beragam. Di sisi lain, ada banyak penekanan pada perlunya manusia untuk tetap waspada dan menghindari timbulnya masalah yang mungkin timbul akibat kemajuan tersebut.

Seperti yang dinyatakan oleh para peneliti, LLM menunjukkan kemampuan tinggi untuk memberikan respons emosional, namun pada saat yang sama, mereka lemah atau kurang memiliki kemampuan untuk menafsirkan dan mengeksplorasi pengalaman pengguna. Hal ini merupakan kelemahan karena UI mungkin tidak dapat sepenuhnya terlibat dengan klien dalam interaksi emosional yang mendalam di luar interaksi yang lapisannya telah dilucuti.