Trīs universitāšu – Kornela universitātes, Olinas koledžas un Stenfordas universitātes – pētījumā viņi ir sapratuši, ka AI spēja parādīt empātiju sarunu aģentos, piemēram, Alexa un Siri, ir diezgan ierobežota. Šī pētījuma rezultāti, kas iesniegti CHI 2024 konferencei, liecina, ka, lai gan kompetentās iestādes labi spēj parādīt emocionālas reakcijas, situācija kļūst sarežģīta, interpretējot un pētot lietotāju pieredzi.

Pētījums atklāj aizspriedumus un diskrimināciju

 Izmantojot datus, kas savākti no pētnieka Andrea Cuadra no Stenfordas, šī pētījuma mērķis ir izmērīt, kā CA atklāj un reaģē uz dažādām cilvēku sociālajām identitātēm. Pārbaudot 65 dažādas identitātes, pētījums atklāja, ka CA mēdz klasificēt personas, un identitātes, kas īpaši attiecas uz seksuālo orientāciju vai reliģiju, ir visneaizsargātākās pret šo ieradumu. 

CA, kuru zināšanas ir iekļautas valodu modeļos (LLM), kas ir apmācītas par lielu cilvēku radītu datu apjomu, tādēļ var būt kaitīgi novirzīti šajos datos. Tā ir īpaši pakļauta diskriminācijai, CA pašas var būt ceļā, lai izrādītu solidaritāti pret ideoloģijām, kurām ir negatīva ietekme uz cilvēkiem, piemēram, nacisms. 

Automātiskās empātijas sekas 

 No viņa mākslīgās empātijas koncepcijas atklājās, ka tās pielietojums izglītībā un veselības aprūpes nozarē ir daudzveidīgs. No otras puses, liels uzsvars uz cilvēku vajadzību saglabāt modrību un izvairīties no tādu problēmu risināšanas, kas var rasties ar šādiem sasniegumiem. 

Kā norāda pētnieki, LLM demonstrē augstu spēju sniegt emocionālas reakcijas, taču tajā pašā laikā viņiem nav pietiekamu spēju interpretēt un izpētīt lietotāju pieredzi. Tas ir mīnuss, jo lietotāja interfeiss var nespēt pilnībā iesaistīties ar klientiem dziļā emocionālā mijiedarbībā, kas pārsniedz to, kuras slāņi ir noņemti.