Завдяки дослідженню трьох університетів: Корнельського університету, Олінського коледжу та Стенфордського університету вони дійшли висновку, що можливості штучного інтелекту демонструвати емпатію в агентах спілкування, таких як Alexa та Siri, досить обмежені. Результати цього дослідження, представлені на конференції CHI 2024, вказують на те, що, хоча CA добре демонструють емоційні реакції, ситуація ускладнюється, коли йдеться про інтерпретацію та вивчення досвіду користувачів.

Упередження та дискримінацію виявлено

 Використовуючи дані, зібрані дослідником Андреа Куадрою зі Стенфорда, це дослідження спрямоване на вимірювання того, як CA виявляють і реагують на різні соціальні ідентичності серед людей. Перевіривши 65 різних ідентичностей, дослідницьке дослідження виявило, що ЦА схильні класифікувати людей, і ідентичності, особливо щодо сексуальної орієнтації чи релігії, є найбільш вразливими до цієї звички. 

Тому CA, знання яких включено в мовні моделі (LLM), які навчаються на великих обсягах даних, створених людиною, можуть мати шкідливі упередження в даних, які вони використовували. Зокрема, він схильний до дискримінації, а сам CA може бути на ходу, щоб продемонструвати солідарність з ідеологіями, які мають негативний вплив на людей, наприклад нацизм. 

Наслідки автоматизованої емпатії 

 З його концепції штучної емпатії було виявлено, що її застосування в освіті та секторі охорони здоров’я різноманітне. З іншого боку, велика увага приділяється потребі людей залишатися пильними та уникати розорювання проблем, які можуть виникнути з такими досягненнями. 

За словами дослідників, LLM демонструють високу здатність надавати емоційні відповіді, але в той же час вони кульгаві або не мають достатніх здібностей для інтерпретації та дослідження досвіду користувачів. Це недолік, оскільки інтерфейси користувача можуть не мати змоги повною мірою взаємодіяти з клієнтами в глибоких емоційних взаємодіях, окрім тих, шари яких були видалені.