Завдяки дослідженню трьох університетів, Корнельського університету, Олінського коледжу та Стенфордського університету, вони прийшли до висновку, що можливості штучного інтелекту демонструвати емпатію в агентах спілкування, таких як Alexa та Siri, досить обмежені. Результати цього дослідження, представлені на конференції CHI 2024, вказують на те, що, хоча CA добре демонструють емоційні реакції, ситуація ускладнюється, коли йдеться про інтерпретацію та вивчення досвіду користувачів.

Дослідження виявляє упередження та дискримінацію

 Використовуючи дані, зібрані дослідником Андреа Куадрою зі Стенфорда, це дослідження спрямоване на вимірювання того, як CA виявляють і реагують на різні соціальні ідентичності серед людей. Перевіривши 65 різних ідентичностей, дослідницьке дослідження виявило, що ЦА схильні класифікувати людей, і ідентичності, особливо щодо сексуальної орієнтації чи релігії, є найбільш вразливими до цієї звички. 

Сертифікатори сертифікації, знання яких включені в мовні моделі (LLM), які навчаються на великих обсягах даних, створених людиною, можуть, отже, мати шкідливі упередження, які містяться в даних, які вони використовували. Зокрема, він схильний до дискримінації, а сам CA може бути на ходу, щоб продемонструвати солідарність з ідеологіями, які негативно впливають на людей, такими як нацизм. 

Наслідки автоматизованої емпатії 

 З його концепції штучної емпатії було виявлено, що її застосування в освіті та секторі охорони здоров’я різноманітне. З іншого боку, велика увага приділяється потребі людей залишатися пильними та уникати розорювання проблем, які можуть виникнути з такими досягненнями. 

Як стверджують дослідники, LLM демонструють високі здібності в наданні емоційних реакцій, але в той же час вони кульгаві або не мають достатніх здібностей для інтерпретації та дослідження досвіду користувачів. Це є недоліком, оскільки інтерфейс користувача може бути не в змозі повною мірою взаємодіяти з клієнтами в глибоких емоційних взаємодіях за межами тієї, шари якої були видалені.