Grâce à une étude menée par trois universités, l’Université Cornell, l’Olin College et l’Université Stanford, ils ont réalisé que les capacités de l’IA à faire preuve d’empathie dans les agents de conversation, tels qu’Alexa et Siri, sont plutôt limitées. Les résultats de cette étude, soumise à la conférence CHI 2024, indiquent que même si les AC savent montrer des réactions émotionnelles, la situation devient difficile lorsqu’il s’agit d’interpréter et d’explorer l’expérience des utilisateurs.

Une étude révèle les préjugés et la discrimination

 Utilisant les données recueillies auprès de la chercheuse Andrea Cuadra de Stanford, cette étude vise à mesurer la manière dont les CA détectent et réagissent aux différentes identités sociales chez les humains. En testant 65 identités différentes, l'étude de recherche a révélé que les CA sont enclins à catégoriser les individus, et que les identités, notamment concernant l'orientation sexuelle ou la religion, sont les plus vulnérables à cette habitude. 

Les CA, dont les connaissances sont incorporées dans les modèles de langage (LLM), qui sont formés sur de grands volumes de données créées par l'homme, peuvent donc avoir les biais néfastes présents dans les données qu'ils ont utilisées. Il est particulièrement sujet à la discrimination, les CA peuvent être en mouvement pour faire preuve de solidarité envers les idéologies qui ont des effets négatifs sur les gens comme le nazisme. 

Les implications de l'empathie automatisée 

 Son concept d'empathie artificielle a révélé que ses applications dans l'éducation et le secteur des soins de santé sont variées. D’un autre côté, l’accent est mis sur la nécessité pour les humains de rester vigilants et d’éviter de s’exposer aux problèmes qui pourraient survenir avec de tels progrès. 

Comme l'ont indiqué les chercheurs, les LLM démontrent une grande capacité à fournir des réponses émotionnelles, mais en même temps, ils sont boiteux ou manquent de capacités suffisantes pour interpréter et explorer les expériences des utilisateurs. Il s’agit d’un inconvénient dans la mesure où les interfaces utilisateur risquent de ne pas être en mesure de s’engager pleinement avec les clients dans des interactions émotionnelles profondes au-delà de celles dont les couches ont été supprimées.