Durch eine Studie von drei Universitäten – der Cornell University, dem Olin College und der Stanford University – wurde festgestellt, dass die Fähigkeiten von KI-Gesprächspartnern wie Alexa und Siri, Empathie zu zeigen, eher begrenzt sind. Die Ergebnisse dieser Studie, die auf der CHI 2024-Konferenz eingereicht wurde, zeigen, dass KIs zwar gut darin sind, emotionale Reaktionen zu zeigen, es aber schwierig wird, wenn es darum geht, die Erfahrungen der Benutzer zu interpretieren und zu erforschen.

Studie deckt Vorurteile und Diskriminierung auf

 Anhand der von der Stanford-Forscherin Andrea Cuadra gesammelten Daten soll in dieser Studie untersucht werden, wie CAs unterschiedliche soziale Identitäten bei Menschen erkennen und darauf reagieren. Bei Tests mit 65 verschiedenen Identitäten stellte die Studie fest, dass CAs dazu neigen, Personen zu kategorisieren. Dabei sind Identitäten, die insbesondere die sexuelle Orientierung oder Religion betreffen, für diese Angewohnheit am anfälligsten.

CAs, deren Wissen in die Sprachmodelle (LLMs) einfließt, die anhand großer Mengen von Menschen erstellter Daten trainiert werden, können daher die schädlichen Vorurteile aufweisen, die in den von ihnen verwendeten Daten enthalten sind. Sie sind insbesondere anfällig für Diskriminierung und CAs können selbst aktiv werden, um Solidarität mit Ideologien zu zeigen, die sich negativ auf Menschen auswirken, wie etwa dem Nationalsozialismus.

Die Auswirkungen automatisierter Empathie

 Aus seinem Konzept der künstlichen Empathie ging hervor, dass es im Bildungs- und Gesundheitssektor vielfältige Anwendungsmöglichkeiten gibt. Andererseits wird stark betont, dass der Mensch wachsam bleiben und die Probleme vermeiden muss, die bei solchen Fortschritten auftreten können.

Wie die Forscher erklärten, zeigen die LLMs eine hohe Fähigkeit, emotionale Reaktionen hervorzurufen, sind aber gleichzeitig schwach oder verfügen nicht über ausreichende Fähigkeiten zur Interpretation und Erforschung von Benutzererfahrungen. Dies ist ein Nachteil, da die Benutzeroberflächen möglicherweise nicht in der Lage sind, mit Kunden tiefe emotionale Interaktionen einzugehen, die über diejenige hinausgehen, deren Schichten entfernt wurden.