Durch eine Studie von drei Universitäten – Cornell University, Olin College und Stanford University – wurde festgestellt, dass die Fähigkeiten von KI-Gesprächspartnern wie Alexa und Siri, Empathie zu zeigen, eher begrenzt sind. Die Ergebnisse dieser Studie, die auf der CHI 2024-Konferenz eingereicht wurde, zeigen, dass die KIs zwar gut darin sind, emotionale Reaktionen zu zeigen, es aber schwierig wird, wenn es darum geht, die Erfahrungen der Benutzer zu interpretieren und zu erforschen.

Vorurteile und Diskriminierung aufgedeckt

 Anhand der von der Stanford-Forscherin Andrea Cuadra gesammelten Daten soll in dieser Studie untersucht werden, wie CAs unterschiedliche soziale Identitäten bei Menschen erkennen und darauf reagieren. Bei Tests mit 65 verschiedenen Identitäten stellte die Studie fest, dass CAs dazu neigen, Personen zu kategorisieren. Dabei sind Identitäten, die insbesondere die sexuelle Orientierung oder Religion betreffen, für diese Angewohnheit am anfälligsten.

CAs, deren Wissen in die Sprachmodelle (LLMs) einfließt, die anhand großer Mengen von menschengenerierten Daten trainiert werden, können daher schädliche Voreingenommenheiten in den von ihnen verwendeten Daten aufweisen. Sie sind insbesondere anfällig für Diskriminierung und können selbst dazu neigen, Solidarität mit Ideologien zu zeigen, die sich negativ auf Menschen auswirken, wie etwa dem Nationalsozialismus.

Die Auswirkungen automatisierter Empathie

 Aus seinem Konzept der künstlichen Empathie ging hervor, dass es in der Bildung und im Gesundheitssektor vielfältige Anwendungsmöglichkeiten gibt. Andererseits wird stark betont, dass die Menschen wachsam bleiben und die Probleme vermeiden müssen, die mit solchen Fortschritten einhergehen können.

Wie die Forscher erklärten, zeigen die LLMs eine hohe Fähigkeit, emotionale Reaktionen hervorzurufen, sind aber gleichzeitig schwach oder verfügen nicht über ausreichende Fähigkeiten zur Interpretation und Erforschung von Benutzererfahrungen. Dies ist ein Nachteil, da die Benutzeroberflächen möglicherweise nicht in der Lage sind, mit Kunden tiefe emotionale Interaktionen einzugehen, die über diejenigen hinausgehen, deren Schichten entfernt wurden.