Die Datenschutzorganisation Noyb hat bei der österreichischen Datenschutzbehörde (DPA) eine Beschwerde gegen OpenAI eingereicht, mit der Begründung, dass ihr Produkt ChatGPT gegen viele Datenschutzgesetze der EU verstößt. Die Organisation sagte, dass ChatGPT falsche Informationen über Personen weitergibt und dass die Datenschutz-Grundverordnung (DSGVO) der EU verlangt, dass die Informationen über Personen korrekt sein müssen und dass den Personen vollständiger Zugriff auf die sie betreffenden Informationen gewährt werden muss.

OpenAI sieht sich mit DSGVO-Vorwürfen konfrontiert

Noyb wurde von dem bekannten Anwalt und Aktivisten Max Schrems gegründet und behauptete, dass ChatGPT ein falsches Geburtstagsdatum einer berühmten Persönlichkeit des öffentlichen Lebens weitergegeben habe. Als er um Erlaubnis gebeten wurde, auf die ihn betreffenden Daten zuzugreifen und diese zu löschen, wurde seine Anfrage von Open AI abgelehnt.

Noyb sagt, dass gemäß der DSGVO der EU alle Informationen über Einzelpersonen korrekt sein müssen und dass die Person Zugriff auf die Quelle und Informationen dazu haben muss. OpenAI sagt jedoch, dass es die Informationen in seinem ChatGPT-Modell nicht korrigieren kann. Das Unternehmen kann auch nicht sagen, woher die Informationen stammen, und es weiß nicht einmal, welche Daten ChatGPT über Einzelpersonen speichert.

Noyb behauptet, dass OpenAI sich des Problems bewusst ist und sich anscheinend nicht darum kümmert, da sein Argument zu diesem Thema lautet:

„Die faktische Genauigkeit großer Sprachmodelle bleibt ein Bereich aktiver Forschung.“

Noyb merkte an, dass es vielleicht tolerierbar sei, wenn ChatGPT falsche Informationen ausspuckt, wenn Schüler es für ihre Hausaufgaben verwenden. Für Einzelpersonen sei dies jedoch eindeutig inakzeptabel, da personenbezogene Daten nach EU-Recht korrekt sein müssen.

Halluzinationen machen Chatbots nicht konform mit EU-Vorschriften

Noyb erwähnte, dass KI-Modelle anfällig für Halluzinationen sind und Informationen produzieren, die tatsächlich falsch sind. Sie stellten OpenAIs technisches Verfahren zur Generierung von Informationen in Frage, da sie OpenAIs Argumentation anführten, dass

„Reaktionen auf Benutzeranfragen durch Vorhersage der als nächstes wahrscheinlichsten Wörter, die als Antwort auf jede Eingabeaufforderung erscheinen könnten.“

Quelle: Statista.

Noyb argumentiert, dass dies bedeute, dass das Unternehmen trotz der Tatsache, dass es über umfangreiche Datensätze zum Trainieren seines Modells verfüge, dennoch nicht garantieren könne, dass die den Benutzern gegebenen Antworten sachlich richtig seien.

Noybs Datenschutzanwältin Maartje de Gaaf sagte:

„Das Erfinden falscher Informationen ist an sich schon problematisch. Aber wenn es um falsche Informationen über Einzelpersonen geht, kann das schwerwiegende Folgen haben.“

Quelle: Noyb.

Er sagte auch, dass jede Technologie den Gesetzen folgen müsse und nicht herumspielen dürfe, denn seiner Meinung nach könne ein Tool, das keine korrekten Ergebnisse über Einzelpersonen liefern könne, nicht für diesen Zweck verwendet werden. Er fügte hinzu, dass die Unternehmen technisch noch nicht so weit seien, Chatbots zu erstellen, die den EU-Gesetzen zu diesem Thema entsprechen.

Generative KI-Tools stehen unter der strengen Kontrolle der europäischen Datenschutzbehörden, da die italienische Datenschutzbehörde bereits 2023 den Datenschutz vorübergehend eingeschränkt hat. Die Folgen sind noch unklar, aber laut Noyb gibt OpenAI nicht einmal vor, das EU-Recht einzuhalten.