ChatGPT, der virale Chatbot von OpenAI, erfüllt laut einem neuen Bericht der EU-Datenschutzbehörde noch immer nicht die Datengenauigkeitsstandards der Europäischen Union.

Lesen Sie auch: Europas KI-Gesetz erhält endgültige Genehmigung mit Geldstrafen von bis zu 38 Millionen Dollar

Der Bericht des Datenschutzausschusses der Europäischen Union (EDSA) ist kein juristisches Dokument. Er wird jedoch einen gemeinsamen Ansatz zur Regulierung von ChatGPT in den 27 EU-Mitgliedsstaaten liefern.

ChatGPT hält sich nicht an Datenstandards

Nationale Aufsichtsbehörden haben letztes Jahr die „ChatGPT-Task Force“ gegründet, nachdem in mehreren europäischen Ländern Verfahren gegen das KI-Modell anhängig waren. Die Task Force untersteht dem EDSA.

In einem am 24. Mai veröffentlichten Bericht erklärte die Task Force:

„Obwohl die zur Einhaltung des Transparenzprinzips getroffenen Maßnahmen hilfreich sind, um Fehlinterpretationen der Ausgabe von ChatGPT zu vermeiden, reichen sie nicht aus, um das Prinzip der Datengenauigkeit einzuhalten.“

Große Sprachmodelle (LLMs) sind dafür berüchtigt, zu „halluzinieren“ – im Fachjargon heißt das, dass KI-Chatbots oft voller Selbstvertrauen Unwahrheiten ausspucken.

Chatbots wie ChatGPT oder Gemini von Google basieren auf LLMs.  Nach der strengen europäischen Datenschutz-Grundverordnung (DSGVO) können Benutzer klagen, wenn ihnen falsche Angaben gemacht wurden oder ihnen die Möglichkeit verweigert wird, ungenauere Informationen über sich selbst zu korrigieren.

Laut dem Bericht der Task Force „führt der aktuelle Trainingsansatz aufgrund der Wahrscheinlichkeitsnatur des (KI-)Systems zu einem Modell, das möglicherweise auch verzerrte oder erfundene Ergebnisse produziert.“

„Die von ChatGPT bereitgestellten Ergebnisse werden von den Endnutzern wahrscheinlich als sachlich richtig angesehen, einschließlich der Informationen zu Einzelpersonen, unabhängig von ihrer tatsächlichen Richtigkeit“, hieß es weiter.

Flagge der Europäischen Union. Quelle: Pixabay EU verdoppelt ihre Compliance-Maßnahmen

OpenAI hatte bereits zuvor technische Komplexität als Grund für sein Versagen bei der Korrektur von Fehlinformationen genannt, doch die Aufsichtsbehörde der Europäischen Union verstärkt nun ihre Bemühungen.

„Insbesondere kann die Nichteinhaltung dieser Anforderungen nicht mit der Begründung technischer Unmöglichkeit gerechtfertigt werden“, stellte die Task Force fest.

In einem kürzlich eröffneten Verfahren verklagt eine österreichische Persönlichkeit des öffentlichen Lebens ChatGPT, weil sie ihr Geburtsdatum nicht korrigiert haben. OpenAI sagte, dies sei technisch nicht machbar, aber dieser neue Bericht werde den Druck auf das KI-Modell erhöhen.

Maartje de Graaf, eine mit dem Fall betraute Datenschutzanwältin, erklärte, dass es den Unternehmen derzeit nicht gelinge, KI-Chatbots bei der Verarbeitung personenbezogener Daten an die EU-Gesetze anzupassen.

„Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technologie muss den gesetzlichen Anforderungen entsprechen, nicht umgekehrt“, erklärte de Graaf.

Sicherheitsbedenken bei OpenAI

Experten zufolge sind bei ChatGPT umfangreiche Änderungen erforderlich, um einen Verstoß gegen die DSGVO, die den Datenschutz in der Europäischen Union regelt, zu vermeiden.

Die Regeln dienen zudem als Arbeitsmodell für Datenschutzgesetze in Argentinien, Brasilien, Chile, Japan, Kenia, Mauritius, Südafrika, Südkorea, der Türkei und Großbritannien.

Lesen Sie auch: OpenAI streicht ChatGPT Voice nach Scarlett Johansson-Kontroverse

Mittlerweile wurde OpenAIs Engagement für die Sicherheit seiner Benutzer in Frage gestellt.

Das Unternehmen wurde von einer Reihe von Rücktritten prominenter Persönlichkeiten erschüttert; die Abgänge des Mitbegründers Ilya Sutskever, von Gretchen Krueger, Jan Leike und eines halben Dutzends weiterer Personen sprechen für einen Kulturwandel.

Anfang dieser Woche gab OpenAI die Sperrung der ChatGPT-Stimme „Sky“ bekannt, nachdem Bedenken aufgekommen waren, sie ähnele der Stimme der Schauspielerin Scarlett Johansson im KI-Film „Her“.

Cryptopolitan-Berichterstattung von Jeffrey Gogo