Ein aktueller Bericht enthüllt eine Sicherheitslücke bei OpenAI, bei der sich ein Hacker im vergangenen Jahr Zugriff auf interne Nachrichtensysteme verschaffte und Designdetails über die KI-Technologien des Unternehmens stahl. Die New York Times berichtete, dass dieses Leck in einem Online-Forum auftrat, in dem Mitarbeiter von OpenAI Informationen über ihre aktuellen Fortschritte austauschten.

Lesen Sie auch: Offensichtlicher „Selbstmord“ eines südkoreanischen Roboters wird derzeit untersucht

Das Leck soll in einem Online-Forum aufgetreten sein, in dem Mitarbeiter von OpenAI aktuelle Updates teilten. Laut zwei anonymen Quellen, die mit dem Vorfall vertraut sind, hat der Hacker keinen Zugriff auf die Kernsysteme erhalten, über die OpenAI seine KI entwickelt und speichert, wie etwa ChatGPT. Laut der New York Times hat das Unternehmen den Einbruch nicht öffentlich gemeldet, da nichts Kritisches kompromittiert wurde und keine Bedrohung der nationalen Sicherheit bestand.

OpenAI behält Sicherheitsmaßnahmen nach dem Verstoß bei

Die Führungskräfte von OpenAI teilten diese Informationen den Mitarbeitern während der Vollversammlung im April letzten Jahres und dem Vorstand mit. Trotz des Verstoßes zog das Unternehmen eine Beteiligung der Bundespolizei nicht in Betracht und gab einer Privatperson die Schuld an dem Vorfall, die keinem ausländischen Staat angehörte.

Lesen Sie auch: Studie zeigt, dass ChatGPT beim Witzeerzählen besser ist als Menschen

Obwohl die Kernsysteme der Organisation, die als die sensibelsten gelten, von der Datenschutzverletzung nicht betroffen waren, hat der Vorfall laut Bericht gezeigt, dass es notwendig ist, angemessene Maßnahmen zum Schutz fortschrittlicher KI-Technologien zu ergreifen.

Rechtsstreit zwischen NYT und OpenAI nimmt unerwartete Wendung

In einer damit zusammenhängenden Entwicklung gab es kürzlich ein großes Update im Rechtsstreit zwischen der New York Times und OpenAI. OpenAI reichte Dokumente ein, in denen es das Gericht aufforderte, den bekannten Verlag anzuweisen, die Originalität seiner Artikel durch die Bereitstellung detaillierter Quellenangaben für jedes urheberrechtlich geschützte Werk nachzuweisen. Diese Aufforderung hat den Fall noch komplizierter gemacht, da die Grundlage des Falls auf Behauptungen der unbefugten Verwendung von NYT-Inhalten zum Trainieren von KI-Modellen beruht.

„Die Times behauptet, […] sie ‚investiert enorm viel Zeit, … Fachwissen und Talent‘, unter anderem durch ‚gründliche Untersuchungen – deren Berichterstattung und Produktion in der Regel Monate und manchmal Jahre dauert – in komplexe und wichtige Bereiche von öffentlichem Interesse.“

Die Anwälte von OpenAI

Die New York Times wird aufgefordert, alle Unterlagen im Zusammenhang mit dem Autorenprozess vorzulegen, nämlich Notizen des Reporters, Interview-Memos und Quellennachweise. Die Anwälte von OpenAI wiesen außerdem darauf hin, dass die New York Times laut eigenen Angaben erhebliche Ressourcen aufwendet, um erstklassigen Journalismus zu produzieren. Daher seien die Erstellungsmethoden, die Zeit, die Arbeit und die Investitionen der Kern der Sache. Sie behaupten daher, dass OpenAI das Recht habe, diese Aspekte im Rahmen des Offenlegungsprozesses zu prüfen.

Lesen Sie auch: Shanghai ist Gastgeber der KI-Weltkonferenz 2024

Die New York Times antwortete OpenAI in einem am 3. Juli veröffentlichten Rechtsbehelf, um der Forderung nach Vorlage von Quellenmaterial zum Vertrag entgegenzutreten. Das Rechtsteam der NYT behauptete, die Forderung von OpenAI sei neuartig und beruhe auf einer Fehlinterpretation des Urheberrechts. Sie argumentierten, der Erstellungsprozess von urheberrechtlich geschütztem Material sei für das Kernproblem des Falls irrelevant.

Die Biden-Regierung wird in naher Zukunft voraussichtlich neue Regeln ankündigen, um den Missbrauch amerikanischer KI-Technologie durch problematische Länder wie China und Russland zu verhindern. Dies sind die ersten Maßnahmen, die vorgeschlagen werden, um die aktuellen hochentwickelten KI-Anwendungen wie ChatGPT einzudämmen.

Cryptopolitan-Berichterstattung von Brenda Kanana