KI-generierte Bilder können Sie täuschen und dazu bringen, gefälschte Inhalte als Originale wahrzunehmen. Aus diesem Grund hat OpenAI, der Entwickler von ChatGPT, ein Tool entwickelt, das feststellen kann, ob ein Bild aus DALL-E 3 stammt, dem einzigen von ihnen entwickelten Algorithmus zur Bildgenerierung.

Am Dienstag gab OpenAI seinen Nutzern erstmals die Gelegenheit, ein Bilderkennungstool zu testen, das aus Basismodellen und optimierten Modellen besteht. Ziel ist es, selbstständige Forscher einzubeziehen, um die Bedenken, die Nützlichkeit, die Anwendungsmöglichkeiten und die Faktoren zu untersuchen, die KI-generierte Inhalte verursachen könnten.

Erfolgsquote und Tests des Tools

OpenAI hat das Tool intern getestet und in mancher Hinsicht war es ermutigend, auf der anderen Seite aber auch sehr enttäuschend. Bei der Auswertung der von DALL-E 3 erstellten Bilder wurden 98 % davon korrekt wiedergegeben. Darüber hinaus schrieb das System bei der Analyse von Bildern, die nicht von DALL-E 3 erstellt wurden, diese nur in 0,5 % der Fälle fälschlicherweise DALL-E 3 zu.

OpenAI konnte keine Bildänderung mit einem leicht signifikanten Unterschied feststellen. Das interne Team testete das Tool, indem es das von DALL-E 3 erstellte Bild komprimierte, beschnitt und Sättigungsänderungen daran vornahm, und stellte fest, dass das Tool dennoch ein gutes Erfolgsniveau erzielen konnte.

Herausforderungen und Einschränkungen

Leider war das Tool bei Bildern, die stark bearbeitet wurden, nicht sehr effektiv. Aus dem Wortlaut dieses Artikels von OpenAI geht nicht klar hervor, wie viele Änderungen in den beschriebenen Fällen vorgenommen wurden. Dort heißt es, dass „andere Änderungen die Leistung beeinträchtigen können“.

In einem Interview mit dem Wall Street Journal sagte der Forscher Sandhini Agarwal, dass das Tool in Situationen wie der Änderung des Bildfarbtons weniger effektiv sei und dass ein Abonnement erforderlich sei. Wie Agarwal erwähnte, wird OpenAI zur Lösung dieser Art von Problemen externe Tester in das System einbeziehen.

Darüber hinaus wurde bei den internen Tests auch die Fähigkeit des Tools in Frage gestellt, Bilder zu analysieren, die mit KI-Modellen anderer Unternehmen erstellt wurden. In solchen Situationen konnte das Tool von OpenAI nur 5 bis 10 Prozent der Bilder anhand anderer Modelle erkennen. Auch solche Modifikationen in solchen Bildern, wie Farbtonwechsel, verringerten die Effizienz erheblich, sagte Agarwal dem Journal.

Von KI erstellte Bilder sind nicht nur künstlich, sondern stellen in diesem Wahljahr auch ein Problem dar. Benachteiligte Gruppen innerhalb und außerhalb eines Landes können solche Fotos leicht verwenden, um einen aufstrebenden Politiker oder ein Anliegen, für das er sich einsetzt, in ein schlechtes Licht zu rücken. Heutzutage, wo KI-Bildgeneratoren immer weiterentwickelt werden, ist die Grenze zwischen Realität und Fantasie schwerer denn je zu ziehen.

Branchenweite Akzeptanz

Auf der anderen Seite möchte OpenAI Wasserzeichen zu den Metadaten von KI-Bildern hinzufügen, wenn Unternehmen Mitglieder der User Value Organization (UVG) werden. Die C2PA gehört zu einer Initiative der Technologiebranche, die technische Standards entwickelt, um die Quelle des Inhalts und seine Authentizität in einem als Wasserzeichen bekannten Prozess offenzulegen. Der Facebook-Riese Meta sagte Anfang des Monats, dass seine KI ab Mai nach dem C2PA-Standard als solche gekennzeichnet sein wird.