Laut Cointelegraph haben Forscher der University of Chicago ein Tool namens Nightshade entwickelt, das es Künstlern ermöglicht, ihre digitale Kunst zu „vergiften“, um zu verhindern, dass Entwickler sie zum Trainieren von Systemen der künstlichen Intelligenz (KI) verwenden. Das Tool verändert Bilder in einer Weise, die die für das KI-Training verwendeten Datensätze mit falschen Informationen verunreinigt, was dazu führt, dass das KI-System das Bild falsch interpretiert. Beispielsweise könnte die KI glauben machen, dass es sich bei dem Bild einer Katze tatsächlich um einen Hund handelt und umgekehrt.
Dies würde die Fähigkeit der KI, genaue und sinnvolle Ergebnisse zu erzeugen, beeinträchtigen. Wenn ein Benutzer von der manipulierten KI ein Bild einer „Katze“ anfordert, erhält er möglicherweise einen Hund, der als Katze gekennzeichnet ist, oder eine Kombination aller „Katzen“ im Trainingsset der KI, einschließlich derer, die tatsächlich von Nightshade modifizierte Hundebilder sind. Vitaly Shmatikov, Professor an der Cornell University, erklärte, dass Forscher „noch keine robusten Abwehrmaßnahmen gegen diese Angriffe kennen“, was bedeutet, dass selbst starke Modelle wie ChatGPT von OpenAI anfällig sein könnten.
Das Forschungsteam hinter Nightshade unter der Leitung von Ben Zhao, Professor an der Universität von Chicago, hat seine bestehende Künstlerschutzsoftware namens Glaze erweitert. In ihrer vorherigen Arbeit entwickelten sie eine Methode, mit der Künstler den Stil ihrer Kunstwerke verschleiern oder „verglasen“ können. Nightshade wird schließlich in Glaze integriert, das derzeit kostenlos im Internet oder zum Download verfügbar ist.