Die schiere Menge an sexuell expliziten KI-Deepfakes von Kindern macht es den Strafverfolgungsbehörden in den USA schwer, echte Kinder in Not von falschen zu unterscheiden, warnten Staatsanwälte und Sicherheitsgruppen. Sie sagen, die Bilder seien so lebensecht, dass es schwierig geworden sei, zu erkennen, ob echte Kinder missbraucht wurden, berichtet der Guardian.

Lesen Sie auch: ChatGPT-betriebener Teddybär Poe liest Kindern Gutenachtgeschichten vor

Kristina Korobov, leitende Anwältin bei der gemeinnützigen Kinderschutzorganisation Zero Abuse Project mit Sitz in Minnesota, sagt, die Organisation habe begonnen, Berichte über mithilfe künstlicher Intelligenz erstellte Bilder von echten Kindern zu erhalten, die nicht sexuell missbraucht wurden. „Aber jetzt ist ihr Gesicht auf einem Kind zu sehen, das missbraucht wurde“, sagt sie.

US-Justizminister: „Wir ertrinken“ wegen der KI

„Manchmal erkennen wir in einem Video oder Bild die Bettwäsche oder den Hintergrund, den Täter oder die Serie, aus der es stammt, aber jetzt ist das Gesicht eines anderen Kindes darüber gelegt“, sagte Korobov laut Guardian.

KI-Modelle sind in der Lage, täglich Tausende von Bildern und Videos zu produzieren, die echten Fotos ähneln. Dem Bericht zufolge ist es dadurch für Täter einfacher geworden, die Technologie zu nutzen, um im Dark Web und im Mainstream-Internet anstößige Inhalte zu verbreiten.

Für die Behörden ist es zu einem Albtraum geworden. „Aus Sicht der Strafverfolgung sind Verbrechen gegen Kinder einer der Bereiche, in denen die Ressourcen am knappsten sind, und es wird eine Explosion von Inhalten aus der KI geben“, sagte ein Staatsanwalt des US-Justizministeriums (DoJ) und fügte hinzu:

 

„Wir ertrinken einfach schon in diesem Zeug.“

 

Das US-amerikanische National Center for Missing and Exploited Children (NCMEC) gab an, dass die Meldungen von Online-Kindesmissbrauch im Jahr 2023 um 12 % auf 36,2 Millionen gestiegen seien. Während sich die meisten Meldungen auf die Verbreitung von echten Fotos und Videos sexuell missbrauchter Kinder bezogen, erhielt das Zentrum auch 4.700 Meldungen über KI-Deepfakes oder -Videos, die die sexuelle Ausbeutung von Kindern beinhalteten.

Laut NCMEC nutzen Täter KI am häufigsten, indem sie vorhandene Online-Bilder bearbeiten, um sie expliziter zu machen. Kriminelle nutzen auch Chatbots mit generativer künstlicher Intelligenz, die grafische Anweisungen geben, wie sie Kinder für Missbrauchszwecke rekrutieren können.

Aktuelle Gesetze gehen bei KI-Deepfakes nicht weit genug

Es scheint eine Lücke zu geben, was als Verbrechen angesehen werden kann. In vielen Rechtssystemen ist der Besitz von Bildern, die Kinder sexuell objektivieren, ein Verbrechen, aber die Gesetze sind noch nicht so weit fortgeschritten, dass KI-generierte Bilder einbezogen werden.

„Bei der Anklageerhebung im Bundessystem“, so der Staatsanwalt des Justizministeriums, „ändert KI nichts daran, was wir verfolgen können, aber es gibt viele Staaten, in denen man beweisen muss, dass es sich um ein echtes Kind handelt.“ Der Staatsanwalt fügte hinzu:

 

„Sich über die Rechtmäßigkeit von Bildern zu streiten, wird bei Gerichtsverfahren zu Problemen führen. Wenn ich ein Verteidiger wäre, würde ich genau das argumentieren.“

 

Selbst wenn die Gesetze in Kraft treten, wird die entsprechende Technologie immer noch benötigt, um Kriminelle zu fassen, und derzeit gibt es noch große Lücken. Kinderschutzorganisationen warnten, dass die Polizeidienststellen wahrscheinlich mit Anfragen überschwemmt werden.

Lesen Sie auch: UN-Chef warnt: KI macht Atomkrieg wahrscheinlicher

Laut dem Guardian-Bericht begannen mithilfe künstlicher Intelligenz generierte sexuell eindeutige Bilder von Kindern etwa im Jahr 2022 ihre Präsenz im Internet zu verstärken, zeitgleich mit der Veröffentlichung von ChatGPT durch OpenAI.

Das NCMEC wirft KI-Unternehmen vor, nicht genug zu tun, um die Erstellung und Verbreitung ausbeuterischer Inhalte zu verhindern. Im vergangenen Jahr reichten nur fünf KI-Unternehmen freiwillig Berichte beim Zentrum ein. Zum Vergleich: 70 Prozent der Social-Media-Plattformen teilten ihre Berichte, heißt es.