Die Internet Watch Foundation (IWF) ist besorgt, dass die Verbreitung von KI-generiertem Material mit sexuellem Kindesmissbrauch (CSAM) im Internet infolge der Fortschritte bei KI-Tools weiter zunehmen könnte.

Lesen Sie auch: Bericht: KI-Deepfakes erschweren US-Behörden den Schutz von Kindern

Die Sicherheitsaufsichtsbehörde hat darauf hingewiesen, dass es mit der zunehmenden Ausgereiftheit generativer KI-Tools auch schwieriger geworden ist, zwischen echten Bildern oder Videos und gefälschten KI-generierten Inhalten zu unterscheiden. Laut der Organisation sind KI-generierte Bilder aus dem Jahr 2024 „realistischer“ geworden als diejenigen, die erstmals im Jahr 2023 zu sehen waren.

Internet Watch Foundation beobachtet Anstieg von CSAM

Die IWF befürchtet, dass mehr von KI generierte CSAMs ihren Weg ins Internet finden könnten, da Perverse die Fortschritte in der KI-Technologie ausnutzen, die die Nutzung von Tools einfacher und die Verbreitung weiter vorantreibt. Die Sicherheitsbehörde hat bereits einen Anstieg von KI-generierten CSAMs im Internet festgestellt.

Die Organisation hat bereits Fälle von Manipulation von CSAM festgestellt, während es in anderen Fällen um Erwachsenenpornografie ging, in deren Filmmaterial jedoch das Gesicht eines Kindes verwendet wurde. Laut IWF handelte es sich bei einigen der Inhalte um Videos, die etwa 20 Sekunden lang waren.

Dan Sexton, Chief Technology Officer beim IWF, erklärte, dass die Wahrscheinlichkeit bestehe, dass mehr KI-CSAM entstehen werde, wenn KI-Videotools dem gleichen Trend folgten wie KI-Bildgenerierungstools, da sich die Technologie rasant entwickle.

„Ich würde vorsichtig sagen, dass wir mehr Videos sehen werden, wenn es den gleichen Trends folgt“, sagte er.

Sexton fügte hinzu, dass die Chancen auch hoch seien, dass zukünftige KI-Videos von „höherer Qualität und Realismus“ sein werden.

Laut IWF-Analysten handelte es sich bei den meisten Videos, die die Organisation in einem Dark Forum von Pädophilen überprüfte, um teilweise Deepfakes. In diesem Fall wurden frei im Internet verfügbare KI-Modelle verwendet, um die Bilder bestehender CSAM-Videos und Erwachsenenpornografie zu manipulieren, darunter auch die von bekannten CSAM-Opfern.

Die Organisation fand neun solcher Videos, während eine kleine Anzahl vollständig mithilfe KI erstellter Videos von grundlegender Qualität war.

(1/4) #KI-Materiallandschaft zum Thema sexueller Kindesmissbrauch – Letztes Jahr waren wir unter den Ersten, die Alarm schlugen wegen der Verbreitung realistischer, von#KIgenerierter Bilder zum Thema sexueller Kindesmissbrauch… pic.twitter.com/s4igkjHH78

— Internet Watch Foundation (IWF) (@IWFhotline) 22. Juli 2024

Die Aufsichtsbehörde will die Produktion von CSAM kriminalisieren

Die IWF drängt nun auf Gesetze, die die Produktion solchen Materials unter Strafe stellen, einschließlich der Erstellung von Leitfäden zur Erstellung solcher Inhalte. Sie sollte auch die Entwicklung von Tools und Plattformen kriminalisieren, die die Erstellung von CSAM ermöglichen.

Eine in diesem Jahr durchgeführte Studie eines einzigen Darknet-Forums ergab, dass über einen Zeitraum von einem Monat 12.000 neue, KI-generierte Bilder gepostet wurden.

Laut IWF waren neun von zehn dieser Bilder realistisch und sie könnten nach denselben britischen Gesetzen strafrechtlich verfolgt werden, die auch für echte CSAM gelten.

Lesen Sie auch: Mann aus Texas wegen Kaufs von Kinderpornografie mit Kryptowährung verurteilt

Letztes Jahr teilte das National Center for Missing and Exploited Children (NCMEC) mit, es habe zahlreiche Berichte über Perverse erhalten, die KI auf unterschiedliche Weise nutzen, etwa indem sie Texteingaben machten, um Bilder von Kindesmissbrauch zu erstellen. In einigen Fällen veränderten die Täter zuvor hochgeladene Bilder, um sie sexuell explizit und missbräuchlich zu machen.

IWF-CEO Susie Hargreaves betonte die Notwendigkeit, generative KI-Tools zu regulieren, um die Verbreitung von CSAM einzudämmen.

„Ohne angemessene Kontrollen bieten generative KI-Tools Online-Tätern eine Spielwiese, auf der sie ihre perversesten und widerlichsten Fantasien ausleben können“, sagte Hargreaves.

Hargreaves fügte hinzu, dass die IWF zunehmend beobachte, dass CSAM auf kommerziellen Websites mit Darstellungen sexuellen Kindesmissbrauchs geteilt und verkauft werde.

Laut The Guardian gab eine andere Organisation, die eine Hotline für die Meldung von Missbrauch betreibt, bekannt, dass sie auf Online-Plattformen KI-generierte CSAM-Inhalte gefunden habe, die von Tätern zum Verkauf angeboten würden.