Microsoft hat den Kongress aufgefordert, neue Gesetze gegen KI-generierte Deepfakes zu verabschieden. Brad Smith, stellvertretender Vorsitzender und Präsident von Microsoft, hat betont, wie dringend es für den Gesetzgeber sei, sich mit der wachsenden Bedrohung durch Deepfake-Technologie auseinanderzusetzen.

In einem aktuellen Blogbeitrag betonte Smith, wie wichtig es sei, Gesetze anzupassen, um Deepfake-Betrug zu bekämpfen und Missbrauch zu verhindern. Laut Smith sollte es ein Gesetz geben, mit dem man Betrügereien und Fälschungen von Deepfakes strafrechtlich verfolgen kann.

Microsoft schlägt ein Bundesgesetz gegen Deepfake-Betrug vor

Dem Bericht von Microsoft zufolge können verschiedene rechtliche Maßnahmen ergriffen werden, um den Missbrauch der Deepfake-Technologie zu verhindern. Einer der Vorschläge ist die Schaffung eines bundesstaatlichen „Deepfake-Betrugsgesetzes“. Dieses neue Gesetz wird sich sowohl mit den zivil- als auch den strafrechtlichen Aspekten des synthetischen Inhaltsbetrugs befassen und kann folgende Maßnahmen nach sich ziehen: Strafanzeige, zivilrechtliche Beschlagnahme und Unterlassungsverfügungen.

Der Bericht unterstützt auch die Forderung nach synthetischer Inhaltsidentifizierung. Durch die Regulierung der Verwendung fortschrittlicher Herkunftstools könnte die Öffentlichkeit die Herkunft der Inhalte, die sie online erhält, nachvollziehen. Dies ist wichtig für die Glaubwürdigkeit digitaler Informationen und um die Verbreitung von Fake News zu stoppen.

„Der Kongress sollte von Anbietern von KI-Systemen verlangen, hochmoderne Herkunftswerkzeuge zu verwenden, um synthetische Inhalte zu kennzeichnen. Dies ist unerlässlich, um Vertrauen in das Informationsökosystem aufzubauen, und wird der Öffentlichkeit helfen, besser zu verstehen, ob Inhalte von KI generiert oder manipuliert wurden.“

Brad Smith

Darüber hinaus schlägt Microsoft vor, die aktuellen Gesetze zur Ausbeutung von Kindern und zur Darstellung expliziter Bilder ohne deren Einverständnis zu ändern, sodass auch von KI erstellte Bilder erfasst werden. Dies würde gewährleisten, dass die rechtlichen Rahmenbedingungen mit der technologischen Entwicklung Schritt halten und so auch die gefährdete Personengruppe geschützt wird.

Der US-Senat hat in dieser Hinsicht kürzlich Schritte unternommen, indem er einen Gesetzentwurf verabschiedet hat, der sich gegen sexuell explizite Deepfakes richtet. Dieses neue Gesetz ermöglicht es den Opfern von nicht einvernehmlichen sexuell expliziten KI-Deepfakes, die Ersteller der Inhalte zu verklagen.

FCC sagt „Nein“ zu KI-Sprach-Robocalls

Auch Microsoft hat auf den Missbrauch von KI reagiert und die Sicherheitsmaßnahmen für seine Produkte verstärkt. Das Unternehmen hat kürzlich den Bildersteller Designer AI verbessert, nachdem eine Sicherheitslücke ausgenutzt worden war, um obszöne Bilder von Prominenten zu erstellen. Smith sagte, der private Sektor müsse Maßnahmen ergreifen, um sicherzustellen, dass KI nicht missbraucht wird, und es sei Aufgabe der Technologieunternehmen, sicherzustellen, dass den Benutzern kein Schaden zugefügt wird.

Die FCC hat bereits Maßnahmen gegen den Missbrauch von KI ergriffen, indem sie die Verwendung von KI-Stimmen bei Robocalls verboten hat. Dennoch verbessert generative KI die Generierung gefälschter Audiodaten, Bilder und Videos immer besser. Dieses Problem wurde kürzlich durch ein Deepfake-Video der US-Vizepräsidentin Kamala Harris verschärft, das in den sozialen Medien verbreitet wurde und die wachsende Gefahr der Deepfake-Technologie verdeutlichte.

Auch andere gemeinnützige Organisationen wie das Center for Democracy and Technology (CDT) engagieren sich im Kampf gegen den Missbrauch von Deepfakes. Wie Tim Harper, leitender Politikanalyst des CDT, anmerkt, markiert das Jahr 2024 den entscheidenden Wendepunkt für KI bei Wahlen, und die Menschen müssen sich darauf vorbereiten. Der aktuelle Widerstand gegen Deepfakes ist eine frühe Form eines möglicherweise langwierigen Kampfes gegen technologische Manipulation.