• OpenAI intensiviert sein Vorgehen gegen mit dem Iran verbundene Konten, die über ChatGPT Falschinformationen zur US-Wahl verbreiten.

  • Die Untersuchung von OpenAI enthüllt die KI-gesteuerte Einflussoperation des Iran, die sowohl auf progressive als auch auf konservative Zielgruppen abzielt.

  • Das harte Vorgehen unterstreicht das Engagement von OpenAI, die ausländische Einmischung in die US-Wahlen mittels KI-Technologie zu bekämpfen.

OpenAI hat sein Vorgehen gegen mit dem Iran verbundene Konten verschärft, die seine Plattformen nutzen, um Falschinformationen über die US-Präsidentschaftswahlen zu verbreiten. Der jüngste Anstieg dieser Aktivitäten hat erhebliche Aufmerksamkeit erregt, insbesondere nachdem Donald Trumps Wahlkampfteam eine Sicherheitslücke gemeldet hatte, die mit iranischen Hackern in Verbindung gebracht wird. Das KI-Unternehmen hat zahlreiche Konten identifiziert und gesperrt, die mit der Einflussoperation des Iran, genannt „Storm-2035“, in Verbindung stehen.

https://twitter.com/itsandrewgao/status/1824570091629056512 Gezielte Fehlinformationen zu verschiedenen Themen

Die Accounts nutzten die generativen KI-Technologien von OpenAI, insbesondere ChatGPT, um Falschinformationen zu verschiedenen Themen zu erstellen und zu verbreiten, wobei der Schwerpunkt auf den US-Wahlen lag. Dabei wurden sowohl lange Artikel als auch kurze Social-Media-Kommentare erstellt, die auf mehreren Plattformen geteilt wurden. Die Themen reichten von den US-Wahlen über den Gaza-Konflikt bis hin zu Israels Teilnahme an den Olympischen Spielen und anderen.

Darüber hinaus stufte OpenAI die Operation auf Grundlage der Breakout Scale von Brookings als Bedrohung mit niedrigem Niveau ein und stellte fest, dass die Posts wenig Engagement hervorriefen. Trotz der begrenzten Auswirkungen erkannte das Unternehmen die Bedeutung der Überwachung und Verhinderung solcher Operationen mit ausländischer Einflussnahme und betonte die Notwendigkeit erhöhter Wachsamkeit.

OpenAIs breiteres Engagement für KI-Ethik

Bezeichnenderweise ergab die Untersuchung des KI-Unternehmens, dass die Operation sowohl auf progressive als auch auf konservative Zielgruppen abzielte. Die Accounts gaben sich als legitime Nachrichtenagenturen und Social-Media-Nutzer aus und imitierten manchmal die Kommentare echter Nutzer, um authentisch zu wirken. Diese Taktik unterstrich die raffinierte Natur der Operation, trotz ihres begrenzten Erfolgs.

Außerdem ist der Zeitpunkt der Ankündigung von OpenAI bemerkenswert: Sie erfolgte kurz nachdem Trumps Wahlkampfteam eine Sicherheitsverletzung gemeldet hatte, die iranischen Hackern zugeschrieben wurde. Die Maßnahmen des Unternehmens unterstreichen sein umfassendes Engagement für Transparenz und den ethischen Einsatz von KI, insbesondere beim Schutz politischer Prozesse vor ausländischer Einmischung.

Ben Nimmo, der leitende Ermittler von OpenAI für Geheimdienstarbeit und Ermittlungen, erklärte, dies sei der erste Fall, in dem das Unternehmen eine Operation entdeckt habe, die speziell auf die US-Wahl abzielte.

Er betonte, dass es wichtig sei, wachsam zu bleiben, aber dennoch Ruhe zu bewahren, da die Reichweite der Operation nur minimal sei. Darüber hinaus ist der Bericht ein weiterer Beweis dafür, dass der Iran mit Hilfe von Technologie versucht, die US-Wahlen zu beeinflussen.

Der Beitrag „OpenAI bekämpft mit dem Iran verbundene Konten und nutzt KI zur Desinformation über die US-Wahl“ erschien zuerst auf Crypto News Land.