In den letzten Jahren konzentrierten sich moralische und praktische Bedenken auf KI, da sie ein enormes Potenzial sowohl für nützliche als auch für schädliche Anwendungen bietet. Einer der Branchenführer, OpenAI, setzt sich für die Umsetzung strenger Richtlinien ein, um den Missbrauch seiner KI-Modelle zu verhindern.

Dieses Engagement ist besonders wichtig, um verdeckte Einflussoperationen (IO) zu identifizieren und zu vereiteln. Dabei handelt es sich um Versuche, die öffentliche Meinung zu beeinflussen oder politische Ergebnisse zu beeinflussen, ohne die wahre Identität oder Motivation der beteiligten Parteien offenzulegen. In den letzten drei Monaten hat OpenAI fünf dieser Aktivitäten unterbunden und damit sein Engagement zur Reduzierung des Missbrauchs von KI-Technologie unter Beweis gestellt.

Unerwartete Pannen bei verdeckten Einflussoperationen in letzter Zeit

Am 30. Mai 2024 schrieb OpenAI Geschichte, als es der Welt mitteilte, dass es fünf solcher verdeckten Einflusskampagnen erfolgreich vereitelt hatte. Diese kamen aus dem Iran, China, Russland und sogar von einem israelischen Privatunternehmen. Das Unternehmen veröffentlichte einen öffentlichen Bericht, in dem die sorgfältigen Untersuchungen detailliert beschrieben wurden, die diese böswilligen Bemühungen aufdeckten, die darauf abzielten, die hochmodernen Sprachmodelle von OpenAI für Betrug im Internet zu nutzen.

Der CEO von OpenAI, Sam Altman, bekräftigte das Engagement des Unternehmens, zuverlässige und sichere Geheimdienstanwendungen zu entwickeln. Er erklärte außerdem, dass das Unternehmen sich verpflichtet habe, Vorschriften umzusetzen, die Missbrauch verhindern und die Offenheit im Zusammenhang mit von KI generierten Informationen verbessern, wobei ein besonderer Schwerpunkt auf der Identifizierung und Beeinflussung versteckter Einflussaktivitäten liege.

Eine besondere Operation – von OpenAI-Analysten „Bad Grammar“ genannt – kam aus Russland. Um die öffentliche Wahrnehmung zu ändern, nutzten die Personen hinter dieser Operation Telegram-Bots, um die Modelle von OpenAI auszuführen und kurze soziale Kommentare sowohl auf Russisch als auch auf Englisch zu verfassen. Diese Kommentare wurden dann auf der bekannten Chat-App geteilt.

Foto: Öffentlicher Telegrammkommentar, der einem von diesem Netzwerk generierten Text entspricht. Threat Intel Report

Eine andere Organisation namens „Doppelgänger“ verfolgte eine internationalere Strategie und nutzte die KI von OpenAI, um Antworten in verschiedenen EU-Sprachen zu erstellen.

Die Studie lieferte auch Einblicke in ein chinesisches System namens „Spamouflage“, das die Modelle von OpenAI für eine Reihe von Anwendungen nutzte, darunter die Erstellung mehrsprachiger Inhalte für Websites wie X, Medium und Blogspot sowie die Untersuchung öffentlicher Social-Media-Aktivitäten. Die Forscher nutzten die KI von OpenAI sogar zum Debuggen von Datenbank- und Website-Verwaltungscodes, insbesondere einer bisher nicht offengelegten Domain, was vielleicht das Besorgniserregendste von allen ist.

Foto: Screenshot der Website revealscum[.]com, auf dem die Seite mit dem Titel „汉奸“ („Verräter“) zu sehen ist. Threat Intel Report

Auch die „International Union of Virtual Media“ (IUVM), eine iranische Organisation, die die KI von OpenAI zum Erstellen und Interpretieren von Langformatdokumenten, Nachrichten und Web-Tags nutzte, wurde von den Analysten der Organisation entdeckt.

Foto: Tags in einem von iuvmpress[.]co veröffentlichten Artikel. Beachten Sie die ersten beiden Tags, die die Antwort des Modells enthalten. Threat Intel Report

Unerwarteterweise mischte sich OpenAI auch in die Geschäftstätigkeit eines israelischen Unternehmens ein, das unter dem Namen „Zero Zeno“ firmierte. Mithilfe der Modelle von OpenAI erstellte STOIC Geschichten und Antworten, die dann auf verschiedenen Plattformen wie Facebook, Instagram, X und Unternehmensseiten geteilt wurden. Dies geschah möglicherweise, um die öffentliche Meinung zu beeinflussen oder Geschäftsziele voranzutreiben.

Foto: Englischsprachige Kommentare, die von diesem Netzwerk generiert und auf Instagram gepostet wurden. Sowohl der Originalbeitrag als auch die Antworten wurden von dieser Kampagne generiert. Threat Intel Report

Die Untersuchung zeigt, dass die von diesen verschiedenen Organisationen verbreiteten Informationen ein breites Themenspektrum abdeckten. Dieses breite Themenspektrum zeigt, wie anpassungsfähig diese Bedrohungsakteure bei ihren Versuchen waren, die Sprachmodelle von OpenAI für ihre eigenen bösen Zwecke zu nutzen.

OpenAI behauptet jedoch, dass diese geheimen Einflusskampagnen trotz aller Bemühungen nicht viel davon hatten, ihre Popularität oder Reichweite zu steigern, indem sie ihre Dienste nutzten. Zur Bewertung der Auswirkungen von IOs wurde die „Breakout Scale“ der Brookings Institution verwendet. Keine der fünf Initiativen erhielt einen Wert über 2, was bedeutet, dass ihre Aktivitäten auf wenige Plattformen beschränkt waren und nicht wesentlich in legitime Online-Gruppen vordrangen.

Foto: Forscher haben die folgende Domain als mit dieser Kampagne verbunden identifiziert. Threat Intel Report

Untersuchung von Angreiferstrategien

Das Dokument von OpenAI identifiziert auch eine Reihe signifikanter Muster in der Art und Weise, wie diese Bedrohungsakteure versuchten, KI-Modelle zu missbrauchen. Um den Anschein von Beteiligung in sozialen Medien zu erwecken, verwendeten sie alle neben konventionelleren Formaten wie handgeschriebenen Briefen oder wiederverwendeten Memes KI-generiertes Material. Darüber hinaus demonstrierten einige Akteure die Anpassungsfähigkeit dieser Technologien, indem sie KI nutzten, um ihre Produktivität zu steigern, indem sie Social-Media-Postings analysierten oder Codefehler behoben.

Interessanterweise hebt das Unternehmen die Vorteile hervor, die KI bei der Abwehr dieser Art von Angriffen bietet. Die Sicherheitsmaßnahmen von OpenAI, die den ethischen Einsatz von KI priorisierten, haben Bedrohungsakteuren immer wieder Unannehmlichkeiten bereitet, indem sie das beabsichtigte zerstörerische Material nicht lieferten. Die Studie beschreibt beispielsweise Situationen, in denen die Modelle des Unternehmens sich weigerten, den gewünschten Text oder die gewünschten Grafiken zu generieren, was die Versuche der Betreiber behinderte, Fehlinformationen oder Propaganda zu verbreiten.

Um die Erkennungs- und Bewertungsfähigkeiten zu verbessern und Untersuchungen zu beschleunigen, die sonst Wochen oder Monate gedauert hätten, hat OpenAI außerdem eigene KI-gestützte Tools entwickelt. Das Unternehmen hat gezeigt, wie KI den Schutz vor böswilliger Nutzung stärken kann, indem es genau die Technologie nutzt, die es eigentlich schützen soll.

OpenAI betont, wie wichtig die Zusammenarbeit zwischen Unternehmen und der Austausch von Open-Source-Informationen sind, um diese geheimen Operationen zu vereiteln. Als Ergebnis jahrelanger Open-Source-Studien durch die breitere Forschungsgemeinschaft teilte das Unternehmen präzise Gefahrenindikatoren mit Branchenkollegen und bekräftigte die Idee, dass der Kampf gegen Desinformation und Online-Manipulation eine Teamleistung ist, die branchenübergreifende Zusammenarbeit erfordert.

OpenAIs zukünftiger Kurs in Sachen Sicherheit

Mit dieser Strategie will OpenAI die Auswirkungen seiner Störungen auf diese Übeltäter verstärken und ihre Möglichkeiten einschränken, KI-Technologie für illegale Aktivitäten zu nutzen. Laut dem Papier „ist die Verbreitung wichtig: Wie bei herkömmlichen Inhaltsformen muss KI-generiertes Material verbreitet werden, wenn es ein Publikum erreichen soll.“

Zusammenfassend zeigt die Forschung von OpenAI, dass diese verdeckten Einflussoperationen immer noch durch menschliche Variablen wie Bedienerfehler und Entscheidungsfehler eingeschränkt wurden, auch wenn die potenziellen Gefahren durch den Missbrauch von KI-Technologie anerkannt werden. Das Dokument enthält Beispiele von Betreibern, die versehentlich Ablehnungssignale von OpenAI-Modellen auf ihren Websites und in sozialen Medien veröffentlichten und damit die Mängel und Einschränkungen selbst der fortschrittlichsten Desinformationsbemühungen offenlegten.

Dass OpenAI diese fünf geheimen Einflusskampagnen aufgedeckt hat, ist ein Beleg für die Sorgfalt und das Engagement des Unternehmens, die Integrität seiner künstlichen Intelligenzsysteme zu wahren. Der Kampf gegen Desinformation und Online-Manipulation ist jedoch noch lange nicht zu Ende, und mit der Weiterentwicklung der KI-Technologien wird es noch viel mehr Bedarf an Zusammenarbeit, Kreativität und ethischen Bedenken geben.

Der Beitrag „OpenAI deckt fünf böswillige Einflussoperationen auf, die KI-Technologie nutzen, und stoppt sie“ erschien zuerst auf Metaverse Post.