Negli ultimi anni, le preoccupazioni morali e pratiche si sono concentrate sull’intelligenza artificiale a causa del suo enorme potenziale per usi sia benefici che dannosi. Uno dei leader del settore, OpenAI, si impegna a implementare linee guida rigorose per impedire l’abuso dei suoi modelli di intelligenza artificiale.

Questa dedizione è particolarmente importante per identificare e sventare le operazioni di influenza segreta (IO), che sono tentativi di influenzare l’opinione pubblica o influenzare i risultati politici senza rivelare le reali identità o motivazioni delle parti coinvolte. Negli ultimi tre mesi OpenAI ha interferito con cinque di queste attività, dimostrando il proprio impegno nel ridurre l’uso improprio della tecnologia AI.

Guasti inaspettati nelle operazioni di influenza segreta ultimamente

Il 30 maggio 2024, OpenAI ha fatto la storia rivelando al mondo di aver sventato con successo cinque di queste campagne di influenza segrete provenienti da Iran, Cina, Russia e persino da una società privata israeliana. L'azienda ha pubblicato un rapporto aperto che descriveva in dettaglio le scrupolose indagini che hanno esposto questi sforzi malevoli, che miravano a utilizzare i modelli linguistici all'avanguardia di OpenAI per frodi sul web.

Il CEO di OpenAI, Sam Altman, ha ribadito l'impegno dell'azienda nel creare applicazioni di intelligence affidabili e sicure. Ha inoltre affermato che l'azienda si impegna a implementare normative che fermino l'uso improprio e migliorino la trasparenza attorno alle informazioni generate dall'IA, con particolare attenzione all'identificazione e all'impatto delle attività di influenza nascoste.

Un'operazione particolare, soprannominata "Bad Grammar" dagli analisti di OpenAI, è arrivata dalla Russia. Nel tentativo di cambiare la percezione pubblica, gli individui dietro questa operazione hanno utilizzato i bot di Telegram per eseguire i modelli di OpenAI e produrre brevi commenti social sia in russo che in inglese. Questi commenti sono stati poi condivisi sulla nota app di chat.

Foto: commento pubblico su Telegram corrispondente a un testo generato da questa rete. Threat Intel Report

Un’altra organizzazione chiamata “Doppelganger” ha adottato una strategia più internazionale, utilizzando l’intelligenza artificiale di OpenAI per creare risposte in diverse lingue dell’UE.

Lo studio ha anche fornito informazioni su un sistema cinese noto come "Spamouflage", che ha utilizzato i modelli di OpenAI per una serie di applicazioni, tra cui la creazione di materiale multilingue per siti come X, Medium e Blogspot, nonché l'indagine sull'attività pubblica sui social media. I ricercatori hanno persino utilizzato l'intelligenza artificiale di OpenAI per eseguire il debug del codice di gestione di database e siti Web, in particolare un dominio precedentemente non divulgato, che è forse il più preoccupante di tutti.

Foto: Screenshot del sito web revealscum[.]com, che mostra la pagina intitolata “汉奸” (“traditore”). Threat Intel Report

Gli analisti dell’organizzazione hanno scoperto anche l’“International Union of Virtual Media” (IUVM), un’organizzazione iraniana che ha utilizzato l’intelligenza artificiale di OpenAI per creare e interpretare documenti di formato esteso, notizie e tag web.

Foto: Tag su un articolo pubblicato da iuvmpress[.]co. Notare i primi due tag, che includono la risposta del modello. Threat Intel Report

Inaspettatamente, OpenAI ha anche interferito con le operazioni di un'azienda israeliana che si faceva chiamare "Zero Zeno". Utilizzando i modelli di OpenAI, STOIC ha creato storie e risposte che sono state poi condivise su varie piattaforme, come Facebook, Instagram, X e pagine aziendali. Ciò potrebbe essere stato fatto nel tentativo di influenzare l'opinione pubblica o promuovere obiettivi aziendali.

Foto: commenti in lingua inglese generati da questa rete e pubblicati su Instagram. Sia il post originale che le risposte sono stati generati da questa campagna. Threat Intel Report

La ricerca evidenzia che un'ampia gamma di argomenti è stata coperta dalle informazioni distribuite da queste diverse organizzazioni. Questa ampia gamma di argomenti evidenzia quanto questi attori della minaccia siano stati adattabili nei loro tentativi di utilizzare i modelli linguistici di OpenAI per i loro scopi malvagi.

OpenAI, tuttavia, sostiene che, nonostante i loro sforzi, queste campagne di influenza segrete non hanno tratto grandi benefici dall'uso dei suoi servizi per aumentare la popolarità o la portata. Quando si è valutato l'impatto degli IO, è stata utilizzata la "Breakout Scale" della Brookings Institution. Nessuna delle 5 iniziative ha ricevuto un punteggio superiore a 2, il che significa che le loro attività erano limitate a poche piattaforme e non penetravano in modo significativo nei gruppi online legittimi.

Foto: i ricercatori hanno identificato il seguente dominio come associato a questa campagna. Threat Intel Report

Esame delle strategie degli aggressori

Il documento di OpenAI identifica anche una serie di modelli significativi nel modo in cui questi attori della minaccia hanno cercato di abusare dei modelli di IA. Per creare l'apparenza di partecipazione sui social media, hanno tutti utilizzato materiale generato dall'IA oltre a formati più convenzionali come lettere scritte a mano o meme riutilizzati. Inoltre, alcuni attori hanno dimostrato l'adattabilità di queste tecnologie utilizzando l'IA per aumentare la loro produttività analizzando i post sui social media o risolvendo i problemi del codice.

È interessante notare che l'azienda evidenzia i vantaggi che l'IA fornisce alle difese contro questo tipo di attacchi. Le misure di sicurezza di OpenAI, che hanno dato priorità all'implementazione etica dell'IA, hanno costantemente causato inconvenienti agli attori della minaccia rifiutandosi di fornire il materiale distruttivo previsto. Lo studio, ad esempio, descrive in dettaglio situazioni in cui i modelli dell'azienda si sono rifiutati di generare il testo o la grafica desiderati, impedendo i tentativi degli operatori di diffondere disinformazione o propaganda.

Inoltre, per migliorare le capacità di riconoscimento e valutazione e accelerare le indagini che avrebbero potuto durare settimane o mesi, OpenAI ha creato i propri strumenti basati sull'intelligenza artificiale. L'azienda ha dimostrato come l'intelligenza artificiale possa rafforzare le protezioni contro il suo stesso uso malevolo utilizzando la tecnologia esatta che intende proteggere.

OpenAI sottolinea quanto siano cruciali la cooperazione aziendale e la condivisione di intelligence open source per sventare queste operazioni clandestine. Come risultato di anni di studio open source da parte della più ampia comunità di ricerca, la società ha condiviso precisi indicatori di pericolo con i colleghi del settore e ha rafforzato l'idea che combattere la disinformazione e la manipolazione online è uno sforzo di squadra che richiede la collaborazione tra i settori.

Il futuro corso di OpenAI per la sicurezza

Utilizzando questa strategia, OpenAI cerca di rafforzare l'effetto delle sue interruzioni su questi cattivi attori, limitando la loro capacità di utilizzare la tecnologia AI per attività illecite. Secondo il documento, "Distribution matters: Like traditional shapes of content, AI-generated material must be distributed if it's to reach a audience."

Riassumendo, la ricerca di OpenAI evidenzia che queste operazioni di influenza stealth erano ancora limitate da variabili umane, come errori degli operatori e difetti decisionali, anche se riconosce le potenziali minacce presentate dall'abuso della tecnologia AI. Il documento include esempi di operatori che pubblicano segnali di rifiuto dai modelli di OpenAI sui loro siti Web e social media per errore, esponendo i difetti e le restrizioni anche negli sforzi di disinformazione più avanzati.

Per ora, lo smantellamento di queste cinque campagne di influenza clandestine da parte di OpenAI è la prova della diligenza e dell'impegno dell'azienda nel mantenere l'integrità dei suoi sistemi di intelligenza artificiale. Tuttavia, la lotta contro la disinformazione e la manipolazione online è ben lungi dall'essere conclusa e, con lo sviluppo delle tecnologie di intelligenza artificiale, ci sarà molto più bisogno di cooperazione, creatività e preoccupazioni etiche.

Il post OpenAI smaschera e ferma 5 operazioni di influenza dannosa che sfruttano la tecnologia AI è apparso per la prima volta su Metaverse Post.