Un esperto di sicurezza informatica ha rivelato che l’intelligenza artificiale rappresenta una minaccia alla sicurezza informatica non sicura per le aziende che la utilizzano come proprio servizio, non solo attraverso l’esecuzione di attacchi da parte di criminali ma anche legittimamente.

Le vulnerabilità informatiche dell’IA

Mentre la minaccia rappresentata dai malintenzionati che utilizzano l’intelligenza artificiale per sferrare attacchi è stata ampiamente discussa, Peter Garraghan, CEO e CTO di Midgard, che fornisce sicurezza informatica in particolare per l’intelligenza artificiale, dice a Verdict: “Il problema che ho in mente è una minaccia alla sicurezza informatica per l’intelligenza artificiale che è quello sull’argomento.”

Com’era prevedibile, l’uso più comune e quindi a rischio dell’intelligenza artificiale da parte delle aziende riguarda i chatbot che fungono da servizio clienti e il cui tono e dati sono generalmente personalizzati per le organizzazioni che rappresentano. È qui che il dottor Garraghan, professore di informatica alla Lancaster University specializzato in sicurezza e sistemi di intelligenza artificiale, ha deciso di trovare Mindgard nel 2022. "L'intelligenza artificiale non è magica", dice. È semplicemente una combinazione di codifica, dati e hardware aggiuntivi. Date le minacce informatiche moderne, tutte queste minacce possono manifestarsi anche nell’intelligenza artificiale.

Pensiamola in questo modo: supponiamo che un utente malintenzionato utilizzi un processo noto come SQL injection. Un utente malintenzionato può utilizzare tale processo per sfruttare le vulnerabilità nei campi dei moduli Web come l'accesso al sito Web o il modulo di contatto. Un altro modo in cui è possibile utilizzare l'inserimento del teleprompter è l'iniezione rapida, utilizzata nelle applicazioni pubbliche. Innanzitutto, se la sicurezza non è adeguatamente garantita, gli strumenti di intelligenza artificiale possono essere praticamente indotti a divulgare il codice sorgente e le istruzioni, l’IP aziendale o i dati dei clienti. In secondo luogo, gli strumenti di intelligenza artificiale possono essere decodificati come altre applicazioni software per identificare i difetti.

Protezione dei sistemi di intelligenza artificiale

Garraghan sottolinea la gravità del problema: nel futuro previsto, tra qualche anno, potrebbe sorgere il fattore sicurezza nazionale, oppure le persone prive di diritti civili potrebbero essere a rischio. La nuova informazione sembra un avvertimento: un'azienda dovrebbe stare attenta ai dati diffusi.

Garraghan afferma: “Inoltre, l’intelligenza artificiale può fungere da strumento di attacco informatico in cui può far trapelare dati; la modella sarà in grado di fornire i dati da voi così gentilmente richiesti.“ Presentando un esempio in gennaio, la piattaforma di social media di destra Gab ha cercato tutorial che rivelassero accidentalmente le loro istruzioni. Anche la piattaforma OpenAI basata su GPT aveva precedentemente utilizzato i suoi modelli in modo improprio.

Garraghan continua: “Le informazioni possono essere ottenute da attacchi VoIP non autorizzati. Inoltre, l’intelligenza artificiale può essere decodificata e il sistema può essere aggirato o ingannato per consentire l’accesso aperto ad altri sistemi. Pertanto, la fuga di informazioni potrebbe essere una delle principali aree colpite da tutti i settori, compresi quelli che potrebbero essere rivolti verso l’esterno o verso l’interno”. Elenca anche altri rischi, come l'evasione del modello, per cui il modello viene fuorviato o elusa di proposito fabbricando dati ingannevoli.

Garraghan ha sottolineato che un'altra minaccia è l'inserimento di comandi dannosi o la contaminazione dei dati con soluzioni concepite in modo errato nelle tracce audio. Inoltre, osserva che l’impatto informatico generale è il danno alla reputazione comunemente sperimentato dopo gli attacchi informatici. Allo stesso modo, le aree a maggior rischio di conseguenze negative di questo tipo di attacco informatico sono quelle in cui la posta in gioco è più alta. Con molte industrie e istituzioni che operano online, la sicurezza pubblica e la mancanza di informazioni riservate trapelate, ad esempio, sono valori importanti a cui i servizi finanziari e i settori sanitario dovrebbero dare priorità.

Garraghan dice: Il collegamento qui è che più sei strutturato e controllante sei nel tuo settore e maggiori sono i rischi che affronti dall'intelligenza artificiale (e anche per esperienza: meno usi l'intelligenza artificiale, meno la adotti), peggiore è la tua intelligenza artificiale. Forse non sono quelli più pigri. Ad esempio, potrebbero semplicemente attraversare le fasi più gravi della loro vita.

Misure di sicurezza proattive dell’IA

L’intelligenza artificiale si prenderà cura di questi rischi in qualsiasi azienda specifica, anche se afferma che richiederà livelli di sicurezza (perché l’intelligenza artificiale nel mondo degli affari ne ha già bisogno) per la protezione degli utenti. “Disponete già di strumenti di sicurezza informatica specializzati in diversi settori”, afferma Garraghan. “Potrebbero essere strumenti di gestione della posizione di sicurezza, rilevamento, strumenti di risposta, firewall e supporto per la progettazione dello spostamento a sinistra, come la scansione del codice. Presto avrete bisogno di un’intelligenza artificiale in linea con la trasformazione digitale”. Il genere è specializzato esclusivamente in AI e ML, mentre sistemi come le reti neurali vengono menzionati solo occasionalmente

Avrai bisogno di uno scanner di applicazioni per reti neurali, un sistema di risposta di tutti i tipi di reti neurali, test di sicurezza e red teaming per un migliore controllo tra le app e avrai bisogno di un sistema di risposta di tutti i tipi di reti neurali. È più semplice risolverli e risolverli tempestivamente invece dei problemi di runtime. Tuttavia, la migliore pratica che consigliamo alle organizzazioni che utilizzano modelli di intelligenza artificiale o applicazioni e servizi di intelligenza artificiale acquistati è che prima che vadano in produzione, sia più semplice risolvere tutti i problemi con i modelli. Quindi, una volta avviato alla produzione, possono essere identificati solo i problemi che devono essere risolti.

In poche parole, l’opinione di Garraghan è la seguente: “La cosa migliore, se la sicurezza informatica inizia con io, è semplicemente scambiare un’applicazione o un software con l’intelligenza artificiale come strumento. NO? La sicurezza delle applicazioni è necessaria per rilevare le minacce. È inclusa anche l’intelligenza artificiale come strumento”.