Il governo del Regno Unito sta cercando l’opinione della gente riguardo a una nuova serie di regole volontarie per la sicurezza informatica dell’IA. Il “Codice di condotta sulla sicurezza informatica dell’intelligenza artificiale” consisterà in suggerimenti che gli sviluppatori possono utilizzare per proteggere i propri prodotti e servizi di intelligenza artificiale da attacchi di pirateria informatica, sabotaggio o manomissione. Alla conferenza CYBERUK, il ministro della tecnologia Saqib Bhatti ha affermato che le nuove linee guida costituiranno la base per uno standard globale per la sicurezza informatica dell’intelligenza artificiale e consentiranno alle aziende britanniche di essere al sicuro dagli attacchi informatici.

Protezione dei sistemi di intelligenza artificiale

Bhatti ha affermato che per rendere l'economia digitale una forza potente per il Paese; dobbiamo fornire un ambiente sicuro affinché possa crescere e svilupparsi. Questo è esattamente ciò che stanno facendo con queste nuove misure, in cui i modelli di intelligenza artificiale della fase di progettazione saranno resistenti agli avversari. Il DSIT e l’NCSC hanno creato un codice di condotta per lo sviluppo di sistemi di IA cyber-sicuri basato sulle linee guida NCSC sul sistema di IA sicuro pubblicate lo scorso anno. 

La bozza di pubblicazione del Codice di condotta sulla sicurezza informatica dell’intelligenza artificiale arriva in un momento di notizie contrastanti per la scena della sicurezza informatica del Regno Unito. Secondo i dati del governo, lo scorso anno il settore è cresciuto del 13%, ma nello stesso periodo la metà delle imprese e quasi un terzo degli enti di beneficenza sono stati oggetto di violazioni.

La crescente domanda di IA generativa tra le aziende creerà probabilmente nuove modalità con cui i criminali informatici potranno lanciare attacchi. I sistemi GenAI sono quelli più colpiti dall’avvelenamento dei dati e dal furto di modelli, afferma Kevin Curren, professore di sicurezza informatica all’Università di Ulster e membro senior dell’Institute of Electrical and Electronics Engineers. Se le aziende non riescono a dimostrare come funzionano i sistemi GenAI e come sono arrivate alle loro conclusioni, la responsabilità diventa un problema e non è possibile individuare altri rischi potenziali.

Contrastare le nuove minacce informatiche

Le nuove linee guida sulla sicurezza informatica dell’IA forniranno alle aziende un elenco delle migliori pratiche e raccomandazioni per gestire queste sfide, ha affermato l’amministratore delegato dell’NCSC, Felicity Oswald. I nuovi codici di condotta li aiuteranno a creare il settore della sicurezza informatica per progettare modelli e software di intelligenza artificiale in modo che siano sicuri e resistenti agli attacchi di malintenzionati. Oswald ha affermato che stabilire standard per la nostra sicurezza rafforzerà la resilienza collettiva e ha elogiato le organizzazioni per aver seguito questi requisiti per mantenere il Regno Unito online sicuro. L’invito a presentare opinioni durerà fino a quando le aziende che si occupano di applicazioni di intelligenza artificiale non potranno iniziare ad adottare misure per rafforzare la propria sicurezza, come ha affermato Curren.

Le organizzazioni dovrebbero comunicare con esperti di protezione dei dati e monitorare i cambiamenti nelle pratiche normative, ha affermato, il che non solo aiuta a evitare problemi legali ma aiuta anche a mantenere la fiducia dei consumatori fornendo pratiche etiche di intelligenza artificiale e integrità dei dati. Altre buone pratiche sono quelle riguardanti l’uso dei dati, che dovrebbero essere ridotti al minimo e resi anonimi, dovrebbero essere stabilite politiche di governance dei dati, gli ambienti dei dati dovrebbero essere protetti, il personale dovrebbe essere informato riguardo agli attuali protocolli di sicurezza, all’impatto e al gli audit dovrebbero essere eseguiti continuamente. 

La richiesta di parere di oggi su entrambi i codici di condotta dovrebbe essere vista nel contesto dell’intero lavoro del governo conservatore sulla sicurezza dell’intelligenza artificiale, come ha sottolineato il ministro per l’intelligenza artificiale e la proprietà intellettuale, visconte Camrose. Le politiche dei programmi specifici del partito laburista d'opposizione non sono ancora specificate, anche se manca il Libro verde sulla politica tecnologica, promesso l'anno scorso. Tuttavia, il segretario ombra del DSIT Peter Kyle ha promesso oggi che il partito svelerà le sue opinioni sull’intelligenza artificiale nelle prossime settimane nel contesto di una spinta politica in vista delle elezioni generali.