La legge dell’Unione europea sull’intelligenza artificiale (AI) è finalmente in vigore cinque mesi dopo essere stata approvata dal parlamento dell’Unione europea. Con la legge ora in vigore, diventa la regolamentazione fondamentale sull’intelligenza artificiale e potrebbe segnare il passo per altri paesi nella regolamentazione del settore emergente.

Tuttavia, la maggior parte delle disposizioni della legge sull’AI non entreranno in vigore immediatamente, poiché esistono scadenze temporali per l’applicazione delle norme. Si prevede che ciò darà alle aziende più tempo per conformarsi alla legge man mano che il settore si evolve e consentirà agli Stati membri di attrezzarsi per la sua applicazione.

I casi d'uso dell'intelligenza artificiale sono classificati in base ai rischi

La legge adotta un sistema di classificazione basato sul rischio per determinare le regole che si applicheranno a ciascuna società di intelligenza artificiale. Le categorie sono: nessun rischio, rischio minimo, rischio elevato e proibito, e qualunque categoria rientri in un sistema di intelligenza artificiale determinerà quando le regole relative alle sue operazioni diventeranno effettive.

Per i sistemi di intelligenza artificiale vietati, l’autorità di regolamentazione ha fissato una scadenza a febbraio 2025 per vietare i sistemi che raschiano Internet per espandere i database di riconoscimento facciale o manipolare gli utenti affinché prendano una decisione.

Anche coloro che rientrano nella categoria delle applicazioni ad alto rischio avranno sei mesi a partire dal 1° agosto per conformarsi alle rigide regole a loro applicabili. I sistemi di intelligenza artificiale classificati come ad alto rischio includono quelli utilizzati per il riconoscimento facciale, la biometria, i servizi pubblici critici, l’istruzione, l’occupazione e il software medico.

I requisiti per il gruppo includono la presentazione di set di dati di formazione alle autorità di regolamentazione per l'audit e la fornitura di prove della supervisione umana. Sono inoltre tenuti a condurre test di conformità prima della commercializzazione. Per i sistemi ad alto rischio utilizzati da agenzie governative o per servizi pubblici, lo sviluppatore dovrebbe registrarli nel database dell’UE.

Nel frattempo, circa l’85% dei sistemi di IA rientra nella categoria di rischio minimo, con regole più flessibili. Tuttavia, la legge ha stabilito sanzioni per scoraggiare le violazioni. Le multe vanno dal 7% del fatturato annuo globale quando le aziende violano i sistemi di intelligenza artificiale vietati all’1,5% per aver fornito informazioni errate alle autorità di regolamentazione.

IA generativa con restrizioni minime

Per gli sviluppatori di sistemi di IA generativa, le loro preoccupazioni sono limitate poiché la legge etichetta i loro modelli come esempi di IA di uso generale (GPAI) e ne classifica la maggior parte come a rischio minimo. Pertanto, i migliori chatbot AI come MetaAI, ChatGPT, Perplexity, Claude AI, ecc., non sarebbero influenzati in modo significativo.

La legge richiede solo una maggiore trasparenza da parte di queste società di intelligenza artificiale attraverso la divulgazione dei loro dati di formazione. Ci si aspetta inoltre che rispettino le norme UE sul copyright. Tuttavia, un piccolo gruppo di GPAI è considerato sufficientemente cruciale da causare rischi sistemici. Si riferiscono a coloro che sono addestrati a utilizzare una potenza di calcolo superiore a un livello specificato.

È interessante notare che l’UE è anche responsabile dell’applicazione delle norme relative ai GPAI, sebbene ciascun paese sia responsabile dell’attuazione delle norme generali previste dalla legge. Gli Stati hanno tempo fino all’agosto 2025 per istituire organismi preposti all’attuazione della legge nel proprio Paese.

Nel frattempo, permangono ancora numerose zone grigie riguardo a diversi aspetti della legge. Queste includono le linee guida specifiche che gli sviluppatori GPAI devono rispettare ai sensi della legge. Le autorità di regolamentazione stanno sviluppando codici di condotta a questo scopo, con l’Ufficio AI a capo del compito.

L’ufficio, che è l’organismo che monitora e costruisce l’ecosistema dell’intelligenza artificiale, ha recentemente annunciato un processo di consultazione e ha invitato tutte le parti interessate a partecipare al processo normativo. Intende avere i Codici pronti entro aprile 2025.