L’Unione Europea ha pubblicato il testo finale della legge sull’intelligenza artificiale, delineando le scadenze cruciali per conformarsi al primo regolamento completo sull’intelligenza artificiale al mondo. Dopo l’approvazione da parte del Consiglio dell’UE a maggio, la legislazione entrerà in vigore il 1° agosto 2024.

L’AI Act mira a prevenire le minacce derivanti dall’IA “ad alto rischio” alla democrazia, ai diritti umani, all’ambiente e allo Stato di diritto. Tuttavia, le aziende cinesi prevedono di spendere più tempo e denaro per conformarsi alle nuove normative sull’intelligenza artificiale. Partick Tu, co-fondatore e CEO di Dayta AI con sede a Hong Kong, prevede che i costi della sua azienda aumenteranno dal 20% al 40%.

L’UE impone sandbox normativi sull’IA

La legge richiede agli sviluppatori di IA con sede nell’UE di attuare le sue disposizioni entro il 2 agosto 2026. Ciascuno Stato membro dell’UE deve soddisfare questo requisito entro tale data e ciascuno deve creare almeno un sandbox normativo sull’IA a livello nazionale. Questi sandbox consentiranno agli sviluppatori di testare i sistemi di intelligenza artificiale nell’ambito del quadro giuridico stabilito in modo che non ostacolino lo sviluppo della tecnologia. 

Gli sviluppatori, i fornitori e gli utenti di dati biometrici sono tenuti a rispettare la nuova scadenza del 2 febbraio 2025. Questa scadenza vieta l'uso di applicazioni IA a "rischio inaccettabile", come lo smistamento biometrico sulla base di tratti sensibili, il riconoscimento delle emozioni negli ambienti di lavoro e istituti scolastici e raccolta di massa di immagini facciali per database di riconoscimento facciale. Tuttavia, sono previste esenzioni nel caso della polizia a determinate condizioni. 

Leggi anche: Il CTO di Microsoft difende le leggi sullo scaling dell'intelligenza artificiale

Prima del 2 maggio 2025, il nuovo Ufficio AI avrebbe dovuto emanare codici di condotta per i fornitori di AI. I seguenti codici illustreranno il modo in cui i fornitori possono dimostrare la loro conformità alla legge. I sistemi di intelligenza artificiale per scopi generali, incluso ChatGPT, saranno tenuti a osservare le norme sul copyright e sulla trasparenza a partire dall'agosto 2025. 

Inoltre, gli sviluppatori di sistemi di IA ad alto rischio hanno tempo fino al 27 agosto 2027, un anno dopo l’entrata in vigore della legge sull’AI, per soddisfare i requisiti aggiuntivi stabiliti nell’allegato I della legge sull’AI. Le applicazioni di intelligenza artificiale ad alto rischio, come l'identificazione biometrica remota, sono consentite nel mercato dell'UE, a condizione che siano soddisfatte le seguenti condizioni. 

La legge prevede sanzioni salate per le violazioni

Secondo la legge, qualsiasi azienda che non rispetti le disposizioni della legge sarà soggetta a severe sanzioni. Le multe variano da 35 milioni di euro (38 milioni di dollari) fino al 7% dei ricavi totali delle società per l’anno precedente, a seconda di quale valore sia superiore alle sanzioni amministrative. 

Emma Wright dello studio legale Harbottle e Lewis ha commentato l'avvento della legge, dicendo: "L'EU AI Act è il primo tentativo significativo di regolamentare l'IA nel mondo - resta da vedere se il costo della conformità soffoca l'innovazione o se l'AI Il modello di governance che stabilisce è un fiore all’occhiello per l’UE”.

Il tasso di progresso dell’IA, in particolare con il recente rilascio di IA generativa come ChatGPT, ha superato di gran lunga il tasso di regolamentazione. Diversi paesi e blocchi commerciali hanno lavorato su quadri giuridici per regolamentare l’uso dell’IA.