L'Unione europea sta compiendo passi avanti nel dare forma al futuro dell'intelligenza artificiale con lo sviluppo del primo "codice di condotta generale per l'intelligenza artificiale" per i modelli di intelligenza artificiale nell'ambito della sua legge sull'intelligenza artificiale.

Secondo un annuncio del 30 settembre, l'iniziativa è guidata dall'Ufficio europeo per l'intelligenza artificiale e riunisce centinaia di esperti globali provenienti dal mondo accademico, dall'industria e dalla società civile per elaborare in modo collaborativo un quadro che affronterà questioni chiave quali trasparenza, copyright, valutazione del rischio e governance interna.

Quasi 1.000 persone partecipano alla definizione del futuro dell’intelligenza artificiale nell’UE

La sessione plenaria di avvio, tenutasi online con circa 1.000 partecipanti, ha segnato l'inizio di un processo lungo mesi che si concluderà con la bozza finale nell'aprile 2025.

Il Codice di condotta è destinato a diventare la pietra angolare per l'applicazione dell'AI Act ai modelli di intelligenza artificiale di uso generale, come i modelli linguistici di grandi dimensioni (LLM) e i sistemi di intelligenza artificiale integrati in vari settori.

In questa sessione sono stati inoltre presentati quattro gruppi di lavoro, guidati da illustri presidenti e vicepresidenti del settore, che guideranno l'elaborazione del Codice di condotta.

Tra questi ci sono esperti di spicco come Nuria Oliver, ricercatrice di intelligenza artificiale, e Alexander Peukert, specialista tedesco di diritto d'autore. Questi gruppi si concentreranno su trasparenza e copyright, identificazione del rischio, mitigazione del rischio tecnico e gestione interna del rischio.

Secondo l'Ufficio europeo per l'intelligenza artificiale, questi gruppi di lavoro si riuniranno tra ottobre 2024 e aprile 2025 per elaborare disposizioni, raccogliere il contributo delle parti interessate e perfezionare il Codice di condotta attraverso una consultazione continua.

Preparare il terreno per la governance globale dell’IA


L’AI Act dell’UE, approvato dal Parlamento europeo nel marzo 2024, è un atto legislativo fondamentale che mira a regolamentare la tecnologia in tutto il blocco.

È stato creato per stabilire un approccio basato sul rischio alla governance dell'IA. Categorizza i sistemi in diversi livelli di rischio, che vanno da minimo a inaccettabile, e impone misure di conformità specifiche

La legge è particolarmente rilevante per i modelli di intelligenza artificiale di uso generale a causa delle loro ampie applicazioni e del potenziale di impatto sociale significativo, spesso collocandoli nelle categorie a rischio più elevato delineate dalla legislazione.

Tuttavia, alcune importanti aziende di intelligenza artificiale, tra cui Meta, hanno criticato le normative come troppo restrittive, sostenendo che potrebbero soffocare l'innovazione. In risposta, l'approccio collaborativo dell'UE alla stesura del Codice di condotta mira a bilanciare sicurezza ed etica con la promozione dell'innovazione.

La consultazione multi-stakeholder ha già raccolto oltre 430 contributi, che contribuiranno a influenzare la stesura del codice.

L’obiettivo dell’UE è che entro il prossimo aprile il culmine di questi sforzi costituisca un precedente su come i modelli di intelligenza artificiale di uso generale possano essere sviluppati, implementati e gestiti in modo responsabile, con una forte enfasi sulla riduzione al minimo dei rischi e sulla massimizzazione dei benefici per la società.

Poiché il panorama globale dell'intelligenza artificiale si evolve rapidamente, è probabile che questo sforzo influenzi le politiche in materia di intelligenza artificiale in tutto il mondo, soprattutto perché sempre più paesi si rivolgono all'UE per ottenere indicazioni sulla regolamentazione delle tecnologie emergenti.

Rivista: Il sistema di intelligenza artificiale avanzata è già “autocosciente” — fondatore dell’ASI Alliance