Secondo Cointelegraph, l'Unione Europea sta portando avanti i suoi sforzi per dare forma al futuro dell'intelligenza artificiale con la creazione del primo "General-Purpose AI Code of Practice" nell'ambito del suo AI Act. Questa iniziativa, guidata dall'European AI Office, coinvolge centinaia di esperti globali provenienti dal mondo accademico, dall'industria e dalla società civile per elaborare in modo collaborativo un quadro che affronti questioni chiave come trasparenza, copyright, valutazione del rischio e governance interna.

Il processo è iniziato con una sessione plenaria online il 30 settembre, che ha visto quasi 1.000 partecipanti. Ciò segna l'inizio di uno sforzo lungo mesi che culminerà in una bozza finale entro aprile 2025. Il Codice di condotta mira a essere una pietra angolare per l'applicazione dell'AI Act ai modelli di intelligenza artificiale di uso generale, inclusi i modelli di linguaggio di grandi dimensioni (LLM) e i sistemi di intelligenza artificiale utilizzati in vari settori.

Sono stati introdotti quattro gruppi di lavoro, guidati da illustri presidenti e vicepresidenti del settore, per guidare lo sviluppo del Codice di condotta. Questi gruppi includono esperti come Nuria Oliver, ricercatrice di intelligenza artificiale, e Alexander Peukert, specialista tedesco di diritto d'autore. Si concentreranno su trasparenza e copyright, identificazione del rischio, mitigazione del rischio tecnico e gestione interna del rischio. L'European AI Office ha dichiarato che questi gruppi si incontreranno tra ottobre 2024 e aprile 2025 per redigere disposizioni, raccogliere il contributo delle parti interessate e perfezionare il Codice di condotta attraverso una consultazione continua.

L'AI Act dell'UE, approvato dal Parlamento europeo a marzo 2024, è un pezzo di legislazione fondamentale volto a regolamentare la tecnologia AI in tutto il blocco. Stabilisce un approccio basato sul rischio alla governance dell'AI, categorizzando i sistemi in diversi livelli di rischio e imponendo misure di conformità specifiche. Questo atto è particolarmente rilevante per i modelli di AI di uso generale a causa delle loro ampie applicazioni e del potenziale di impatto sociale significativo, spesso collocandoli in categorie a rischio più elevato.

Tuttavia, alcune importanti aziende di intelligenza artificiale, tra cui Meta, hanno criticato le normative come troppo restrittive, sostenendo che potrebbero soffocare l'innovazione. In risposta, l'approccio collaborativo dell'UE alla stesura del Codice di condotta mira a bilanciare sicurezza ed etica con la promozione dell'innovazione. La consultazione multi-stakeholder ha già raccolto oltre 430 contributi, che aiuteranno a dare forma alla stesura del codice.

L'UE mira a creare un precedente per lo sviluppo, l'implementazione e la gestione responsabili di modelli di IA generici entro aprile 2025, sottolineando la minimizzazione dei rischi e la massimizzazione dei benefici sociali. Con l'evoluzione del panorama globale dell'IA, è probabile che questo sforzo influenzi le politiche di IA in tutto il mondo, con un numero sempre maggiore di paesi che si rivolgono all'UE per una guida sulla regolamentazione delle tecnologie emergenti.