I dati del settore sono divisi su un controverso disegno di legge californiano sull'intelligenza artificiale approvato il 28 agosto.

La nuova legislazione obbligherà le aziende di intelligenza artificiale a implementare nuovi protocolli di sicurezza, tra cui un pulsante di “arresto di emergenza” per i modelli di intelligenza artificiale.

Il Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047) è stato approvato dal Senato della California con 29 voti favorevoli e 9 contrari il 28 agosto.

Il disegno di legge ora passa alla scrivania del governatore Gavin Newson per la ratifica.

Elon Musk è stato tra coloro che hanno espresso sostegno al disegno di legge. Su X, ha detto che era una "decisione difficile", ma ha favorito la legislazione a causa del "rischio potenziale" dell'IA.

Fonte: Elon Musk

Tuttavia, non tutte le figure tecnologiche sono altrettanto convinte. Jason Kwon, responsabile della strategia di OpenAI, è tra coloro che hanno criticato la legislazione.

Calanthia Mei, co-fondatrice della rete di intelligenza artificiale decentralizzata Masa, ha affermato di non essere favorevole alle nuove regole, suggerendo che siano il risultato di un'eccessiva fretta di legiferare.

"Regolamentazioni premature come questa non solo allontaneranno i talenti dalla California, ma dall'America", ha detto Mei a Cointelegraph. Ha aggiunto:

“Il rischio risiede nella probabile possibilità che gli attuali quadri normativi americani e quelli proposti limitino la crescita del settore dell’intelligenza artificiale”.

Raheel Govindji, CEO del progetto di intelligenza artificiale decentralizzata DecideAI, ha espresso un parere contrastante.

"Siamo favorevoli alla legislazione", ha detto Govindji a Cointelegraph.

Govindji ha affermato che DecideAI supporta un killswitch controllato da un'organizzazione autonoma decentralizzata (DAO), che è il modo in cui si propone di democratizzare e decentralizzare un arresto di emergenza.

L'intelligenza artificiale è un settore in rapida evoluzione

La natura in rapida evoluzione del settore dell'intelligenza artificiale ha alimentato i timori circa il suo sviluppo incontrollato.

In una lettera del 22 agosto, ex dipendenti e informatori di OpenAI hanno avvertito: "Sviluppare modelli di intelligenza artificiale all'avanguardia senza adeguate precauzioni di sicurezza comporta rischi prevedibili di danni catastrofici per il pubblico".

Ma per altri, il rapido sviluppo dell'intelligenza artificiale è qualcosa da celebrare piuttosto che da temere.

Recenti: Soluzioni senza problemi: Quanti layer 2 di Ethereum sono troppi?

"A differenza di altre tecnologie trasformative, la velocità dell'innovazione AI è senza pari. I costruttori distribuiscono nuovi prodotti, funzionalità e applicazioni ogni giorno", ha affermato Mei.

"Noi costruttori non sappiamo nemmeno dove si trova il limite massimo dell'IA; come potrebbe il governo conoscerlo? Stabilire limiti per tecnologie ad alto potenziale è poco saggio".

Mei ha avvertito che il costo finale della legislazione sarebbe stato quello di “cacciare i talenti dagli Stati Uniti” come “è successo con le criptovalute”.

Quelli a favore

Govindji propone che un “killswitch controllato da DAO” potrebbe supportare i requisiti della legislazione mantenendo comunque “un processo decisionale collettivo e trasparente”.

Il disegno di legge afferma che qualsiasi modello di intelligenza artificiale dovrebbe essere in grado di “eseguire tempestivamente un arresto completo”, ma non riesce a definire il significato di “tempestivamente”, lasciando ampio spazio all’interpretazione.

Per ora, non si sa se un modello DAO e il suo sistema di voto democratico sarebbero abbastanza rapidi da soddisfare i legislatori. Govindji è sicuro che lo saranno. Secondo Govindji, DecideAI "sarà all'avanguardia nel fornire un'IA che sia un bene sociale".

Anche l'azienda di intelligenza artificiale Anthropic ha pubblicamente sostenuto il disegno di legge.

In una lettera aperta al governatore Newsom, il CEO di Anthropic Dario Amodei ha affermato: "I sistemi di intelligenza artificiale stanno avanzando in termini di capacità in modo estremamente rapido, il che offre sia grandi promesse per l'economia della California sia un rischio sostanziale [...] Riteniamo che la SB 1047, in particolare dopo i recenti emendamenti, probabilmente presenti un onere di conformità fattibile per aziende come la nostra, alla luce dell'importanza di evitare un uso improprio catastrofico".

Una versione precedente del disegno di legge prevedeva sanzioni penali per le aziende che non rispettavano le disposizioni. Dopo aver consultato il settore, questa disposizione è stata annacquata e ridotta a sole sanzioni civili.

Progetto di legge SB 1047

Il disegno di legge SB 1047 si applicherà solo ai “modelli coperti”, con la definizione di quali modelli sono coperti che cambia nel tempo.

Una volta implementato, un modello coperto sarà un'intelligenza artificiale il cui sviluppo costerà oltre 100 milioni di dollari o "un modello di intelligenza artificiale addestrato utilizzando una quantità di potenza di calcolo superiore a 10^26 operazioni intere o in virgola mobile".

La Government Operations Agency del governo federale giudicherà eventuali modifiche alla soglia di potenza di calcolo.

Recenti: Cinque previsioni sul mercato delle criptovalute che non si sono ancora avverate

In una lettera al governatore Newsom, Kwon di OpenAI ha sostenuto che la legislazione sull’intelligenza artificiale dovrebbe essere gestita solo a livello federale “piuttosto che come un mosaico di leggi statali”.

Data l'enorme concentrazione di aziende tecnologiche e di intelligenza artificiale in California, si potrebbe sostenere che la SB 1047 sia attualmente la legislazione nazionale de facto.

La situazione potrebbe cambiare se la legge costringesse le aziende di intelligenza artificiale a fuggire in altri stati, ma per evitare del tutto la SB 1047, le aziende dovrebbero anche cessare tutte le operazioni e i servizi in California.