Secondo Cointelegraph, il governatore della California Gavin Newsom ha posto il veto a una controversa proposta di legge sull'intelligenza artificiale (IA), sostenendo che ostacolerebbe l'innovazione e non riuscirebbe ad affrontare le reali minacce poste dalla tecnologia. La proposta di legge, SB 1047, nota come Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, è stata posta il veto il 30 settembre dopo una significativa opposizione da parte della Silicon Valley. La legislazione proposta mirava a rendere obbligatori i test di sicurezza dei modelli di IA e a implementare altre barriere di protezione, che le aziende tecnologiche temevano avrebbero soffocato l'innovazione.

In una dichiarazione del 29 settembre, Newsom ha criticato il disegno di legge perché si concentra troppo sulla regolamentazione delle principali aziende di intelligenza artificiale esistenti senza proteggere adeguatamente il pubblico dalle minacce reali poste dalle nuove tecnologie. Ha sostenuto che il disegno di legge applicava standard rigorosi anche alle funzioni più basilari dei grandi sistemi, il che non riteneva fosse l'approccio migliore per salvaguardare il pubblico.

Il disegno di legge, redatto dal senatore democratico di San Francisco Scott Wiener, avrebbe richiesto agli sviluppatori in California, tra cui grandi aziende come OpenAI, Meta e Google, di implementare un "kill switch" per i loro modelli di intelligenza artificiale e pubblicare piani per mitigare i rischi estremi. Inoltre, gli sviluppatori di intelligenza artificiale sarebbero stati passibili di citazione in giudizio da parte del procuratore generale dello Stato in caso di una minaccia in corso da parte di modelli come un'acquisizione della griglia di intelligenza artificiale.

Newsom ha dichiarato di essersi consultato con i principali esperti di sicurezza dell'IA per aiutare la California a sviluppare delle protezioni praticabili che si concentrino sulla creazione di un'analisi della traiettoria basata sulla scienza. Ha anche ordinato alle agenzie statali di ampliare la loro valutazione dei rischi derivanti da potenziali eventi catastrofici derivanti dallo sviluppo dell'IA. Nonostante il veto alla SB 1047, Newsom ha sottolineato la necessità di adeguati protocolli di sicurezza per l'IA e ha sottolineato che gli enti regolatori non possono aspettare una catastrofe importante prima di agire per proteggere il pubblico.

Il disegno di legge ha incontrato una forte opposizione da parte di legislatori, consulenti e grandi aziende tecnologiche. La Speaker della Camera Nancy Pelosi e aziende come OpenAI hanno sostenuto che avrebbe ostacolato significativamente la crescita dell'IA. Neil Chilson, responsabile delle politiche sull'IA presso l'Abundance Institute, ha avvertito che, sebbene il disegno di legge mirasse principalmente a modelli che costano più di 100 milioni di dollari, il suo ambito potrebbe essere facilmente ampliato per interessare anche gli sviluppatori più piccoli.

Tuttavia, alcuni leader della tecnologia hanno sostenuto il disegno di legge. Il miliardario Elon Musk, che sta sviluppando il suo modello di intelligenza artificiale chiamato "Grok", è stato tra i pochi a favore del disegno di legge e delle più ampie normative sull'intelligenza artificiale. In un post del 26 agosto su X, Musk ha affermato che "la California dovrebbe probabilmente approvare il disegno di legge sulla sicurezza dell'intelligenza artificiale SB 1047", ma ha riconosciuto che sostenere il disegno di legge era una "decisione difficile".