O governador da Califórnia, Gavin Newsom, vetou um projeto de lei contencioso sobre inteligência artificial (IA), afirmando que ele sufocará a inovação e não protegerá o público das preocupações "reais" da tecnologia. Os defensores do projeto de lei observam que ele teria criado algumas das primeiras regulamentações nacionais sobre modelos de IA em larga escala e aberto as portas para leis nacionais de segurança de IA.
Em 30 de setembro, Newsom rejeitou o SB 1047, também conhecido como Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, após receber forte oposição do Vale do Silício. O projeto de lei recomendava testes de segurança obrigatórios para modelos de IA e outras salvaguardas, que os gigantes da tecnologia temiam que atrapalhassem a inovação.
Newsom argumentou que o projeto de lei se concentrava demais na regulamentação das principais corporações de IA existentes, ao mesmo tempo em que falhava em proteger o público dos perigos “reais” representados pela nova tecnologia.
Ele disse:
Em vez disso, o projeto de lei aplica padrões rigorosos até mesmo às funções mais básicas — desde que um grande sistema o implemente. Não acredito que essa seja a melhor abordagem para proteger o público de ameaças reais representadas pela tecnologia.
– Gavin Newsom
Senador critica veto e diz que é retrocesso para segurança pública
O senador estadual democrata, Scott Weiner, autor do projeto de lei, descreveu a rejeição como um revés para todos que acreditam na supervisão de grandes corporações que estão tomando decisões críticas que afetam a segurança pública, o bem-estar e o futuro do planeta.
O SB 1047 exigiria que desenvolvedores, incluindo grandes players como OpenAI, Meta e Google, implementassem um “kill switch” para seus modelos de inteligência artificial e desenvolvessem planos para mitigar riscos extremos. Além disso, o projeto de lei permitiria que o procurador-geral do estado processasse desenvolvedores de IA em casos em que seus modelos representassem ameaças contínuas, como uma aquisição de grade de inteligência artificial.
Este projeto de lei visava especificamente sistemas que custam mais de US$ 100 milhões para desenvolver e precisam de muito poder de processamento. Nenhum modelo atual de inteligência artificial atingiu esse limite, mas alguns especialistas disseram que isso pode mudar no próximo ano.
Newsom defende regulamentações de IA baseadas na ciência em meio à controvérsia do projeto de lei de segurança
Newsom declarou que havia consultado os principais especialistas em segurança de IA para ajudar a Califórnia a criar regulamentações eficazes que priorizassem uma análise baseada em ciência de riscos potenciais do desenvolvimento de IA. Ele enfatizou que sua administração continuaria a pressionar por protocolos de segurança robustos, insistindo que os reguladores não devem esperar por uma grande catástrofe para agir.
Apesar de vetar o SB 1047, Newsom destacou que seu governo assinou mais de 18 projetos de lei relacionados à regulamentação de IA no mês passado.
Antes da decisão de Newsom, o projeto de lei era impopular entre políticos, consultores e grandes empresas de tecnologia. A presidente da Câmara, Nancy Pelosi, e empresas como a OpenAI declararam que isso impediria muito o avanço da inteligência artificial.
O chefe de política de IA do Abundance Institute, Neil Chilson, alertou que, embora o projeto de lei tenha como alvo principal modelos que custam mais de US$ 100 milhões, seu escopo poderia ser facilmente expandido para reprimir também desenvolvedores menores.
No entanto, algumas pessoas estão abertas ao projeto de lei. O bilionário Elon Musk, que está construindo seu próprio modelo de inteligência artificial chamado “Grok”, é um dos poucos pesos pesados da tecnologia que apoiam a medida e leis de IA mais amplas. Em uma postagem de 26 de agosto no X, Musk afirmou que a Califórnia provavelmente deveria aprovar o projeto de lei de segurança de IA SB 1047, mas admitiu que apoiar o projeto de lei foi uma “decisão difícil”.