Según Cointelegraph, el gobernador de California, Gavin Newsom, ha vetado un controvertido proyecto de ley sobre inteligencia artificial (IA), argumentando que obstaculizaría la innovación y no abordaría las amenazas reales que plantea la tecnología. El proyecto de ley, SB 1047, conocido como Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, fue vetado el 30 de septiembre tras una importante oposición de Silicon Valley. La legislación propuesta tenía como objetivo exigir pruebas de seguridad de los modelos de IA e implementar otras barreras de protección, que las empresas tecnológicas temían que sofocaran la innovación.

En una declaración del 29 de septiembre, Newsom criticó el proyecto de ley por centrarse demasiado en regular las principales empresas de inteligencia artificial existentes sin proteger adecuadamente al público de las amenazas reales que plantean las nuevas tecnologías. Sostuvo que el proyecto de ley aplicaba estándares estrictos incluso a las funciones más básicas de los grandes sistemas, lo que, en su opinión, no era la mejor estrategia para proteger al público.

El proyecto de ley, redactado por el senador demócrata de San Francisco Scott Wiener, habría exigido a los desarrolladores de California, incluidas grandes empresas como OpenAI, Meta y Google, que implementaran un "interruptor de apagado" para sus modelos de IA y publicaran planes para mitigar los riesgos extremos. Además, los desarrolladores de IA habrían estado expuestos a ser demandados por el fiscal general del estado en caso de una amenaza continua de los modelos, como una toma de control de la red de IA.

Newsom afirmó que había consultado con los principales expertos en seguridad de la IA para ayudar a California a desarrollar medidas de seguridad viables que se centren en la creación de un análisis de trayectoria basado en la ciencia. También ordenó a las agencias estatales que amplíen su evaluación de los riesgos de posibles eventos catastróficos derivados del desarrollo de la IA. A pesar de vetar la SB 1047, Newsom enfatizó la necesidad de protocolos de seguridad adecuados para la IA y destacó que los reguladores no pueden esperar a que ocurra una catástrofe importante antes de tomar medidas para proteger al público.

El proyecto de ley enfrentó una oposición significativa por parte de legisladores, asesores y grandes empresas tecnológicas. La presidenta de la Cámara de Representantes, Nancy Pelosi, y empresas como OpenAI argumentaron que obstaculizaría significativamente el crecimiento de la IA. Neil Chilson, director de políticas de IA en el Abundance Institute, advirtió que si bien el proyecto de ley apuntaba principalmente a modelos que cuestan más de 100 millones de dólares, su alcance podría ampliarse fácilmente para afectar también a los desarrolladores más pequeños.

Sin embargo, algunos líderes tecnológicos apoyaron el proyecto de ley. El multimillonario Elon Musk, que está desarrollando su propio modelo de IA llamado "Grok", fue uno de los pocos que estuvo a favor del proyecto de ley y de una regulación más amplia de la IA. En una publicación del 26 de agosto en X, Musk afirmó que "California probablemente debería aprobar el proyecto de ley de seguridad de la IA SB 1047", pero reconoció que apoyar el proyecto de ley era una "decisión difícil".