Autor: Tom Mitchelhill, CoinTelegraph; Compilador: Tao Zhu, Golden Finance;

El gobernador de California, Gavin Newsom, vetó un controvertido proyecto de ley sobre inteligencia artificial (IA), argumentando que obstaculizaría la innovación y no protegería al público de las amenazas "reales" que plantea la tecnología.

El 30 de septiembre, Newsom vetó la SB 1047, la Ley de Innovación Segura para Modelos de Inteligencia Artificial Fronteriza, que enfrentó una fuerte oposición de Silicon Valley.

El proyecto de ley propone pruebas de seguridad obligatorias de los modelos de inteligencia artificial y otras barreras de seguridad, que las empresas de tecnología temen que puedan sofocar la innovación.

Newsom dijo en un comunicado del 29 de septiembre que el proyecto de ley se centra demasiado en regular las principales empresas de inteligencia artificial existentes y no protege al público de las amenazas "reales" que plantean las nuevas tecnologías.

"En cambio, el proyecto de ley impone estándares estrictos incluso en la funcionalidad más básica, siempre y cuando los sistemas grandes la implementen. No creo que esa sea la mejor manera de proteger al público de las amenazas reales que plantea la tecnología".

La SB 1047, escrita por el senador Scott Wiener, demócrata por San Francisco, también requiere que los desarrolladores en California, incluidos grandes nombres como el fabricante de ChatGPT OpenAI, Meta y Google, implementen "interruptores de apagado" para sus modelos de IA y publiquen planes para mitigar riesgos extremos. .

Si se promulga el proyecto de ley, los desarrolladores de IA probablemente también serían demandados por los fiscales generales estatales en medio de amenazas constantes de modelos como las adquisiciones de redes de IA.

Newsom dijo que ha pedido a los principales expertos en seguridad de IA del mundo que ayuden a California a "desarrollar barreras de seguridad procesables", centrándose en la creación de "análisis de trayectorias basados ​​en la ciencia". Añadió que ha ordenado a las agencias estatales que amplíen su evaluación del riesgo de eventos catastróficos que podrían surgir de los desarrollos de la IA.

Aunque Newsom vetó la SB 1047, dijo que deben existir protocolos de seguridad adecuados para la inteligencia artificial, y agregó que los reguladores no pueden "esperar hasta que ocurra un desastre importante para tomar medidas para proteger al público".

Newsom añadió que su administración ha firmado más de 18 proyectos de ley que regulan la inteligencia artificial en los últimos 30 días.

Los políticos y las grandes empresas tecnológicas se oponen al proyecto de ley de seguridad de la IA

Antes de la decisión de Newsom, el proyecto de ley era impopular entre legisladores, asesores y grandes empresas tecnológicas.

La presidenta de la Cámara de Representantes, Nancy Pelosi, y empresas como OpenAI dicen que esto obstaculizará gravemente el desarrollo de la inteligencia artificial.

Neil Chilson, jefe de políticas de IA en el Abundance Institute, advirtió que si bien el proyecto de ley se centra en modelos de cierto costo y escala (modelos que cuestan más de 100 millones de dólares), su alcance podría ampliarse fácilmente para afectar a los desarrolladores más pequeños.

Pero algunos están abiertos a la factura. El multimillonario Elon Musk, que está desarrollando su propio modelo de inteligencia artificial llamado "Grok", es uno de los pocos líderes tecnológicos que respalda el proyecto de ley y las regulaciones más amplias de IA.

En una publicación del 26 de agosto en