YEREVAN (CoinChapter.com) — El 30 de septiembre, el gobernador de California, Gavin Newsom, vetó la SB 1047, un proyecto de ley de seguridad de la IA ampliamente debatido. El proyecto de ley, llamado Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, enfrentó una oposición significativa de las principales empresas tecnológicas de Silicon Valley. Newsom argumentó que las regulaciones del proyecto de ley impondrían restricciones innecesarias al desarrollo de la IA en California, lo que podría perjudicar la innovación.

En una declaración del 29 de septiembre, Newsom explicó que, si bien el proyecto de ley tenía buenas intenciones, se centraba demasiado en regular las empresas de inteligencia artificial existentes. Señaló que el proyecto de ley no abordaba los riesgos reales que planteaban las tecnologías de inteligencia artificial en evolución y, en cambio, imponía restricciones innecesarias incluso a las funciones básicas de inteligencia artificial.

Anuncio de la estrategia de seguridad de la IA de California. Fuente: Oficina del gobernador Newsom Las empresas tecnológicas se resisten a las estrictas regulaciones de la IA

La SB 1047 propuso pruebas de seguridad obligatorias para los modelos de IA y exigió a los desarrolladores, incluidos OpenAI, Meta y Google, que implementaran un “interruptor de apagado” para sus sistemas de IA. Esta medida tenía como objetivo desactivar los modelos de IA en caso de riesgos extremos. El proyecto de ley también establecía que los desarrolladores de IA podrían enfrentar acciones legales por parte del fiscal general del estado si sus modelos representaban una amenaza, como tomar el control de una infraestructura crítica.

El proyecto de ley apuntaba a modelos de IA a gran escala con costos de desarrollo superiores a los 100 millones de dólares, lo que generó inquietud entre los expertos del sector. Neil Chilson, director de políticas de IA en el Abundance Institute, advirtió que el alcance del proyecto de ley podría eventualmente ampliarse para cubrir también a los desarrolladores más pequeños.

El gobernador Newsom mencionó que había consultado con expertos en seguridad de IA y enfatizó la necesidad de “barreras de seguridad viables” basadas en análisis científicos. Ordenó a las agencias estatales que sigan evaluando los riesgos potenciales que plantean los modelos avanzados de IA.

Proyecto de ley de seguridad de la inteligencia artificial de California: reacciones de legisladores y líderes tecnológicos

Varios legisladores, incluida la expresidenta de la Cámara de Representantes Nancy Pelosi, se opusieron a la SB 1047, el proyecto de ley de seguridad de la IA de California. Argumentaron que el proyecto de ley obstaculizaría la innovación en IA, que es crucial para la economía de California. Las principales empresas tecnológicas también expresaron su preocupación por que el proyecto de ley limitaría el desarrollo y el crecimiento de la IA.

Por el contrario, Elon Musk apoyó el proyecto de ley y una regulación más amplia de la IA. El 26 de agosto, Musk publicó en X que

“California probablemente debería aprobar el proyecto de ley SB 1047 sobre seguridad de la IA”,

Aunque reconoció que fue una decisión difícil.

Elon Musk apoya el proyecto de ley SB 1047 sobre inteligencia artificial. Fuente: X

A pesar de su veto, Newsom enfatizó la importancia de adoptar fuertes medidas de seguridad para la IA, citando que su administración había aprobado más de 18 proyectos de ley relacionados con la IA en los últimos 30 días.

El gobernador de California veta el proyecto de ley de seguridad de la inteligencia artificial en medio de la controversia apareció primero en CoinChapter.