Las cifras de la industria están divididas sobre un polémico proyecto de ley de inteligencia artificial de California que se aprobó el 28 de agosto.

La nueva legislación obligará a las empresas de IA a implementar nuevos protocolos de seguridad, incluido un botón de “parada de emergencia” para los modelos de IA.

La Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera (SB 1047) fue aprobada por el Senado de California por 29 votos a 9 el 28 de agosto.

El proyecto de ley pasa ahora al escritorio del gobernador Gavin Newson para su ratificación.

Elon Musk estuvo entre quienes expresaron su apoyo al proyecto de ley. En X, dijo que era una “decisión difícil”, pero que estaba a favor de la legislación debido al “riesgo potencial” de la IA.

Fuente: Elon Musk

Sin embargo, no todas las figuras del sector tecnológico están tan convencidas. El director de estrategia de OpenAI, Jason Kwon, se encuentra entre quienes han criticado la legislación.

Calanthia Mei, cofundadora de la red de inteligencia artificial descentralizada Masa, dijo que no estaba a favor de las nuevas reglas, sugiriendo que eran el resultado de una prisa indebida por legislar.

“Regulaciones prematuras como esta no solo expulsarán a los talentos de California, sino que también los expulsarán de Estados Unidos”, dijo Mei a Cointelegraph. Agregó:

“El riesgo radica en la probable posibilidad de que los marcos regulatorios actuales y propuestos por Estados Unidos limiten el crecimiento de la industria de la IA”.

Raheel Govindji, director ejecutivo del proyecto de inteligencia artificial descentralizada DecideAI, adoptó una opinión opuesta.

"Estamos a favor de la legislación", dijo Govindji a Cointelegraph.

Govindji dijo que DecideAI apoya un interruptor de seguridad controlado por una organización autónoma descentralizada (DAO), que es como proponen democratizar y descentralizar una parada de emergencia.

La IA es una industria que evoluciona rápidamente

La rápida evolución de la industria de la IA ha alimentado temores sobre su desarrollo sin restricciones.

En una carta del 22 de agosto, ex empleados y denunciantes de OpenAI advirtieron: “El desarrollo de modelos de IA de vanguardia sin las precauciones de seguridad adecuadas plantea riesgos previsibles de daños catastróficos para el público”.

Pero para otros, el rápido ritmo de desarrollo de la IA es algo que debe celebrarse en lugar de temerse.

Reciente: Soluciones sin problemas: ¿Cuántas capas 2 de Ethereum son demasiadas?

“A diferencia de otras tecnologías transformadoras, la velocidad de la innovación en IA no tiene paralelo. Los fabricantes lanzan nuevos productos, funciones y aplicaciones todos los días”, afirmó Mei.

“Nosotros, los constructores, ni siquiera sabemos dónde está el techo de la IA; ¿cómo podría saberlo el gobierno? Establecer límites para tecnologías de alto potencial es una imprudencia”.

Mei advirtió que el costo final de la legislación sería “expulsar el talento de Estados Unidos”, como “lo hizo con las criptomonedas”.

Los que están a favor

Govindji propone que un “interruptor de seguridad controlado por la DAO” podría respaldar los requisitos de la legislación y al mismo tiempo conservar “la toma de decisiones colectiva y transparente”.

El proyecto de ley establece que cualquier modelo de IA debería ser capaz de “efectuar rápidamente un apagado total”, pero no define el significado de “rápidamente”, lo que deja un margen considerable para la interpretación.

Por ahora, no se sabe si un modelo DAO y su sistema de votación democrática serían lo suficientemente rápidos para satisfacer a los legisladores. Govindji confía en que así será. Según Govindji, DecideAI “estará a la vanguardia en el suministro de IA que es un bien social”.

La empresa de inteligencia artificial Anthropic también ha apoyado públicamente el proyecto de ley.

En una carta abierta al gobernador Newsom, el director ejecutivo de Anthropic, Dario Amodei, dijo: “Los sistemas de IA están avanzando en capacidades extremadamente rápido, lo que ofrece una gran promesa para la economía de California y un riesgo sustancial [...] Creemos que la SB 1047, particularmente después de las enmiendas recientes, probablemente presente una carga de cumplimiento factible para empresas como la nuestra, a la luz de la importancia de evitar un mal uso catastrófico”.

Una versión anterior del proyecto de ley preveía sanciones penales para las empresas que no cumplieran con la normativa. Tras consultar con el sector, esta disposición se suavizó y se limitó a sanciones civiles.

Proyecto de ley SB 1047

El proyecto de ley SB 1047 solo se aplicará a los “modelos cubiertos”, y la definición de qué modelos están cubiertos cambiará con el tiempo.

En el momento de la implementación, un modelo cubierto será una IA cuyo desarrollo cueste más de 100 millones de dólares o “un modelo de inteligencia artificial entrenado utilizando una cantidad de potencia informática superior a 10^26 operaciones de números enteros o de punto flotante”.

La Agencia de Operaciones Gubernamentales del gobierno federal decidirá sobre cualquier cambio en el umbral de potencia informática.

Reciente: Cinco predicciones del mercado de criptomonedas que aún no se han cumplido

En una carta al gobernador Newsom, Kwon de OpenAI argumentó que la legislación sobre IA solo debería manejarse a nivel federal "en lugar de un mosaico de leyes estatales".

Dada la abrumadora concentración de empresas de tecnología e inteligencia artificial en California, se podría decir que la SB 1047 es la legislación nacional de facto por ahora.

La situación podría cambiar si la legislación provocara que las empresas de inteligencia artificial huyeran a otros estados, pero para evitar por completo la SB 1047, las empresas también tendrían que cesar todas las operaciones y servicios en California.