Un proyecto de ley de California que exige que los desarrolladores de inteligencia artificial establezcan protocolos de seguridad para detener “daños críticos” contra la humanidad ha causado revuelo entre la comunidad tecnológica de Silicon Valley.

La “Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera” de California, también conocida como SB 1047, requeriría que los desarrolladores de IA implementen protocolos de seguridad para prevenir eventos como víctimas masivas o ciberataques importantes.

Fue propuesto por los legisladores demócratas de California en febrero.

Las regulaciones propuestas también exigen un botón de “parada de emergencia” para los modelos de IA, requieren auditorías anuales de terceros sobre las prácticas de seguridad de la IA, crean una nueva División de Modelos Fronterizos (FMD) para supervisar el cumplimiento e imponen fuertes sanciones por las infracciones.

Sin embargo, ha habido oposición por parte del Congreso, y el congresista estadounidense Ro Khanna publicó una declaración oponiéndose a la SB 1047 el 13 de agosto, expresando su preocupación de que “el proyecto de ley tal como está redactado actualmente sería ineficaz, castigaría a los empresarios individuales y a las pequeñas empresas y dañaría el espíritu de innovación de California”.

Khanna, que representa a Silicon Valley, reconoció la necesidad de una legislación sobre inteligencia artificial “para proteger a los trabajadores y abordar posibles riesgos, incluida la desinformación, las falsificaciones profundas y un aumento en la disparidad de riqueza”.

El proyecto de ley también ha encontrado oposición en Silicon Valley, con empresas de capital de riesgo como Andreessen Horowitz argumentando que supondrá una carga para las empresas emergentes y sofocará la innovación.

El 2 de agosto, el director jurídico de a16z, Jaikumar Ramaswamy, envió una carta al senador Scott Wiener, uno de los creadores del proyecto de ley, afirmando que “supondrá una carga para las empresas emergentes debido a sus umbrales arbitrarios y cambiantes”.

También ha habido resistencia por parte de destacados investigadores de la industria, como Fei-Fei Li y Andrew Ng, quienes creen que dañará el ecosistema de IA y el desarrollo de código abierto.

El 6 de agosto, el científico informático Li le dijo a Fortune:

“Si se aprueba como ley, la SB-1047 dañará nuestro incipiente ecosistema de inteligencia artificial, especialmente las partes del mismo que ya están en desventaja frente a los gigantes tecnológicos actuales: el sector público, el mundo académico y las ‘pequeñas empresas tecnológicas’”.

Relacionado: Los reguladores se equivocan en sus esfuerzos por restringir la IA de código abierto

Mientras tanto, las grandes empresas tecnológicas afirman que la regulación excesiva de la IA restringirá la libertad de expresión y podría expulsar la innovación tecnológica de California.

El científico jefe de IA de Meta, Yann LeCun, dijo que la legislación dañaría los esfuerzos de investigación y afirmó que “regular la I+D tendría consecuencias apocalípticas en el ecosistema de IA” en una publicación en X en junio.

El proyecto de ley fue aprobado por el Senado con apoyo bipartidista en mayo y ahora se dirige a la Asamblea, donde debe aprobarse antes del 31 de agosto.

Revista: La IA ya podría consumir más energía que Bitcoin y amenaza la minería de Bitcoin