OpenAI, los desarrolladores de ChatGPT, han apoyado un proyecto de ley de California para obligar a las empresas tecnológicas a etiquetar el contenido generado por IA. Esto responde a la preocupación del estado sobre cómo las falsificaciones profundas podrían afectar la confianza pública durante los períodos electorales. El proyecto de ley de transparencia de la inteligencia artificial, AB 3211, exige que los contenidos creados mediante IA tengan una “marca de agua”.
El proyecto de ley, que ya está siendo impulsado por Buffy Wicks, miembro de la Asamblea Estatal de California, ha ganado un impulso notable en la legislatura estatal. Fue aprobado por el Comité de Asignaciones Presupuestarias del Senado y recibió el apoyo unánime de la Asamblea estatal. Ahora que se dirige a una votación en el pleno del Senado, la AB 3211 sigue siendo una de las pocas leyes relacionadas con la IA que aún se encuentran bajo consideración este año en California.
Los legisladores de California impulsan nuevas medidas de rendición de cuentas sobre la IA
La iniciativa de impulsar la AB 3211 forma parte de un intento más amplio de la legislatura por regular la IA en California. Este año, los legisladores presentaron 65 proyectos de ley que abordan diferentes aspectos de la inteligencia artificial. Sin embargo, muchos de ellos han desaparecido, por lo que la AB 3211 sigue siendo un proyecto de ley importante en el debate en curso sobre el papel que debe desempeñar la IA en la sociedad.
OpenAI ha dado su apoyo a la legislación que subraya la importancia de la transparencia en lo que respecta al contenido generado por IA. El director de estrategia de OpenAI, Jason Kwon, escribió al miembro de la Asamblea Wicks en apoyo del proyecto de ley y enfatizó que se deben desarrollar nuevas tecnologías y estándares para permitir que las personas comprendan mejor de dónde proviene el contenido que encuentran. Admitió que se plantearon inquietudes durante los años de campaña electoral debido a la aparición de materiales creados por IA.
Reuters revisó la carta de Kwon, que decía que las nuevas tecnologías y estándares podrían ayudar a las personas a identificar la fuente del contenido en línea y evitar la confusión entre el contenido generado por humanos y el generado por IA.
Los legisladores de California abordan los desafíos de la regulación de la IA
Si bien la AB 3211 ha logrado algunos avances, otro proyecto de ley sobre IA en California, el SB 1047, ha encontrado una resistencia significativa por parte de actores de la industria tecnológica como OpenAI. Según muchos interesados en el sector de la IA, esta legislación sería demasiado onerosa. En un nivel más amplio, este es un punto de conflicto en el debate más amplio sobre cómo regular la IA y muestra cómo los legisladores están luchando por lograr un equilibrio entre la innovación y la seguridad pública.
A diferencia de la SB 1047, que ha generado mucha controversia, la AB 3211 tampoco es polémica, ya que se centra más en cuestiones de rendición de cuentas y transparencia. Los proyectos de ley tienen como objetivo abordar uno de los problemas más urgentes relacionados con la inteligencia artificial, que incluye la capacidad de los medios sintéticos de engañar a las personas al exigir que se etiqueten sus contenidos.
Si la AB 3211 es aprobada por el Senado antes del 31 de agosto, al final de la sesión legislativa, el gobernador Gavin Newsom la aprobará. El 30 de septiembre o antes, Newsom tendrá que firmarla o vetarla. Esta legislación convertiría a California en uno de los primeros estados en exigir este tipo de medidas de transparencia en relación con el contenido creado por inteligencia artificial, lo que sentaría un precedente para otros, a los que tal vez le siga una regulación federal.