Según Odaily, OpenAI y Anthropic han llegado a un acuerdo que permite al gobierno de Estados Unidos acceder a sus modelos de IA antes y después de su lanzamiento para mejorar las medidas de seguridad. El Instituto de Seguridad de la IA de Estados Unidos anunció el jueves que esta iniciativa tiene como objetivo evaluar los riesgos de seguridad y mitigar los problemas potenciales. Este avance se produce tras la reciente aprobación en California de la Ley de Innovación en Seguridad y Protección de Modelos de IA Frontier (SB 1047), que obliga a las empresas de IA a implementar medidas de seguridad. La legislación ha suscitado oposición dentro de la industria, con preocupaciones de que pueda afectar negativamente a los pequeños desarrolladores de código abierto.