PANews informó el 29 de agosto que, según The Verge, OpenAI y Anthropic acordaron compartir sus principales nuevos modelos de IA con el gobierno de EE. UU. antes de su lanzamiento para ayudar a mejorar la seguridad del modelo. Las dos empresas firmaron un memorando de entendimiento con el Instituto de Seguridad de IA de EE. UU. para brindar acceso al modelo antes y después de su lanzamiento, de modo que el gobierno pueda evaluar los riesgos de seguridad y mitigar problemas potenciales.

Además, la Asamblea del Estado de California aprobó recientemente la Ley de Innovación en Seguridad del Modelo de Inteligencia Artificial Frontier (SB 1047), que exige que las empresas de inteligencia artificial tomen medidas de seguridad específicas antes de entrenar modelos básicos avanzados. Sin embargo, el proyecto de ley ha provocado la oposición de empresas como OpenAI y Anthropic. , argumentando que la medida podría ser perjudicial para los pequeños desarrolladores de código abierto.