Noticias de ChainCatcher, según TheVerge, OpenAI y Anthropic acordaron abrir el acceso a nuevos modelos de IA al gobierno de EE. UU. para ayudar a mejorar la seguridad de los modelos. Las dos empresas firmaron un memorando de entendimiento con el Instituto de Seguridad de IA de EE. UU. para permitir que el gobierno de EE. UU. evalúe los riesgos de seguridad y mitigue posibles problemas. El Instituto de Seguridad de IA de EE. UU. dijo que trabajaría con su homólogo del Reino Unido para brindar comentarios sobre las mejoras de seguridad.

Se informa que California aprobó recientemente la "Ley de Innovación en Seguridad del Modelo de Inteligencia Artificial Fronteriza" (SB 1047), que requiere que las empresas de inteligencia artificial tomen medidas de seguridad específicas antes de entrenar modelos básicos avanzados. Sin embargo, el proyecto de ley ha provocado la oposición de empresas como OpenAI y Anthropic. Se cree que esta medida puede resultar perjudicial para los pequeños desarrolladores de código abierto.