Notícias do ChainCatcher, de acordo com TheVerge, OpenAI e Anthropic concordaram em abrir o acesso a novos modelos de IA ao governo dos EUA para ajudar a melhorar a segurança do modelo. As duas empresas assinaram um memorando de entendimento com o Instituto de Segurança de IA dos EUA para permitir que o governo dos EUA avalie os riscos de segurança e mitigue possíveis problemas. O AI Safety Institute dos EUA disse que trabalharia com o seu homólogo do Reino Unido para fornecer feedback sobre melhorias de segurança.

É relatado que a Califórnia aprovou recentemente a "Lei de Inovação de Segurança do Modelo de Inteligência Artificial de Fronteira" (SB 1047), que exige que as empresas de IA tomem medidas de segurança específicas antes de treinar modelos básicos avançados. No entanto, o projeto de lei gerou oposição de empresas como OpenAI e Anthropic. Acredita-se que esta mudança pode ser prejudicial para pequenos desenvolvedores de código aberto.