De acordo com o Odaily, a OpenAI e a Anthropic chegaram a um acordo permitindo que o governo dos EUA acesse seus modelos de IA antes e depois de seu lançamento para aprimorar as medidas de segurança. O US AI Safety Institute anunciou na quinta-feira que esta iniciativa visa avaliar riscos de segurança e mitigar problemas potenciais. Este desenvolvimento segue a recente aprovação da Califórnia do Frontier AI Model Safety and Security Innovation Act (SB 1047), que obriga as empresas de IA a implementar medidas de segurança. A legislação gerou oposição dentro da indústria, com preocupações de que possa impactar negativamente pequenos desenvolvedores de código aberto.