Selon Odaily, OpenAI et Anthropic ont conclu un accord permettant au gouvernement américain d'accéder à leurs modèles d'IA avant et après leur publication afin de renforcer les mesures de sécurité. L'AI Safety Institute américain a annoncé jeudi que cette initiative vise à évaluer les risques de sécurité et à atténuer les problèmes potentiels. Cette évolution fait suite à l'adoption récente par la Californie du Frontier AI Model Safety and Security Innovation Act (SB 1047), qui oblige les entreprises d'IA à mettre en œuvre des mesures de sécurité. La législation a suscité une opposition au sein de l'industrie, qui craint qu'elle n'ait un impact négatif sur les petits développeurs open source.