ChainCatcher news, selon TheVerge, OpenAI et Anthropic ont convenu d'ouvrir l'accès aux nouveaux modèles d'IA au gouvernement américain pour aider à améliorer la sécurité des modèles. Les deux sociétés ont signé un protocole d'accord avec l'AI Security Institute des États-Unis pour permettre au gouvernement américain d'évaluer les risques de sécurité et d'atténuer les problèmes potentiels. L'AI Safety Institute des États-Unis a déclaré qu'il travaillerait avec son homologue britannique pour fournir des commentaires sur les améliorations en matière de sécurité.
Il est rapporté que la Californie a récemment adopté la « Frontier Artificial Intelligence Model Security Innovation Act » (SB 1047), qui oblige les entreprises d'IA à prendre des mesures de sécurité spécifiques avant de former des modèles de base avancés. Cependant, le projet de loi a suscité l'opposition d'entreprises telles qu'OpenAI et Anthropic. On pense que cette décision pourrait être préjudiciable aux petits développeurs open source.