29 sierpnia PANews poinformowało, że według The Verge OpenAI i Anthropic zgodziły się udostępnić rządowi USA swoje główne nowe modele sztucznej inteligencji przed ich publikacją, aby pomóc poprawić bezpieczeństwo modeli. Obie firmy podpisały protokół ustaleń z amerykańskim Instytutem Bezpieczeństwa AI, aby zapewnić dostęp do modelu przed jego publikacją i po jego opublikowaniu, aby rząd mógł ocenić zagrożenia dla bezpieczeństwa i złagodzić potencjalne problemy.

Ponadto Zgromadzenie Stanowe Kalifornii uchwaliło niedawno ustawę Frontier Artificial Intelligence Model Security Innovation Act (SB 1047), która nakłada na firmy zajmujące się sztuczną inteligencją obowiązek podjęcia określonych środków bezpieczeństwa przed szkoleniem zaawansowanych podstawowych modeli. Jednak ustawa wywołała sprzeciw ze strony firm, w tym OpenAI i Anthropic , argumentując, że posunięcie to może być szkodliwe dla małych twórców oprogramowania open source.