Według wiadomości ChainCatcher, OpenAI i Anthropic zgodziły się udostępnić rządowi USA dostęp do nowych modeli sztucznej inteligencji, aby pomóc poprawić bezpieczeństwo modeli. Obie firmy podpisały protokół ustaleń z amerykańskim Instytutem Bezpieczeństwa AI, aby umożliwić rządowi USA ocenę zagrożeń dla bezpieczeństwa i złagodzenie potencjalnych problemów. Amerykański Instytut Bezpieczeństwa AI oświadczył, że będzie współpracował ze swoim brytyjskim odpowiednikiem w celu przekazania informacji zwrotnych na temat poprawy bezpieczeństwa.

Według doniesień Kalifornia przyjęła niedawno ustawę „Frontier Artificial Intelligence Model Security Innovation Act” (SB 1047), która nakłada na firmy zajmujące się sztuczną inteligencją obowiązek podjęcia określonych środków bezpieczeństwa przed szkoleniem zaawansowanych podstawowych modeli. Jednak ustawa wywołała sprzeciw ze strony takich firm, jak OpenAI i Anthropic Uważa się, że to posunięcie może być szkodliwe dla małych twórców oprogramowania open source.