Według Odaily, OpenAI i Anthropic osiągnęły porozumienie, które pozwala rządowi USA na dostęp do ich modeli AI przed i po ich wydaniu w celu zwiększenia środków bezpieczeństwa. US AI Safety Institute ogłosił w czwartek, że ta inicjatywa ma na celu ocenę ryzyka bezpieczeństwa i złagodzenie potencjalnych problemów. Rozwój ten następuje po niedawnym uchwaleniu przez Kalifornię Frontier AI Model Safety and Security Innovation Act (SB 1047), który nakłada na firmy AI obowiązek wdrożenia środków bezpieczeństwa. Ustawa wywołała sprzeciw w branży, z obawami, że może negatywnie wpłynąć na małych deweloperów open source.