Laut Odaily haben OpenAI und Anthropic eine Vereinbarung getroffen, die es der US-Regierung erlaubt, vor und nach der Veröffentlichung auf ihre KI-Modelle zuzugreifen, um die Sicherheitsmaßnahmen zu verbessern. Das US AI Safety Institute gab am Donnerstag bekannt, dass diese Initiative darauf abzielt, Sicherheitsrisiken zu bewerten und potenzielle Probleme zu mildern. Diese Entwicklung folgt auf die kürzliche Verabschiedung des Frontier AI Model Safety and Security Innovation Act (SB 1047) in Kalifornien, der KI-Unternehmen zur Umsetzung von Sicherheitsmaßnahmen verpflichtet. Das Gesetz hat innerhalb der Branche Widerstand ausgelöst, da befürchtet wird, dass es sich negativ auf kleine Open-Source-Entwickler auswirken könnte.