ChainCatcher-Nachrichten zufolge haben OpenAI und Anthropic laut TheVerge vereinbart, der US-Regierung den Zugang zu neuen KI-Modellen zu öffnen, um zur Verbesserung der Modellsicherheit beizutragen. Die beiden Unternehmen haben eine Absichtserklärung mit dem US-amerikanischen AI Security Institute unterzeichnet, um der US-Regierung die Bewertung von Sicherheitsrisiken und die Eindämmung potenzieller Probleme zu ermöglichen. Das US-amerikanische AI ​​Safety Institute sagte, es werde mit seinem britischen Pendant zusammenarbeiten, um Feedback zu Sicherheitsverbesserungen zu geben.

Es wird berichtet, dass Kalifornien kürzlich den „Frontier Artificial Intelligence Model Security Innovation Act“ (SB 1047) verabschiedet hat, der KI-Unternehmen dazu verpflichtet, bestimmte Sicherheitsmaßnahmen zu ergreifen, bevor sie fortgeschrittene Basismodelle trainieren. Der Gesetzentwurf hat jedoch Widerstand von Unternehmen wie OpenAI und Anthropic ausgelöst Es wird angenommen, dass dieser Schritt für kleine Open-Source-Entwickler schädlich sein könnte.