Știrile ChainCatcher, conform TheVerge, OpenAI și Anthropic au convenit să deschidă accesul la noi modele AI guvernului SUA pentru a ajuta la îmbunătățirea securității modelului. Cele două companii au semnat un memorandum de înțelegere cu U.S. AI Security Institute pentru a permite guvernului SUA să evalueze riscurile de securitate și să atenueze potențialele probleme. Institutul de Siguranță AI din SUA a declarat că va colabora cu omologul său din Marea Britanie pentru a oferi feedback cu privire la îmbunătățirile în materie de siguranță.

Se raportează că California a adoptat recent „Frontier Artificial Intelligence Model Security Innovation Act” (SB 1047), care impune companiilor AI să ia măsuri de securitate specifice înainte de a antrena modele de bază avansate Se crede că această mișcare poate fi dăunătoare pentru micii dezvoltatori open source.