Potrivit lui Odaily, OpenAI și Anthropic au ajuns la un acord care să permită guvernului SUA să-și acceseze modelele AI înainte și după lansare pentru a îmbunătăți măsurile de siguranță. Institutul de Siguranță AI din SUA a anunțat joi că această inițiativă își propune să evalueze riscurile de siguranță și să atenueze potențialele probleme. Această dezvoltare urmează adoptarea recentă din California a Legii privind siguranța și inovarea în domeniul securității modelului Frontier AI (SB 1047), care obligă companiile AI să implementeze măsuri de siguranță. Legislația a stârnit opoziție în industrie, cu îngrijorarea că ar putea avea un impact negativ asupra dezvoltatorilor mici open-source.