29 серпня PANews повідомило, що, як повідомляє The Verge, OpenAI і Anthropic домовилися поділитися своїми основними новими моделями штучного інтелекту з урядом США перед випуском, щоб допомогти покращити безпеку моделей. Дві компанії підписали меморандум про взаєморозуміння з Інститутом безпеки штучного інтелекту США щодо надання доступу до моделі до та після її випуску, щоб уряд міг оцінити ризики безпеки та пом’якшити потенційні проблеми.
Крім того, нещодавно Асамблея штату Каліфорнія прийняла Закон про інновації в галузі штучного інтелекту (SB 1047), який вимагає від компаній, що займаються штучним інтелектом, вживати певних заходів безпеки перед навчанням передових базових моделей. Однак цей законопроект викликав спротив з боку компаній, зокрема OpenAI і Anthropic ., стверджуючи, що цей крок може бути шкідливим для невеликих розробників з відкритим кодом.