За даними Odaili, OpenAI і Anthropic досягли угоди, яка дозволяє уряду США отримувати доступ до їхніх моделей штучного інтелекту до та після їх випуску для посилення заходів безпеки. Інститут безпеки ШІ США оголосив у четвер, що ця ініціатива спрямована на оцінку ризиків безпеки та пом’якшення потенційних проблем. Ця подія сталася після того, як Каліфорнія нещодавно прийняла Закон про інновації в галузі безпеки та безпеки (SB 1047), який зобов’язує компанії, що займаються штучним інтелектом, впроваджувати заходи безпеки. Законодавство викликало опозицію в галузі з побоюваннями, що воно може негативно вплинути на невеликих розробників з відкритим кодом.