За даними Cointelegraph, компанії зі штучного інтелекту OpenAI і Anthropic погодилися надати Інституту безпеки ШІ США ранній доступ до будь-яких значущих нових моделей ШІ, розроблених їхніми відповідними компаніями. Ця угода, зумовлена ​​взаємною турботою про безпеку, залишає точну роль уряду у випадку значного технологічного прориву дещо неоднозначною.

Генеральний директор і співзасновник OpenAI Сем Альтман підкреслив важливість цієї угоди в нещодавній публікації на платформі соціальних мереж X, заявивши: «Ми раді досягнути угоди з Інститутом безпеки ШІ США щодо попереднього тестування наших майбутніх моделей. З багатьох причин ми вважаємо важливим, щоб це відбувалося на національному рівні. США повинні продовжувати лідирувати!»

І OpenAI, і Anthropic зосереджені на розробці штучного загального інтелекту (AGI), форми ШІ, здатної виконувати будь-яке завдання, яке може виконати людина, за наявності необхідних ресурсів. Кожна компанія має власний статут і місію, спрямовану на безпечне створення AGI з інтересами людства в основі. Якщо будь-яка компанія досягне успіху, вони стануть ключовими охоронцями цієї передової технології. Погоджуючись поділитися своїми моделями з урядом США перед запуском будь-якого продукту, обидві компанії фактично передали частину відповідальності федеральним органам влади.

Як нещодавно повідомляв Cointelegraph, OpenAI, можливо, наближається до прориву завдяки своїм проектам «Полуниця» та «Оріон», які, як кажуть, мають розширені можливості міркування та нові методи вирішення проблеми галюцинацій ШІ. Повідомляється, що уряд США вже переглянув ці інструменти та ранні ітерації ChatGPT, які включають їх.

Повідомлення в блозі Національного інституту стандартів і технологій США вказує на те, що інструкції з безпеки, пов’язані з цією угодою, є добровільними для компаній-учасниць. Прихильники цього легкого підходу до регулювання стверджують, що він заохочує зростання та дозволяє сектору саморегулюватися. Прихильники, включаючи Альтмана, розглядають цю угоду як модель того, як співпраця між урядом і корпоративним сектором може бути взаємовигідною.

Однак існує занепокоєння щодо можливого браку прозорості, пов’язаного з регулюванням легким дотиком. Якщо OpenAI або Anthropic досягнуть своїх цілей AGI, а уряд вирішить, що громадськість не потребує інформування, юридичних вимог щодо розголошення, здається, не буде.