Компанії штучного інтелекту OpenAI і Anthropic нещодавно погодилися надати Інституту безпеки штучного інтелекту США ранній доступ до будь-яких «важливих» нових моделей ШІ, які вони розробляють, повідомляє Cointelegraph.

Хоча угоду нібито було підписано через спільні міркування щодо безпеки, незрозуміло, якою буде конкретна роль уряду, коли технологічні прориви матимуть значні наслідки для безпеки.

Генеральний директор і співзасновник OpenAI Сем Альтман заявив на платформі соціальних мереж X, що угода є необхідним кроком і наголосив на необхідності Сполучених Штатів продовжувати лідирувати на національному рівні.

І OpenAI, і Anthropic прагнуть розробити штучний загальний інтелект (AGI), який є штучним інтелектом, який може виконувати будь-яке завдання за допомогою людських ресурсів. Кожна компанія має власний статут і місію щодо безпечного створення AGI з користю для людини в основі.

Підписуючи угоду з урядом США про розголошення своїх моделей до випуску продукту, компанії передають цю відповідальність федеральному уряду.

OpenAI може бути на порозі прориву, оскільки його проекти «Полуниця» та «Оріон» нібито здатні розширено міркувати та вирішувати проблеми галюцинацій у ШІ, повідомляє Cointelegraph. Уряд США вже бачив ці інструменти та їхні ранні внутрішні ітерації в ChatGPT.

Повідомлення в блозі Національного інституту стандартів і технологій вказує на те, що угода та пов’язані з нею інструкції з безпеки є добровільними для компаній-учасниць. Прихильники стверджують, що таке легке регулювання сприяє зростанню та дозволяє галузі регулювати себе.

Однак однією з потенційних проблем регулювання легкого дотику є відсутність прозорості. Якщо OpenAI або Anthropic досягнуть успіху, законодавчо не вимагається розголошувати це, якщо уряд вирішить, що громадськості не потрібно знати.