Дослідницька організація штучного інтелекту OpenAI представила свою архітектуру дослідницької інфраструктури, призначену для безпечного навчання розширених моделей ШІ.

OpenAI керує найбільшим навчальним суперкомп’ютером зі штучним інтелектом, зосереджуючись на розширенні меж досліджень штучного інтелекту, водночас віддаючи пріоритет безпеці. Основною метою цих інфраструктур є захист конфіденційних активів, таких як ваги моделей і алгоритми.

Щоб виконати цю місію, його архітектура містить різні важливі елементи безпеки. Вони включають основу ідентифікації, яка використовує Azure Entra ID для автентифікації та керування авторизацією, забезпечення перевірки ризиків і виявлення ненормального входу під час створення сеансу. Водночас архітектура Kubernetes використовується для керування навантаженнями на інфраструктуру та захисту дослідницького середовища за допомогою RBAC (ролевого контролю доступу) та політик контролера доступу. 

Зосередження на зберіганні конфіденційних даних передбачає захист облікових даних та іншої конфіденційної інформації за допомогою служб керування ключами, надання доступу лише авторизованим робочим навантаженням і користувачам. Крім того, Identity and Access Management (IAM) для дослідників і розробників дотримується стратегії доступу з «найменшими привілеями», керуючи внутрішньою авторизацією через службу AccessManager і використовуючи багатосторонній механізм затвердження для контролю доступу до конфіденційних ресурсів. Нарешті, доступ до конвеєрів безперервної інтеграції (CI) і безперервної доставки (CD) суворо контролюється для підтримки узгодженості та безпеки конфігурації коду інфраструктури.

Компанія також запровадила різні рівні засобів контролю безпеки, щоб зменшити ризик крадіжки ваги моделі, залучивши як внутрішні, так і зовнішні групи досліджень і розробників для ретельного тестування заходів безпеки. Крім того, OpenAI активно досліджує стандарти безпеки та відповідності, розроблені спеціально для систем штучного інтелекту, щоб вирішити унікальні проблеми, пов’язані із захистом технології штучного інтелекту.

OpenAI засновує Комітет із безпеки для нагляду за розробкою ШІ

OpenAI постійно прагне посилювати заходи безпеки, які відповідають його місії.

Нещодавно OpenAI оголосила про створення свого Комітету з безпеки та захисту через свою Раду директорів. Цьому комітету доручено контролювати та керувати траєкторією розвитку ШІ, особливо зосереджуючись на заходах безпеки та безпеки. Його обов’язки включають оцінку та вдосконалення протоколів і захисних заходів OpenAI, а також формулювання додаткових рекомендацій для підтримки протоколів безпеки та захисту.

Повідомлення OpenAI представляє архітектуру дослідницької інфраструктури для безпечного навчання вдосконалених моделей штучного інтелекту вперше з’явилося на Metaverse Post.