TLDR:
Вчені з ШІ попереджають про можливі катастрофічні наслідки, якщо люди втратять контроль над ШІ
Глобальна система нагляду та плани на випадок надзвичайних ситуацій закликають запобігти ризикам ШІ
Запропоновано три ключові процеси: готовність до надзвичайних ситуацій, забезпечення безпеки та незалежне дослідження
Заяву підписали понад 30 експертів з різних країн
Висловлено занепокоєння щодо відсутності наукового обміну між наддержавами щодо загроз ШІ
Експерти зі штучного інтелекту (ШІ) з усього світу попередили про потенційні ризики, пов’язані з передовими системами ШІ.
У заяві, опублікованій 16 вересня 2024 року, понад 30 вчених із різних країн, у тому числі Сполучених Штатів, Канади, Китаю та Великої Британії, закликали до створення глобальної системи нагляду, щоб запобігти можливим «катастрофічним наслідкам», якщо люди втратити контроль над ШІ.
У заяві, яка ґрунтується на висновках Міжнародного діалогу з безпеки ШІ у Венеції, наголошується на необхідності міжнародної співпраці та управління розробкою ШІ.
Вчені стверджують, що безпеку штучного інтелекту слід визнати глобальним суспільним благом, яке вимагає колективних зусиль для усунення потенційних ризиків.
Однією з основних проблем, висвітлених у заяві, є можливість втрати людиною контролю над передовими системами ШІ або їх зловмисного використання. Експерти попереджають, що такі сценарії можуть призвести до жахливих наслідків для людства.
Вони вказують на те, що необхідна наука для контролю та захисту високорозвинених ШІ ще не розроблена, підкреслюючи терміновість вирішення цих проблем.
Щоб подолати ці проблеми, вчені пропонують три ключові процеси.
По-перше, вони закликають до створення угод та установ щодо готовності до надзвичайних ситуацій. Це залучатиме розвиток органів влади в кожній країні для виявлення та реагування на інциденти ШІ та катастрофічні ризики. Ці національні органи влади потім працюватимуть разом, щоб створити глобальний план дій у надзвичайних ситуаціях на випадок серйозних інцидентів, пов’язаних зі штучним інтелектом.
Другим запропонованим процесом є впровадження системи забезпечення безпеки. Це вимагатиме від розробників штучного інтелекту надати надійний обґрунтування безпеки перед розгортанням моделей із можливостями, що перевищують задані порогові значення. Структура також включатиме моніторинг після розгортання та незалежні аудити для забезпечення постійної безпеки.
Нарешті, експерти виступають за незалежні глобальні дослідження безпеки та перевірки ШІ. Це дослідження буде зосереджено на розробці методів ретельної перевірки заяв про безпеку, зроблених розробниками ШІ та, можливо, іншими країнами. Щоб забезпечити незалежність, дослідження проводитиметься в усьому світі та фінансуватиметься багатьма урядами та благодійниками.
Ця заява зроблена в той час, коли науковий обмін між наддержавами скорочується, а недовіра між Сполученими Штатами та Китаєм зростає. Вчені стверджують, що відсутність співпраці ускладнює досягнення консенсусу щодо загроз ШІ, ще більше підкреслюючи необхідність глобального діалогу та співпраці.
На початку вересня 2024 року Сполучені Штати, Європейський Союз і Велика Британія підписали перший у світі юридично обов’язковий міжнародний договір щодо ШІ. Ця угода надає пріоритет правам людини та підзвітності в регулюванні ШІ. Однак деякі технологічні корпорації та керівники висловлюють занепокоєння, що надмірне регулювання може придушити інновації, особливо в Європейському Союзі.
До групи експертів зі штучного інтелекту, які підписали заяву, входять дослідники з провідних установ та університетів зі штучного інтелекту, а також кілька лауреатів премії Тюрінга, яка вважається еквівалентом Нобелівської премії з обчислювальної техніки.
Їхній колективний досвід надає значної ваги висловленим у заяві занепокоєнням і рекомендаціям.
Повідомлення Захистіть людство від штучного інтелекту: експерти закликають до глобального контролю, щоб запобігти потенційній катастрофі ШІ, вперше з’явилося на Blockonomi.