Кілька нинішніх і колишніх співробітників OpenAI і Google DeepMind звинуватили свої компанії в приховуванні ризиків штучного інтелекту, які потенційно можуть призвести до вимирання людства. У відкритому листі працівники стверджували, що фірми ШІ ставлять на перше місце прибуток, уникаючи «ефективного [державного] нагляду».

Читайте також: OpenAI виробляє наступника GPT-4 через проблеми з безпекою

Відкритий лист підписали 11 колишніх співробітників OpenAI, двоє з Google DeepMind, і схвалив «хрещений батько ШІ» Джеффрі Хінтон, колишній співробітник Google. Зазначається, що мотиви отримання прибутку та лазівки в законодавстві дозволяють компаніям приховувати загрози, створені передовим штучним інтелектом.

ШІ може призвести до «вимирання людства»

Згідно з листом, компанії зі штучного інтелекту, такі як OpenAI і Google DeepMind, творець Gemini, не ділилися публічно інформацією про неадекватні гарантії та рівні ризику своїх систем, оскільки вони не зобов’язані це робити.

Без регуляторного нагляду програми ШІ можуть завдати серйозної шкоди людям. Працівники попередили:

«Ці ризики варіюються від подальшого закріплення існуючої нерівності… до втрати контролю над автономними системами ШІ, що потенційно може призвести до вимирання людства».

Як зазначають підписанти листа, фірми ШІ самі визнали ці ризики. У травні 2023 року генеральні директори OpenAI, Anthropic і Google DeepMind підписали відкритий лист Центру безпеки ШІ. У листі просто говорилося: «Зменшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Компанії зі штучним інтелектом все частіше потрапляють під пильну увагу через те, що вони ставлять нові продукти та прибуток над безпекою. Розробник ChatGPT OpenAI звернув увагу на занепокоєння, висловлене в листі, і заявив, що працює над розробкою безпечного штучного інтелекту.

«Ми пишаємося тим, що ми пропонуємо найпотужніший і найбезпечніший штучний інтелект. систем і вірять у наш науковий підхід до вирішення проблем», — сказала прес-секретар OpenAI Ліндсі Хелд New York Times.

«Ми згодні з тим, що ретельне обговорення має вирішальне значення, враховуючи важливість цієї технології, і ми продовжуватимемо співпрацювати з урядами, громадянським суспільством та іншими спільнотами по всьому світу».

Викривачі бояться помсти

Колишні співробітники OpenAI і Google сказали, що вони хотіли б виконувати роль нагляду, поки регулятори розроблятимуть закони, які зобов’язують розробників ШІ публічно розкривати більше інформації про свої програми.

Однак угоди про конфіденційність та ймовірність помсти з боку роботодавців не дозволяють працівникам публічно висловлювати свої занепокоєння. За листом:

«Дехто з нас обґрунтовано побоюється різних форм помсти, враховуючи історію таких випадків у всій галузі. Ми не перші, хто стикається з цими проблемами або говорить про них».

Викривачі захищені законом у США, але ті, хто відкрито говорить про небезпеку штучного інтелекту, не охоплені, оскільки ця технологія ще не регулюється.

Читайте також: ChatGPT досі поширює брехню, каже EU Data Watchdog

У листі міститься заклик до компаній, що займаються штучним інтелектом, сприяти анонімному зворотному зв’язку, підтримувати культуру відкритої критики та не мстити інформаторам.

Дослідник штучного інтелекту Ленс Б. Еліот сказав, що фірми дотримуються батога й пряника до критики. Співробітники, які не виступають проти ризиків, винагороджуються просуванням по службі та підвищенням зарплати.

З іншого боку, викривачі та критики втрачають свої опціони на акції та можуть бути вигнані з компанії та мовчки занесені до чорного списку спільнотою керівництва ШІ.

Cryptopolitan Reporting Джеффрі Гого