В останні кілька років моральні та практичні занепокоєння були зосереджені на ШІ через його величезний потенціал як для корисного, так і для шкідливого використання. Один із лідерів галузі, OpenAI, націлений на впровадження суворих інструкцій, щоб запобігти зловживанню своїми моделями ШІ.

Ця відданість особливо важлива для виявлення та запобігання таємним операціям впливу (IO), які є спробами вплинути на громадську думку чи вплинути на політичні результати без розкриття справжніх осіб або мотивів залучених сторін. За останні три місяці OpenAI втрутився в п’ять із цих заходів, підтверджуючи свою відданість зменшенню зловживання технологією ШІ.

Неочікувані збої в операціях таємного впливу останнім часом

30 травня 2024 року OpenAI увійшов в історію, оголосивши світові, що він успішно запобіг п’яти таким прихованим кампаніям впливу, які виходили з Ірану, Китаю, Росії та навіть ізраїльської приватної компанії. Підприємство опублікувало відкритий звіт із детальним описом копітких розслідувань, які викрили ці зловмисні дії, які мали на меті використання найсучасніших мовних моделей OpenAI для шахрайства в Інтернеті.

Генеральний директор OpenAI Сем Альтман підтвердив прагнення компанії створювати надійні та безпечні інтелектуальні програми. Він також заявив, що компанія прагне впроваджувати правила, які припиняють зловживання та підвищують відкритість інформації, створеної штучним інтелектом, з особливим акцентом на виявленні та впливі на діяльність прихованого впливу.

Спеціальна операція, яку аналітики OpenAI назвали «Bad Grammar», прийшла з Росії. Щоб змінити суспільне сприйняття, особи, що стоять за цією операцією, використовували ботів Telegram для запуску моделей OpenAI і створення коротких соціальних зауважень російською та англійською мовами. Потім ці коментарі опублікували у відомому додатку для чату.

Фото: публічний коментар у Telegram, який відповідає тексту, згенерованому цією мережею. Звіт Intel про загрозу

Інша організація під назвою «Doppelganger» прийняла більш міжнародну стратегію, використовуючи штучний інтелект OpenAI для створення відповідей різними мовами ЄС.

Дослідження також дозволило зрозуміти китайську систему, відому як «Spamouflage», яка використовувала моделі OpenAI для ряду програм, включаючи створення багатомовного матеріалу для таких сайтів, як X, Medium і Blogspot, а також дослідження публічних активність у соціальних мережах. Дослідники навіть використовували штучний інтелект OpenAI для налагодження бази даних і коду керування веб-сайтами, зокрема раніше нерозголошеного домену, який, можливо, викликає найбільше занепокоєння з усіх.

Фото: Скріншот веб-сайту discoverscum[.]com, де показано сторінку під назвою «汉奸» («зрадник»). Звіт Intel про загрози

«Міжнародний союз віртуальних медіа» (IUVM), іранська організація, яка використовувала AI OpenAI для створення та інтерпретації довгоформатних документів, новин і веб-тегів, також була виявлена ​​аналітиками організації.

Фото: теги на статті, опублікованій iuvmpress[.]co. Зверніть увагу на перші два теги, які містять відповідь моделі. Звіт Intel про загрози

Несподівано OpenAI також втрутився в діяльність ізраїльського підприємства під псевдонімом Zero Zeno. Використовуючи моделі OpenAI, STOIC створював історії та відповіді, якими потім ділився на різних платформах, таких як Facebook, Instagram, X та корпоративних сторінках. Можливо, це було зроблено, щоб схилити громадську думку чи досягти бізнес-цілей.

Фото: англомовні коментарі, створені цією мережею та розміщені в Instagram. І оригінальний допис, і відповіді були згенеровані цією кампанією. Звіт Intel про загрози

Дослідження підкреслює, що інформація, яка поширювалася цими різними організаціями, охоплювала широкий спектр тем. Цей широкий діапазон тем підкреслює, наскільки ці загрозливі суб’єкти були здатні адаптуватися у своїх спробах використовувати мовні моделі OpenAI для власних лихих цілей.

Однак OpenAI стверджує, що, незважаючи на всі зусилля, ці таємні кампанії впливу не принесли значних зусиль від використання його послуг для підвищення популярності чи охоплення. При оцінці впливу IO використовувалася «Шкала прориву» Інституту Брукінгса. Жодна з 5 ініціатив не отримала більше 2 балів, що означає, що їхня діяльність була обмежена декількома платформами та незначним чином проникла в законні онлайн-групи.

Фото: дослідники визначили наступний домен як пов’язаний із цією кампанією. Звіт Intel про загрозу

Перевірка стратегій нападників

Документ від OpenAI також визначає низку важливих закономірностей у тому, як ці загрози намагалися зловживати моделями ШІ. Щоб створити видимість участі в соціальних мережах, усі вони використовували матеріал, створений штучним інтелектом, на додаток до більш традиційних форматів, таких як рукописні листи чи перероблені меми. Крім того, кілька учасників продемонстрували адаптивність цих технологій, використовуючи штучний інтелект для підвищення своєї продуктивності, аналізуючи публікації в соціальних мережах або код усунення несправностей.

Цікаво, що бізнес підкреслює переваги штучного інтелекту для захисту від таких атак. Заходи безпеки OpenAI, які віддають перевагу етичному розгортанню штучного інтелекту, постійно створюють незручності суб’єктам загрози через відмову надавати запланований руйнівний матеріал. Дослідження, наприклад, докладно описує ситуації, коли моделі компанії відмовлялися генерувати потрібний текст або графіку, перешкоджаючи спробам операторів поширювати дезінформацію чи пропаганду.

Крім того, щоб покращити навички розпізнавання та оцінки та прискорити розслідування, які могли тривати тижнями чи місяцями, OpenAI створив власні інструменти на основі ШІ. Компанія показала, як ШІ може посилити захист від власного зловмисного використання, використовуючи саме ту технологію, яку він прагне захистити.

OpenAI наголошує на тому, наскільки важливою є бізнес-співпраця та обмін розвідувальними даними з відкритим кодом для запобігання цим таємним операціям. У результаті багаторічного дослідження відкритого коду більшою дослідницькою спільнотою корпорація поділилася точними індикаторами небезпеки з колегами в галузі та зміцнила ідею про те, що боротьба з дезінформацією та маніпуляціями в Інтернеті — це командна робота, яка вимагає співпраці між галузями.

Майбутній курс OpenAI щодо безпеки

Використовуючи цю стратегію, OpenAI прагне посилити вплив своїх збоїв на цих зловмисників, обмежуючи їхню здатність використовувати технології ШІ для незаконної діяльності. Згідно з документом, «Розповсюдження має значення: як і традиційні форми контенту, матеріал, створений штучним інтелектом, необхідно поширювати, якщо він хоче досягти аудиторії».

Підсумовуючи це, дослідження OpenAI підкреслює, що ці операції прихованого впливу все ще були обмежені людськими змінними, такими як помилки оператора та дефекти прийняття рішень, навіть якщо він визнає потенційні загрози, пов’язані з зловживанням технологією ШІ. Документ містить приклади операторів, які помилково публікують сигнали про відхилення від моделей OpenAI на своїх веб-сайтах і в соціальних мережах, викриваючи недоліки та обмеження навіть у найдосконаліших спробах дезінформації.

На даний момент демонтаж OpenAI цих п’яти таємних кампаній впливу є доказом старанності та відданості компанії підтримці цілісності своїх систем штучного інтелекту. Однак боротьба з дезінформацією та онлайн-маніпуляціями ще далека від завершення, і в міру розвитку технологій штучного інтелекту зростатиме потреба у співпраці, креативності та етичних питаннях.

Публікація OpenAI викриває та зупиняє 5 операцій зловмисного впливу за допомогою технології ШІ вперше з’явилася на Metaverse Post.