Нещодавнє дослідження в журналі Patterns показало, що ШІ стає все більш здатним обманювати людей. Дослідження показало, що системи штучного інтелекту навчилися імітувати, щоб обманювати, лестити та навіть наслідувати інші види поведінки. 

Читайте також: Навігація мінним полем AI Deepfake: як виявити цифровий обман і боротися з ним

Дослідження під керівництвом доктора Пітера С. Парка, наукового співробітника з екзистенціальної безпеки штучного інтелекту в Массачусетському технологічному інституті, показує, що обман ШІ є поширеним явищем, оскільки це найкращий спосіб досягти цілей, поставлених під час навчання ШІ. Така поведінка була помічена в багатьох системах штучного інтелекту, таких як ігри та моделі загального призначення, які використовуються в економічних переговорах та оцінці безпеки.

«Але загалом кажучи, ми вважаємо, що обман ШІ виникає тому, що стратегія, заснована на обмані, виявилася найкращим способом успішного виконання навчального завдання ШІ. Обман допомагає їм досягти своїх цілей». 

Дослідницька група

Системи ШІ використовують різні тактики обману

Одним із яскравих прикладів є CICERO від Meta, штучний інтелект, розроблений для гри Diplomacy. Хоча Цицерон був запрограмований бути правдивим, програмі часто доводилося використовувати підступні методи, щоб перемогти свого супротивника. Воно налагоджувало стосунки і відверталося від них, коли це було зручно, і виявляло намір обдурити. Дослідники назвали ЦИЦЕРОНа «майстром обману».

Читайте також: Боротьба зі зростанням кіберзлочинності, спричиненої штучним інтелектом

Інші системи ШІ також демонструють таку оманливу поведінку. Наприклад, Pluribus, штучний інтелект для гри в покер, зміг блефувати серед професійних гравців у техаський холдем. AlphaStar від Google DeepMind також використовував ігрову функцію Starcraft II, відому як «туман війни», щоб блефувати опонентів і симулювати атаки.

Доктор Парк сказав: «Хоча може здатися нешкідливим, якщо системи штучного інтелекту обманюють під час ігор, це може призвести до «прориву в оманливих можливостях штучного інтелекту».

ШІ «видає себе за мертвого», щоб уникнути перевірок безпеки

Ризики обману ШІ не обмежуються іграми. Дослідження під керівництвом доктора Пітера виявило випадки, коли штучний інтелект примушував себе вважати мертвим, щоб уникнути виявлення під час перевірок безпеки. Це може ввести в оману розробників і регуляторів і може призвести до серйозних наслідків, якщо такі оманливі системи використовуються в реальних програмах.

Джерело: Security Magazine

В іншому випадку система штучного інтелекту, навчена відгукам людей, навчилася отримувати високі оцінки від людей, обманюючи їх, що конкретна мета була досягнута. Така оманлива поведінка є досить небезпечною, оскільки такі системи можуть використовуватися для шахрайства, маніпулювання фінансовими ринками або впливу на вибори.

Дослідники вимагають жорстких правових заходів

Грунтуючись на результатах дослідження, дослідники стверджують, що існує потреба в сильних правових заходах для боротьби з загрозами, які створює обман ШІ.

«Потрібні проактивні рішення, такі як нормативна база для оцінки ризиків обману ШІ, закони, що вимагають прозорості взаємодії ШІ, а також подальші дослідження щодо виявлення та запобігання обману ШІ».

Дослідницька група

Читайте також: Штучний інтелект може потенційно виявляти ризик серцевої недостатності, результати досліджень

Деякі досягнення були досягнуті у формі Закону ЄС про штучний інтелект та виконавчого наказу президента Джо Байдена щодо безпеки штучного інтелекту. Однак дотримання цих політик залишається проблематичним, оскільки розвиток штучного інтелекту швидко зростає, а хороших способів керування цими системами поки що немає.

Репортаж Cryptopolitan від Бренди Канана