Хвиля популярності штучного інтелекту охопила як тих, хто має добрі наміри, так і тих, хто має наміри, які можуть бути більш зловісними. Фахівці з безпеки б’ють на сполох, вказуючи на те, що використання таких моделей, створення зловмисного тексту або «хакботів», зараз відоме серед загроз. Він досяг рівня послуги «під ключ» у сфері абонентських послуг.

Кіберзлочинці використовують інструменти ШІ

З одного боку, експерти з кібербезпеки швидко усвідомили потенціал інструментів із підтримкою ШІ для кращого захисту своїх систем. Зловмисники також продемонстрували таке ж бажання використовувати ці технології, щоб скористатися прогалинами безпеки, залишеними тими, кого вони атакують. Протягом останніх кількох років відбулося експоненціальне зростання кількості програм штучного інтелекту, які використовуються зловмисниками, що привернуло увагу команд безпеки до достатнього підходу до знищення загроз, пов’язаних зі штучним інтелектом.

З іншого боку, британські фахівці з кібербезпеки також вказали на штучний інтелект як на новий ризик, що тягне за собою незвідані води та його природу, яка постійно змінюється. NCSC прогнозує, що 2024 рік, перший квартал, буде найбільшим і успішно перевершить рекорди 2022 і 2023 років. Спритні злочинці також використовували мовні моделі для соціальної інженерії, яка передбачала розміщення знаменитостей у відео- чи аудіорежимі за допомогою фішингових схем. або пристрої розпізнавання голосу. Vascut Jakkal, віце-президент із безпеки корпорації Microsoft, взяв участь у конференції RSA 2024. Проблема полягає не в погіршенні цих інструментів, а в їх все більшій доступності для злому паролів, що в 10 разів пов’язане зі зростанням кількості пов’язаних із ідентифікацією напади.

Крім того, деякі експерти прийшли до висновку, що чат-боти використовують унікальну фразу для активної розробки шкідливих програм. Дійсно, загальнодоступні служби, такі як ChatGPT і Gemini, запровадили засоби захисту, щоб запобігти їх зловживанню в зловмисних цілях. Однак хакери обійшли багато засобів захисту за допомогою складних оперативних інженерних методів.

Hackbot-as-a-service: тенденція до зростання кіберзлочинності

Згідно з нещодавніми дослідженнями, загальнодоступні мовні моделі зазвичай не можуть зловживати недоліками безпеки програмного забезпечення. Однак лише GPT-4 OpenAI продемонстрував багатообіцяючі функції, оскільки він міг створювати виконувані файли для відомих недоліків. Вищезазначені обмеження, ймовірно, сприяли створенню прототипів шкідливих чат-ботів, призначених для допомоги кіберзлочинцям у здійсненні їхніх зловмисних дій. 

Їх рекламують на форумах і торгових майданчиках темної мережі, які пропонують можливість наймати та використовувати зловмисників, підживлюючи модель хакбота як послуги. Одна з останніх публікацій у блозі, опублікованих командою Trustwave SpiderLabs у серпні 2023 року, ілюструє збільшення кількості шкідливих мовних моделей, розміщених на багатьох прихованих веб-дошках оголошень з метою отримання прибутку.

У червні 2021 року Trustwave опублікував модель WormGPT, одну з відомих хакерських шкідливих мовних моделей. Такий підхід може мати місце в обладнанні, де боти здійснюють кібератаки з боку хакерських структур, розміщених у темній мережі. Створений у липні 2023 року FraudGPT був вперше з’ясований дослідниками загроз із Netenrich, перш ніж він потрапив у Telegram.

Ці інструменти дозволяють зловмисникам створювати активи, які використовуються в атаках соціальної інженерії, наприклад фішингові електронні листи, глибокі фейки та клонування голосу. Однак їх творці стверджують, що їх справжня цінність полягає у використанні вразливостей. Вони дозволяють хакерам вводити код про конкретні вразливості в ці шкідливі моделі, що теоретично може створити кілька перевірок концепції (PoC), які зловмисник може спробувати.

Ці продукти продаються на прихованих ринках темної мережі, де з хакерів стягується щомісячна ліцензійна плата за використання хакбота, так само як програмне забезпечення-вимагач постачається за моделлю програми-вимагача як послуга (raas), яка безпосередньо підключена до комплекс програм-вимагачів, з якими сьогодні стикаються багато компаній.

Хоча WormGPT є першою широкомасштабною запровадженою шкідливою мовною моделлю, незабаром з’явилися інші шкідливі та неетичні мовні моделі, як-от BlackHatGPT, XXXGPT і WolfGPT, утворивши новий ринковий сегмент чорного кіберринку.

Ефективність хакерських роботів: реклама чи справжня загроза?

На відміну від дослідження, проведеного Trustwave, яке проводилося для перевірки ефективності рекомендованих інструментів шляхом порівняння їхніх результатів один біля одного з результатами, створеними легітимними чат-ботами, результати показали, що ChatGPT можна ефективно створити для створення деяких шкідливих програм Python за допомогою правильні підказки. Для цього до розгортання потрібно було надіслати повідомлення, в якому стверджувалося, що код був білим капелюхом, а вихід коду також потребував додаткових змін.

ChatGPT може передавати реальні текстові повідомлення для фішингових атак, але команда вказівок має бути дуже конкретною для цього. ChatGPT зазвичай базуватиметься на цьому лише тоді, коли користувачі запитуватимуть щось не так. Через це ці чат-боти можна розглядати як більш простий спосіб для кіберзлочинців або штучного інтелекту атакувати балакунів замість виснажливої ​​роботи над створенням сторінки чи шкідливого програмного забезпечення.

Хоча ця галузь є новою, а загрози все ще змінюються, компанії повинні справді знати про поточні рівні захисту. Контент і культурні характеристики, якими переповнені системи штучного інтелекту, можуть бути використані для створення прогалини в дезінформації, яку можна подолати, лише створивши потужніші програми безпеки штучного інтелекту та інструменти керування ідентифікацією.

Легітимність рішень проблеми, що зростає, все ще обговорюється. Проте нещодавні штами програм-вимагачів показали, що кіберзлочинці можуть зрівнятися, якщо не перевищити, швидкість розробки розробників програмного забезпечення.