Вісімдесят два відсотки керівників C-suite вважають, що безпечний і надійний ШІ є критично важливим. Проте лише 24% із них вбудовують безпеку у свої ініціативи, пов’язані з GenAI. Це згідно з новим дослідженням IBM і Amazon Web Services, спільним дослідженням, оголошеним на конференції RSA 2024, де докладні результати опитування зосереджені на поглядах керівників вищого офісу щодо того, як забезпечити безпечне використання штучного інтелекту, з великою увагою. на генеративному ШІ. IBM повідомляє, що лише 24% респондентів розглядають питання безпеки у своїх генеративних ініціативах ШІ, тоді як майже 70% вважають, що інновації мають пріоритет над безпекою.

Компроміс між інноваціями та безпекою

Хоча більшість керівників хвилюється, що непередбачувані ризики вплинуть на ініціативи покоління ШІ, вони не надають пріоритету безпеці. Незважаючи на те, що повністю реалізований ландшафт загроз штучного інтелекту ще не виник, деякі випадки використання включали використання ChatGPT або подібного для створення фішингових сценаріїв електронної пошти та глибокого підроблення аудіо. Дослідники безпеки IBM X-Force попередили, що, як і у випадку з більш зрілими технологіями, можна очікувати, що системи штучного інтелекту будуть націлені на більший масштаб.

У той час як консолідована поверхня загроз штучного інтелекту тільки починає формуватися, дослідники IBM X-Force очікують, що, як тільки галузь зріє навколо загальних технологій і моделей активації, суб’єкти загроз почнуть ширше націлюватися на ці системи ШІ, йдеться у звіті. Дійсно, ця конвергенція триває, оскільки ринок швидко розвивається, і вже з’являються провідні постачальники обладнання, програмного забезпечення та послуг.

Більше занепокоєння, йдеться у звіті IBM, викликають ті компанії, які не захищають належним чином моделі ШІ, які вони створюють і використовують у своєму бізнесі. Погане застосування інструментів GenAI може призвести до неправильного поводження або витоку конфіденційних даних. Згідно зі звітом, «тіньовий ШІ» все частіше використовується в організаціях, оскільки співробітники використовують інструменти GenAI, які не були схвалені та захищені командами безпеки підприємства.

З цією метою в січні IBM анонсувала структуру для захисту GenAI. Його основні принципи — централізація даних, які використовуються для навчання моделей штучного інтелекту, захист моделей за допомогою комбінації сканування конвеєрів розробки на наявність вразливостей, застосування політики та контролю доступу для використання штучного інтелекту, а також захист його використання від атак на основі моделей штучного інтелекту.

Захист трубопроводу ШІ

У понеділок команда IBM з наступальної безпеки X-Force Red запустила службу тестування штучного інтелекту, яка прагне оцінити додатки штучного інтелекту, моделі штучного інтелекту та конвеєри MLSecOps за допомогою red teaming. У середу на конференції RSA 2024 IBM представить «Інновації зараз, захист пізніше? Рішення, рішення…» щодо забезпечення безпеки та встановлення управління конвеєром ШІ.

Другим доповідачем був Райан Догерті, програмний директор із технологій безпеки IBM Security. У розмові з редакцією TechTarget Editorial він сказав, що безпека штучного інтелекту безпосередньо з коробки є однією з головних проблем безпеки IBM у технологічному просторі. За його словами, саме це робить цю сферу такою критичною, особливо у випадку генеративного штучного інтелекту: він глибоко вбудовується в бізнес-додатки та процеси. Інтеграція бізнес-структури піднімає її над потенційні ризики та загрози.

За його словами, з точки зору бізнесу, штучний інтелект повинен бути заснований на своїй реальній природі. «Генеративний штучний інтелект навчається та працює на величезній кількості конфіденційних бізнес-даних, і нам потрібно захистити ці нові перлини корони, тому що саме тут з’являється конкурентна перевага. Справа в даних, якими володіють ці організації, і в розумінні, яке вони отримують, використовуючи генеративний штучний інтелект і розміщуючи його в своїх програмах для покращення свого бізнесу», – сказав він. Догерті додав, що вони платять великі гроші за моделі, які дуже дорогі. Багато інтелектуальної власності та інвестицій витрачається на впровадження цих генеративних додатків ШІ, і компанії просто не можуть дозволити собі їх захистити.