Восемьдесят два процента руководителей высшего звена считают, что безопасный и заслуживающий доверия ИИ имеет решающее значение. Однако только 24% из них встраивают безопасность в свои инициативы, связанные с GenAI. Это согласно новому исследованию IBM и Amazon Web Services, совместному исследованию, о котором было объявлено на конференции RSA 2024. Подробные результаты опроса были сосредоточены на взглядах руководителей высшего звена на то, как реализовать сценарии безопасного использования ИИ, с большим вниманием. о генеративном ИИ. IBM сообщает, что только 24% респондентов рассматривали аспект безопасности в своих инициативах по созданию ИИ, тогда как почти 70% говорят, что инновации имеют приоритет над безопасностью.

Инновации и компромисс между безопасностью

Хотя большинство руководителей обеспокоены тем, что непредсказуемые риски повлияют на инициативы по созданию искусственного интеллекта, они не уделяют приоритетное внимание безопасности. Несмотря на то, что полностью реализованная картина угроз ИИ еще не возникла, в некоторых случаях использование ChatGPT или аналогичных программ было связано с созданием фишинговых сценариев электронной почты и дипфейкового звука. Исследователи безопасности IBM X-Force предупреждают, что, как и в случае с более зрелыми технологиями, можно ожидать, что системы искусственного интеллекта будут атакованы в более крупных масштабах.

В то время как консолидированная поверхность угроз ИИ только начинает формироваться, исследователи IBM X-Force ожидают, что, как только отраслевая среда созреет вокруг общих технологий и моделей обеспечения, злоумышленники начнут более широко нацеливаться на эти системы ИИ, говорится в отчете. Действительно, эта конвергенция происходит по мере того, как рынок быстро развивается, и уже появляются ведущие поставщики оборудования, программного обеспечения и услуг.

Более тревожными, как говорится в отчете IBM, являются те компании, которые не обеспечивают должным образом безопасность моделей искусственного интеллекта, которые они создают и используют в рамках своего бизнеса. Неправильное применение инструментов GenAI может привести к неправильному обращению или утечке конфиденциальных данных. Согласно отчету, «теневой ИИ» все чаще используется в организациях, поскольку сотрудники используют инструменты GenAI, которые не были одобрены и защищены командами безопасности предприятий.

С этой целью в январе IBM анонсировала структуру защиты GenAI. Его основными принципами являются централизация данных, которые используются для обучения моделей ИИ, защита моделей с использованием комбинации сканирования конвейеров разработки на наличие уязвимостей, обеспечение соблюдения политики и контроля доступа для использования ИИ, а также защита их использования от атак на основе живых моделей ИИ.

Обеспечение безопасности конвейера ИИ

В понедельник группа наступательной безопасности IBM X-Force Red запустила службу тестирования искусственного интеллекта, целью которой является оценка приложений ИИ, моделей ИИ и конвейеров MLSecOps посредством красной команды. В среду на конференции RSA 2024 IBM представит «Инновации сейчас, безопасность позже?» Решения, решения…» по обеспечению безопасности и организации управления конвейером ИИ.

Вторым докладчиком был Райан Догерти, директор программы по технологиям безопасности IBM Security. В беседе с редакцией TechTarget он сказал, что обеспечение безопасности ИИ «прямо из коробки» является одной из главных задач IBM Security в технологической сфере. Он сказал: «Вот что делает эту область такой важной, особенно в случае генеративного искусственного интеллекта: он глубоко внедряется в бизнес-приложения и процессы». Интеграция бизнес-структуры поднимает ее над потенциальными рисками и угрозами.

По его словам, с точки зрения бизнеса ИИ должен опираться на свою реальную природу. «Генераторный ИИ обучается и применяется на огромных объемах конфиденциальных бизнес-данных, и нам необходимо защитить эти новые драгоценности, потому что именно здесь возникает конкурентное преимущество. генеративный искусственный интеллект и использование его в своих приложениях для улучшения своего бизнеса», — сказал он. Догерти добавил, что они платят большие деньги за модели, которые очень дороги. На внедрение этих генеративных приложений искусственного интеллекта уходит много интеллектуальной собственности и инвестиций, и предприятия просто не могут позволить себе их защитить.