Osiemdziesiąt dwa procent kadry kierowniczej wyższego szczebla uważa, że ​​bezpieczna i godna zaufania sztuczna inteligencja ma kluczowe znaczenie. Jednak tylko 24% z nich włącza bezpieczeństwo do swoich inicjatyw związanych z GenAI. Tak wynika z nowego badania IBM i Amazon Web Services, wspólnego badania ogłoszonego na konferencji RSA 2024, którego szczegółowe wyniki ankiety skupiały się na poglądach kadry kierowniczej wyższego szczebla na temat sposobów opracowania bezpiecznych przypadków użycia sztucznej inteligencji, z dużym naciskiem na generatywnej sztucznej inteligencji. IBM podaje, że tylko 24% respondentów wzięło pod uwagę wymiar bezpieczeństwa w swoich inicjatywach związanych z generatywną sztuczną inteligencją, podczas gdy prawie 70% twierdzi, że innowacje mają pierwszeństwo przed bezpieczeństwem.

Kompromis między innowacją a bezpieczeństwem

Choć większość menedżerów obawia się, że nieprzewidywalne ryzyko będzie miało wpływ na inicjatywy związane z sztuczną inteligencją generacji, nie traktują oni bezpieczeństwa priorytetowo. Mimo że nie doszło jeszcze do w pełni zrealizowanego krajobrazu zagrożeń AI, niektóre przypadki użycia obejmowały użycie ChatGPT lub podobnego narzędzia do generowania skryptów e-mail phishingowych i fałszywych dźwięków. Badacze ds. bezpieczeństwa IBM X-Force ostrzegają, że podobnie jak w przypadku bardziej dojrzałych technologii, można spodziewać się, że systemy sztucznej inteligencji będą coraz częściej atakowane na większą skalę.

Choć skonsolidowana powierzchnia zagrożeń związanych ze sztuczną inteligencją dopiero zaczyna się formować, badacze IBM X-Force przewidują, że gdy krajobraz branżowy dojrzeje wokół wspólnych technologii i modeli wspomagających, ugrupowania zagrażające zaczną szerzej atakować te systemy sztucznej inteligencji – czytamy w raporcie. Rzeczywiście, konwergencja ta następuje w miarę szybkiego dojrzewania rynku i pojawiania się wiodących dostawców sprzętu, oprogramowania i usług.

Z raportu IBM wynika, że ​​bardziej bezpośrednio niepokojące są firmy, które nie zabezpieczają odpowiednio modeli sztucznej inteligencji, które tworzą i wykorzystują w swojej działalności. Niewłaściwe zastosowanie narzędzi GenAI może prowadzić do niewłaściwego obchodzenia się lub wycieku wrażliwych danych. Według raportu „sztuczna sztuczna inteligencja” jest coraz częściej stosowana w organizacjach, ponieważ pracownicy korzystają z narzędzi GenAI, które nie zostały zatwierdzone i zabezpieczone przez zespoły ds. bezpieczeństwa przedsiębiorstwa.

W tym celu IBM ogłosił w styczniu framework zabezpieczający GenAI. Jego podstawowe założenia obejmują centralizację danych, które służą do uczenia modeli sztucznej inteligencji, zabezpieczanie modeli przy użyciu kombinacji procesów skanowania pod kątem luk w zabezpieczeniach, egzekwowanie zasad i kontroli dostępu do wykorzystania sztucznej inteligencji oraz zabezpieczanie ich wykorzystania przed atakami opartymi na działających modelach sztucznej inteligencji.

Zabezpieczanie rurociągu AI

W poniedziałek zespół IBM ds. ofensywnego bezpieczeństwa X-Force Red wdrożył usługę testowania sztucznej inteligencji, która ma na celu ocenę aplikacji AI, modeli AI i potoków MLSecOps za pośrednictwem czerwonego zespołu. W środę na konferencji RSA 2024 IBM zaprezentuje „Innovate Now, Secure Później? Decyzje, decyzja…” w sprawie zabezpieczenia rurociągu AI i ustanowienia zarządzania nim.

Drugim mówcą był Ryan Dougherty, dyrektor programowy ds. technologii zabezpieczeń w IBM Security. W rozmowie z redaktorem TechTarget powiedział, że zabezpieczenie sztucznej inteligencji od razu po wyjęciu z pudełka jest jednym z głównych problemów IBM Security w przestrzeni technologicznej. Powiedział: „To właśnie sprawia, że ​​ten obszar jest tak istotny, szczególnie w przypadku generatywnej sztucznej inteligencji: jest ona głęboko osadzona w aplikacjach i procesach biznesowych. Integracja struktury biznesowej podnosi ją ponad potencjalne ryzyko i zagrożenia.

Według niego z biznesowego punktu widzenia sztuczna inteligencja musi mieć oparcie w swojej prawdziwej naturze. „Generatywna sztuczna inteligencja jest szkolona i operacjonalizowana w oparciu o ogromne zbiory wrażliwych danych biznesowych, a my musimy zabezpieczyć te nowe klejnoty koronne, ponieważ w tym miejscu pojawia się przewaga konkurencyjna. Wszystko zależy od danych, którymi dysponują te organizacje, oraz wniosków, jakie uzyskują dzięki wykorzystaniu generatywną sztuczną inteligencję i wykorzystywanie jej w swoich aplikacjach w celu usprawnienia działalności” – powiedział. Dougherty dodała, że ​​płacą dużo pieniędzy za modele, które są bardzo drogie. Wiele własności intelektualnej i inwestycji przeznacza się na operacjonalizację tych generatywnych aplikacji AI, a firm po prostu nie stać na ich zabezpieczenie.