Ekspert ds. cyberbezpieczeństwa ujawnił, że sztuczna inteligencja stanowi niebezpieczne zagrożenie dla cyberbezpieczeństwa dla korporacji, które wykorzystują ją jako swoją usługę, nie tylko poprzez przeprowadzanie ataków przez przestępców, ale także w sposób zgodny z prawem.

Luki w cyberprzestrzeni AI

Choć zagrożenie stwarzane przez złe podmioty wykorzystujące sztuczną inteligencję do przeprowadzania ataków było szeroko omawiane, Peter Garraghan, dyrektor generalny i dyrektor ds. technicznych firmy Midgard, która zapewnia cyberbezpieczeństwo sztucznej inteligencji, mówi Verdict: „Problem, który mam na myśli, to zagrożenie cyberbezpieczeństwa dla sztucznej inteligencji, które jest tym, który jest na ten temat.

Jak można się spodziewać, najpowszechniejsze i tym samym ryzykowne wykorzystanie sztucznej inteligencji przez firmy dotyczy chatbotów, które służą do obsługi klienta i których ton i dane są zazwyczaj dostosowywane do potrzeb organizacji, które reprezentują. To właśnie tutaj dr Garraghan, profesor informatyki na Uniwersytecie w Lancaster specjalizujący się w bezpieczeństwie i systemach AI, postanowił znaleźć Mindgard w 2022 roku. „Sztuczna inteligencja to nie magia” – mówi. Jest to po prostu połączenie dodatkowego kodowania, danych i sprzętu. Biorąc pod uwagę współczesne zagrożenia cybernetyczne, wszystkie te zagrożenia mogą również objawiać się w sztucznej inteligencji.

Pomyślmy o tym w ten sposób: załóżmy, że osoba atakująca wykorzystuje proces znany jako wstrzyknięcie SQL. Osoba atakująca może wykorzystać ten proces do wykorzystania luk w zabezpieczeniach pól formularzy internetowych, takich jak logowanie do witryny lub formularz kontaktowy. Innym sposobem wykorzystania telepromptera jest natychmiastowe wstrzykiwanie, które jest używane w aplikacjach publicznych. Przede wszystkim, jeśli bezpieczeństwo nie jest odpowiednio zapewnione, narzędzia sztucznej inteligencji można w praktyce zmusić do wycieku kodu źródłowego i instrukcji, adresu IP firmy lub danych klientów. Po drugie, narzędzia AI można poddać inżynierii wstecznej, podobnie jak inne aplikacje, w celu zidentyfikowania wad.

Zabezpieczanie systemów AI

Garraghan tak mówi o powadze problemu: W przewidywanej przyszłości, za kilka lat, może pojawić się czynnik bezpieczeństwa narodowego lub osoby pozbawione praw wyborczych mogą być zagrożone. Nowe informacje brzmią jak ostrzeżenie: biznes powinien uważać na ujawniane dane.

Garraghan mówi: „Co więcej, sztuczna inteligencja może służyć jako narzędzie do cyberataków, w wyniku których może dojść do wycieku danych; modelka będzie w stanie dostarczyć dane, o które tak uprzejmie prosiłaś.” Podając przykład w styczniu, prawicowa platforma mediów społecznościowych Gab szukała tutoriali, które przypadkowo ujawniły zawarte w nich instrukcje. Platforma OpenAI oparta na GPT również wcześniej niewłaściwie wykorzystywała swoje modele.

Garraghan kontynuuje: „Informacje można uzyskać w wyniku nieautoryzowanych ataków VoIP. Ponadto sztuczną inteligencję można poddać inżynierii wstecznej, a system można ominąć lub oszukać w celu uzyskania otwartego dostępu do innych systemów. W związku z tym wyciek informacji może być jednym z głównych obszarów występujących we wszystkich branżach, w tym tych, które mogą mieć charakter zewnętrzny lub wewnętrzny”. Wymienia także inne zagrożenia, takie jak unikanie modelu, w wyniku którego model zostaje wprowadzony w błąd lub celowo omijany poprzez fabrykowanie fałszywych danych.

Garraghan zwrócił uwagę, że kolejnym zagrożeniem jest umieszczanie złośliwych poleceń lub zanieczyszczanie danych źle opracowanymi rozwiązaniami w ścieżkach audio. Ponadto zauważa, że ​​ogólny wpływ cybernetyczny to szkody dla reputacji powszechnie doświadczane po atakach cybernetycznych. Podobnie obszary najbardziej narażone na negatywne skutki tego rodzaju cyberataku to obszary, w których stawka jest najwyższa. W przypadku wielu branż i instytucji działających w Internecie, na przykład bezpieczeństwo publiczne i brak wyciekających poufnych informacji są ważnymi wartościami, które sektory usług finansowych i opieki zdrowotnej powinny traktować priorytetowo.

Garraghan mówi: Łącze jest takie, że im bardziej zorganizowany i kontrolowany jesteś w swojej branży oraz im większe ryzyko wiąże się ze sztuczną inteligencją (a także z doświadczenia: im mniej używasz sztucznej inteligencji, tym mniej ją adoptujesz), tym gorsza jest twoja sztuczna inteligencja. Może to nie oni są leniwi. Na przykład mogą po prostu przechodzić przez najcięższy etap swojego życia.

Proaktywne środki bezpieczeństwa AI

Sztuczna inteligencja zajmie się tymi zagrożeniami w każdej konkretnej firmie, chociaż twierdzi, że będzie to wymagało warstw zabezpieczeń (ponieważ sztuczna inteligencja w biznesie już ich potrzebuje) w celu ochrony użytkowników. „Masz już narzędzia cyberbezpieczeństwa specjalizujące się w różnych sektorach” – mówi Garraghan. „Mogą to być narzędzia do zarządzania stanem zabezpieczeń, narzędzia do wykrywania, reagowania, zapory ogniowe i obsługa projektu z przesunięciem w lewo, np. skanowanie kodu. Wkrótce będziesz potrzebować sztucznej inteligencji zgodnie z transformacją cyfrową. Gatunek ten specjalizuje się wyłącznie w sztucznej inteligencji i uczeniu maszynowym, podczas gdy o systemach takich jak sieci neuronowe wspomina się jedynie sporadycznie

Będziesz potrzebować skanera aplikacji sieci neuronowych, systemu reagowania wszystkich typów sieci neuronowych, testów bezpieczeństwa i tworzenia zespołów czerwonych dla lepszej kontroli między aplikacjami, a także będziesz potrzebować systemu reagowania wszystkich typów sieci neuronowych. Łatwiej jest je naprawić i naprawić na wczesnym etapie, zamiast problemów w czasie wykonywania. Jednak najlepszą praktyką, którą zalecamy organizacjom korzystającym z modeli AI lub zakupionych aplikacji i usług AI jest to, że zanim trafią one do produkcji, łatwiej jest naprawić wszystkie problemy z modelami. Następnie, po przejściu do produkcji, mogą zostać zidentyfikowane jedynie problemy, które wymagają naprawy.

W skrócie Garraghan uważa, że ​​najważniejszą rzeczą, jeśli cyberbezpieczeństwo zaczyna się od „ja”, jest po prostu zamiana aplikacji lub oprogramowania na sztuczną inteligencję jako narzędzie. NIE? Aby wykrywać zagrożenia, potrzebujesz bezpieczeństwa aplikacji. Uwzględniono także sztuczną inteligencję jako narzędzie”.