Un expert în securitate cibernetică a dezvăluit că inteligența artificială este o amenințare nesigură pentru securitatea cibernetică pentru corporațiile care o folosesc ca serviciu, nu numai prin executarea atacurilor de către infractori, ci și în mod legitim.

Vulnerabilitățile cibernetice ale AI

În timp ce amenințarea reprezentată de actorii răi care folosesc AI pentru a lansa atacuri a fost discutată pe scară largă, Peter Garraghan, CEO și CTO al Midgard, care oferă securitate cibernetică în special pentru AI, spune Verdict: „Problema pe care o am în minte este o amenințare la adresa securității cibernetice la adresa AI, care este cel de pe subiect.”

În mod previzibil, cea mai obișnuită și, prin urmare, la risc, utilizarea AI de către companii se referă la chatbot-urile care servesc drept serviciu pentru clienți și ale căror ton și date sunt de obicei personalizate pentru organizațiile pe care le reprezintă. Aici Dr. Garraghan, profesor de informatică la Universitatea Lancaster, specializat în securitate și sisteme AI, a decis să găsească Mindgard în 2022. „AI nu este magie”, spune el. Este doar o combinație de codare suplimentară, date și hardware. Având în vedere amenințările cibernetice moderne, toate aceste amenințări se pot manifesta și în AI.

Să ne gândim la asta în felul acesta: să presupunem că un atacator folosește un proces cunoscut sub numele de injecție SQL. Un atacator poate folosi acest proces pentru a exploata vulnerabilitățile din câmpurile formularului web, cum ar fi autentificarea pe site sau formularul de contact. Un alt mod în care poate fi utilizată ingestia teleprompterului este injectarea promptă, care este utilizată în aplicațiile publice. În primul rând, dacă securitatea nu este asigurată în mod adecvat, instrumentele de inteligență artificială pot fi, practic, constrânse să-și scurgă codul sursă și instrucțiunile, IP-ul companiei sau datele clienților. În al doilea rând, instrumentele AI pot fi proiectate invers ca și alte aplicații software pentru a identifica defectele.

Securizarea sistemelor AI

Garraghan spune despre gravitatea problemei: În viitorul preconizat, în câțiva ani, poate apărea factorul siguranței naționale, sau oamenii lipsiți de drepturi de drept pot fi în pericol. Noile informații par a fi un avertisment: o afacere ar trebui să se ferească de datele publicate.

Garraghan spune: „În plus, AI poate servi ca instrument de atac cibernetic în care poate scurge date; modelul va putea furniza datele pe care le-ați cerut cu atâta amabilitate.” Prezentând un exemplu în ianuarie, platforma de socializare de dreapta Gab a căutat tutoriale care le-au dezvăluit accidental instrucțiunile. Platforma bazată pe GPT OpenAI a avut anterior și modelele folosite greșit.

Garraghan continuă: „Informațiile pot fi obținute din atacuri VoIP neautorizate. De asemenea, AI poate fi proiectat în inginerie inversă, iar sistemul poate fi ocolit sau păcălit în acces deschis la alte sisteme. Astfel, scurgerea de informații ar putea fi una dintre domeniile majore în toate industriile, inclusiv cele care se pot confrunta extern sau intern.” El enumeră, de asemenea, alte riscuri, cum ar fi evaziunea modelului, prin care modelul este greșit sau eludat intenționat prin fabricarea de date înșelătoare.

Garraghan a subliniat că inserarea de comenzi rău intenționate sau contaminarea datelor cu soluții concepute greșit în pistele audio reprezintă o altă amenințare. În plus, el observă că impactul cibernetic general este deteriorarea reputației suferită de obicei după atacurile cibernetice. În mod similar, zonele cu cel mai mare risc de consecințe negative ale acestui tip de atac cibernetic sunt acolo unde miza este cea mai mare. Cu multe industrii și instituții care operează online, siguranța publică și lipsa informațiilor confidențiale scurse, de exemplu, sunt valori importante pe care serviciile financiare și sectoarele de sănătate ar trebui să le acorde prioritate.

Garraghan spune: Link-ul aici este că, cu cât ești mai structurat și controlat în industria ta și cu cât te confrunți cu mai multe riscuri din partea AI (și, de asemenea, din experiență: cu cât folosești mai puțin AI, cu atât adopti mai puțin), cu atât AI ta este mai rău. Poate că nu sunt cei mai leneși. De exemplu, ei pot trece pur și simplu prin cele mai grave etape din viața lor.

Măsuri de securitate proactive AI

AI se va ocupa de aceste riscuri în orice companie specifică, deși el spune că va necesita straturi de securitate (deoarece AI în afaceri are deja nevoie de ele) pentru protecția utilizatorilor. „Aveți deja instrumente de securitate cibernetică specializate în diferite sectoare”, spune Garraghan. „Acestea pot fi instrumente de gestionare a posturii de securitate, instrumente de detectare, de răspuns, firewall-uri și suport pentru designul de schimbare la stânga, cum ar fi scanarea codului. În curând veți avea nevoie de inteligență artificială în conformitate cu transformarea digitală.” Genul este specializat exclusiv în AI și ML, în timp ce sisteme precum rețelele neuronale sunt menționate doar ocazional

Veți avea nevoie de un scanner de aplicații pentru rețele neuronale, un sistem de răspuns pentru toate tipurile de rețele neuronale, teste de securitate și echipă roșie pentru un control mai bun între aplicații și veți avea nevoie de un sistem de răspuns pentru toate tipurile de rețele neuronale. Este mai ușor să le remediați și să le remediați mai devreme în loc de problemele de rulare. Cu toate acestea, cea mai bună practică pe care o recomandăm organizațiilor care utilizează modele AI sau aplicații și servicii AI achiziționate este că, înainte de a intra în producție, este mai ușor să remediați toate problemele cu modelele. Apoi, după ce trece la producție, pot fi identificate doar problemele care trebuie remediate.

Pe scurt, părerea lui Garraghan este următoarea: „Cel mai important, dacă securitatea cibernetică începe cu I, este pur și simplu schimbarea aplicației sau software-ului cu AI ca instrument. Nu? Aveți nevoie de securitatea aplicației pentru a detecta amenințările. AI ca instrument este de asemenea inclus.”