Optzeci și doi la sută dintre directorii executivi consideră că AI sigură și de încredere este esențială. Cu toate acestea, doar 24% dintre aceștia includ securitate în inițiativele lor legate de GenAI. Asta arată o nouă cercetare de la IBM și Amazon Web Services, o cercetare comună anunțată la Conferința RSA 2024 și care a detaliat rezultatele unui sondaj axat pe opiniile directorilor de conducere cu privire la modul de a genera cazuri de utilizare sigure pentru AI, cu o mulțime de atenție. pe IA generativă. IBM raportează că doar 24% dintre respondenți au considerat o dimensiune de securitate în inițiativele lor generative de AI, în timp ce aproape 70% spun că inovația are prioritate față de securitate.

Inovație vs. compromis de securitate

În timp ce majoritatea directorilor se tem că riscurile imprevizibile vor afecta inițiativele gen AI, ei nu acordă prioritate securității. Chiar dacă nu a avut loc încă un peisaj de amenințări AI pe deplin realizat, unele cazuri de utilizare au implicat utilizarea ChatGPT sau similar pentru a genera scripturi de e-mail de phishing și audio deepfake. Cercetătorii de securitate IBM X-Force au avertizat că, ca și în cazul tehnologiilor mai mature, se poate aștepta din ce în ce mai mult ca sistemele AI să fie vizate la o scară mai mare.

În timp ce o suprafață consolidată de amenințări AI începe abia să se formeze, cercetătorii IBM X-Force anticipează că, odată ce peisajul industriei se maturizează în jurul tehnologiilor și modelelor de activare comune, actorii amenințărilor vor începe să vizeze aceste sisteme AI mai larg, se arată în raport. Într-adevăr, acea convergență este în curs de desfășurare, pe măsură ce piața se maturizează rapid, iar furnizorii de vârf apar deja în hardware, software și servicii.

Mai imediat îngrijorătoare, spune raportul IBM, sunt acele companii care nu securizează în mod corespunzător modelele AI pe care le construiesc și le folosesc ca parte a afacerilor lor. Aplicarea defectuoasă a instrumentelor GenAI poate duce la manipularea greșită sau scurgerea datelor sensibile. Potrivit raportului, „shadow AI” este în creștere în utilizarea sa în cadrul organizațiilor, deoarece angajații folosesc instrumente GenAI care nu au fost aprobate și securizate de echipele de securitate ale întreprinderii.

În acest scop, IBM a anunțat un cadru pentru securizarea GenAI în ianuarie. Principiile sale de bază sunt centralizarea datelor, care sunt utilizate pentru antrenarea modelelor AI, securizarea modelelor folosind o combinație de scanare a conductelor de dezvoltare pentru vulnerabilități, aplicarea politicii și controlul accesului pentru utilizarea AI și securizarea utilizării acestora împotriva atacurilor bazate pe modele AI în direct.

Securizarea conductei AI

Luni, echipa de securitate ofensivă a IBM X-Force Red a lansat un serviciu de testare a inteligenței artificiale care urmărește să evalueze aplicațiile AI, modelele AI și conductele MLSecOps prin echipă roșie. Miercuri, la Conferința RSA 2024, IBM va prezenta „Innovate Now, Secure Later? Decisions, Decision...” privind asigurarea și stabilirea guvernanței pentru conducta AI.

Al doilea vorbitor a fost Ryan Dougherty, directorul de program pentru tehnologie de securitate la IBM Security. Vorbind cu TechTarget Editorial, el a spus că securizarea AI imediată este una dintre preocupările principale pentru IBM Security în spațiul tehnologic. El a spus: Acesta este ceea ce face acest domeniu atât de critic, în special pentru cazul AI generativ: este profund încorporat în aplicațiile și procesele de afaceri. Integrarea țesăturii de afaceri o ridică dincolo de potențialele riscuri și amenințări.

Potrivit acestuia, din perspectiva afacerii, AI trebuie să aibă o bază în natura sa reală. „Intelligenția artificială generativă este antrenată și operaționalizată pe o mulțime de date sensibile de afaceri și trebuie să securizăm acele noi bijuterii ale coroanei, deoarece aici intervine avantajul competitiv. Este în jurul datelor pe care aceste organizații le au și a informațiilor pe care le obțin folosind AI generativă și evidențierea acesteia în aplicațiile lor pentru a-și îmbunătăți afacerile”, a spus el. Dougherty a adăugat că plătesc mulți bani pentru modele, care sunt foarte scumpe. O mulțime de IP și investiții sunt destinate operaționalizării acestor aplicații AI generative, iar companiile pur și simplu nu își pot permite să le securizeze.