Cercetătorii MIT și alte organizații au produs AI Risk Repository - o bază de date largă de riscuri documentate agravate de sistemele AI. Acest lucru vine pe măsură ce tehnologia evoluează într-un ritm rapid, ceea ce este și cazul asociat cu riscul utilizării sistemelor AI.

Depozitul încearcă să ajute factorii de decizie din diverse instituții precum guvern, cercetare, afaceri și industrie să evalueze riscurile emergente asociate cu AI, deși are abilități de transformare.

Depozitul aduce o documentație ordonată a riscurilor AI

Întrucât mai multe organizații și cercetători au recunoscut importanța rezolvării riscurilor AI, eforturile de a documenta și clasifica aceste riscuri au fost, într-o măsură mai mare, stângace, rezultând într-un peisaj fragmentat de sisteme de clasificare conflictuale.

„Ne-am dorit o imagine de ansamblu complet cuprinzătoare a riscurilor AI pe care să o folosim ca o listă de verificare”, a declarat Peter Slattery, MIT FutureTech, lider de proiect și post-doctorat pentru VentureBeat.

„Dar când ne-am uitat la literatura de specialitate, am descoperit că clasificările existente ale riscurilor erau ca piese ale unui puzzle: interesante și utile în mod individual, dar incomplete.”

Slattery.

AI Risk Repository abordează provocarea de mai sus prin fuzionarea informațiilor din 43 de taxonomii existente, inclusiv articole revizuite de colegi, preprinturi, lucrări de conferință și rapoarte.

Acest proces de curatare scrupulos a condus la crearea unei baze de date cu peste 700 de riscuri exclusive. Depozitul utilizează un sistem de clasificare dimensional în două direcții.

În primul rând, riscurile sunt clasificate în funcție de cauzele lor, luând în considerare entitatea răspunzătoare (umană sau IA) - intenția (neintenționată sau internațională) și momentul (post-dezvoltare sau înainte de implementare).

Potrivit MIT, această clasificare subiacentă ajută la înțelegerea situațiilor și mecanismelor prin care pot apărea riscurile AI.

Cercetătorii MIT au clasificat riscurile AI în șapte

Pe de altă parte, riscurile sunt clasificate în șapte domenii diferite, inclusiv dezinformarea și actorii rău intenționați, utilizarea greșită, discriminarea și toxicitatea, confidențialitatea și securitatea.

AI Risk Repository este premeditat pentru a fi o bază de date vie și este disponibil public, iar instituțiile îl pot descărca pentru consum.

Echipele de cercetare pot planifica să actualizeze frecvent baza de date cu noi riscuri, cele mai recente descoperiri și tendințe în evoluție.

AI Risk Repository se dorește, de asemenea, să fie o resursă practică pentru întreprinderi din diverse sectoare. Pentru instituțiile care dezvoltă sisteme AI — depozitul acționează ca o listă de verificare neprețuită pentru evaluarea riscurilor și atenuarea acestora.

„Organizațiile care folosesc AI pot beneficia de pe urma utilizării bazei de date și taxonomiilor de riscuri AI ca o bază utilă pentru evaluarea cuprinzătoare a expunerii și gestionării riscurilor.”

cercetătorii MIT

„Taxonomiile se pot dovedi, de asemenea, utile pentru identificarea comportamentelor specifice care trebuie efectuate pentru a atenua riscurile specifice”, au adăugat cercetătorii.

O organizație care stabilește un sistem de angajare bazat pe inteligență artificială, de exemplu, poate folosi depozitul pentru a nota riscurile potențiale asociate cu discriminarea și părtinirea.

Și astfel, o firmă care utilizează AI pentru moderarea conținutului poate valorifica domeniul „dezinformare” pentru a înțelege riscurile potențiale legate de conținutul generat de AI și pentru a stabili rețelele de siguranță necesare.

Cercetătorii MIT au colaborat cu colegii de la Universitatea din Queensland, Institutul Future of Life, KU Leuven și startup-ul AI Harmony Intelligence pentru a cerceta bazele de date academice și a prelua documente referitoare la riscurile AI.

Cercetătorii au mai dezvăluit că AI Risk Repository va informa alte cercetări pe măsură ce identifică mai multe lacune care necesită atenție.

„Vom folosi acest depozit pentru a identifica eventualele lacune sau dezechilibre în modul în care riscurile sunt abordate de către organizații”, a declarat Neil Thompson, șeful MIT FutureTech Lab.