Departamentul de Comerț din administrația Biden urmărește o nouă inițiativă de conformitate pentru a restricționa și mai mult exportul de modele de inteligență artificială deschisă sau închisă. Inițiativa este un efort de a proteja interesele SUA și tehnologia IA din Rusia și China și va completa pașii întreprinși în ultimii doi ani pentru a bloca accesul Chinei la cele mai noi cipuri avansate de computer.

Efortul SUA este de a pune bariere de protecție mai stricte în jurul software-ului de bază al modelelor de limbi mari care alimentează aplicații precum ChatGPT, a raportat Reuters, citând trei surse familiare cu problema. În timp ce furnizorul de știri a susținut că cercetătorii din sectorul privat și din guvern sunt îngrijorați de faptul că adversarii americani pot folosi tehnologia pentru atacuri cibernetice agresive și pot dezvolta arme biologice, Ambasada Chinei s-a opus mișcării și a descris-o ca fiind hărțuire unilaterală și economică. constrângere.

Deepfake-urile sunt o armă letală de dezinformare

Amenințările de care SUA se tem sunt multe și pot fi folosite de actori nestatali care sunt susținuți de state. Deepfake-urile pot fi folosite ca o armă eficientă pentru propagandă, deoarece implică videoclipuri realiste, dar false create de instrumente AI. 

Aceste tipuri de videoclipuri apar deja pe rețelele sociale. În timp ce un astfel de conținut media există în ultimii câțiva ani, dezvoltat cu software de animație și randare, instrumentele AI generative au făcut-o ușor de produs pentru oricine, iar actorii necinstiți le pot folosi mai ușor ca niciodată pentru a manipula opiniile publice cu privire la probleme sensibile. , mai ales în timpul campaniilor electorale.

Platformele de social media precum YouTube, Facebook și Twitter au luat deja măsuri pentru a reduce deepfake-urile, dar tacticile de dezvoltare și publicare a acestora se schimbă, de asemenea, odată cu dezvoltarea tehnologiei. În prezent, instrumente de la companii precum Microsoft și OpenAI pot fi folosite pentru a crea conținut pentru răspândirea dezinformarii.

O preocupare mult mai mare este că modelele AI pot scurge informații pentru dezvoltarea armelor biologice, potrivit cercetătorilor de la Rand Corporation și Gryphon Scientific, iar agențiile de informații din SUA, experții academicieni și grupurile de reflecție sunt îngrijorate de posibilitatea ca AI să intre în mâinile unor necinstiți. elemente.

Studiul Gryphon a identificat modul în care LLM-urile pot produce cunoștințe de specialitate și cele de nivel de doctorat care pot ajuta la dezvoltarea virușilor care au capacități pandemice, iar acest lucru poate fi folosit de actori nestatali ca arme biologice.

Atacuri cibernetice amplificate cu modele AI

Departamentul pentru Securitate Internă și-a exprimat, de asemenea, îngrijorarea că atacurile cibernetice asupra infrastructurii esențiale precum căile ferate și conductele ar putea fi executate cu AI prin dezvoltarea de noi instrumente care vor fi capabile de atacuri cibernetice la scară mai mare și mai complexe și mai rapid.

Agenția a mai spus că China dezvoltă software de inteligență artificială care poate fi folosit pentru atacuri malware și lucrează, de asemenea, la tehnologii AI care ar putea sabota apărarea cibernetică a țării.

Funcții și entități care formează ecosistemul Partidului Comunist Chinez. Sursa: Microsoft.

În februarie, Microsoft a emis un raport în care a remarcat că a identificat grupuri cibernetice implicate în activități de hacking care își perfecționează campaniile de hacking prin utilizarea LLM-urilor și au afilieri cu informațiile militare din Rusia, guvernele nord-coreene și chinez. și Gărzile Revoluționare din Iran.

Compania a anunțat interzicerea grupurilor cibernetice finanțate de stat care își folosesc produsele și serviciile AI. Miercuri, un grup de oameni de stat a propus un proiect de lege care va ajuta guvernul Biden să impună controale asupra exportului de modele AI pentru a preveni expunerea acestora la potențiali adversari.

Experții în acest subiect au spus că Washingtonul încearcă să evite reglementările dominante care ar putea suprima inovarea, deoarece încearcă să încurajeze inovația împreună cu posibile soluții pentru riscurile asociate cu inteligența artificială. Ei au subliniat, de asemenea, că aplicarea unor reglementări stricte prin reglementarea strictă a progresului AI va crea un vid pentru concurenții de peste mări și va avea un impact negativ asupra domeniilor infrastructurii, securității naționale și descoperirii de droguri.