• CoSAI, condus de Google, își propune să stabilească standarde solide de securitate AI cu lideri din industrie precum Amazon și IBM.

  • Eforturile globale de siguranță ale inteligenței artificiale sunt împiedicate de diverse cadre de reglementare și tensiuni geopolitice.

  • Strategia AI a Chinei acordă prioritate securității naționale, în contrast cu abordările bazate pe drepturi ale democrațiilor occidentale.

Pentru a aborda problemele legate de siguranță asociate AI, giganții IT Google, Microsoft, Nvidia și OpenAI au fondat Coaliția pentru Secure AI (CoSAI). CoSAI, care a fost dezvăluit la Aspen Security Forum, își propune să stabilească reglementări și standarde stricte de securitate pentru dezvoltarea și utilizarea IA. Acest program este o reacție la creșterea explozivă a câmpului AI.

Anunțăm Coaliția pentru Secure AI (CoSAI) sub @OASISopen și cu partenerii @Amazon @AnthropicAI @Chainguard @Cisco @Cohere @genlabstudio @IBM @Intel @Microsoft @NVIDIA @OpenAI @Paypal @wiz_io. Mai multe detalii de la @argvee + @philvenables → https://t.co/SlDM7EiB2Q pic.twitter.com/xTRjBmKYWA

– Kent Walker (@Kent_Walker) 18 iulie 2024

PayPal, Amazon, Cisco, IBM, Intel și alți jucători cheie din industrie sunt incluși în CoSAI condus de Google. Folosind metode open-source și cadre standardizate, echipa creează sisteme AI securizate prin proiectare, cu scopul de a crește încrederea și securitatea în aplicațiile AI. Bazându-se pe Secure AI Framework (SAIF), versiunea a subliniat importanța unui cadru de securitate complet pentru AI.

Primele trei fluxuri de lucru vor fi principalul obiectiv al coaliției: crearea guvernării securității AI, echiparea apărătorilor pentru mediile de securitate cibernetică în schimbare și îmbunătățirea securității lanțului de aprovizionare cu software pentru sistemele AI.

Perspective globale asupra siguranței AI

Consensul global privind siguranța AI rămâne greu de prins, cu definiții, criterii de referință și abordări de reglementare diferite de la un stat la altul. Țările democratice precum Canada, SUA, Marea Britanie și UE acordă prioritate modelelor de guvernare a IA bazate pe riscuri, centrate pe om, bazate pe drepturi și valori democratice. În ciuda asemănărilor, diferențele persistă în definirea nivelurilor de risc și a obligațiilor pentru dezvoltatorii de IA.

În schimb, abordarea Chinei subliniază riscurile AI în termeni de suveranitate, stabilitate socială și securitate națională. Declarația recentă de la Shanghai subliniază viziunea Chinei pentru cooperarea globală în domeniul inteligenței artificiale, reflectând priorități politice distincte.

Drumul Înainte

Eforturile de îmbunătățire a convergenței și interoperabilității între diverse abordări de guvernare a AI sunt în desfășurare. În timp ce diferențele în definițiile și practicile privind siguranța AI persistă, colaborarea internațională rămâne crucială. Participarea Chinei la summiturile globale privind siguranța IA și la întâlnirile bilaterale cu SUA demonstrează căi potențiale de cooperare, în ciuda disparităților ideologice.

Obținerea unei definiții globale unificate a siguranței AI se confruntă cu provocări din cauza diferențelor politice și ideologice. Cu toate acestea, dialogul continuu și eforturile de colaborare, cum ar fi CoSAI, reprezintă pași esențiali către stabilirea unor cadre de securitate cuprinzătoare ale inteligenței artificiale care transcend granițele naționale și sistemele politice.

Citeste si:

  • Reprimarea fraudei: Ripple se alătură giganților tehnologici în Coaliția Anti-Scam

  • Coaliția BRICS urmărește o nouă ordine financiară, este acesta declanșatorul așteptat al pompei de preț XRP?

  • Ripple și firmele majore de tehnologie se unesc pentru a combate înșelăciunile și frauda online

  • Siguranța AI: Avertismentul lui Biden aprinde o furtună de foc în industria tehnologică

  • Colaborarea JASMY și NVIDIA izbucnește pe măsură ce NVIDIA și Japonia își unesc forțele pentru a dezvolta infrastructura AI

Postarea Google, Microsoft, Nvidia, OpenAI Launch Coalition for AI Security a apărut prima dată pe Crypto News Land.