• CoSAI, guidato da Google, mira a stabilire solidi standard di sicurezza AI con leader del settore come Amazon e IBM.

  • Gli sforzi globali per la sicurezza dell’IA sono ostacolati da diversi quadri normativi e tensioni geopolitiche.

  • La strategia cinese sull’intelligenza artificiale dà priorità alla sicurezza nazionale, in contrasto con gli approcci basati sui diritti delle democrazie occidentali.

Per affrontare i problemi di sicurezza associati all’intelligenza artificiale, i giganti IT Google, Microsoft, Nvidia e OpenAI hanno fondato la Coalition for Secure AI (CoSAI). Il CoSAI, presentato all’Aspen Security Forum, mira a stabilire rigorose norme e standard di sicurezza per lo sviluppo e l’uso dell’intelligenza artificiale. Questo programma è una reazione alla crescita esplosiva del campo dell’intelligenza artificiale.

Stiamo annunciando la Coalition for Secure AI (CoSAI) sotto @OASISopen e con i partner @Amazon @AnthropicAI @Chainguard @Cisco @Cohere @genlabstudio @IBM @Intel @Microsoft @NVIDIA @OpenAI @Paypal @wiz_io. Maggiori dettagli da @argvee + @philvenables → https://t.co/SlDM7EiB2Q pic.twitter.com/xTRjBmKYWA

– Kent Walker (@Kent_Walker) 18 luglio 2024

PayPal, Amazon, Cisco, IBM, Intel e altri attori chiave del settore sono inclusi nel CoSAI guidato da Google. Utilizzando metodi open source e strutture standardizzate, il team sta creando sistemi di intelligenza artificiale sicuri fin dalla progettazione con l’obiettivo di aumentare la fiducia e la sicurezza nelle applicazioni di intelligenza artificiale. Basandosi sul Secure AI Framework (SAIF), il comunicato sottolinea l’importanza di un quadro di sicurezza completo per l’IA.

I primi tre flussi di lavoro costituiranno l’obiettivo principale della coalizione: creare una governance della sicurezza dell’intelligenza artificiale, dotare i difensori degli strumenti per affrontare i cambiamenti degli ambienti di sicurezza informatica e migliorare la sicurezza della catena di fornitura del software per i sistemi di intelligenza artificiale.

Prospettive globali sulla sicurezza dell’intelligenza artificiale

Il consenso globale sulla sicurezza dell’intelligenza artificiale rimane difficile da raggiungere, con definizioni, parametri di riferimento e approcci normativi diversi tra le nazioni. Paesi democratici come il Canada, gli Stati Uniti, il Regno Unito e l’UE danno priorità ai modelli di governance dell’IA basati sul rischio e incentrati sull’uomo, radicati nei diritti e nei valori democratici. Nonostante le somiglianze, persistono differenze nella definizione dei livelli di rischio e degli obblighi per gli sviluppatori di intelligenza artificiale.

Al contrario, l’approccio cinese enfatizza i rischi dell’IA in termini di sovranità, stabilità sociale e sicurezza nazionale. La recente Dichiarazione di Shanghai delinea la visione della Cina per la cooperazione globale nel campo dell’intelligenza artificiale, riflettendo priorità politiche distinte.

La strada davanti

Sono in corso sforzi per migliorare la convergenza e l’interoperabilità tra i diversi approcci alla governance dell’IA. Sebbene persistono differenze nelle definizioni e nelle pratiche di sicurezza dell’IA, la collaborazione internazionale rimane cruciale. La partecipazione della Cina ai vertici globali sulla sicurezza dell’intelligenza artificiale e agli incontri bilaterali con gli Stati Uniti dimostra potenziali strade di cooperazione nonostante le disparità ideologiche.

Il raggiungimento di una definizione globale unificata di sicurezza dell’IA deve affrontare sfide dovute a differenze politiche e ideologiche. Tuttavia, il dialogo continuo e gli sforzi di collaborazione, come CoSAI, rappresentano passi fondamentali verso la creazione di quadri completi di sicurezza dell’IA che trascendono i confini nazionali e i sistemi politici.

Leggi anche:

  • Repressione delle frodi: Ripple si unisce ai giganti della tecnologia nella coalizione anti-truffa

  • La coalizione BRICS punta gli occhi verso un nuovo ordine finanziario: è questo l'atteso fattore scatenante della pompa del prezzo XRP?

  • Ripple e le principali aziende tecnologiche si uniscono per combattere le truffe e le frodi online

  • Sicurezza dell’intelligenza artificiale: l’avvertimento di Biden innesca una tempesta nel settore tecnologico

  • L'entusiasmo per la collaborazione tra JASMY e NVIDIA cresce mentre NVIDIA e il Giappone uniscono le forze per sviluppare un'infrastruttura AI

Il post Google, Microsoft, Nvidia e OpenAI Launch Coalition for AI Security è apparso per la prima volta su Crypto News Land.