• Google, Microsoft, Nvidia e OpenAI, tra gli altri, hanno lanciato CoSAI per creare solidi standard di sicurezza e protezione dell’IA in mezzo alle crescenti preoccupazioni.

  • CoSAI mira a creare sistemi di intelligenza artificiale sicuri fin dalla progettazione utilizzando framework open source.

  • Oltre a Google, i membri fondatori includono Amazon, Anthropic, Cisco, Cohere, IBM, Intel, Microsoft, Nvidia, OpenAI, PayPal e Wiz.

I colossi tecnologici Google, Microsoft, Nvidia e OpenAI, tra gli altri, hanno lanciato la Coalition for Secure AI (CoSAI) per affrontare i problemi di sicurezza dell’IA. 

Annunciato all’Aspen Security Forum, CoSAI mira a stabilire solidi quadri e standard di sicurezza per lo sviluppo e l’implementazione dell’intelligenza artificiale. Questa iniziativa arriva in un momento critico poiché il panorama dell’intelligenza artificiale continua a evolversi rapidamente.

Google annuncia CoSAI per la sicurezza dell'intelligenza artificiale

CoSAI, guidato da Google, riunisce le principali aziende e organizzazioni tecnologiche per affrontare le sfide della sicurezza dell'intelligenza artificiale. 

Secondo l'annuncio, i membri fondatori includono Amazon, Anthropic, Cisco, Cohere, IBM, Intel, Microsoft, Nvidia, OpenAI, PayPal e Wiz.

In particolare, questa coalizione mira a creare sistemi di intelligenza artificiale sicuri fin dalla progettazione, sfruttando metodologie open source e quadri standardizzati per promuovere la fiducia e la sicurezza nell’intelligenza artificiale. 

L’annuncio ha evidenziato l’importanza di un quadro di sicurezza per l’intelligenza artificiale (AI), basato sul Secure AI Framework (SAIF) precedentemente introdotto.

CoSAI mira a promuovere misure di sicurezza complete per l’intelligenza artificiale, affrontando sia i rischi attuali che quelli emergenti. Inoltre, la coalizione si concentrerà su tre flussi di lavoro iniziali: sicurezza della catena di fornitura del software per i sistemi di intelligenza artificiale, preparazione dei difensori per un panorama di sicurezza informatica in evoluzione e governance della sicurezza dell’intelligenza artificiale.

Questi flussi di lavoro mirano a sviluppare migliori pratiche, quadri di valutazione del rischio e strategie di mitigazione per migliorare la sicurezza dell’IA in tutto il settore.