• CoSAI, dirigé par Google, vise à établir des normes de sécurité robustes en matière d'IA avec des leaders du secteur comme Amazon et IBM.

  • Les efforts mondiaux en matière de sécurité de l’IA sont entravés par divers cadres réglementaires et tensions géopolitiques.

  • La stratégie chinoise en matière d’IA donne la priorité à la sécurité nationale, contrairement aux approches fondées sur les droits des démocraties occidentales.

Pour répondre aux problèmes de sécurité associés à l'IA, les géants de l'informatique Google, Microsoft, Nvidia et OpenAI ont fondé la Coalition for Secure AI (CoSAI). CoSAI, qui a été dévoilé lors du Aspen Security Forum, vise à établir des réglementations et des normes de sécurité strictes pour le développement et l'utilisation de l'IA. Ce programme est une réaction à la croissance explosive du domaine de l’IA.

Nous annonçons la Coalition for Secure AI (CoSAI) sous @OASISopen et avec les partenaires @Amazon @AnthropicAI @Chainguard @Cisco @Cohere @genlabstudio @IBM @Intel @Microsoft @NVIDIA @OpenAI @Paypal @wiz_io. Plus de détails de @argvee + @philvenables → https://t.co/SlDM7EiB2Q pic.twitter.com/xTRjBmKYWA

– Kent Walker (@Kent_Walker) 18 juillet 2024

PayPal, Amazon, Cisco, IBM, Intel et d'autres acteurs clés du secteur sont inclus dans le CoSAI dirigé par Google. À l’aide de méthodes open source et de cadres standardisés, l’équipe crée des systèmes d’IA sécurisés dès la conception dans le but de renforcer la confiance et la sécurité dans les applications d’IA. S'appuyant sur leur Secure AI Framework (SAIF), la version a souligné l'importance d'un cadre de sécurité complet pour l'IA.

Les trois premiers axes de travail constitueront l’objectif principal de la coalition : créer une gouvernance de la sécurité de l’IA, équiper les défenseurs pour faire face à l’évolution des environnements de cybersécurité et améliorer la sécurité de la chaîne d’approvisionnement logicielle pour les systèmes d’IA.

Perspectives mondiales sur la sécurité de l'IA

Le consensus mondial sur la sécurité de l’IA reste difficile à obtenir, avec des définitions, des critères et des approches réglementaires variables selon les pays. Les pays démocratiques comme le Canada, les États-Unis, le Royaume-Uni et l’UE donnent la priorité à des modèles de gouvernance de l’IA axés sur les risques et centrés sur l’humain, ancrés dans les droits et les valeurs démocratiques. Malgré les similitudes, des différences persistent dans la définition des niveaux de risque et des obligations des développeurs d’IA.

À l’inverse, l’approche chinoise met l’accent sur les risques liés à l’IA en termes de souveraineté, de stabilité sociale et de sécurité nationale. La récente Déclaration de Shanghai expose la vision de la Chine en matière de coopération mondiale en matière d’IA, reflétant des priorités politiques distinctes.

Le chemin à parcourir

Des efforts visant à améliorer la convergence et l’interopérabilité entre les diverses approches de gouvernance de l’IA sont en cours. Même si les différences dans les définitions et les pratiques en matière de sécurité de l’IA persistent, la collaboration internationale reste cruciale. La participation de la Chine aux sommets mondiaux sur la sécurité de l’IA et aux réunions bilatérales avec les États-Unis démontre des voies potentielles de coopération malgré les disparités idéologiques.

Parvenir à une définition mondiale unifiée de la sécurité de l’IA se heurte à des défis dus à des différences politiques et idéologiques. Cependant, le dialogue continu et les efforts de collaboration, tels que le CoSAI, représentent des étapes cruciales vers l’établissement de cadres complets de sécurité de l’IA qui transcendent les frontières nationales et les systèmes politiques.

Lire aussi :

  • Lutter contre la fraude : Ripple rejoint les géants de la technologie dans la coalition anti-arnaque

  • La coalition des BRICS envisage un nouvel ordre financier, est-ce le déclencheur attendu de la pompe à prix XRP ?

  • Ripple et les grandes entreprises technologiques s'unissent pour lutter contre les escroqueries et la fraude en ligne

  • Sécurité de l’IA : l’avertissement de Biden déclenche une tempête de feu dans l’industrie technologique

  • La collaboration entre JASMY et NVIDIA suscite un battage médiatique alors que NVIDIA et le Japon unissent leurs forces pour développer une infrastructure d'IA

L'article Google, Microsoft, Nvidia et OpenAI lancent une coalition pour la sécurité de l'IA apparaît en premier sur Crypto News Land.