La Cybersecurity and Infrastructure Security Agency (CISA) a dévoilé de nouvelles recommandations conformes à l’accent mis par le Department of Homeland Security (DHS) sur la sécurité de l’IA, qui a été mis en évidence par la création d’un conseil spécial de sûreté et de sécurité il n’y a pas si longtemps.

Lignes directrices CISA pour la sécurité de l'IA dans les secteurs critiques

Les lignes directrices qui viennent d'être publiées sont destinées aux propriétaires et aux exploitants des six secteurs désignés comme infrastructures critiques, desservis par des domaines tels que l'agriculture, la santé et les technologies de l'information. Cette ligne directrice est un ensemble minimal requis qui rend le système d’IA sécurisé et résilient en utilisant des technologies d’IA responsables. Ces approches de conseil offrent des conseils sur la gouvernance, l’évaluation des risques et la gestion continue des processus liés à l’IA.

Les opérateurs peuvent adopter le cadre de gestion des risques liés à l’IA du NIST pour évaluer en permanence l’impact et les risques associés aux mises en œuvre de l’IA. Il s’agit notamment d’identifier où se situent les dépendances à l’IA et les effets environnementaux des technologies et de tenter de s’attaquer à toute vulnérabilité évoquée. Des règles qui rappellent la réalisation d'inventaires des utilisations de l'IA et la création de procédures spéciales pour signaler les risques de sécurité liés à l'IA sont recommandées par les lignes directrices.

La CISA reconnaît que les RSSI doivent connaître le chemin critique de la chaîne d'approvisionnement de l'IA et tester les systèmes d'IA pour identifier les failles de sécurité. En mettant l’accent sur des domaines particuliers, les propriétaires d’infrastructures sont confrontés à des risques à large spectre liés à l’IA, notamment des défauts de conception, des cyberattaques et des atteintes à la sécurité physique.

Le double rôle de l’IA dans les infrastructures critiques

Le document démontre que l’IA a la possibilité de transformer la gestion des infrastructures critiques en introduisant une détection à grande échelle de l’environnement externe, en automatisant le service client, en améliorant la sécurité physique et en rendant les prévisions plus précises.

Même si cette innovation contribuera à rendre les systèmes d’infrastructure robustes à tous les niveaux, il est également possible qu’elle les rende plus exposés à de nouvelles formes d’attaques et de défaillances.

Ces lignes directrices ne sont qu’un élément des initiatives plus larges du ministère de la Sécurité intérieure visant à surmonter les subtilités liées à l’inclusion de la technologie de l’IA dans ses cadres de sécurité nationale. L’omniprésence de l’IA est double : le déploiement de cette technologie révolutionnaire et la menace qu’elle représente pour les infrastructures sensibles des systèmes critiques, rappelle le secrétaire à la Sécurité intérieure, Alejandro Mayorkas. Le groupe de risque est très réactif à la situation et met en œuvre des initiatives stratégiques pour identifier et atténuer les périls cachés grâce à la collaboration d'experts.

Initiatives d’IA du DHS

Le DHS a présenté sa stratégie en matière d'IA en début d'année, établissant la feuille de route du DBDS et annonçant le lancement d'AI Corps. Cette équipe 2024 devrait comprendre 50 spécialistes, qualifiés de compétents, visant à renforcer les capacités d'IA de l'agence. Le nouveau conseil d'administration comprendra des poids lourds du secteur technologique, tels que Sam Altman d'OpenAI et Sundar Pichai représentant Alphabet Company.

Le mandat de la CISA dans les nouvelles lignes directrices sur l’IA n’est pas seulement de remplir ses fonctions en vertu du récent décret de l’administration Biden sur l’IA, mais également de donner le premier exemple d’analyses de risques similaires pouvant être menées dans divers secteurs de la société. De cette manière, le gouvernement américain met en avant son leadership dans la « matrice de sécurité des infrastructures critiques », qui est aujourd’hui fortement corrélée à l’intelligence artificielle.

Nouvelles provenant de fedscoop