Des chercheurs du MIT et d’autres organisations ont créé l’AI Risk Repository, une vaste base de données recensant les risques documentés aggravés par les systèmes d’IA. Cette initiative intervient alors que la technologie évolue à un rythme rapide, ce qui est également le cas en ce qui concerne les risques liés à l’utilisation des systèmes d’IA.

Le référentiel vise à aider les décideurs de diverses institutions telles que le gouvernement, la recherche, les entreprises et l’industrie à évaluer les risques émergents associés à l’IA, bien qu’elle ait des capacités de transformation.

Le référentiel apporte une documentation ordonnée des risques liés à l'IA

Alors que plusieurs organisations et chercheurs ont reconnu l’importance de résoudre les risques liés à l’IA, les efforts visant à documenter et à catégoriser ces risques ont, dans une large mesure, été maladroits, ce qui a donné lieu à un paysage fragmenté de systèmes de classification contradictoires.

« Nous voulions avoir un aperçu complet des risques liés à l'IA afin de l'utiliser comme liste de contrôle », a déclaré à VentureBeat Peter Slattery, nouveau postdoctorant et chef de projet du MIT FutureTech.

« Mais lorsque nous avons examiné la littérature, nous avons constaté que les classifications de risques existantes étaient comme les pièces d’un puzzle : individuellement intéressantes et utiles, mais incomplètes. »

Latterie.

L'AI Risk Repository relève le défi ci-dessus en fusionnant les informations de 43 taxonomies existantes, y compris des articles évalués par des pairs, des pré-impressions, des actes de conférence et des rapports.

Ce processus de sélection rigoureux a permis la création d'une base de données contenant plus de 700 risques exclusifs. Le référentiel utilise un système de classification à deux volets.

Tout d’abord, les risques sont classés en fonction de leurs causes, en prenant en compte l’entité responsable (humaine ou IA), l’intention (non intentionnelle ou internationale) et le moment du déploiement (post-développement ou pré-déploiement).

Selon le MIT, cette catégorisation sous-jacente aide à comprendre les situations et les mécanismes par lesquels les risques liés à l’IA peuvent survenir.

Les chercheurs du MIT ont classé les risques liés à l’IA en sept catégories

D’autre part, les risques sont classés en sept domaines différents, notamment la désinformation et les acteurs malveillants, l’utilisation abusive, la discrimination et la toxicité, la confidentialité et la sécurité.

Le référentiel des risques de l'IA est conçu pour être une base de données vivante et est accessible au public. Les institutions peuvent le télécharger pour leur consommation.

Les équipes de recherche peuvent prévoir de mettre à jour fréquemment la base de données en fonction des nouveaux risques, des dernières découvertes et des tendances en évolution.

Le référentiel des risques liés à l’IA est également destiné à être une ressource pratique pour les entreprises de divers secteurs. Pour les institutions qui développent des systèmes d’IA, le référentiel constitue une liste de contrôle précieuse pour évaluer les risques et les atténuer.

« Les organisations qui utilisent l’IA peuvent tirer profit de la base de données et des taxonomies des risques de l’IA comme base utile pour évaluer de manière exhaustive leur exposition aux risques et leur gestion. »

Chercheurs du MIT

« Les taxonomies peuvent également s’avérer utiles pour identifier les comportements spécifiques qui doivent être adoptés pour atténuer des risques spécifiques », ont ajouté les chercheurs.

Une organisation qui met en place un système de recrutement basé sur l’IA, par exemple, peut utiliser le référentiel pour noter les risques potentiels associés à la discrimination et aux préjugés.

Ainsi, une entreprise qui utilise l’IA pour la modération de contenu peut exploiter le domaine de la « désinformation » pour comprendre les risques potentiels liés au contenu généré par l’IA et établir les filets de sécurité nécessaires.

Des chercheurs du MIT ont collaboré avec des collègues de l'Université du Queensland, du Future of Life Institute, de la KU Leuven et de la start-up d'IA Harmony Intelligence pour parcourir les bases de données universitaires et récupérer des documents relatifs aux risques liés à l'IA.

Les chercheurs ont également révélé que le référentiel des risques de l’IA éclairera d’autres recherches à mesure qu’ils identifieront davantage de lacunes nécessitant une attention particulière.

« Nous utiliserons ce référentiel pour identifier les lacunes ou les déséquilibres potentiels dans la manière dont les risques sont traités par les organisations », a déclaré Neil Thompson, directeur du MIT FutureTech Lab.