Le président américain Joe Biden doit rencontrer mardi huit chefs d'entreprise à San Francisco sur l'intelligence artificielle (IA), alors que l'administration fait pression pour une meilleure compréhension de la technologie et des protections appropriées en matière de sécurité et de confidentialité qu'elle comporte.

Le cœur de la réunion portera sur les défis actuels posés par l’IA sur la main-d’œuvre et les enfants, les méfaits des préjugés liés à l’IA et les avantages potentiels qu’elle apporte à la fois à l’éducation et à la médecine.

Les participants aux conversations comprennent :

  • Sal Khan, PDG de Khan Academy Inc ;

  • Jim Steyer, PDG de Common Sense Media ;

  • Tristan Harris, directeur exécutif du Center for Humane Technology ;

  • Oren Etzioni, ancien PDG de l'Allen Institute for Artificial Intelligence ;

  • Fei-Fei Li, codirecteur du Human-Centered AI Institute de l’Université de Stanford ;

  • Joy Buolamwini, fondatrice de l'Algorithmic Justice League ;

  • Jennifer Doudna, professeur de chimie à l'Université de Californie à Berkeley ; et

  • Rob Reich, professeur de sciences politiques à l'Université de Stanford

Le mois dernier, Biden et le vice-président Harris ont rencontré les dirigeants de Google, Microsoft, OpenAI et Anthropic à la Maison Blanche pour discuter des meilleures pratiques, tout en annonçant simultanément un investissement de 140 millions de dollars par l'administration Biden pour créer sept nouveaux instituts de recherche sur l'IA. . 

Selon un responsable de la Maison Blanche, le chef de cabinet de la Maison Blanche, Jeff Zients, supervise actuellement les efforts visant à développer des mesures supplémentaires que l'administration Biden peut prendre en matière d'IA dans les semaines à venir. 

Plus tôt ce mois-ci, Zients a déclaré que les sociétés d'IA travaillaient avec l'administration pour dévoiler prochainement leurs engagements en matière de confidentialité et de sécurité, mais a fourni très peu de contexte. 

Cette vaste poussée réglementaire a été exacerbée par d’autres pays, notamment l’Union européenne (UE), qui sont déjà en train d’adopter ce qui est considéré comme le premier cadre réglementaire mondial sur l’IA. 

La semaine dernière, l’UE a franchi sa première étape majeure avec l’adoption par le Parlement européen d’un projet de loi connu sous le nom de « A.I. Act », qui a été proposé pour la première fois en avril 2021. Bien que la version initiale ait été antérieure à la montée en puissance de l’IA générative, y compris les chatbots, la nouvelle version en tient compte, ainsi que les implications qu’elles entraînent. 

Malheureusement, l’un des principaux conseillers de Biden en matière d’IA, Alexander Macgillivray, qui a aidé à rédiger la proposition du président concernant une déclaration des droits en matière d’IA, a quitté l’administration le 8 juin. 

Aujourd'hui est mon dernier jour dans le glorieux EEOB. Ce fut un immense privilège de pouvoir à nouveau travailler ici au sein de l’administration Biden. Je suis extrêmement reconnaissant et plus qu'un peu triste que mon temps soit écoulé.1/2 pic.twitter.com/jg1JqYgKxW

– Alexander Macgillivray (@amac46) 8 juin 2023

Avant la réunion du mois dernier, des entreprises dont Microsoft et Google se sont engagées à participer à la première évaluation publique indépendante de leurs systèmes, selon Bloomberg. 

Le ministère du Commerce a également déclaré plus tôt cette année qu'il envisageait des règles qui pourraient obliger les modèles d'IA à passer par un processus de certification avant leur publication.

Dans d’autres actualités, découvrez PassGPT, une IA formée pour minimiser les fuites de mots de passe.

Cliquez ici pour voir la galerie complète sur Hypemoon