L’Institut américain de sécurité de l’intelligence artificielle, qui fait partie du National Institute of Standards and Technology (NIST) du ministère américain du Commerce, a annoncé de nouveaux accords visant à renforcer la recherche et l’évaluation de la sécurité de l’IA. Ces accords, formalisés par des protocoles d’accord (MOU), établissent un cadre de collaboration avec deux sociétés d’IA de premier plan, Anthropic et OpenAI. Ces partenariats sont conçus pour faciliter l’accès aux nouveaux modèles d’IA des deux sociétés, permettant à l’institut de mener des évaluations approfondies avant et après la publication de ces modèles.
Les protocoles d’accord permettent à l’U.S. AI Safety Institute de mener des recherches collaboratives avec Anthropic et OpenAI, en se concentrant sur l’évaluation des capacités de l’IA et l’identification des risques de sécurité. Cette collaboration devrait faire progresser les méthodologies d’atténuation des risques potentiels associés aux systèmes d’IA avancés. Elizabeth Kelly, directrice de l’U.S. AI Safety Institute, a souligné que la sécurité est un élément essentiel de l’innovation technologique et a exprimé son attente des collaborations techniques à venir avec ces entreprises d’IA. Elle a noté que ces accords représentent une étape importante dans les efforts continus de l’institut pour guider le développement responsable de l’IA.
En plus de ces collaborations, l’AI Safety Institute américain fournira des commentaires à Anthropic et à OpenAI sur les améliorations possibles de la sécurité de leurs modèles. Ce travail sera mené en étroite collaboration avec l’AI Safety Institute britannique, reflétant un effort international plus large visant à garantir le développement sûr et fiable des technologies d’IA.
Les efforts de l’Institut américain de sécurité de l’IA s’appuient sur la longue expérience du NIST en matière de progrès scientifiques, technologiques et normatifs en matière de mesures. Les évaluations menées dans le cadre de ces accords contribueront aux initiatives plus vastes du NIST en matière d’IA, qui s’alignent sur le décret exécutif de l’administration Biden-Harris sur l’IA. L’objectif est de soutenir le développement sûr, sécurisé et digne de confiance des systèmes d’IA, en s’appuyant sur les engagements volontaires pris par les principaux développeurs d’IA auprès de l’administration.
Selon un rapport de Reuters, les législateurs californiens ont approuvé mercredi un projet de loi controversé sur la sécurité de l’IA, qui attend désormais la décision du gouverneur Gavin Newsom. Le démocrate a jusqu’au 30 septembre pour opposer son veto au projet de loi ou le signer. La législation impose des tests de sécurité et d’autres mesures de protection pour les modèles d’IA dépassant certains coûts ou certaines puissances de calcul, une mesure qui, selon certaines entreprises technologiques, pourrait entraver l’innovation.
Image en vedette via Pixabay