Microsoft a interdit aux forces de police des États-Unis d'obtenir des services d'IA gĂ©nĂ©rative fonctionnant sur Azure OpenAI Service. Il s’agit d’une nouvelle approche abordĂ©e dans les conditions d’utilisation amĂ©liorĂ©es mercredi et qui vise Ă  rĂ©pondre au dilemme Ă©thique croissant auquel est confrontĂ©e l’IA dans les forces de l’ordre.

La mise à jour de la politique met en lumiÚre les préoccupations éthiques

Les conditions rĂ©visĂ©es prĂ©voient expressĂ©ment que de telles intĂ©grations ne peuvent pas ĂȘtre utilisĂ©es « par ou pour » les services de police aux États-Unis. Cette restriction intĂšgre Ă©galement les modĂšles d’analyse de texte et de parole, soulignant l’accent mis par Microsoft sur une utilisation responsable de l’IA. En guise de rĂ©glementation supplĂ©mentaire, une clause distincte a Ă©tĂ© introduite pour interdire spĂ©cifiquement l'utilisation de la technologie de reconnaissance faciale en temps rĂ©el sur les camĂ©ras mobiles, y compris les camĂ©ras corporelles et les dashcams, dans des environnements non contrĂŽlĂ©s.

Microsoft interdit aux services de police américains d'utiliser l'outil d'IA d'entreprise https://t.co/OxrFO5scO9

– TechCrunch (@TechCrunch) 2 mai 2024

Le dĂ©clencheur de ces mouvements pourrait ĂȘtre identifiĂ© dans les rĂ©centes avancĂ©es de l’industrie technologique. Axon, la sociĂ©tĂ© technologique bien connue spĂ©cialisĂ©e dans l'armĂ©e et l'application de la loi, vient d'annoncer un produit qui utilise le modĂšle de verbaliseur d'OpenAI avec le texte gĂ©nĂ©ratif GPT-4 pour aider Ă  rĂ©sumer l'audio enregistrĂ© par les camĂ©ras corporelles. Les fausses informations gĂ©nĂ©rĂ©es et leurs prĂ©jugĂ©s raciaux dans les donnĂ©es de formation ont Ă©tĂ© abordĂ©s pour montrer immĂ©diatement les prĂ©occupations de certains critiques.

Implications et marge d’interprĂ©tation

MĂȘme si la politique mise Ă  jour constitue la position dĂ©cisive de Microsoft, elle permet nĂ©anmoins une interprĂ©tation. L’interdiction d’Azure OpenAI Service s’applique Ă  la police amĂ©ricaine uniquement Ă  mesure que le dĂ©ploiement international se poursuit. En outre, les limitations concernant l’utilisation de la technologie de reconnaissance faciale s’appliquent uniquement Ă  son utilisation par les forces de l’ordre amĂ©ricaines, Ă  l’exclusion des camĂ©ras fixes dans des environnements contrĂŽlĂ©s.

Une mĂ©thodologie aussi Ă©quilibrĂ©e s’accorde bien avec la vaste stratĂ©gie d’IA de Microsoft en matiĂšre d’application de la loi et de dĂ©fense. Entre-temps, malgrĂ© l’interdiction de certaines utilisations, la coopĂ©ration entre OpenAI et les agences gouvernementales, parmi lesquelles le Pentagone est un excellent exemple, s’est progressivement dĂ©veloppĂ©e. De tels partenariats indiquent un changement de position pour OpenAI comme pour Microsoft qui recherche des applications d'IA dans les technologies militaires.

Engagement du gouvernement et dynamique de l’industrie

L’adoption du service Azure OpenAI de Microsoft par les agences gouvernementales s’est accĂ©lĂ©rĂ©e Ă  mesure qu’Azure Government inclut des outils de conformitĂ© et de gestion supplĂ©mentaires destinĂ©s aux cas d’utilisation par les forces de l’ordre. Candice Ling, vice-prĂ©sidente senior de Microsoft Federal, sera chargĂ©e d'obtenir davantage d'approbations du ministĂšre de la DĂ©fense pour le service Azure OpenAI, montrant ainsi que la plateforme peut ĂȘtre utile dans des missions urgentes.

Le domaine dynamique de l’éthique et de la rĂ©glementation de l’IA oblige les entreprises technologiques Ă  prendre des mesures rĂ©flĂ©chies Ă  l’avance. En dĂ©cidant d’éviter d’utiliser l’IA dans les forces de l’ordre, Microsoft dĂ©montre une tendance plus large du secteur Ă  accroĂźtre la responsabilitĂ© et la transparence dans le dĂ©ploiement de l’IA. Au cours des discussions sur la rĂ©glementation de l’IA, les fournisseurs de technologie, les dĂ©cideurs politiques et les groupes d’activistes devront travailler ensemble pour rĂ©soudre les nouveaux problĂšmes de maniĂšre Ă©thique.

La dĂ©cision de Microsoft d’empĂȘcher les services de police amĂ©ricains d’utiliser Azure OpenAI Service dans des scĂ©narios particuliers tĂ©moigne de l’approche dĂ©libĂ©rĂ©e et ciblĂ©e adoptĂ©e par l’entreprise pour rĂ©pondre aux prĂ©occupations Ă©thiques liĂ©es au dĂ©ploiement de l’IA. En effet, l’amendement rĂ©vĂšle la sincĂ©ritĂ© des dĂ©cideurs politiques et la complexitĂ© de cet exercice d’équilibre. Compte tenu de l’évolution des discussions Ă©thiques sur l’IA, les parties prenantes concernĂ©es devraient toujours participer Ă  un dialogue constructif pour crĂ©er une croissance et une diffusion responsables de l’IA.