Les gouvernements de Corée du Sud et du Royaume-Uni exhorteront les entreprises technologiques à aborder la question de la surveillance de la sécurité de l’intelligence artificielle lors du sommet international sur l’IA de cette semaine.

Cette réunion fait suite au tout premier sommet mondial sur la sécurité de l’IA qui s’est tenu l’année dernière à Bletchley Park en Grande-Bretagne, au cours duquel un certain nombre de gouvernements ont exprimé leurs inquiétudes quant aux risques liés à l’IA. Des entreprises d’IA y étaient également présentes, car la technologie sur laquelle elles travaillent présente ces risques.

Au milieu des nombreuses tentatives internationales visant à créer des garde-fous pour une technologie en développement rapide qui a le potentiel de révolutionner de nombreux aspects de la société, le sommet de Séoul a suscité des inquiétudes quant aux risques émergents pour la vie quotidienne.

« Même si des efforts positifs ont été déployés pour façonner la gouvernance mondiale de l’IA, des lacunes importantes subsistent. »

Le sommet britannique de novembre a réuni des chercheurs, des responsables gouvernementaux, des dirigeants du secteur technologique et des représentants d'organisations de la société civile, dont beaucoup avaient des opinions divergentes sur l'intelligence artificielle. Les réunions se sont déroulées à huis clos à Bletchley. Aux côtés d'hommes politiques, dont le Premier ministre britannique Rishi Sunak, les PDG d'OpenAI Sam Altman et Tesla, Elon Musk était également présent, ainsi que de nombreux autres.

La sécurité sera une priorité au sommet de l'IA

La sécurité sera une fois de plus une priorité absolue lors du Sommet AI de Séoul, qui débute mardi. Les gouvernements du Royaume-Uni et de la Corée du Sud organisent conjointement la réunion les 21 et 22 mai.

Des sociétés d'IA de premier plan, telles que Microsoft, Anthropic, Google DeepMind, le créateur de ChatGPT OpenAI et Mistral, une startup française d'IA, devraient envoyer des représentants.

Le Premier ministre britannique Rishi Sunak et le président sud-coréen Yoon Suk Yeol ont également écrit un article commun, publié lundi dans INews. Acceptant le potentiel de cette technologie, ils ont exprimé leur volonté d'assurer la sécurité en déclarant :

« Ensemble, nous sommes déterminés à exploiter le potentiel de cette technologie pour transformer le monde pour le meilleur. »

Ils ont également souligné que, à mesure que les nouvelles technologies entraînent de nouveaux risques, l’IA aussi. Ils ont souligné l’utilisation abusive de l’IA par des acteurs malhonnêtes qui souhaitent délibérément exploiter l’IA pour commettre des méfaits.

Tout récemment, OpenAI a dissous son équipe de sécurité, appelée équipe Superalignment, lorsque son co-fondateur Ilya Sutskever et d'autres employés clés ont quitté l'entreprise. Ce développement a été réalisé par le leader mondial de l’IA, quelques jours seulement avant le sommet de Séoul, dont l’objectif est d’atténuer les risques liés à l’IA.

Lisez aussi : La coopération internationale est invitée à répondre aux risques liés à l'IA lors du sommet de Bletchley Park

Dans un autre développement, Anthropic a publié aujourd'hui son rapport sur les politiques de mise à l'échelle responsable, qui, selon l'entreprise, a donné de bons résultats. Nous ne pouvons cependant pas confirmer ces résultats. Même si nous ne sommes pas en mesure de commenter ces évolutions, elles donnent néanmoins matière à réflexion.

L'innovation doit continuer

Après la montée en popularité fulgurante de ChatGPT peu après son lancement en 2022, les entreprises technologiques du monde entier ont commencé à investir des milliards de dollars dans la création de leurs modèles d’IA générative. Sunak et Yeol ont mentionné l'innovation rapide alors que de nouveaux modèles d'IA sont lancés quotidiennement. Ils ont dit,

« Le gouvernement peut favoriser cette innovation en investissant des milliards, en stimulant la recherche de pointe dans nos universités de classe mondiale et en veillant à ne pas trop réglementer les start-ups qui pourraient donner naissance à la prochaine grande idée.

Les partisans des modèles d’IA générative ont salué cette technologie comme une percée qui améliorera la vie des personnes et des entreprises dans le monde entier, car elle peut produire du texte, des photographies, de la musique et même des vidéos en réponse à de simples signaux.

Certains de ces produits qui ont retenu l’attention du public comportent leurs propres préjugés, ce qui est préoccupant.

Lisez aussi : Travailler avec l’IA est essentiel, déclarent les experts en IA au Global Leadership Forum de la Fidic

Et ce n’est pas seulement cela ; la technologie qui fonctionne derrière ces produits, appelée grands modèles de langage (LLM), est également devenue la technologie de base derrière de nombreuses solutions dans différents secteurs. Des véhicules à conduite autonome aux solutions médicales, nombreux sont ceux qui s’appuient sur les LLM d’IA générative pour fonctionner.

Il y a encore des voix inquiétantes

De nombreuses personnes ont demandé des lignes directrices internationales pour contrôler les progrès et les applications de l’IA. Par exemple, un mouvement basé à New York appelé Ban the Scan exige l’arrêt de l’utilisation de la reconnaissance faciale aux niveaux gouvernemental et privé.

Ils soutiennent que ces technologies interfèrent avec la liberté personnelle et entraînent un taux élevé de faux positifs. Une page de l'Electronic Frontier Foundation dit :

« La reconnaissance faciale constitue une menace pour la vie privée, la justice raciale, la liberté d'expression et la sécurité de l'information. La reconnaissance faciale sous toutes ses formes, y compris la numérisation faciale et le suivi en temps réel, constitue une menace pour les libertés civiles et la vie privée des individus.

Ils ne sont pas les seuls. Les défenseurs des droits de l’homme, les gouvernements et les critiques ont averti que l’IA pouvait être utilisée de diverses manières. Par exemple, des acteurs non étatiques peuvent l’utiliser pour influencer les électeurs avec des reportages fictifs ou des images et vidéos dites « deepfakes » d’élus. Une autre préoccupation croissante concerne les informations selon lesquelles des États soutiendraient des éléments voyous pour leurs intérêts.

« Nous prendrons également les prochaines mesures pour élaborer des normes mondiales qui éviteront un nivellement par le bas. »

L’article du duo mentionnait la déclaration ci-dessus et soulignait qu’il serait utile de discuter des normes internationales en matière d’IA dans un forum plus ouvert. Dans le même temps, certaines organisations sud-coréennes de défense des droits civiques ont critiqué les organisateurs pour ne pas avoir invité suffisamment de pays en développement.

La France organisera également cette semaine une conférence « Viva Technology », soutenue par LVMH, le plus grand groupe de luxe mondial. Au cours de l’année écoulée, la France a tenté d’attirer les startups de l’IA pour se positionner comme le champion européen de l’IA.

Reportage cryptopolitain d'Aamir Sheikh