Récemment, les gros titres se sont concentrés sur les progrès de l’intelligence artificielle. Mais l’IA existe depuis des décennies et elle continuera à jouer un rôle important dans la manière dont les guerres seront menées à l’avenir pour toute une série d’applications militaires et de défense.

Il ne s’agit pas seulement des militaires ; vous lisez peut-être ce texte sur un appareil qui s'appuie déjà fortement sur l'intelligence artificielle ; ainsi, vous avez probablement déjà utilisé l’IA dans une certaine mesure, avant même le récent battage médiatique.

L'IA a très probablement été utilisée dans toutes les situations où vous avez payé quoi que ce soit en ligne, par exemple pour de la nourriture ou pour vous divertir, utilisé votre visage ou vos empreintes digitales pour déverrouiller votre téléphone, utilisé les réseaux sociaux ou planifié un voyage via une application téléphonique.

Nous nous sommes habitués à l’IA de diverses manières, en l’intégrant – souvent sans nous en rendre compte – dans notre vie quotidienne.

L'IA militaire existe depuis la Seconde Guerre mondiale

Même si les armes ont pu prendre certaines décisions depuis la Seconde Guerre mondiale, l’intelligence artificielle leur permet désormais de prendre bien plus de décisions et finira par les banaliser. 

Et si quelqu’un était attaqué et que son identité était déterminée par un tel logiciel de reconnaissance faciale ? Au lieu d’identifier le meilleur restaurant où manger, que se passerait-il si un logiciel similaire guidait les avions pour lancer une frappe aérienne sur une cible ? 

A lire également : L’adoption de systèmes militaires d’IA prédit-elle un sinistre tournant dans la guerre ?

Jusqu'à présent, cela semble être un très gros problème. La question est la suivante : les systèmes d’IA pourraient-ils vraiment prendre par eux-mêmes des décisions de vie ou de mort ? Leur précision n’est pas parfaite et varie selon les situations, et on sait qu’ils ne sont pas toujours corrects.

Dans les zones de conflit réelles, AI choisit déjà les personnes à cibler, comme à Gaza et en Ukraine. Israël aurait utilisé un système d'intelligence artificielle (IA) nommé Lavender, qui a une applicabilité minimale en matière de prise de décision humaine, pour sélectionner des cibles possibles, entraînant un nombre important de victimes civiles, selon une étude publiée dans le journal israélien +972. Revue.

Les machines peuvent le faire froidement

Récemment, l’Autriche a organisé une conférence sur la réglementation des armes IA afin de remédier aux effets dévastateurs qu’elles peuvent avoir. L’IA combat et cible déjà les humains et leurs colonies. Le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a déclaré :

« Nous ne pouvons pas laisser passer ce moment sans agir. Il est désormais temps de se mettre d’accord sur des règles et normes internationales pour garantir le contrôle humain. »

Source : Reuters.

La technologie que de nombreuses armées déploient dans les zones de guerre est encore loin d’être mature et n’est pas encore utilisée pour décider qui cibler. La technologie que nous appelons intelligente n’est pas encore aussi performante que le cerveau d’un chat ; même les experts disent que si nous atteignons le niveau d’intelligence d’une souris dans les années à venir, ce sera une grande réussite. 

Mais le niveau de dépendance à son égard est si élevé qu’il est déployé brutalement d’une manière qui déshumanise à la fois la cible et celui qui dispose de la puissance de feu. Cela soulève de sérieuses questions sur des préoccupations morales, humanitaires et éthiques. 

En tant qu'humains, nous avons des griefs, mais pour éviter qu'un soldat ne soit en deuil, les militaires peuvent désormais utiliser cette nouvelle arme, comme le magazine +972 mentionne une source secrète du renseignement qui a déclaré :

« La machine l’a fait froidement. Et cela a rendu les choses plus faciles.

Source : Revue +972.

Est-il vraiment important que les gens soient impliqués dans le processus de sélection ? Interrogé par un autre utilisateur de Lavender, il a répondu qu'à ce stade, il consacrerait 20 secondes à chaque objectif et en accomplirait des dizaines chaque jour. En plus d’être un sceau d’approbation officiel, il n’avait aucune valeur supplémentaire en tant qu’humain. C'était un gain de temps considérable.

Il est facile de comprendre à quel point nous, les humains, cédons volontiers notre pouvoir de décision aux machines.

Les accords internationaux sont encore loin

Les États-Unis ont lancé des efforts de réglementation grâce à la mise en œuvre de la Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. La proclamation inclut également l'Australie. Toutefois, un accord international est encore très loin.

La déclaration mentionne qu'il est essentiel d'assurer des garanties, car elle indique que,

« Les États devraient mettre en œuvre des garanties appropriées pour atténuer les risques de défaillance des capacités militaires d’IA, telles que la capacité de détecter et d’éviter des conséquences imprévues et la capacité de réagir, par exemple en désengageant ou en désactivant les systèmes déployés, lorsque ces systèmes présentent un comportement involontaire. »

Source : Département d'État américain.

Le document souligne également que l’utilisation de l’IA dans l’armée « peut et doit être » éthique, tout en renforçant la sécurité internationale. Mais les réalités sur le terrain montrent une image totalement différente, comme indiqué ci-dessus.

La recherche et la localisation du personnel militaire ennemi constituent une application de ces systèmes ; avec l’innovation en matière de dynamitage, nous n’avons aucune idée des autres utilisations militaires complexes qui pourraient en découler. 

A lire aussi : Kaspersky nie les allégations d'aide à l'armée russe

Le débat visant à exclure l’IA de la guerre ne semble pas être une option à l’heure actuelle, mais les législateurs du monde entier et les gouvernements impliqués dans des conflits doivent adhérer au manque de capacités de l’IA et aux ravages potentiels qu’elle pourrait causer. nous les humains.

Actuellement, l’élaboration des politiques ne parvient pas à suivre le rythme de l’innovation, et il faut remédier à ce problème dans une certaine mesure, voire complètement, car nous ne pouvons pas simplement nous asseoir et dire : wow ! L'IA a tué 1 000 autres personnes. Que va présenter l’IA ? Nous ne le savons pas encore, mais ce que devraient faire les décideurs politiques n’est pas une question réservée aux génies.

Reportage cryptopolitain d'Aamir Sheikh.