Israël est chargé d'identifier les cibles des frappes aériennes à Gaza grâce à un système d'intelligence artificielle, permettant ainsi le massacre de plusieurs civils. L’armée israélienne aurait utilisé une base de données alimentée par l’IA appelée Lavender pour créer une liste de 37 000 cibles possibles ayant des liens apparents avec le Hamas, selon une enquête récente menée par le magazine +972 et Local Call, basé en Israël.

Plus de 33 000 Palestiniens sont morts à Gaza depuis le 7 octobre, et six sources non identifiées des renseignements israéliens qui ont parlé avec +972 ont affirmé que les commandants militaires israéliens ont utilisé la liste de cibles pour approuver des frappes aériennes qui ont entraîné des pertes civiles exceptionnellement élevées.

Les ravages de la guerre et des systèmes militaires d’IA

Les systèmes militaires basés sur l’intelligence artificielle (IA), tels que le logiciel israélien Lavender, ont provoqué davantage de dégâts dans des zones de conflit comme Gaza. Réputée pour son étrange capacité à détecter les membres du Hamas, la lavande est devenue une arme à double tranchant qui ravage les communautés civiles et brise les vies sur son passage. Le taux de précision déclaré de 90 % cache la terrible réalité selon laquelle cette technologie, utilisée avec négligence, peut tuer des passants innocents pris entre deux feux.

Une source a déclaré à 972mag que,

« On nous demande de rechercher des immeubles de grande hauteur d’un demi-étage pouvant être attribués au Hamas »

Source : +972mag

Comme chacun le sait, l’intelligence artificielle agit sur divers facteurs, et la précision de ces paramètres dépend de leur réglage fin. Changez les paramètres des données et l'ordinateur commence à nous présenter une variété de responsables de la police et de la protection civile contre lesquels il serait inapproprié d'utiliser des bombes, a déclaré une autre source.

Un autre critère douteux était de savoir si les téléphones portables étaient changés régulièrement ou non ; la plupart des habitants de Gaza étaient quotidiennement confrontés au chaos social de la guerre. Toute personne qui aide le Hamas sans recevoir de paiement ou qui en était un ancien membre a également été marquée comme suspecte par l'algorithme.

Comme l'a dit une source de 971mag,

« Chacune de ces caractéristiques est inexacte »

Source : +972mag

Le casse-tête éthique de l’automatisation sur le champ de bataille

Les problèmes profondément éthiques liés à la guerre pilotée par l’IA deviennent de plus en plus pressants à mesure que la fumée des zones de combat se dissipe. Autrefois saluée comme un moyen de dissuasion contre une automatisation effrénée, l’idée des « humains impliqués » est aujourd’hui considérée comme une ligne mince séparant les jugements algorithmiques de leurs implications pratiques. Un aperçu perspicace de la pensée de ceux chargés de superviser les complexités de la guerre moderne est offert par les témoignages de commandants israéliens qui débattent des conséquences morales de la violence rendue possible par l’intelligence artificielle.

Depuis qu’il est devenu évident à quel point les conflits provoqués par l’IA pouvaient être désastreux, une préoccupation préoccupe les gens : les humains peuvent-ils vraiment se permettre de donner le dessus aux machines en matière de vie ou de mort ? La responsabilité morale et la gestion responsable sont plus cruciales que jamais alors que les nations sont aux prises avec les conséquences morales de l’automatisation et le danger réel de la violence permise par l’IA. Les dangers d’une croissance technologique effrénée sont clairement illustrés par les leçons historiques d’un monde au bord d’une nouvelle période de guerre horrible.