Israele è incaricato di identificare gli obiettivi degli attacchi aerei su Gaza utilizzando un sistema di intelligenza artificiale, consentendo così il massacro di diversi civili. Secondo una recente indagine condotta da +972 Magazine and Local Call, con sede in Israele, l’esercito israeliano avrebbe utilizzato un database basato sull’intelligenza artificiale chiamato Lavender per creare un elenco di 37.000 possibili obiettivi con evidenti legami con Hamas.

Più di 33.000 palestinesi sono morti a Gaza dal 7 ottobre, e sei fonti non identificate dell’intelligence israeliana che hanno parlato con +972 hanno affermato che i comandanti militari israeliani hanno utilizzato l’elenco degli obiettivi per approvare attacchi aerei che hanno provocato vittime civili eccezionalmente elevate.

Le devastazioni della guerra e dei sistemi militari di intelligenza artificiale

I sistemi militari basati sull’intelligenza artificiale (AI), come il software israeliano Lavender, hanno portato a ulteriori devastazioni in luoghi di conflitto come Gaza. Famosa per la sua straordinaria capacità di individuare elementi personali di Hamas, la lavanda si è trasformata in un’arma a doppio taglio che squarcia le comunità civili e frantuma vite umane sul suo cammino. Il tasso di precisione dichiarato del 90% nasconde la terribile realtà di come questa tecnologia, se usata con noncuranza, può uccidere passanti innocenti coinvolti nel fuoco incrociato.

Una fonte ha detto a 972mag che,

“Ci viene chiesto di cercare grattacieli di mezzo piano che possano essere attribuiti ad Hamas”,

Fonte: +972mag

Come è noto, l’intelligenza artificiale opera su una molteplicità di fattori, e la precisione di questi parametri dipende dalla loro messa a punto. Cambiamo i parametri dei dati e il computer comincia a presentarci una serie di funzionari della polizia e della protezione civile, contro i quali sarebbe inappropriato usare le bombe, ha detto un'altra fonte.

Un altro criterio dubbio era se i cellulari venissero cambiati regolarmente oppure no; la maggior parte degli abitanti di Gaza ha dovuto affrontare quotidianamente il caos sociale della guerra. Allo stesso modo, qualsiasi individuo che aiuta Hamas senza ricevere alcun compenso o che era un membro precedente è stato contrassegnato come sospetto dall’algoritmo.

Come ha detto la fonte di 971mag,

"Ognuna di queste funzionalità è imprecisa"

Fonte: +972mag

Il puzzle etico dell’automazione sul campo di battaglia

I problemi profondamente etici legati alla guerra guidata dall’intelligenza artificiale diventano sempre più pressanti quando il fumo dalle zone di battaglia si dissipa. Un tempo acclamata come un deterrente contro l’automazione sfrenata, l’idea di “humans in the loop” è oggi vista come una linea sottile che separa i giudizi algoritmici dalle loro implicazioni pratiche. Uno sguardo penetrante sul pensiero di coloro che hanno il compito di supervisionare le complessità della guerra moderna è offerto dalle testimonianze dei comandanti israeliani che stanno discutendo sulle conseguenze morali della violenza resa possibile dall’intelligenza artificiale.

Da quando è diventato evidente quanto possano essere disastrosi i conflitti guidati dall’intelligenza artificiale, una preoccupazione è stata nella mente delle persone: gli esseri umani possono davvero permettersi di dare alle macchine il sopravvento in questioni di vita e di morte? La responsabilità morale e la gestione responsabile sono più cruciali che mai mentre le nazioni sono alle prese con le conseguenze morali dell’automazione e il pericolo reale della violenza derivante dall’intelligenza artificiale. I pericoli di una crescita tecnologica sfrenata sono chiaramente illustrati dalle lezioni storiche in un mondo sull’orlo di un nuovo, orribile periodo di guerra.