I robot assassini sono già sul campo di battaglia e si stanno dimostrando armi piuttosto distruttive. Dovremmo essere preoccupati, anzi molto preoccupati. Poiché hanno dimostrato il loro potenziale mortale nelle guerre a Gaza e in Ucraina, le conseguenze potrebbero essere devastanti se gestiti con negligenza. Il 3 aprile, la rivista +972, una pubblicazione israeliana, ha pubblicato un rapporto sull’uso dell’intelligenza artificiale da parte di Israele per identificare obiettivi a Gaza.
Il sistema di intelligenza artificiale si chiama Lavender e si dice che abbia curato elenchi di uccisioni di sospetti membri di Hamas, compresi quelli che lavorano nei ranghi inferiori. Non abbiamo idea di quanto fossero corretti gli elenchi, ma il fatto più preoccupante è che è stato utilizzato per prendere di mira i militanti anche se erano nelle loro case con le loro famiglie, i bambini e molti civili in giro. Il grafico seguente mostra il numero di vittime e feriti fino al 15 aprile.
Fonte: Statista. Gli algoritmi dicono chi prendere di mira
Come risulta evidente dall’elevato numero di morti civili e dalla massiccia distruzione delle infrastrutture dopo l’invasione israeliana di Gaza, il rapporto ha suscitato serie preoccupazioni nelle società umanitarie, nei funzionari governativi e in ogni individuo sensato in tutto il mondo e negli Stati Uniti. Antonio Guterres, segretario generale delle Nazioni Unite, si è detto “profondamente turbato” e John Kirby, portavoce della Casa Bianca, ha affermato che “gli Stati Uniti stanno esaminando attentamente il rapporto”.
Guterres ha mostrato più preoccupazione per le vittime e ha detto:
“Nessuna parte delle decisioni sulla vita e sulla morte che hanno un impatto su intere famiglie dovrebbe essere delegata al freddo calcolo degli algoritmi”.
Fonte: Worldpoliticsreview.
Il rapporto è stato pubblicato dopo l’incidente in cui Israele ha preso di mira e ucciso sette operatori umanitari occidentali, alcuni dei quali erano ex militari britannici. Ciò ovviamente ha spinto giudici e avvocati di tutta la Gran Bretagna a fermare le vendite di armi a Israele a causa dei suoi crimini di guerra e delle gravi violazioni del diritto internazionale.
Un’altra dimensione del pensare ai robot killer
Aljazeera visualizzava scene a Gaza a novembre sulla base delle statistiche dell'OCHA. Fonte: Aljazeera.
La Campagna per fermare i Killer Robots ha espresso le sue preoccupazioni ma ha affermato che non è ciò contro cui si battevano dal 2012, poiché secondo loro si tratta di un sistema di elaborazione dati e la decisione finale di licenziare rimane nelle mani dell'uomo, ma una delle loro dichiarazioni fornisce un'altra dimensione pensare a. La dichiarazione è arrivata dopo la pubblicazione della notizia, si legge,
“Mancanza di controllo e impegno umani significativi coinvolti nelle decisioni di attaccare gli obiettivi raccomandati”.
Fonte: Worldpoliticsreview.
Questa affermazione utilizza la parola “mancanza di controllo umano significativo”, che aggiunge un ulteriore livello di complessità all’intelligenza artificiale e ai robot killer già condannati, e fornisce inoltre agli attivisti una nuova preoccupazione da difendere.
L’intelligenza artificiale viene solitamente descritta come se un giorno potesse prendere il controllo del pianeta e causare danni catastrofici, persino l’estinzione umana. Ma un fatto più preoccupante è che le forze che li utilizzano useranno meno cautela nel prendere di mira, questo li renderà meno responsabili, il che li porterà a prendere decisioni non etiche nelle guerre, come abbiamo già visto a Gaza. Quindi, alla fine, non si tratta di robot che prendono decisioni contro gli esseri umani, ma di esseri umani che prendono decisioni robotiche senza utilizzare appieno le proprie capacità cognitive in situazioni di vita e di morte così delicate. Come il rapporto menziona una fonte che dice,
"La macchina lo ha fatto con freddezza."
Fonte: +972mag.
C’è anche un altro aspetto: questo può corrompere la capacità dei programmatori di comunicare in modo efficace con i sistemi di intelligenza artificiale, il che comporterebbe crimini di guerra.
La notizia originale può essere vista qui.