Izraēlai tiek uzdots identificēt mērķus gaisa triecieniem Gazā, izmantojot mākslīgā intelekta sistēmu, tādējādi nodrošinot vairāku civiliedzīvotāju slaktiņu. Saskaņā ar Izraēlā bāzētā žurnāla +972 Magazine and Local Call nesen veikto izmeklēšanu Izraēlas militārpersonas, iespējams, izmantoja mākslīgā intelekta darbinātu datubāzi Lavender, lai izveidotu sarakstu ar 37 000 iespējamiem mērķiem, kuriem ir acīmredzama saistība ar Hamas.

Kopš 7. oktobra Gazā ir gājuši bojā vairāk nekā 33 000 palestīniešu, un seši neidentificēti Izraēlas izlūkdienestu avoti, kas sazinājās ar +972, apgalvoja, ka Izraēlas militārie komandieri izmantojuši mērķu sarakstu, lai apstiprinātu gaisa triecienus, kas izraisīja ārkārtīgi lielus civiliedzīvotāju upurus.

Kara un AI militāro sistēmu postījumi

Mākslīgā intelekta (AI) vadītās militārās sistēmas, piemēram, Izraēlas programmatūra Lavender, ir izraisījušas lielāku postījumu tādās konflikta vietās kā Gaza. Lavanda, kas ir slavena ar savu neparasto spēju atklāt Hamas personīgos, ir pārvērtusies par abpusēji griezīgu ieroci, kas laužas cauri civilajām kopienām un sagrauj dzīvības savā ceļā. Norādītais 90% precizitātes līmenis slēpj šausmīgo realitāti par to, kā šī tehnoloģija, ja to izmanto neuzmanīgi, var nogalināt nevainīgus blakussēdētājus, kas nonākuši krustugunīs.

Kāds avots 972mag pastāstīja, ka

"Mums tiek lūgts meklēt daudzstāvu ēkas ar pusstāvu, ko varētu attiecināt uz Hamas,"

Avots: +972mag

Kā zināms, mākslīgais intelekts darbojas ar dažādiem faktoriem, un šo parametru precizitāte ir atkarīga no to precīzās noregulēšanas. Mainiet datu parametrus, un dators sāk mūs iepazīstināt ar dažādiem policijas un civilās aizsardzības darbiniekiem, pret kuriem nebūtu pareizi izmantot bumbas, sacīja cits avots.

Vēl viens apšaubāms kritērijs bija tas, vai mobilie tālruņi tika regulāri mainīti vai nē; lielākā daļa gazas iedzīvotāju ikdienā nodarbojās ar kara sociālo haosu. Algoritms arī atzīmēja kā aizdomīgu personu, kas palīdz Hamas, nesaņemot samaksu vai bija iepriekšējais dalībnieks.

Kā teica 971mag avots,

“Katra no šīm funkcijām ir neprecīza”

Avots: +972mag

Automatizācijas ētiskā mīkla kaujas laukā

Dziļi ētiskas problēmas saistībā ar AI vadītu karu kļūst arvien aktuālākas, kad dūmi no kaujas zonām izklīst. Kādreiz ideja par “cilvēkiem cilpā” tika slavēta kā līdzeklis, kas attur no nevaldāmas automatizācijas, šodien tiek uzskatīta par šauru līniju, kas atdala algoritmiskos spriedumus no to praktiskām sekām. Izsmeļošu ieskatu to cilvēku domāšanā, kuru uzdevums ir pārraudzīt mūsdienu karadarbības sarežģītību, piedāvā Izraēlas komandieru liecības, kuri apspriež mākslīgā intelekta radītās vardarbības morālās sekas.

Kopš kļuva skaidrs, cik katastrofāls var būt mākslīgā intelekta izraisīts konflikts, cilvēku prātos ir radušās bažas: vai cilvēki tiešām var atļauties dot mašīnas pārsvaru dzīvības un nāves jautājumos? Morālā atbildība un atbildīga pārvaldība ir svarīgāka nekā jebkad agrāk, jo valstis cīnās ar automatizācijas morālajām sekām un AI izraisītas vardarbības reālajiem draudiem. Neierobežotas tehnoloģiskās izaugsmes briesmas spilgti ilustrē vēsturiskās mācības pasaulē, kas atrodas uz šausminoša jauna karadarbības perioda robežas.