Israelul este însărcinat cu identificarea țintelor pentru atacurile aeriene din Gaza folosind un sistem de inteligență artificială, permițând astfel masacrul mai multor civili. Armata israeliană ar fi folosit o bază de date bazată pe inteligență artificială numită Lavender pentru a crea o listă de 37.000 de ținte posibile cu legături aparente cu Hamas, potrivit unei investigații recente a revistei +972 Magazine and Local Call din Israel.

Peste 33.000 de palestinieni au murit în Gaza din 7 octombrie, iar șase surse neidentificate de informații israeliene care au discutat cu +972 au susținut că comandanții militari israelieni au folosit lista de ținte pentru a aproba atacurile aeriene care au dus la victime civile excepțional de mari.

Ravagiile războiului și ale sistemelor militare AI

Sistemele militare bazate pe inteligența artificială (AI), cum ar fi software-ul Lavender al Israelului, au dus la mai multe devastări în locuri de conflict precum Gaza. Renumită pentru capacitatea sa neobișnuită de a detecta personalul Hamas, levănțica s-a transformat într-o armă cu două tăișuri care zdrobește comunitățile civile și distruge vieți în calea sa. Rata de precizie declarată de 90% ascunde realitatea teribilă a modului în care această tehnologie, atunci când este folosită neglijent, poate ucide trecători nevinovați prinși în focul încrucișat.

O sursă a declarat pentru 972mag că,

„Ni se cere să căutăm clădiri înalte cu jumătate de etaj care pot fi atribuite Hamas”,

Sursa: +972mag

După cum se știe, inteligența artificială operează pe o varietate de factori, iar acuratețea acestor parametri depinde de reglarea lor fină. Schimbați parametrii datelor, iar computerul începe să ne prezinte o varietate de oficiali de poliție și apărare civilă, împotriva cărora ar fi nepotrivit să folosim bombe, a spus o altă sursă.

Un alt criteriu îndoielnic a fost dacă telefoanele mobile au fost sau nu schimbate în mod regulat; majoritatea locuitorilor din Gaza s-au confruntat zilnic cu haosul social al războiului. Orice persoană care ajută Hamas fără a primi plată sau care a fost membru anterior a fost, de asemenea, marcată ca suspectă de algoritm.

După cum a spus sursa 971mag,

„Fiecare dintre aceste caracteristici este inexactă”

Sursa: +972mag

Puzzle-ul etic al automatizării pe câmpul de luptă

Problemele profund etice legate de războiul condus de AI devin din ce în ce mai presante atunci când fumul din zonele de luptă se risipește. Odinioară salutată ca un factor de descurajare pentru automatizarea nestăpânită, ideea de „oameni în buclă” este astăzi văzută ca o linie subțire care separă judecățile algoritmice de implicațiile lor practice. Mărturiile comandanților israelieni care dezbat consecințele morale ale violenței făcute posibile de inteligența artificială oferă o privire perspectivă asupra gândirii celor însărcinați cu supravegherea complexității războiului modern.

De când a devenit evident cât de dezastruos poate fi conflictul condus de inteligență artificială, o îngrijorare a fost în mintea oamenilor: își pot permite oamenii cu adevărat să dea mașinilor mâna de sus în chestiuni de viață și moarte? Responsabilitatea morală și administrarea responsabilă sunt mai cruciale ca niciodată, pe măsură ce națiunile se confruntă cu consecințele morale ale automatizării și cu pericolul real al violenței bazate pe inteligența artificială. Pericolele creșterii tehnologice nestăpânite sunt clar ilustrate de lecțiile istorice într-o lume aflată în pragul unei noi perioade groaznice de război.