Roboții ucigași sunt deja pe câmpul de luptă și își dovedesc arme destul de distructive. Ar trebui să fim îngrijorați – de fapt foarte îngrijorați. Deoarece și-au dovedit potențialul mortal în războaiele din Gaza și Ucraina, consecințele ar putea fi devastatoare dacă sunt tratate cu neglijență. La 3 aprilie, revista +972, o publicație israeliană a publicat un raport despre utilizarea de către Israel a AI pentru identificarea țintelor din Gaza.

Sistemul de inteligență artificială se numește Lavender și se spune că a organizat liste de ucideri ale personalului suspectat al Hamas, inclusiv a celor care lucrează în rândurile inferioare. Nu avem idee cât de corecte au fost listele, dar cel mai îngrijorător fapt este că au fost folosite pentru a viza militanții chiar dacă aceștia se aflau în casele lor cu familiile și copiii și mulți civili în jur. Graficul de mai jos arată numărul de victime și răniți până pe 15 aprilie.

Sursa: Statista. Algoritmii spun pe cine să țintească

După cum este evident din numărul mare de morți de civili și amploarea masivă a distrugerii infrastructurii după invazia Israelului în Gaza, raportul a provocat îngrijorări serioase în jurul societăților umanitare, oficialilor guvernamentali și oricărei persoane sensibile de pe glob și SUA. Antonio Guterres, secretarul general al Națiunilor Unite, a spus că este „profund tulburat”, iar John Kirby, purtătorul de cuvânt al Casei Albe, a spus că „SUA analizează îndeaproape raportul”.

Guterres și-a arătat mai multă îngrijorare pentru victime și a spus:

„Nici o parte a deciziilor de viață sau de moarte care afectează familii întregi nu ar trebui să fie delegată calculului rece al algoritmilor.”

Sursa: Worldpoliticsreview.

Raportul a fost publicat după incidentul în care Israelul a vizat și ucis șapte lucrători occidentali, iar unii dintre ei erau foști militari britanici. Desigur, acest lucru i-a determinat pe judecătorii și avocații din Marea Britanie să oprească vânzările de arme către Israel din cauza crimelor de război și a încălcărilor grave ale dreptului internațional.

O altă dimensiune a gândirii la roboții ucigași

Aljazeera vizualizează scene din Gaza în noiembrie, pe baza statisticilor OCHA. Sursa: Aljazeera.

Campania pentru a opri roboții ucigași și-a arătat îngrijorarea, dar a spus că nu este ceea ce face campania împotriva lor din 2012, deoarece, potrivit acestora, este un sistem de prelucrare a datelor, iar decizia finală de a trage rămâne în mâinile omului, dar una dintre declarațiile lor oferă o altă dimensiune. să se gândească la. Declarația a venit după publicarea știrii, se spunea:

„Lipsa unui control uman semnificativ și a angajamentului implicat în deciziile de a ataca țintele recomandate.”

Sursa: Worldpoliticsreview.

Această declarație folosește cuvântul „lipsă de control uman semnificativ”, care adaugă un alt nivel de complexitate la inteligența artificială și roboții ucigași, deja condamnați, și oferă, de asemenea, militanților o nouă preocupare pentru care să susțină.

Inteligența artificială este de obicei descrisă ca că ar putea într-o zi să cucerească planeta și să provoace daune catastrofale, chiar și dispariția umană. Dar un fapt mai îngrijorător este că forțele care le folosesc vor folosi mai puțină precauție în timp ce țintesc, îi va face mai puțin responsabili, ceea ce îi va determina să ia decizii neetice în războaie, așa cum am văzut deja în Gaza. Deci, la sfârșitul zilei, nu este vorba despre roboți care iau decizii împotriva oamenilor, ci despre oameni care iau decizii robotice fără a-și folosi la maximum propriile abilități cognitive în astfel de situații sensibile de viață și de moarte. După cum menționează raportul, o sursă spune:

„Mașina a făcut-o la rece.”

Sursa: +972mag.

Există, de asemenea, un alt unghi, acesta poate deteriora capacitatea programatorilor de a comunica eficient cu sistemele AI, care vor ajunge în crime de război.

Știrea originală poate fi văzută aici.