Izrael je obviněn z identifikace cílů pro nálety v Gaze pomocí systému umělé inteligence, což umožňuje masakr několika civilistů. Podle nedávného vyšetřování izraelského časopisu +972 Magazine and Local Call izraelská armáda údajně využila databázi s umělou inteligencí nazvanou Lavender k vytvoření seznamu 37 000 možných cílů se zjevnými vazbami na Hamás.

Od 7. října zemřelo v Gaze více než 33 000 Palestinců a šest neidentifikovaných izraelských zpravodajských zdrojů, které hovořily s +972, tvrdilo, že izraelští vojenští velitelé využili seznam cílů ke schválení náletů, které vedly k mimořádně vysokým civilním obětem.

Zpustošení válčení a vojenských systémů AI

Vojenské systémy řízené umělou inteligencí (AI), jako je izraelský software Lavender, vedly k větší devastaci v místech konfliktů, jako je Gaza. Levandule, proslulá svou neobvyklou schopností odhalit osoby Hamásu, se proměnila v dvousečnou zbraň, která proráží civilní komunity a ničí životy, které jí stojí v cestě. Uvedená míra přesnosti 90 % skrývá strašlivou realitu toho, jak tato technologie může při neopatrném používání zabít nevinné kolemjdoucí, kteří se ocitli v křížové palbě.

Zdroj řekl 972mag, že

"Jsme požádáni, abychom hledali výškové budovy s polovičním podlažím, které lze připsat Hamásu,"

Zdroj: +972mag

Jak je dobře známo, umělá inteligence působí na různé faktory a přesnost těchto parametrů závisí na jejich jemném vyladění. Změníme parametry dat a počítač nám začne prezentovat nejrůznější policisty a představitele civilní obrany, proti kterým by bylo nevhodné používat bomby, uvedl jiný zdroj.

Dalším pochybným kritériem bylo, zda se mobilní telefony pravidelně měnily; většina obyvatel Gazy se denně potýkala se sociálním chaosem války. Každý jednotlivec, který pomáhá Hamasu, aniž by obdržel platbu, nebo který byl předchozím členem, byl algoritmem rovněž označen jako podezřelý.

Jak řekl zdroj 971mag,

„Každá z těchto funkcí je nepřesná“

Zdroj: +972mag

Etická hádanka automatizace na bojišti

Hluboce etické problémy válčení řízeného umělou inteligencí jsou stále naléhavější, když se kouř z bojových zón rozptýlí. Myšlenka „člověka ve smyčce“ byla kdysi oslavována jako odstrašující prostředek bezuzdné automatizace a dnes je vnímána jako tenká čára oddělující algoritmické úsudky od jejich praktických důsledků. Zasvěcený pohled do myšlení těch, kdo mají za úkol dohlížet na složitost moderního válčení, nabízejí svědectví izraelských velitelů, kteří diskutují o morálních důsledcích násilí umožněného umělou inteligencí.

Od té doby, co se ukázalo, jak katastrofální může být konflikt řízený umělou inteligencí, se v mysli lidí objevila jedna obava: mohou si lidé skutečně dovolit dát strojům navrch ve věcech života a smrti? Morální odpovědnost a odpovědné správcovství jsou důležitější než kdy jindy, protože národy zápasí s morálními důsledky automatizace a skutečným nebezpečím násilí s umělou inteligencí. Nebezpečí nespoutaného technologického růstu ostře ilustrují historické lekce ve světě na pokraji strašlivého nového období válčení.