Izrael jest oskarżony o identyfikowanie celów nalotów w Gazie przy użyciu systemu sztucznej inteligencji, co umożliwiło masakrę kilku cywilów. Z niedawnego dochodzenia przeprowadzonego przez izraelski magazyn +972 i Local Call wynika, że ​​izraelskie wojsko rzekomo wykorzystało opartą na sztucznej inteligencji bazę danych o nazwie Lavender do stworzenia listy 37 000 możliwych celów wyraźnie powiązanych z Hamasem.

Od 7 października w Gazie zginęło ponad 33 000 Palestyńczyków, a sześć niezidentyfikowanych źródeł izraelskiego wywiadu, które rozmawiało z numerem +972, stwierdziło, że izraelscy dowódcy wojskowi wykorzystali listę celów do zatwierdzania nalotów, które spowodowały wyjątkowo duże straty wśród ludności cywilnej.

Niszczycielskie działania wojenne i systemy wojskowe AI

Systemy wojskowe oparte na sztucznej inteligencji (AI), takie jak izraelskie oprogramowanie Lavender, doprowadziły do ​​większych zniszczeń w miejscach objętych konfliktem, takich jak Gaza. Znana ze swojej niesamowitej zdolności do wykrywania osób Hamasu, lawenda stała się bronią obosieczną, która przecina społeczności cywilne i niszczy życie na swojej drodze. Podany współczynnik dokładności wynoszący 90% kryje w sobie straszliwą rzeczywistość: nieostrożne użycie tej technologii może zabić niewinnych przechodniów, którzy znajdą się w krzyżowym ogniu.

Źródło podało 972mag, że

„Prosi się nas, abyśmy poszukali wieżowców o połowie piętra, które można przypisać Hamasowi” – ​​dodał.

Źródło: +972mag

Jak powszechnie wiadomo, sztuczna inteligencja działa w oparciu o wiele czynników, a dokładność tych parametrów zależy od ich precyzyjnego dostrojenia. Zmień parametry danych, a komputer zacznie przedstawiać nam różnych funkcjonariuszy policji i obrony cywilnej, przeciwko którym użycie bomb byłoby niewłaściwe – podało inne źródło.

Kolejnym wątpliwym kryterium było to, czy telefony komórkowe były regularnie zmieniane; większość Gazańczyków na co dzień zmagała się ze społecznym chaosem wojny. Każda osoba, która pomaga Hamasowi bez otrzymania zapłaty lub która była poprzednim członkiem, została również oznaczona przez algorytm jako podejrzana.

Jak podało źródło 971mag:

„Każda z tych funkcji jest niedokładna”

Źródło: +972mag

Etyczna zagadka automatyzacji na polu walki

Głęboko etyczne problemy związane z działaniami wojennymi opartymi na sztucznej inteligencji stają się coraz bardziej palące, gdy rozwiewa się dym ze stref bitew. Kiedyś okrzyknięta środkiem odstraszającym nieokiełznaną automatyzację, idea „ludzi w pętli” jest dziś postrzegana jako cienka linia oddzielająca oceny algorytmiczne od ich praktycznych implikacji. Wnikliwy wgląd w sposób myślenia osób, których zadaniem jest nadzorowanie złożoności współczesnych działań wojennych, dają zeznania izraelskich dowódców debatujących nad moralnymi konsekwencjami przemocy możliwej dzięki sztucznej inteligencji.

Odkąd stało się jasne, jak katastrofalny może być konflikt wywołany sztuczną inteligencją, w głowach ludzi pojawia się jedno zmartwienie: czy ludzi naprawdę stać na zapewnienie maszynom przewagi w sprawach życia i śmierci? Moralna odpowiedzialność i odpowiedzialne zarządzanie są ważniejsze niż kiedykolwiek, gdy narody zmagają się z moralnymi konsekwencjami automatyzacji i prawdziwym niebezpieczeństwem przemocy opartej na sztucznej inteligencji. Niebezpieczeństwa związane z nieokiełznanym rozwojem technologicznym są jaskrawo zilustrowane lekcjami historycznymi w świecie stojącym u progu nowego, przerażającego okresu wojny.