Zabójcze roboty są już na polu bitwy i okazują się raczej niszczycielską bronią. Powinniśmy się martwić – a właściwie bardzo martwić. Ponieważ udowodniły swój śmiercionośny potencjał w wojnach w Gazie i na Ukrainie, konsekwencje mogą być druzgocące, jeśli nieostrożnie się z nimi postąpi. 3 kwietnia w czasopiśmie +972 izraelska publikacja opublikowała raport na temat wykorzystania przez Izrael sztucznej inteligencji do identyfikacji celów w Gazie.
System sztucznej inteligencji nazywa się Lavender i mówi się, że zarządzał listami zabójstw podejrzanych pracowników Hamasu, w tym pracowników niższych szczebli. Nie mamy pojęcia, jak dokładne były te listy, ale najbardziej niepokojący jest fakt, że wykorzystywano je do atakowania bojowników, nawet jeśli przebywali oni w swoich domach z rodzinami i dziećmi oraz wieloma cywilami w pobliżu. Poniższy wykres pokazuje liczbę ofiar i rannych do 15 kwietnia.
źródło: Statista. Algorytmy mówią, do kogo kierować reklamy
Jak wynika z dużej liczby ofiar śmiertelnych wśród cywilów i masowej skali zniszczeń infrastruktury po izraelskiej inwazji na Gazę, raport wywołał poważne obawy wśród organizacji humanitarnych, urzędników rządowych i każdej rozsądnej osoby na całym świecie i w USA. Sekretarz Generalny Organizacji Narodów Zjednoczonych Antonio Guterres powiedział, że jest „głęboko zaniepokojony”, a rzecznik Białego Domu John Kirby powiedział, że „Stany Zjednoczone dokładnie analizują raport”.
Guterres okazał większe zaniepokojenie ofiarami i powiedział:
„Żadnej części decyzji dotyczących życia i śmierci, które mają wpływ na całą rodzinę, nie należy oddawać zimnym kalkulacjom algorytmów”.
Źródło: Worldpoliticsreview.
Raport opublikowano po incydencie, w którym Izrael wziął na cel i zabił siedmiu zachodnich pracowników organizacji humanitarnych, a niektórzy z nich byli byłymi brytyjskimi wojskowymi. To oczywiście skłoniło sędziów i prawników w całej Wielkiej Brytanii do zaprzestania sprzedaży broni do Izraela ze względu na jego zbrodnie wojenne i poważne naruszenia prawa międzynarodowego.
Inny wymiar myślenia o robotach-zabójcach
Aljazeera wizualizuje sceny w Gazie w listopadzie na podstawie statystyk OCHA. źródło: Aljazeera.
Kampania na rzecz Zatrzymania Zabójczych Robotów wyraziła swoje obawy, ale stwierdziła, że nie jest to tym, przeciwko czemu walczyli od 2012 roku, ponieważ według nich jest to system przetwarzania danych i ostateczna decyzja o oddaniu strzału pozostaje w rękach ludzi, ale jedno z jej stwierdzeń nadaje inny wymiar myśleć o. Oświadczenie nadeszło po opublikowaniu wiadomości i napisano, że:
„Brak znaczącej kontroli ludzkiej i zaangażowania w podejmowanie decyzji o ataku na zalecane cele”.
Źródło: Worldpoliticsreview.
W oświadczeniu tym użyto słowa „brak znaczącej kontroli ze strony człowieka”, co dodaje kolejną warstwę złożoności do już potępionej sztucznej inteligencji i zabójczych robotów, a także dostarcza działaczom kampanii nowego problemu, za którym warto się opowiadać.
Sztuczna inteligencja jest zwykle przedstawiana w taki sposób, że pewnego dnia może przejąć kontrolę nad planetą i spowodować katastrofalne szkody, a nawet wyginięcie ludzkości. Jednak bardziej niepokojący jest fakt, że siły, które ich używają, będą mniej ostrożne podczas namierzania celów, sprawi to, że będą mniej odpowiedzialne, co spowoduje, że będą podejmować nieetyczne decyzje podczas wojen, jak widzieliśmy już w Gazie. Ostatecznie nie chodzi tu o podejmowanie decyzji przeciwko ludziom, ale o ludzi podejmujących decyzje w sposób automatyczny, bez wykorzystania w pełnym zakresie własnych zdolności poznawczych w tak delikatnych sytuacjach życia i śmierci. Jak podaje raport źródło:
„Maszyna zrobiła to na zimno”.
Źródło: +972mag.
Jest to również inny aspekt: może to zaburzyć zdolność programistów do skutecznej komunikacji z systemami sztucznej inteligencji, co zakończy się zbrodniami wojennymi.
Oryginalną wiadomość można zobaczyć tutaj.