Ostatnio nagłówki gazet skupiają się na postępach w sztucznej inteligencji. Jednak sztuczna inteligencja istnieje już od dziesięcioleci i nadal będzie odgrywać dużą rolę w sposobie prowadzenia wojen w przyszłości, do szeregu zastosowań wojskowych i obronnych.

To nie tylko wojsko; być może czytasz ten tekst na urządzeniu, które już w dużym stopniu opiera się na sztucznej inteligencji; dlatego prawdopodobnie korzystałeś już w pewnym stopniu ze sztucznej inteligencji, jeszcze przed niedawną hooplą.

Sztuczną inteligencję najprawdopodobniej można zastosować w każdej sytuacji, w której płacisz za cokolwiek w Internecie, na przykład za jedzenie lub rozrywkę, wykorzystujesz twarz lub odcisk palca do odblokowania telefonu, korzystasz z mediów społecznościowych lub planujesz podróże za pośrednictwem aplikacji na telefon.

Przyzwyczailiśmy się do sztucznej inteligencji na różne sposoby, włączając ją – często nie zdając sobie z tego sprawy – w nasze codzienne życie.

Wojskowa sztuczna inteligencja istnieje od II wojny światowej

Chociaż od czasu II wojny światowej broń mogła podejmować pewne decyzje, sztuczna inteligencja umożliwia jej obecnie podejmowanie znacznie większej liczby decyzji i ostatecznie sprawi, że będą one powszechne.

Co by było, gdyby ktoś został zaatakowany, a oprogramowanie do rozpoznawania twarzy ustaliło jego tożsamość? Zamiast wskazywać najlepszą restaurację, w której można zjeść, co się stanie, jeśli podobne oprogramowanie poprowadzi samoloty do przeprowadzenia nalotu na cel?

Przeczytaj także: Czy przyjęcie systemów wojskowych AI przewiduje złowrogi zwrot w działaniach wojennych?

Jak na razie wygląda to na naprawdę duży problem. Pytanie brzmi, czy systemy sztucznej inteligencji rzeczywiście mogłyby samodzielnie podejmować decyzje dotyczące życia lub śmierci? Ich dokładność nie jest idealna i różni się w zależności od sytuacji, a wiemy, że nie zawsze są prawidłowe.

W rzeczywistych strefach konfliktu sztuczna inteligencja już wybiera osoby, na które należy celować, np. Gazę i Ukrainę. Z badań opublikowanych w izraelskim serwisie informacyjnym +972 mówi się, że Izrael użył systemu sztucznej inteligencji (AI) o nazwie Lavender, który ma minimalne zastosowanie w podejmowaniu decyzji przez człowieka, do wybierania możliwych celów, co doprowadziło do znacznej liczby ofiar wśród ludności cywilnej. Czasopismo.

Maszyny mogą to zrobić na zimno

Niedawno Austria zorganizowała konferencję, której celem było omówienie przepisów dotyczących broni sztucznej inteligencji w celu zaradzenia jej niszczycielskim skutkom. Sztuczna inteligencja już walczy i celuje w ludzi i ich osady. Minister spraw zagranicznych Austrii Alexander Schallenberg powiedział:

„Nie możemy pozwolić, aby ten moment minął bez podjęcia działań. Nadszedł czas, aby uzgodnić międzynarodowe zasady i normy zapewniające kontrolę człowieka”.

Źródło: Reuters.

Technologia, którą wiele sił zbrojnych wdraża w strefach działań wojennych, jest wciąż daleka od dojrzałości i nie jest jeszcze wykorzystywana do podejmowania decyzji, w kogo celować. Technologia, którą nazywamy inteligentną, nie jest jeszcze tak wydajna jak mózg kota; nawet eksperci twierdzą, że jeśli w nadchodzących latach osiągniemy poziom inteligencji myszy, będzie to duże osiągnięcie.

Jednak stopień uzależnienia od niej jest tak wysoki, że zostaje brutalnie zastosowany w sposób odczłowieczający zarówno cel, jak i tego, który ma siłę ognia. Rodzi poważne pytania o kwestie moralne, humanitarne i etyczne.

Jako ludzie mamy skargi, ale aby zapobiec pogrążeniu się w żałobie żołnierza, wojsko może teraz używać tej nowej broni, jak magazyn +972 wspomina tajne źródło wywiadu, które powiedziało:

„Maszyna zrobiła to na zimno. I to ułatwiło sprawę.”

Źródło: Magazyn +972.

Czy naprawdę ważne jest, aby ludzie byli zaangażowani w proces selekcji? Zapytany przez innego użytkownika Lavender, powiedział, że w tym momencie poświęcałby każdemu celowi 20 sekund i wykonywał ich dziesiątki każdego dnia. Poza tym, że był oficjalną pieczęcią uznania, nie miał żadnej dodatkowej wartości jako człowiek. Oszczędzało to sporo czasu.

Łatwo zrozumieć, ile mocy decyzyjnej my, ludzie, chętnie oddajemy maszynom.

Umowy międzynarodowe są wciąż odległe

Stany Zjednoczone rozpoczęły działania regulacyjne poprzez wdrożenie Deklaracji politycznej w sprawie odpowiedzialnego wykorzystania sztucznej inteligencji i autonomii w celach wojskowych. Proklamacja obejmuje także Australię. Do porozumienia międzynarodowego jest jednak wciąż bardzo daleko.

W deklaracji wspomniano, że zapewnienie zabezpieczeń jest niezbędne, stwierdzając, że:

„Państwa powinny wdrożyć odpowiednie zabezpieczenia w celu ograniczenia ryzyka awarii wojskowych zdolności AI, takie jak zdolność do wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do reagowania, na przykład poprzez odłączenie lub dezaktywację wdrożonych systemów, gdy systemy te wykazują niezamierzone zachowanie. ”

Źródło: Departament Stanu USA.

W dokumencie podkreślono również, że wykorzystanie sztucznej inteligencji w wojsku „może i powinno być” etyczne, a także zwiększać bezpieczeństwo międzynarodowe. Jednak rzeczywistość naziemna ukazuje zupełnie inny obraz, jak omówiono powyżej.

Jednym z zastosowań takich systemów jest odnajdywanie i lokalizowanie personelu wojskowego wroga; w obliczu ogromnych innowacji nie mamy pojęcia, jakie inne złożone zastosowania wojskowe mogą się pojawić.

Przeczytaj także: Kaspersky zaprzecza twierdzeniom o pomaganiu rosyjskiej armii

Debata na temat wykluczenia sztucznej inteligencji z działań wojennych nie wydaje się obecnie możliwa, ale prawodawcy na całym świecie i rządy zaangażowane w konflikty muszą wziąć pod uwagę brak możliwości, jakie posiada sztuczna inteligencja i potencjalne spustoszenie, jakie może ona spowodować my ludzie.

Obecnie kształtowanie polityki nie nadąża za tempem innowacji i należy temu w pewnym stopniu, jeśli nie całkowicie, zaradzić, bo nie możemy po prostu siedzieć i mówić: „Wow!” AI dokonała kolejnych 1000 zabójstw. Co zaprezentuje AI? Tego jeszcze nie wiemy, ale to, co powinni zrobić decydenci, nie jest sprawą wyłącznie geniuszy.

Kryptopolityczne raporty Aamira Sheikha.