Wojna przynosi większe zyski niż pokój, a twórcy sztucznej inteligencji chcą na tym zarobić, oferując Departamentowi Obrony USA różnorodne narzędzia sztucznej inteligencji do tworzenia generatywnych pól bitew przyszłości.


Najnowszym dowodem tej tendencji był ubiegły tydzień, kiedy firma Anthropic, twórca algorytmu Claude AI, ogłosiła, że ​​nawiązuje współpracę z firmą Palantir, wykonawcą wojskowym, oraz Amazon Web Services (AWS), aby umożliwić amerykańskim służbom wywiadowczym i Pentagonowi dostęp do algorytmów Claude 3 i 3.5.


Anthropic poinformował, że Claude zapewni amerykańskim agencjom obronnym i wywiadowczym potężne narzędzia do szybkiego przetwarzania i analizy danych, co pozwoli wojsku na szybsze przeprowadzanie operacji.


Eksperci twierdzą, że partnerstwa te pozwalają Departamentowi Obrony na szybkie wdrażanie zaawansowanych technologii sztucznej inteligencji bez konieczności ich wewnętrznego opracowywania.


„Podobnie jak w przypadku wielu innych technologii, rynek komercyjny zawsze porusza się szybciej i integruje się szybciej, niż rząd może to zrobić” – powiedział emerytowany kontradmirał marynarki wojennej USA Chris Becker w wywiadzie dla Decrypt. „Jeśli spojrzysz na to, jak SpaceX przeszło od pomysłu do wdrożenia startu i odzyskania boostera na morzu, rząd może nadal rozważać wstępne przeglądy projektu w tym samym okresie”.


Becker, były dowódca Dowództwa Systemów Walki Informacyjnej Marynarki Wojennej, zauważył, że integrowanie zaawansowanej technologii pierwotnie zaprojektowanej na potrzeby rządu i wojska z użytkiem publicznym nie jest niczym nowym.


„Internet zaczął się jako inicjatywa badawcza w dziedzinie obronności, zanim stał się powszechnie dostępny, gdzie obecnie jest podstawowym oczekiwaniem” – powiedział Becker.


Anthropic to kolejna firma zajmująca się tworzeniem sztucznej inteligencji, która udostępniła swoją technologię rządowi USA.


Po październikowym memorandum administracji Bidena w sprawie promowania przywództwa USA w dziedzinie sztucznej inteligencji, twórca ChatGPT, OpenAI, wyraził poparcie dla wysiłków USA i sojuszników mających na celu rozwijanie sztucznej inteligencji zgodnej z „wartościami demokratycznymi”. Niedawno Meta ogłosiła również, że udostępni swój otwarty kod źródłowy Llama AI Departamentowi Obrony i innym agencjom USA w celu wsparcia bezpieczeństwa narodowego.


Podczas wydarzenia Axios Future of Defense w lipcu emerytowany generał armii Mark Milley zauważył, że postęp w dziedzinie sztucznej inteligencji i robotyki prawdopodobnie sprawi, że roboty oparte na sztucznej inteligencji odegrają większą rolę w przyszłych operacjach wojskowych.


„Moim zdaniem za dziesięć, piętnaście lat jedna trzecia, może 25% do jednej trzeciej armii USA będzie zrobotyzowana” – powiedział Milley.


Przewidując kluczową rolę sztucznej inteligencji w przyszłych konfliktach, budżet Departamentu Obrony na rok 2025 przewiduje przeznaczenie 143,2 miliardów dolarów na badania, rozwój, testy i ocenę, w tym 1,8 miliarda dolarów przeznaczonych specjalnie na projekty dotyczące sztucznej inteligencji i uczenia maszynowego.


Ochrona Stanów Zjednoczonych i ich sojuszników jest priorytetem. Mimo to dr Benjamin Harvey, CEO AI Squared, zauważył, że partnerstwa rządowe zapewniają również firmom AI stabilne przychody, wczesne rozwiązywanie problemów i rolę w kształtowaniu przyszłych regulacji.


„Programiści AI chcą wykorzystać przypadki użycia rządu federalnego jako okazje do nauki, aby zrozumieć rzeczywiste wyzwania, które są unikalne dla tego sektora” — powiedział Harvey Decrypt. „To doświadczenie daje im przewagę w przewidywaniu problemów, które mogą pojawić się w sektorze prywatnym w ciągu najbliższych pięciu do dziesięciu lat.


Kontynuował: „Pozwala im to również na proaktywne kształtowanie zasad zarządzania, zgodności i procedur, pomagając im wyprzedzać trendy w zakresie rozwoju polityki i dostosowywania przepisów”.


Harvey, który wcześniej pełnił funkcję szefa ds. danych operacyjnych w Agencji Bezpieczeństwa Narodowego USA, powiedział również, że innym powodem, dla którego deweloperzy chcą zawierać umowy z podmiotami rządowymi, jest chęć pokazania, że ​​są niezbędni dla rosnących potrzeb rządu w zakresie sztucznej inteligencji.


Mając miliardy dolarów przeznaczone na sztuczną inteligencję i uczenie maszynowe, Pentagon inwestuje ogromne środki w rozwój amerykańskiego potencjału militarnego, mając na celu wykorzystanie szybkiego rozwoju technologii sztucznej inteligencji na swoją korzyść.


Choć opinia publiczna może sobie wyobrażać, że rola sztucznej inteligencji w wojsku będzie polegać na wykorzystaniu autonomicznych, uzbrojonych robotów, które będą przemieszczać się po futurystycznych polach bitew, eksperci twierdzą, że rzeczywistość jest o wiele mniej dramatyczna i bardziej skupiona na danych.


„W kontekście wojskowym widzimy głównie wysoce zaawansowaną autonomię i elementy klasycznego uczenia maszynowego, w którym maszyny pomagają w podejmowaniu decyzji, ale zazwyczaj nie wiąże się to z decyzjami o wydaniu broni” — powiedział Decrypt prezes Kratos Defense ds. systemów bezzałogowych Steve Finley. „AI znacznie przyspiesza zbieranie i analizę danych w celu podejmowania decyzji i wyciągania wniosków”.


Założona w 1994 r. firma Kratos Defense z siedzibą w San Diego nawiązała szeroką współpracę z armią USA, w szczególności z Siłami Powietrznymi i Marines, w celu opracowania zaawansowanych systemów bezzałogowych, takich jak myśliwiec Valkyrie. Według Finleya utrzymanie ludzi w pętli podejmowania decyzji jest kluczowe dla zapobieżenia realizacji obawianego scenariusza „Terminatora”.


„Jeśli w grę wchodzi broń lub manewr zagraża ludzkiemu życiu, ludzki decydent zawsze jest w centrum uwagi” — powiedział Finley. „Zawsze istnieje zabezpieczenie — 'stop' lub 'przytrzymanie' — na wypadek wystrzelenia broni lub krytycznego manewru”.


Mimo że sztuczna inteligencja generatywna dokonała tak dużych postępów od czasu wprowadzenia ChatGPT, eksperci, w tym autor i naukowiec Gary Marcus, twierdzą, że obecne ograniczenia modeli sztucznej inteligencji podważają rzeczywistą skuteczność tej technologii.


„Firmy odkryły, że duże modele językowe nie są szczególnie niezawodne” – powiedział Marcus Decrypt. „Mają halucynacje, popełniają głupie błędy, a to ogranicza ich rzeczywistą przydatność. Nie chciałbyś, aby coś, co ma halucynacje, planowało twoją strategię wojskową”.


Znany z krytyki przesadnie rozdmuchanych twierdzeń o AI, Marcus jest naukowcem poznawczym, badaczem AI i autorem sześciu książek o sztucznej inteligencji. W odniesieniu do przerażającego scenariusza „Terminatora” i powtarzając wypowiedź dyrektora Kratos Defense, Marcus podkreślił również, że w pełni autonomiczne roboty zasilane przez AI byłyby błędem.


„Głupotą byłoby podłączanie ich do wojny bez udziału ludzi, zwłaszcza biorąc pod uwagę ich obecny wyraźny brak niezawodności” – powiedział Marcus. „Martwi mnie, że wiele osób dało się uwieść tego typu systemom AI i nie pogodziło się z rzeczywistością ich niezawodności”.


Jak wyjaśnił Marcus, wielu w branży AI wierzy, że samo dostarczanie systemom AI większej ilości danych i mocy obliczeniowej będzie stale zwiększać ich możliwości — pojęcie to opisał jako „fantazję”.


„W ostatnich tygodniach pojawiły się plotki od wielu firm, że tak zwane prawa skalowania wygasły i nastąpił okres malejących zysków” – dodał Marcus. „Więc nie sądzę, aby wojsko mogło realistycznie oczekiwać, że wszystkie te problemy zostaną rozwiązane. Te systemy prawdopodobnie nie będą niezawodne, a nie chcemy używać zawodnych systemów na wojnie”.


Redakcja: Josh Quittner i Sebastian Sinclair