Válka je výnosnější než mír a vývojáři umělé inteligence touží využít toho, že ministerstvu obrany USA nabídnou různé generativní nástroje umělé inteligence pro bojiště budoucnosti.


Nejnovější důkaz tohoto trendu přišel minulý týden, když vývojář Claude AI Anthropic oznámil, že spolupracuje s vojenským dodavatelem Palantir a Amazon Web Services (AWS), aby poskytl zpravodajským informacím USA a Pentagonu přístup k Claude 3 a 3.5.


Anthropic uvedl, že Claude poskytne americkým obranným a zpravodajským agenturám výkonné nástroje pro rychlé zpracování a analýzu dat, což armádě umožní provádět rychlejší operace.


Odborníci tvrdí, že tato partnerství umožňují ministerstvu obrany rychle přijmout pokročilé technologie umělé inteligence, aniž by je bylo nutné vyvíjet interně.


„Stejně jako u mnoha jiných technologií se komerční trh vždy pohybuje rychleji a integruje se rychleji, než to dokáže vláda,“ řekl Decryptu v rozhovoru bývalý kontradmirál amerického námořnictva Chris Becker. "Pokud se podíváte na to, jak SpaceX přešlo od nápadu k implementaci startu a obnovy boosteru na moři, vláda možná v témže období stále zvažuje počáteční přezkoumání návrhu."


Becker, bývalý velitel Naval Information Warfare Systems Command, poznamenal, že integrace pokročilé technologie původně navržené pro vládní a vojenské účely do veřejného použití není nic nového.


"Internet začal jako iniciativa obranného výzkumu, než se stal dostupným veřejnosti, kde je nyní základním očekáváním," řekl Becker.


Anthropic je pouze nejnovější vývojář umělé inteligence, který nabízí svou technologii vládě USA.


V návaznosti na memorandum Bidenovy administrativy z října o povýšení vedoucího postavení USA v AI vyjádřil vývojář ChatGPT OpenAI podporu americkému a spojeneckému úsilí vyvinout AI v souladu s „demokratickými hodnotami“. Nedávno společnost Meta také oznámila, že zpřístupní svou open source Llama AI ministerstvu obrany a dalším agenturám USA na podporu národní bezpečnosti.


Během akce Future of Defense společnosti Axios v červenci bývalý armádní generál Mark Milley poznamenal, že pokroky v umělé inteligenci a robotice pravděpodobně učiní z robotů poháněných umělou inteligencí větší část budoucích vojenských operací.


"Od nynějška za deset až patnáct let odhaduji, že třetina, možná 25 % až třetina americké armády bude robotická," řekl Milley.


V očekávání klíčové role umělé inteligence v budoucích konfliktech požaduje rozpočet ministerstva obrany na rok 2025 143,2 miliardy dolarů na výzkum, vývoj, testování a hodnocení, včetně 1,8 miliardy dolarů konkrétně přidělených na projekty umělé inteligence a strojového učení.


Ochrana USA a jejich spojenců je prioritou. Dr. Benjamin Harvey, generální ředitel společnosti AI Squared, přesto poznamenal, že vládní partnerství také poskytují společnostem s umělou inteligencí stabilní příjmy, včasné řešení problémů a roli při utváření budoucích předpisů.


„Vývojáři umělé inteligence chtějí využít případy použití federální vládou jako příležitosti k učení, aby porozuměli výzvám skutečného světa, které jsou jedinečné pro tento sektor,“ řekl Harvey Decryptu. „Tato zkušenost jim dává výhodu při předvídání problémů, které by se mohly objevit v soukromém sektoru v příštích pěti až deseti letech.


Pokračoval: "Také je to staví k tomu, aby proaktivně utvářeli řízení, zásady dodržování předpisů a postupy, což jim pomáhá udržet si náskok ve vývoji politik a sbližování s předpisy."


Harvey, který dříve sloužil jako vedoucí operačních dat pro Národní bezpečnostní agenturu USA, také uvedl, že dalším důvodem, proč se vývojáři snaží uzavírat dohody s vládními subjekty, je etablovat se jako zásadní pro rostoucí potřeby vlády v oblasti umělé inteligence.


S miliardami dolarů vyčleněnými na AI a strojové učení Pentagon intenzivně investuje do rozvoje amerických vojenských schopností a snaží se využít rychlý vývoj technologií AI ve svůj prospěch.


I když si veřejnost může představit roli umělé inteligence v armádě tak, že zahrnuje autonomní, ozbrojené roboty postupující přes futuristická bojiště, odborníci tvrdí, že realita je mnohem méně dramatická a více zaměřená na data.


"Ve vojenském kontextu jsme většinou svědky vysoce pokročilé autonomie a prvků klasického strojového učení, kde stroje pomáhají při rozhodování, ale obvykle to nezahrnuje rozhodnutí o uvolnění zbraní," řekl Steve, prezident Kratos Defense of Unmanned Systems Division. Finley, řekl Decryptovi. "AI podstatně urychluje shromažďování a analýzu dat za účelem vytváření rozhodnutí a závěrů."


Společnost Kratos Defence se sídlem v San Diegu, založená v roce 1994, navázala rozsáhlé partnerství s americkou armádou, zejména letectvem a námořní pěchotou, na vývoji pokročilých bezpilotních systémů, jako je stíhačka Valkyrie. Podle Finleyho je udržení lidí v rozhodovací smyčce zásadní, aby se zabránilo tomu, že se obávaný scénář „Terminátor“ uskuteční.


"Pokud se jedná o zbraň nebo manévr ohrožuje lidský život, člověk, který rozhoduje, je vždy ve smyčce," řekl Finley. "Vždy existuje ochrana - "zastavení" nebo "zadržení" - pro jakékoli uvolnění zbraně nebo kritický manévr."


Navzdory tomu, jak daleko generativní umělá inteligence ušla od spuštění ChatGPT, odborníci, včetně autora a vědce Garyho Marcuse, tvrdí, že současná omezení modelů umělé inteligence zpochybňují skutečnou efektivitu této technologie.


„Podniky zjistily, že velké jazykové modely nejsou příliš spolehlivé,“ řekl Marcus Decryptu. „Mají halucinace, dělají hrubé chyby, a to omezuje jejich skutečnou použitelnost. Nechtěl byste, aby vaši vojenskou strategii plánovalo něco, co má halucinace."


Marcus, známý tím, že kritizuje přehnaná tvrzení o AI, je kognitivní vědec, výzkumník AI a autor šesti knih o umělé inteligenci. Co se týče obávaného scénáře „Terminátora“ a ozvěny výkonného ředitele Kratos Defense, Marcus také zdůraznil, že plně autonomní roboti pohánění AI by byla chyba.


"Bylo by hloupé je připojit k válčení bez lidí ve smyčce, zvláště když vezmeme v úvahu jejich současný jasný nedostatek spolehlivosti," řekl Marcus. "Znepokojuje mě, že mnoho lidí bylo svedeno těmito druhy systémů umělé inteligence a nevyrovnali se s realitou jejich spolehlivosti."


Jak Marcus vysvětlil, mnoho lidí v oblasti umělé inteligence zastává názor, že pouhé zásobování systémů umělé inteligence více daty a výpočetním výkonem by neustále zlepšovalo jejich schopnosti – tuto představu popsal jako „fantazii“.


„V posledních týdnech se od několika společností objevily zvěsti, že takzvané zákony o škálování vypršely, a je zde období klesajících výnosů,“ dodal Marcus. "Takže si nemyslím, že by armáda měla realisticky očekávat, že všechny tyto problémy budou vyřešeny." Tyto systémy pravděpodobně nebudou spolehlivé a vy nechcete ve válce používat nespolehlivé systémy."


Editovali Josh Quittner a Sebastian Sinclair