A guerra é mais lucrativa que a paz, e os desenvolvedores de IA estão ansiosos para capitalizar, oferecendo ao Departamento de Defesa dos EUA diversas ferramentas de IA generativas para os campos de batalha do futuro.
A evidência mais recente dessa tendência surgiu na semana passada, quando a desenvolvedora de IA do Claude, Anthropic, anunciou que estava fazendo uma parceria com a contratada militar Palantir e a Amazon Web Services (AWS) para fornecer à inteligência dos EUA e ao Pentágono acesso ao Claude 3 e 3.5.
A Anthropic disse que Claude dará às agências de defesa e inteligência dos EUA ferramentas poderosas para processamento e análise rápidos de dados, permitindo que os militares realizem operações mais rápidas.
Especialistas dizem que essas parcerias permitem que o Departamento de Defesa adote rapidamente tecnologias avançadas de IA sem precisar desenvolvê-las internamente.
"Como acontece com muitas outras tecnologias, o mercado comercial sempre se move mais rápido e se integra mais rapidamente do que o governo pode", disse o contra-almirante aposentado da Marinha dos EUA Chris Becker ao Decrypt em uma entrevista. "Se você observar como a SpaceX passou de uma ideia para implementar um lançamento e recuperação de um propulsor no mar, o governo ainda pode estar considerando revisões iniciais de design no mesmo período."
Becker, ex-comandante do Comando de Sistemas de Guerra de Informação Naval, observou que integrar tecnologia avançada inicialmente projetada para fins governamentais e militares ao uso público não é nenhuma novidade.
"A internet começou como uma iniciativa de pesquisa de defesa antes de se tornar disponível ao público, onde agora é uma expectativa básica", disse Becker.
A Anthropic é apenas a mais recente desenvolvedora de IA a oferecer sua tecnologia ao governo dos EUA.
Após o memorando da Administração Biden em outubro sobre o avanço da liderança dos EUA em IA, o desenvolvedor do ChatGPT, OpenAI, expressou apoio aos esforços dos EUA e aliados para desenvolver IA alinhada com "valores democráticos". Mais recentemente, a Meta também anunciou que disponibilizaria sua IA Llama de código aberto para o Departamento de Defesa e outras agências dos EUA para dar suporte à segurança nacional.
Durante o evento Future of Defense da Axios em julho, o general aposentado do Exército Mark Milley observou que os avanços em inteligência artificial e robótica provavelmente farão com que robôs com IA tenham uma parte maior das futuras operações militares.
“Daqui a dez a quinze anos, meu palpite é que um terço, talvez 25% a um terço das forças armadas dos EUA serão robóticas”, disse Milley.
Prevendo o papel fundamental da IA em conflitos futuros, o orçamento do DoD para 2025 solicita US$ 143,2 bilhões para Pesquisa, Desenvolvimento, Teste e Avaliação, incluindo US$ 1,8 bilhão alocados especificamente para projetos de IA e aprendizado de máquina.
Proteger os EUA e seus aliados é uma prioridade. Ainda assim, o Dr. Benjamin Harvey, CEO da AI Squared, observou que as parcerias governamentais também fornecem às empresas de IA receita estável, resolução antecipada de problemas e um papel na formação de regulamentações futuras.
"Desenvolvedores de IA querem alavancar casos de uso do governo federal como oportunidades de aprendizado para entender desafios do mundo real exclusivos deste setor", disse Harvey ao Decrypt. "Esta experiência lhes dá uma vantagem na antecipação de problemas que podem surgir no setor privado nos próximos cinco a 10 anos.
Ele continuou: "Isso também os posiciona para moldar proativamente a governança, as políticas de conformidade e os procedimentos, ajudando-os a permanecer à frente no desenvolvimento de políticas e no alinhamento regulatório."
Harvey, que anteriormente atuou como chefe de operações de ciência de dados para a Agência de Segurança Nacional dos EUA, também disse que outro motivo pelo qual os desenvolvedores procuram fazer acordos com entidades governamentais é para se estabelecerem como essenciais para as crescentes necessidades de IA do governo.
Com bilhões de dólares destinados à IA e ao aprendizado de máquina, o Pentágono está investindo pesadamente no avanço das capacidades militares dos Estados Unidos, visando usar o rápido desenvolvimento das tecnologias de IA em seu benefício.
Embora o público possa imaginar o papel da IA nas forças armadas como envolvendo robôs autônomos e armados avançando por campos de batalha futuristas, especialistas dizem que a realidade é muito menos dramática e mais focada em dados.
"No contexto militar, estamos vendo principalmente autonomia altamente avançada e elementos de aprendizado de máquina clássico, onde as máquinas auxiliam na tomada de decisões, mas isso normalmente não envolve decisões de liberar armas", disse o presidente da Kratos Defense da Divisão de Sistemas Não Tripulados, Steve Finley, ao Decrypt. "A IA acelera substancialmente a coleta e análise de dados para formar decisões e conclusões."
Fundada em 1994, a Kratos Defense, sediada em San Diego, fez parcerias extensas com os militares dos EUA, particularmente a Força Aérea e os Fuzileiros Navais, para desenvolver sistemas avançados não tripulados como o jato de caça Valkyrie. De acordo com Finley, manter os humanos no ciclo de tomada de decisão é essencial para evitar que o temido cenário "Exterminador do Futuro" aconteça.
“Se uma arma estiver envolvida ou uma manobra colocar em risco a vida humana, um tomador de decisão humano está sempre no circuito”, disse Finley. “Sempre há uma salvaguarda — uma 'parada' ou 'espera' — para qualquer liberação de arma ou manobra crítica."
Apesar do quanto a IA generativa avançou desde o lançamento do ChatGPT, especialistas, incluindo o autor e cientista Gary Marcus, dizem que as limitações atuais dos modelos de IA colocam a real eficácia da tecnologia em dúvida.
“As empresas descobriram que grandes modelos de linguagem não são particularmente confiáveis”, disse Marcus ao Decrypt. “Eles alucinam, cometem erros estúpidos, e isso limita sua aplicabilidade real. Você não gostaria que algo que alucina estivesse tramando sua estratégia militar.”
Conhecido por criticar alegações exageradas de IA, Marcus é um cientista cognitivo, pesquisador de IA e autor de seis livros sobre inteligência artificial. Em relação ao temido cenário “Exterminador do Futuro”, e ecoando o executivo da Kratos Defense, Marcus também enfatizou que robôs totalmente autônomos movidos por IA seriam um erro.
“Seria estúpido conectá-los para a guerra sem humanos no circuito, especialmente considerando sua atual falta clara de confiabilidade”, disse Marcus. “Me preocupa que muitas pessoas tenham sido seduzidas por esses tipos de sistemas de IA e não tenham enfrentado a realidade de sua confiabilidade.”
Como Marcus explicou, muitos no campo da IA acreditam que simplesmente alimentar os sistemas de IA com mais dados e poder computacional melhoraria continuamente suas capacidades — uma noção que ele descreveu como uma "fantasia".
“Nas últimas semanas, houve rumores de várias empresas de que as chamadas leis de escala expiraram, e há um período de retornos decrescentes”, acrescentou Marcus. “Então, não acho que os militares devam realisticamente esperar que todos esses problemas sejam resolvidos. Esses sistemas provavelmente não serão confiáveis, e você não quer usar sistemas não confiáveis na guerra.”
Editado por Josh Quittner e Sebastian Sinclair