La guerra es más rentable que la paz, y los desarrolladores de IA están ansiosos por aprovechar esto ofreciendo al Departamento de Defensa de EE. UU. varias herramientas de IA generativa para los campos de batalla del futuro.


La última evidencia de esta tendencia llegó la semana pasada, cuando el desarrollador de Claude AI, Anthropic, anunció que se estaba asociando con el contratista militar Palantir y Amazon Web Services (AWS) para brindar a la inteligencia estadounidense y al Pentágono acceso a Claude 3 y 3.5.


Anthropic dijo que Claude brindará a las agencias de inteligencia y defensa de Estados Unidos herramientas poderosas para el procesamiento y análisis rápido de datos, permitiendo a los militares realizar operaciones más rápidas.


Los expertos dicen que estas asociaciones permiten al Departamento de Defensa adoptar rápidamente tecnologías de IA avanzadas sin necesidad de desarrollarlas internamente.


"Como sucede con muchas otras tecnologías, el mercado comercial siempre avanza más rápido y se integra más rápidamente que el gobierno", dijo el contralmirante retirado de la Marina de los EE. UU. Chris Becker a Decrypt en una entrevista. "Si observamos cómo SpaceX pasó de una idea a implementar un lanzamiento y recuperación de un cohete en el mar, el gobierno todavía podría estar considerando revisiones iniciales del diseño en ese mismo período".


Becker, ex comandante del Comando de Sistemas de Guerra de Información Naval, señaló que la integración de tecnología avanzada diseñada inicialmente para fines gubernamentales y militares en el uso público no es nada nuevo.


"Internet comenzó como una iniciativa de investigación de defensa antes de estar disponible para el público, donde ahora es una expectativa básica", dijo Becker.


Anthropic es sólo el último desarrollador de IA que ofrece su tecnología al gobierno de Estados Unidos.


Tras el memorando de la Administración Biden en octubre sobre el avance del liderazgo de Estados Unidos en IA, el desarrollador de ChatGPT, OpenAI, expresó su apoyo a los esfuerzos de Estados Unidos y sus aliados para desarrollar una IA alineada con los “valores democráticos”. Más recientemente, Meta también anunció que pondría su Llama AI de código abierto a disposición del Departamento de Defensa y otras agencias estadounidenses para apoyar la seguridad nacional.


Durante el evento El Futuro de la Defensa de Axios en julio, el general retirado del ejército Mark Milley señaló que los avances en inteligencia artificial y robótica probablemente harán que los robots impulsados ​​por IA sean una parte más importante de las futuras operaciones militares.


“Dentro de diez a quince años, calculo que un tercio, quizá entre un 25% y un tercio, del ejército estadounidense estará robótico”, afirmó Milley.


En previsión del papel fundamental que desempeñará la IA en futuros conflictos, el presupuesto del Departamento de Defensa para 2025 solicita 143.200 millones de dólares para investigación, desarrollo, pruebas y evaluación, incluidos 1.800 millones de dólares asignados específicamente a proyectos de IA y aprendizaje automático.


Proteger a Estados Unidos y a sus aliados es una prioridad. Aun así, el Dr. Benjamin Harvey, director ejecutivo de AI Squared, señaló que las alianzas gubernamentales también brindan a las empresas de inteligencia artificial ingresos estables, una solución temprana de problemas y un papel en la formulación de futuras regulaciones.


"Los desarrolladores de IA quieren aprovechar los casos de uso del gobierno federal como oportunidades de aprendizaje para comprender los desafíos reales que son exclusivos de este sector", dijo Harvey a Decrypt. "Esta experiencia les da una ventaja para anticipar los problemas que podrían surgir en el sector privado en los próximos cinco a diez años.


Continuó: "También los posiciona para dar forma proactiva a la gobernanza, las políticas de cumplimiento y los procedimientos, ayudándolos a mantenerse a la vanguardia en el desarrollo de políticas y la alineación regulatoria".


Harvey, quien anteriormente se desempeñó como jefe de operaciones de ciencia de datos para la Agencia de Seguridad Nacional de Estados Unidos, también dijo que otra razón por la que los desarrolladores buscan hacer acuerdos con entidades gubernamentales es establecerse como esenciales para las crecientes necesidades de inteligencia artificial del gobierno.


Con miles de millones de dólares destinados a la IA y al aprendizaje automático, el Pentágono está invirtiendo fuertemente en el avance de las capacidades militares de Estados Unidos, con el objetivo de utilizar el rápido desarrollo de las tecnologías de IA en su beneficio.


Si bien el público puede imaginar el papel de la IA en el ámbito militar como la participación de robots autónomos y armados que avanzan por campos de batalla futuristas, los expertos dicen que la realidad es mucho menos dramática y está más centrada en los datos.


"En el contexto militar, lo que vemos es una autonomía muy avanzada y elementos de aprendizaje automático clásico, en los que las máquinas ayudan en la toma de decisiones, pero esto no suele implicar decisiones sobre el lanzamiento de armas", dijo a Decrypt Steve Finley, presidente de la división de sistemas no tripulados de Kratos Defense. "La IA acelera sustancialmente la recopilación y el análisis de datos para tomar decisiones y sacar conclusiones".


Fundada en 1994, Kratos Defense, con sede en San Diego, ha colaborado ampliamente con el ejército estadounidense, en particular con la Fuerza Aérea y la Infantería de Marina, para desarrollar sistemas avanzados no tripulados como el avión de combate Valkyrie. Según Finley, mantener a los humanos en el proceso de toma de decisiones es fundamental para evitar que se produzca el temido escenario de "Terminator".


“Si hay un arma involucrada o una maniobra pone en riesgo la vida humana, siempre hay un responsable humano al tanto”, dijo Finley. “Siempre hay una salvaguarda, un 'detener' o 'mantener', para cualquier lanzamiento de arma o maniobra crítica”.


A pesar de lo lejos que ha llegado la IA generativa desde el lanzamiento de ChatGPT, los expertos, incluido el autor y científico Gary Marcus, dicen que las limitaciones actuales de los modelos de IA ponen en duda la eficacia real de la tecnología.


“Las empresas han descubierto que los grandes modelos lingüísticos no son especialmente fiables”, dijo Marcus a Decrypt. “Alucinan, cometen errores estúpidos y eso limita su aplicabilidad real. No querrías que algo que alucina estuviera planeando tu estrategia militar”.


Marcus es un científico cognitivo, investigador de inteligencia artificial y autor de seis libros sobre inteligencia artificial, conocido por criticar las afirmaciones exageradas sobre la inteligencia artificial. En relación con el temido escenario de “Terminator”, y haciéndose eco del ejecutivo de Kratos Defense, Marcus también enfatizó que los robots completamente autónomos impulsados ​​por IA serían un error.


“Sería estúpido utilizarlos para la guerra sin la participación de los humanos, especialmente considerando su clara falta de fiabilidad actual”, dijo Marcus. “Me preocupa que muchas personas se hayan dejado seducir por este tipo de sistemas de IA y no se hayan dado cuenta de la realidad de su fiabilidad”.


Como explicó Marcus, muchos en el campo de la IA creen que simplemente alimentar a los sistemas de IA con más datos y poder computacional mejoraría continuamente sus capacidades, una noción que él describió como una "fantasía".


“En las últimas semanas, ha habido rumores de varias empresas de que las llamadas leyes de escalamiento han expirado y que hay un período de rendimientos decrecientes”, agregó Marcus. “Por lo tanto, no creo que los militares deban esperar de manera realista que todos estos problemas se vayan a resolver. Estos sistemas probablemente no serán confiables y no conviene utilizar sistemas poco confiables en la guerra”.


Editado por Josh Quittner y Sebastian Sinclair