La guerre est plus rentable que la paix, et les développeurs d’IA sont désireux d’en tirer profit en proposant au ministère américain de la Défense divers outils d’IA générative pour les champs de bataille du futur.


La dernière preuve de cette tendance est apparue la semaine dernière lorsque le développeur de Claude AI, Anthropic, a annoncé qu'il s'associait à l'entrepreneur militaire Palantir et à Amazon Web Services (AWS) pour fournir aux services de renseignement américains et au Pentagone un accès à Claude 3 et 3.5.


Anthropic a déclaré que Claude fournirait aux agences de défense et de renseignement américaines des outils puissants pour un traitement et une analyse rapides des données, permettant à l'armée d'effectuer des opérations plus rapides.


Les experts affirment que ces partenariats permettent au ministère de la Défense d’adopter rapidement des technologies d’IA avancées sans avoir besoin de les développer en interne.


« Comme pour de nombreuses autres technologies, le marché commercial évolue toujours plus vite et s'intègre plus rapidement que le gouvernement », a déclaré Chris Becker, contre-amiral à la retraite de la marine américaine, dans une interview à Decrypt. « Si vous regardez comment SpaceX est passé d'une idée à la mise en œuvre du lancement et de la récupération d'un propulseur en mer, le gouvernement pourrait encore envisager des examens de conception initiaux au cours de cette même période. »


Becker, ancien commandant du Naval Information Warfare Systems Command, a fait remarquer que l'intégration d'une technologie avancée initialement conçue à des fins gouvernementales et militaires à l'usage public n'a rien de nouveau.


« Internet a commencé comme une initiative de recherche en matière de défense avant d’être accessible au public, où il constitue désormais une attente fondamentale », a déclaré Becker.


Anthropic est le dernier développeur d’IA à proposer sa technologie au gouvernement américain.


Suite au mémorandum d’octobre de l’administration Biden sur le renforcement du leadership américain en matière d’IA, le développeur de ChatGPT, OpenAI, a exprimé son soutien aux efforts des États-Unis et de ses alliés pour développer une IA conforme aux « valeurs démocratiques ». Plus récemment, Meta a également annoncé qu’il mettrait son IA open source Llama à la disposition du ministère de la Défense et d’autres agences américaines pour soutenir la sécurité nationale.


Lors de l'événement « Future of Defense » d'Axios en juillet, le général de l'armée à la retraite Mark Milley a souligné que les progrès de l'intelligence artificielle et de la robotique feront probablement des robots alimentés par l'IA une part plus importante des futures opérations militaires.


« D’ici dix à quinze ans, je pense qu’un tiers, peut-être 25 % à un tiers de l’armée américaine sera robotisée », a déclaré Milley.


En prévision du rôle central de l’IA dans les conflits futurs, le budget 2025 du DoD demande 143,2 milliards de dollars pour la recherche, le développement, les tests et l’évaluation, dont 1,8 milliard de dollars spécifiquement alloués aux projets d’IA et d’apprentissage automatique.


La protection des États-Unis et de leurs alliés est une priorité. Pourtant, le Dr Benjamin Harvey, PDG d’AI Squared, a souligné que les partenariats avec les gouvernements offrent également aux entreprises d’IA des revenus stables, une résolution rapide des problèmes et un rôle dans l’élaboration des futures réglementations.


« Les développeurs d’IA souhaitent exploiter les cas d’utilisation du gouvernement fédéral comme des opportunités d’apprentissage pour comprendre les défis du monde réel propres à ce secteur », a déclaré Harvey à Decrypt. « Cette expérience leur donne un avantage pour anticiper les problèmes qui pourraient émerger dans le secteur privé au cours des cinq à dix prochaines années.


Il a poursuivi : « Cela les positionne également pour façonner de manière proactive la gouvernance, les politiques de conformité et les procédures, les aidant ainsi à garder une longueur d'avance en matière d'élaboration de politiques et d'alignement réglementaire. »


Harvey, qui était auparavant chef des opérations scientifiques des données pour l'Agence de sécurité nationale américaine, a également déclaré qu'une autre raison pour laquelle les développeurs cherchent à conclure des accords avec des entités gouvernementales est de s'établir comme essentiels aux besoins croissants du gouvernement en matière d'IA.


Avec des milliards de dollars consacrés à l’IA et à l’apprentissage automatique, le Pentagone investit massivement dans l’amélioration des capacités militaires américaines, dans le but d’utiliser le développement rapide des technologies d’IA à son avantage.


Alors que le public peut imaginer le rôle de l’IA dans l’armée comme impliquant des robots autonomes et armés avançant sur des champs de bataille futuristes, les experts affirment que la réalité est beaucoup moins dramatique et davantage axée sur les données.


« Dans le contexte militaire, nous observons principalement une autonomie très avancée et des éléments d’apprentissage automatique classique, où les machines aident à la prise de décision, mais cela n’implique généralement pas de décisions de largage d’armes », a déclaré à Decrypt Steve Finley, président de la division des systèmes sans pilote de Kratos Defense. « L’IA accélère considérablement la collecte et l’analyse des données pour former des décisions et des conclusions. »


Fondée en 1994, la société Kratos Defense, basée à San Diego, a noué de nombreux partenariats avec l'armée américaine, notamment l'armée de l'air et les marines, pour développer des systèmes avancés sans pilote comme l'avion de chasse Valkyrie. Selon Finley, il est essentiel de maintenir les humains dans la boucle de prise de décision pour éviter que le scénario redouté de « Terminator » ne se produise.


« Si une arme est utilisée ou si une manœuvre met en danger la vie humaine, un décideur humain est toujours au courant », a déclaré Finley. « Il existe toujours une protection – un « arrêt » ou un « maintien » – pour tout largage d’arme ou toute manœuvre critique. »


Malgré les progrès réalisés par l’IA générative depuis le lancement de ChatGPT, les experts, dont l’auteur et scientifique Gary Marcus, affirment que les limites actuelles des modèles d’IA mettent en doute l’efficacité réelle de la technologie.


« Les entreprises ont découvert que les grands modèles linguistiques ne sont pas particulièrement fiables », a déclaré Marcus à Decrypt. « Ils hallucinent, commettent des erreurs stupides, ce qui limite leur réelle applicabilité. Vous ne voudriez pas qu’un élément hallucinant prépare votre stratégie militaire. »


Connu pour ses critiques sur les affirmations exagérées concernant l’IA, Marcus est un scientifique cognitif, chercheur en IA et auteur de six livres sur l’intelligence artificielle. En ce qui concerne le scénario redouté de « Terminator », et faisant écho au directeur de Kratos Defense, Marcus a également souligné que des robots entièrement autonomes alimentés par l’IA seraient une erreur.


« Il serait stupide de les utiliser pour faire la guerre sans intervention humaine, surtout compte tenu de leur manque flagrant de fiabilité », a déclaré Marcus. « Je suis préoccupé par le fait que de nombreuses personnes se soient laissées séduire par ce type de systèmes d’IA et n’aient pas pris conscience de la réalité de leur fiabilité. »


Comme l'explique Marcus, de nombreux acteurs du secteur de l'IA pensent que le simple fait de fournir aux systèmes d'IA davantage de données et de puissance de calcul améliorerait continuellement leurs capacités, une notion qu'il décrit comme un « fantasme ».


« Ces dernières semaines, de nombreuses entreprises ont fait état de rumeurs selon lesquelles les lois dites de mise à l’échelle seraient dépassées et qu’il y aurait une période de rendements décroissants », a ajouté Marcus. « Je ne pense donc pas que les militaires devraient raisonnablement s’attendre à ce que tous ces problèmes soient résolus. Ces systèmes ne seront probablement pas fiables, et il ne faut pas utiliser de systèmes peu fiables en temps de guerre. »


Édité par Josh Quittner et Sebastian Sinclair