Microsoft a lancé un chatbot IA basé sur la technologie GPT-4, exclusivement conçu pour que les agences de renseignement américaines puissent l'utiliser hors ligne dans un environnement sécurisé. Un tel développement implique une avancée majeure, puisqu’il s’agit du premier exemple de déploiement d’un MLM dans un environnement classifié favorisant un traitement sécurisé des informations sans risques liés à Internet.

Microsoft $MSFT a créé un modèle d'IA générative basé sur GPT-4 et isolé d'Internet, permettant aux agences de renseignement américaines d'analyser des informations top secrètes avec le LLM.

– Beth Kindig (@Beth_Kindig) 7 mai 2024

IA sécurisée et isolée pour les systèmes intelligents

Le nouveau AI Chatbot, qui n'a pas encore été nommé publiquement, a été développé pour répondre à la demande croissante d'utilisation de technologies avancées d'IA générative, d'une part, et pour se prémunir contre les risques probables de violations de données ou de cybermenaces, d'autre part. Contrairement aux systèmes cloud généraux comme ChatGPT, qui présentent un risque inhérent d'interception de données, cette IA spécialisée fonctionne indépendamment d'Internet, ce qui rend les interactions et l'analyse des données plus sécurisées.

Le directeur de la technologie de Microsoft, William Chappell, a souligné que cette préparation impliquait une mission de 18 mois pour personnaliser un supercalculateur d'IA dans l'Iowa afin d'héberger le modèle GPT-4. Chappell souligne le rôle central de ce réseau isolé, accessible uniquement aux fonctionnaires gouvernementaux possédant la citoyenneté américaine.

Caractéristiques et inconvénients du GPT-4 dans les opérations de renseignement

Le modèle GPT-4 modifié facilite l'examen des fichiers utilisateur et simule les conversations de ChatGPT ou de Microsoft Copilot. Cette nouveauté est différente des plates-formes d'IA basées sur le cloud connues auparavant, créant un environnement protecteur contre les forces externes. Cependant, les modèles de langage d’IA, bien qu’efficaces, possèdent des limites inhérentes. Le revers de la médaille est la possibilité que l’IA puisse produire des résumés ou des conclusions inexacts grâce à sa nature fondamentale qui repose sur des probabilités statistiques et non sur des bases de données complètes.

La préoccupation des experts est que cela pourrait conduire l’IA à avoir tendance à fabuler ou à mal interpréter les données. Bien que GPT-4 soit capable de traiter le langage naturel et de simuler des conversations humaines, un analyste humain reste inégalé en matière de contexte et de faits précis. Pour surmonter ce défi, les agences de renseignement pourraient étudier des méthodes telles que RAG qui augmentent les performances de l’IA en y intégrant des sources de données externes.

Déploiement et tests de chatbot IA

L'IA Chatbot a été lancé avec succès jeudi dernier et est accessible à environ 10 000 membres du personnel de différentes agences de renseignement pour des tests initiaux, un suivi et une évaluation. Ce déploiement représente une étape importante dans une mission d’intégration de technologies avancées d’IA dans des opérations classifiées, ce qui pourrait entraîner des changements révolutionnaires dans la manière dont les analystes du renseignement interagissent avec et analysent de grandes quantités de données en toute sécurité.

La sortie par Microsoft d'un chatbot d'intelligence artificielle indépendant et sécurisé piloté par GPT-4 incarne une avancée significative dans le domaine de l'analyse du renseignement. Cette initiative atteint cet objectif grâce à l'utilisation de modèles linguistiques avancés tout en faisant face aux risques de cybersécurité causés par la connectivité Internet. À l’inverse, les contraintes intrinsèques des modèles de langage d’IA mettent en lumière la nécessité d’autres approches pour rendre les informations de renseignement précises et fiables.