Le célèbre psychologue de Harvard B.F. Skinner a un jour déclaré que « le véritable problème n’est pas de savoir si les machines pensent, mais si les hommes le font ». Cette remarque pleine d’esprit souligne un point autrefois crucial : notre confiance dans la technologie dépend du jugement humain. Ce n’est pas l’intelligence des machines qui devrait nous inquiéter, mais la sagesse et la responsabilité de ceux qui la contrôlent. Ou du moins c’était le cas.
Alors que des logiciels comme ChatGPT font désormais partie intégrante de la vie professionnelle de nombreuses personnes, la vision de Skinner semble presque désuète. L’essor fulgurant des agents IA – des entités logicielles capables de percevoir leur environnement et d’agir pour atteindre des objectifs spécifiques – a fondamentalement changé le paradigme. Ces assistants numériques, nés de l’essor de l’IA grand public au début des années 2020, imprègnent désormais nos vies numériques, s’occupant de tâches allant de la planification de rendez-vous à la prise de décisions d’investissement.
Que sont les agents IA ?
Les agents d’IA diffèrent considérablement des grands modèles de langage (LLM) comme ChatGPT par leur capacité d’action autonome. Alors que les LLM traitent et génèrent principalement du texte, les agents d’IA sont conçus pour percevoir leur environnement, prendre des décisions et entreprendre des actions pour atteindre des objectifs spécifiques. Ces agents combinent diverses technologies d’IA, notamment le traitement du langage naturel, la vision par ordinateur et l’apprentissage par renforcement, ce qui leur permet de s’adapter et d’apprendre de leurs expériences.
Mais à mesure que les agents d’IA se multiplient et se multiplient, un malaise se fait jour. Pourrons-nous vraiment faire confiance à ces entités numériques ? La question est loin d’être théorique. Les agents d’IA opèrent dans des environnements complexes, prenant des décisions basées sur de vastes ensembles de données et des algorithmes complexes que même leurs créateurs ont du mal à comprendre pleinement. Cette opacité inhérente engendre la méfiance. Lorsqu’un agent d’IA recommande un traitement médical ou prédit les tendances du marché, comment pouvons-nous être certains du raisonnement qui sous-tend ses choix ?
Les conséquences d’une confiance mal placée dans les agents d’IA pourraient être désastreuses. Imaginez un conseiller financier doté d’une intelligence artificielle qui fait s’effondrer les marchés par inadvertance en raison d’un point de données mal interprété, ou une intelligence artificielle dans le domaine de la santé qui recommande des traitements incorrects sur la base de données d’entraînement biaisées. Le risque de préjudice ne se limite pas à certains secteurs ; à mesure que les agents d’IA s’intègrent davantage dans notre vie quotidienne, leur influence croît de manière exponentielle. Un faux pas pourrait avoir des répercussions sur toute la société, affectant tout, de la vie privée à l’économie mondiale.
Au cœur de ce déficit de confiance se trouve un problème fondamental : la centralisation. Le développement et le déploiement des modèles d’IA ont été en grande partie l’apanage d’une poignée de géants de la technologie. Ces modèles d’IA centralisés fonctionnent comme des boîtes noires, leurs processus de prise de décision étant occultés du contrôle public. Ce manque de transparence rend pratiquement impossible de faire confiance à leurs décisions dans des opérations à enjeux élevés. Comment pouvons-nous compter sur un agent d’IA pour faire des choix critiques lorsque nous ne pouvons pas comprendre ou vérifier son raisonnement ?
La décentralisation comme réponse
Il existe cependant une solution à ces problèmes : l’IA décentralisée. Un paradigme qui ouvre la voie à des agents IA plus transparents et plus fiables. Cette approche exploite les atouts de la technologie blockchain et d’autres systèmes décentralisés pour créer des modèles d’IA non seulement puissants mais également responsables.
Les outils permettant de renforcer la confiance dans les agents d’IA existent déjà. Les blockchains peuvent permettre des calculs vérifiables, garantissant que les actions de l’IA sont vérifiables et traçables. Chaque décision prise par un agent d’IA pourrait être enregistrée dans un registre public, permettant une transparence sans précédent. Parallèlement, des techniques cryptographiques avancées telles que l’apprentissage automatique dans un environnement d’exécution sécurisé (TeML) peuvent protéger les données sensibles et maintenir l’intégrité du modèle, garantissant ainsi à la fois transparence et confidentialité.
Alors que les agents d’IA opèrent de plus en plus à proximité ou directement sur des blockchains publiques, le concept de vérifiabilité devient crucial. Les modèles d’IA traditionnels peuvent avoir du mal à prouver l’intégrité de leurs opérations, mais les agents d’IA basés sur la blockchain peuvent fournir des garanties cryptographiques de leur comportement. Cette vérifiabilité n’est pas seulement une subtilité technique ; c’est une exigence fondamentale pour la confiance dans les environnements à enjeux élevés.
Les techniques de calcul confidentiel, notamment les environnements d'exécution de confiance (TEE), offrent un niveau de garantie important. Les TEE fournissent une enclave sécurisée où les calculs d'IA peuvent avoir lieu, à l'abri de toute interférence potentielle. Cette technologie garantit que même les opérateurs du système d'IA ne peuvent pas altérer ou espionner le processus de prise de décision de l'agent, ce qui renforce encore la confiance.
Des cadres tels que Runtime Off-chain Logic (ROFL) d’Oasis Network représentent la pointe de cette approche, permettant une intégration transparente du calcul d’IA vérifiable avec l’auditabilité et la transparence sur la chaîne. De telles innovations élargissent les possibilités des applications pilotées par l’IA tout en maintenant les normes de confiance et de transparence les plus élevées.
Vers un avenir d’IA digne de confiance
Le chemin vers des agents d’IA dignes de confiance n’est pas sans défis. Des obstacles techniques subsistent et l’adoption généralisée de systèmes d’IA décentralisés nécessitera un changement des pratiques industrielles et de la compréhension du public. Cependant, les récompenses potentielles sont immenses. Imaginez un monde où les agents d’IA prennent des décisions critiques en toute transparence, où leurs actions peuvent être vérifiées et auditées par n’importe qui, et où la puissance de l’intelligence artificielle est distribuée plutôt que concentrée entre les mains de quelques entreprises.
Il existe également une chance de débloquer une croissance économique significative. Une étude réalisée en 2023 à Pékin a révélé qu’une augmentation de 1 % de la pénétration de l’IA entraîne une augmentation de 14,2 % de la productivité totale des facteurs (PTF). Cependant, la plupart des études sur la productivité de l’IA se concentrent sur les LLM généraux, et non sur les agents IA. Les agents IA autonomes capables d’effectuer plusieurs tâches de manière indépendante pourraient potentiellement générer des gains de productivité plus importants. Des agents IA dignes de confiance et vérifiables seraient probablement encore plus efficaces.
Il est peut-être temps de mettre à jour la célèbre citation de Skinner. Le véritable problème n’est plus de savoir si les machines pensent, mais de savoir si nous pouvons leur faire confiance. Grâce à l’IA décentralisée et à la blockchain, nous disposons des outils nécessaires pour instaurer cette confiance. La question est désormais de savoir si nous avons la sagesse de les utiliser.
Remarque : les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et sociétés affiliées.