Une partie de la magie de l’IA générative réside dans le fait que la plupart des gens n’ont aucune idée de son fonctionnement. À un certain niveau, il est même juste de dire que personne ne sait vraiment comment cela fonctionne, car le fonctionnement interne de ChatGPT peut laisser les scientifiques les plus brillants perplexes. C'est une boîte noire. Nous ne savons pas exactement comment ils sont formés, quelles données produisent quels résultats et quelle propriété intellectuelle est piétinée au cours du processus. Cela fait à la fois partie de la magie et de ce qui est terrifiant. Ariana Spring est conférencière au festival Consensus de cette année, à Austin, Texas, du 29 au 31 mai.

Et s’il existait un moyen de regarder à l’intérieur de la boîte noire, permettant une visualisation claire de la manière dont l’IA est gouvernée, formée et produite ? C’est l’objectif – ou l’un des objectifs – d’EQTY Lab, qui mène des recherches et crée des outils pour rendre les modèles d’IA plus transparents et collaboratifs. Lineage Explorer d'EQTY Lab, par exemple, donne une vue en temps réel de la façon dont le modèle est construit.

Tous ces outils visent à lutter contre l’opacité et la centralisation. "Si vous ne comprenez pas pourquoi une IA prend les décisions qu'elle prend ou qui en est responsable, il est très difficile de se demander pourquoi des choses nuisibles sont diffusées", explique Ariana Spring, responsable de la recherche au laboratoire EQTY. "Je pense donc que la centralisation – et garder ces secrets dans des boîtes noires – est vraiment dangereuse."

Rejointe par son collègue Andrew Stanco (responsable des finances), Spring explique comment la cryptographie peut créer une IA plus transparente, comment ces outils sont déjà déployés au service de la science du changement climatique et pourquoi ces modèles open source peuvent être plus inclusifs et représentatifs de l'humanité dans son ensemble.

L'interview a été condensée et légèrement modifiée pour plus de clarté.

Quelle est la vision et l’objectif d’EQTY Lab ?

Ariana Spring : Nous sommes pionniers dans de nouvelles solutions pour renforcer la confiance et l'innovation dans l'IA. Et l’IA générative est un sujet brûlant en ce moment, et c’est la propriété la plus émergente, c’est donc quelque chose sur lequel nous nous concentrons.

Mais nous examinons également tous les types d’IA et de gestion des données. Et c'est vraiment sur la confiance et l'innovation que nous nous appuyons. Nous faisons cela en utilisant une cryptographie avancée pour rendre les modèles plus transparents, mais également collaboratifs. Nous considérons la transparence et la collaboration comme les deux faces d’une même médaille visant à créer une IA plus intelligente et plus sûre.

Pouvez-vous nous parler un peu plus de la manière dont la cryptographie s’intègre dans tout cela ? Parce que vous voyez beaucoup de gens dire que « la crypto et l’IA vont bien ensemble », mais souvent la justification s’arrête à un niveau très élevé.

Andrew Stanco : Je pense que l’intersection de l’IA et de la cryptographie est une question ouverte, n’est-ce pas ? Une chose que nous avons découverte est que le secret caché de l’IA est qu’elle est collaborative ; il compte une multitude de parties prenantes. Aucun data scientist ne pourrait créer un modèle d’IA. Ils peuvent l’entraîner, l’affiner, mais la cryptographie devient un moyen de faire quelque chose et de disposer ensuite d’un moyen inviolable de vérifier que cela s’est produit.

Ainsi, dans un processus aussi complexe que la formation en IA, disposer de ces attestations infalsifiables et vérifiables – à la fois pendant la formation et après – est vraiment utile. Cela crée de la confiance et de la visibilité.

Ariana Spring : Ce que nous faisons, c'est qu'à chaque étape du cycle de vie de l'IA et du processus de formation, il y ait une légalisation – ou un cachet – de ce qui s'est passé. Il s’agit de l’ID décentralisé, ou identifiant, associé à l’agent, à l’humain ou à la machine qui effectue cette action. Vous avez l'horodatage. Et avec notre Lineage Explorer, vous pouvez voir que tout ce que nous faisons est automatiquement enregistré à l’aide de la cryptographie.

Et puis nous utilisons des contrats intelligents dans nos produits de gouvernance. Ainsi, si le paramètre X est satisfait ou non, une certaine action peut se poursuivre ou non. L'un des outils dont nous disposons est un Governance Studio, qui programme essentiellement la manière dont vous pouvez former une IA ou comment vous pouvez gérer le cycle de vie de votre IA, et cela se reflète ensuite en aval.

Pouvez-vous clarifier un peu le type d’outils que vous construisez ? Par exemple, créez-vous des outils et effectuez-vous des recherches destinées à aider d’autres startups à créer des modèles de formation, ou créez-vous vous-mêmes des modèles de formation ? Autrement dit, quel est exactement le rôle d’EQTY Labs dans cet environnement ?

Andrew Stanco : C'est un mélange, d'une certaine manière, car nous nous concentrons sur l'entreprise, car ce sera l'un des premiers grands domaines où vous devrez perfectionner l'IA du point de vue de la formation et de la gouvernance. Si vous approfondissez cela, nous devons alors disposer d'un espace dans lequel un développeur – ou quelqu'un dans cette organisation – peut annoter le code et dire : « D'accord, voici ce qui s'est passé », puis créer un enregistrement. Il est axé sur l’entreprise et met l’accent sur la collaboration avec les développeurs et les personnes qui créent et déploient les modèles.

Ariana Spring : Et nous avons également travaillé sur la formation du modèle via le Endowment for Climate Intelligence. Nous avons aidé à former un modèle appelé ClimateGPT, qui est un grand modèle linguistique spécifique au climat. Ce n’est pas notre pain quotidien, mais nous avons suivi le processus et utilisé notre suite de technologies pour visualiser ce processus. Nous comprenons donc à quoi ça ressemble.

Qu’est-ce qui vous passionne le plus dans l’IA et qu’est-ce qui vous terrifie le plus dans l’IA ?

Andrew Stanco : Je veux dire, par enthousiasme, ce premier moment où vous interagissez avec l'IA générative vous a donné l'impression d'avoir débouché la foudre dans le modèle. La première fois que vous créez une invite dans MidJourney, ou que vous posez une question à ChatGPT, personne n'a eu à vous convaincre que c'est peut-être puissant. Et je ne pensais plus qu'il y avait beaucoup de nouveautés, n'est-ce pas ?

Et quant à la terreur ?

Andrew Stanco : Je pense que c'est une préoccupation qui est peut-être le sous-texte d'une grande partie de ce qui se déroulera au Consensus, rien qu'en jetant un coup d'œil à l'ordre du jour. Le problème est que ces outils permettent aux gagnants existants d’approfondir leurs modes. Il ne s’agit pas nécessairement d’une technologie perturbatrice, mais plutôt d’une technologie solide.

Et Ariana, votre principale excitation et terreur en matière d'IA ?

Ariana Spring : Je vais commencer par ma peur car j'allais dire quelque chose de similaire. Je dirais la centralisation. Nous avons constaté les méfaits de la centralisation lorsqu’elle est associée à un manque de transparence sur le fonctionnement de quelque chose. Nous l’avons vu au cours des 10 ou 15 dernières années avec les médias sociaux, par exemple. Et si vous ne comprenez pas pourquoi une IA prend les décisions qu’elle prend ou qui en est responsable, il est vraiment difficile de se demander pourquoi des choses nuisibles sont diffusées. Je pense donc que la centralisation – et garder ces secrets dans des boîtes noires – est vraiment dangereuse.

Et l’excitation ?

Ce qui me passionne le plus, c'est d'attirer davantage de personnes. Nous avons eu la chance de travailler avec plusieurs types de groupes de parties prenantes pendant que nous formions ClimateGPT, tels que des groupes d'aînés autochtones ou des jeunes à faible revenu, urbains, noirs et bruns, ou des étudiants au Moyen-Orient. Nous travaillons avec tous ces militants climatiques et universitaires pour dire en quelque sorte : « Hé, voulez-vous contribuer à améliorer ce modèle ?

Les gens sont vraiment excités, mais peut-être n’ont-ils pas compris comment cela fonctionnait. Une fois que nous leur avons expliqué comment cela fonctionnait et comment ils pouvaient aider, vous pouviez les voir dire : « Oh, c'est bien. » Ils gagnent en confiance. Ensuite, ils veulent contribuer davantage. Je suis donc vraiment ravi, en particulier grâce au travail que nous effectuons chez EQTY Research, de commencer à publier certains de ces cadres, afin que nous n'ayons pas à nous fier à des systèmes qui ne sont peut-être pas si représentatifs.

Magnifiquement dit. Rendez-vous à Austin au sommet de Consensus sur l’IA.