Divulgation : Les points de vue et opinions exprimés ici appartiennent uniquement à l'auteur et ne représentent pas les points de vue et opinions de l'édition de crypto.news.

La vitesse à laquelle l'IA dépasse la réglementation pose un risque pour la vérification des données, de l'identité et de la réputation et, si elle n'est pas contrôlée, pourrait augmenter la prévalence de la désinformation et ralentir le progrès de l'innovation scientifique. La marche vers une IA super-intelligente est représentée par ses leaders les plus fervents comme une poussée vers un âge d'or scientifique. Cependant, cette poussée augmente les chances d'un risque existentiel pour notre société atteignant un plateau technologique dégradant où l'adoption à grande échelle de technologies d'IA immatures plafonne et, au fil du temps, dégrade la créativité et l'innovation humaines.

Vous pourriez également aimer : Le vote ZKP promet de débloquer des démocraties mathématiquement sécurisées | Opinion

C'est une prise de position contradictoire pour la plupart des accélérationnistes. L'IA est censée augmenter notre capacité à travailler plus rapidement et à synthétiser de plus grandes quantités d'informations. Cependant, l'IA ne peut pas remplacer le raisonnement inductif ou le processus expérimental. Aujourd'hui, n'importe qui peut utiliser l'IA pour fabriquer une hypothèse scientifique et l'utiliser comme entrée pour générer un article scientifique. Les résultats de produits comme Aithor apparaissent souvent autoritaires en surface et peuvent même passer la révision par les pairs. C'est un gros problème car les textes générés par l'IA sont déjà en train d'être sélectionnés comme des découvertes scientifiques légitimes et incluent souvent des données fabriquées fictives pour soutenir leurs affirmations. Il y a un incitatif majeur pour les jeunes chercheurs à utiliser tous les moyens à leur disposition pour rivaliser pour un nombre limité de postes académiques et d'opportunités de financement. Le système d'incitation actuel dans le monde académique récompense ceux qui peuvent publier le plus d'articles, que ces articles décrivent des découvertes légitimes ou non ; ils doivent simplement passer la révision par les pairs et obtenir suffisamment de citations.

Le contenu académique avec une paternité non vérifiée posera également un problème significatif pour les industries dépendant des sciences fondamentales pour alimenter leur recherche et développement, la R&D même qui maintient notre société en fonctionnement et préserve la qualité de vie d'une population mondiale croissante. En conséquence, les R&D bien financées peuvent uniquement faire confiance à la recherche qu'elles sont capables d'effectuer et de répliquer elles-mêmes, augmentant ainsi la valeur des secrets commerciaux et infligeant un coup dévastateur à la science ouverte et à l'accès à des informations significatives.

Les efforts de réplication coûteux peuvent gérer la désinformation par eux-mêmes, cependant, le problème est bien plus vaste que cela. Aujourd'hui, nous faisons face à une érosion de la confiance dans les fondements mêmes du savoir, où des affirmations non vérifiables et des attributions ambiguës sapent les avancées scientifiques, posant une menace à la communauté scientifique. Il est urgent d'établir une économie basée sur la vérité pour authentifier le contenu et les données de manière fiable.

Les systèmes d'IA sont aussi puissants que les données sur lesquelles ils sont entraînés

Les grands modèles de langage sont d'excellents outils pour générer un contenu convaincant ; cependant, ils ne sont informatifs que dans la mesure où les données sur lesquelles ils sont formés le sont. Leur capacité à extrapoler en dehors de l'ensemble d'entraînement reste encore limitée. Le rôle de la science n'est pas seulement de synthétiser les connaissances existantes, mais de créer de nouveaux artefacts informatifs qui augmentent l'entropie du corpus collectif de connaissances accumulées par l'humanité. Au fil du temps, à mesure que de plus en plus de personnes utilisent l'IA pour générer du contenu et que de moins en moins de personnes génèrent un contenu original, nous serons confrontés à un « gonflement à faible entropie » qui n'introduit pas de nouvelles informations dans le monde, mais recombine plutôt des connaissances passées. Les sources primaires deviendront perdues alors que de nouvelles « connaissances » seront basées sur du contenu généré par l'IA auto-référentiel, à moins que nous ne construisions une couche de provenance résiliente et d'attribution vérifiée dans les outils d'IA utilisés pour la recherche sérieuse.

Cette « lobotomisation » de la profondeur intellectuelle du corpus humain collectif aura des impacts durables sur la recherche médicale, économique et académique ainsi que sur les arts et les activités créatives. Les données non vérifiées peuvent influencer les études, faussant les résultats et conduisant à des échecs importants de politiques ou de technologies qui érodent l'autorité de la recherche scientifique. Les risques de la « science » générée par l'IA sont multiples. L'opération banale de la science normale sera bloquée par des débats sur la paternité, des allégations de plagiat et une révision par les pairs altérée. Nous devrons consacrer plus de temps et d'énergie à faire face aux nombreuses conséquences de la baisse de qualité et d'exactitude de la recherche scientifique.

L'IA est un outil utile pour provoquer des idées, structurer des pensées et automatiser des tâches répétitives ; elle doit rester un complément au contenu créé par l'homme et non un remplacement. Elle ne devrait pas être utilisée pour rédiger des articles scientifiques qui proposent des découvertes originales sans faire le travail, mais plutôt comme une aide pour augmenter l'efficacité et l'exactitude des efforts dirigés par des humains. Par exemple, l'IA peut être utile pour réaliser des simulations sur des données existantes avec des méthodes déjà connues et automatiser ce travail pour aider à découvrir de nouvelles directions de recherche. Cependant, le protocole expérimental et la créativité humaine nécessaires à la recherche scientifique ne peuvent pas être facilement remplacés.

Construire une économie basée sur la vérité

Une économie basée sur la vérité établit un cadre avec des systèmes et des normes pour garantir l'authenticité, l'intégrité, la transparence et la traçabilité des informations et des données. Elle répond au besoin d'établir la confiance et la vérifiabilité au sein de la société technologique, permettant aux individus et aux organisations de se fier à l'exactitude des connaissances partagées. La valeur est ancrée dans la véracité des affirmations et l'authenticité des observations et des sources primaires. Une économie basée sur la vérité rendra les connaissances numériques « dures » de la manière dont le Bitcoin a rendu la monnaie fiduciaire dure. C'est la promesse du mouvement de la science décentralisée.

Comment y parvenir ? Nous devons commencer par l'élément le plus important dans le monde scientifique, le chercheur individuel et son travail. Les normes web actuelles pour l'identité scientifique aujourd'hui ne parviennent pas à vérifier les revendications sur l'identité et la preuve de travail. La pratique actuelle rend très facile la fabrication d'un profil avec une réputation passable ; les révisions par les pairs sont également à risque en raison des biais et de la collusion. Sans vérification des métadonnées qui accompagnent une revendication scientifique, une économie basée sur la vérité pour la science ne peut pas être établie.

L'amélioration des normes d'identité académique peut commencer par une simple connexion multiplateforme alimentée par une technologie de vérification d'identité préservant la vie privée. Les utilisateurs devraient pouvoir se connecter à n'importe quel site avec leurs identifiants, prouver leur authenticité, et divulguer sélectivement des faits concernant leur réputation, leurs données ou d'autres agents ou utilisateurs.

Une couche d'identité qui repose sur la réputation vérifiable d'un chercheur est la base fondamentale de DeSci. Une économie scientifique entièrement sur chaîne permettra une participation publique et anonyme à la coordination massive en ligne pour les activités de recherche. Les laboratoires de recherche et les organisations autonomes décentralisées peuvent créer des systèmes sans autorisation et des programmes de récompenses qui ne peuvent pas être manipulés par des revendications de réputation ou d'identité frauduleuses. Un registre scientifique universel sécurisé sur blockchain avec des revendications d'identité fournirait un cadre de référence pour les organisations autonomes conçues pour amasser des connaissances scientifiques vérifiables et tester des hypothèses falsifiables.

Sauvegarder l'avenir du progrès humain

Nous devons établir les fondements de la vérité par la transparence de l'information et une vérification rigoureuse pour éviter une rupture de confiance au sein des domaines de recherche experts. Les chances de notre progrès collectif se poursuivant pendant encore des centaines d'années, débloquant des révolutions scientifiques successives dans les sciences des matériaux, la biotechnologie, les neurosciences et la science de la complexité, dépendront de la curation de recherches de qualité et de données fiables. Cela fera la différence entre une société future aussi avancée que nous le sommes par rapport aux sociétés pré-enlightenment. Sinon, nous devrons nous attendre à ce que cela soit aussi intelligent que nous devenions en tant qu'espèce, et nous ne ferons que devenir plus bêtes. Il n'est pas clair si DeSci nous sauvera ou non, mais il y a un temps limité pour bien faire les choses.

Lire la suite : La science décentralisée modernise des systèmes obsolètes | Opinion

Auteur : Shady El Damaty

Shady El Damaty est le co-fondateur de la Holonym Foundation, cherchant une solution pour une personnalité universelle et un accès numérique sécurisé avec un protocole d'identité décentralisé construit sur la magie des preuves à zéro connaissance. En 2020, il a créé OpSci, la première organisation de science décentralisée, ou DeSci en abrégé. Avant sa carrière dans la crypto, Shady a obtenu son doctorat en neurosciences de l'Université de Georgetown, Washington, D.C., États-Unis.