David Brin, l'auteur de science-fiction lauréat de Hugo et Nebula et derrière les romans Uplift et The Postman, a conçu un plan pour lutter contre la menace existentielle posée par l'intelligence artificielle malveillante.

Il dit qu’une seule chose a jamais fonctionné dans l’histoire pour freiner les mauvais comportements des méchants. Ce n’est pas leur demander gentiment et ce n’est pas créer des codes d’éthique ou des conseils de sécurité.

C’est ce qu’on appelle la responsabilité réciproque, et il pense que cela fonctionnera également pour l’IA.

Donnez aux individus les moyens de se tenir mutuellement responsables. Nous savons assez bien comment procéder. Et si nous parvenons à ce que les IA fassent cela, un atterrissage en douceur pourrait nous attendre, a-t-il déclaré à Magazine.

Mettez-les les uns sur les autres. Mettez-les en compétition, voire en bavardant ou en se dénonçant les uns les autres.

Bien sûr, c’est plus facile à dire qu’à faire.

Le magazine a discuté avec Brin après avoir présenté son idée lors de la récente conférence sur l'intelligence artificielle générale bénéfique (AGI) au Panama. C’est de loin le discours le plus reçu de la conférence, salué par des huées et des applaudissements.

David Brin à la conférence Beneficial AGI au Panama. (Fenton)

Brin met la science dans l'écrivain de science-fiction, il est titulaire d'un doctorat en astronomie et consulte pour la NASA. Être auteur était mon deuxième choix de vie après être devenu scientifique, dit-il, mais la civilisation semble avoir insisté sur le fait que je suis un meilleur écrivain qu'un physicien.

Ses livres ont été traduits en 24 langues, même si son nom restera à jamais lié à la bombe au box-office de Kevin Costner, The Postman. Mais ce n’est pas sa faute ; le roman original a remporté le prix Locus du meilleur roman de science-fiction.

Promoteur de la confidentialité et de la transparence

Auteur passionné par la communauté crypto, Brin parle de transparence et de surveillance depuis le milieu des années 1990, d'abord dans un article fondateur pour Wired qu'il a transformé en un livre de non-fiction intitulé The Transparent Society en 1998.

«C'est considéré comme un classique dans certains milieux, dit-il.

Dans son ouvrage, Brin prédisait que les nouvelles technologies porteraient atteinte à la vie privée et que le seul moyen de protéger les droits individuels serait de donner à chacun la possibilité de détecter quand ses droits étaient bafoués.

Il a proposé une société transparente dans laquelle la plupart des gens savent ce qui se passe la plupart du temps, permettant ainsi aux surveillés de surveiller les observateurs. Cette idée préfigurait la transparence et l’immuabilité de la blockchain.

Dans un souci de symétrie, ses premières réflexions sur l'incitation des IA à se surveiller mutuellement ont été exposées pour la première fois dans un autre article de Wired l'année dernière, qui a constitué la base de son discours et qu'il est actuellement en train de transformer en livre.

David Brin en conversation avec Magazine. (Fenton) L’histoire montre comment vaincre les tyrans de l’intelligence artificielle

Fervent étudiant de l’histoire, Brin estime que la science-fiction devrait être rebaptisée histoire spéculative.

Il dit qu’il n’y a qu’une seule histoire profondément émouvante, dramatique et terrifiante : la longue bataille de l’humanité pour se sortir de la boue, les 6 000 ans de féodalité et les peuples sacrifiant leurs enfants à Baal qui ont caractérisé les débuts de la civilisation.

Mais avec les débuts de la démocratie à Athènes puis à Florence, les théories politiques d'Adam Smith en Écosse et la Révolution américaine, les gens ont développé de nouveaux systèmes qui leur ont permis de se libérer.

Et qu’est-ce qui était fondamental ? Ne laissez pas le pouvoir s’accumuler. Si vous trouvez un moyen de mettre les élites à la gorge, elles seront trop occupées pour vous opprimer.

Une seule chose a jamais fonctionné dans l’histoire pour apprivoiser de puissants tyrans. (Fenton) Intelligence artificielle : des êtres prédateurs hyper-intelligents

Indépendamment de la menace de l'IA, nous avons déjà une civilisation qui regorge d'êtres prédateurs hyper-intelligents, dit Brin, s'arrêtant un instant avant d'ajouter : On les appelle des avocats.

En dehors d’une jolie petite blague, c’est aussi une bonne analogie dans la mesure où les gens ordinaires ne sont pas à la hauteur des avocats, et encore moins des IA.

Que faites-vous dans ce cas ? Vous engagez votre propre avocat prédateur hyper-intelligent. Vous les jetez les uns sur les autres. Vous n'avez pas besoin de comprendre la loi aussi bien que l'avocat pour avoir un agent qui est un avocat qui est à vos côtés.

Il en va de même pour les ultra-puissants et les riches. S’il est difficile pour le commun des mortels de demander des comptes à Elon Musk, un autre milliardaire comme Jeff Bezos aurait sa chance.  

Alors, pouvons-nous appliquer cette même théorie pour amener les IA à se tenir mutuellement responsables ? Cela pourrait, en fait, être notre seule option, car leur intelligence et leurs capacités pourraient croître bien au-delà de ce que l’esprit humain peut même concevoir.

C'est le seul modèle qui ait jamais fonctionné. Je ne garantis pas que cela fonctionnera avec l'IA. Mais ce que j’essaie de dire, c’est que c’est le seul modèle qui le peut.

Lire aussi Articles Les meilleures (et les pires) histoires de 3 ans de Cointelegraph Magazine Articles Comment les gens intelligents investissent dans des memecoins stupides : plan en 3 points pour réussir Intelligence artificielle individuelle

Il y a cependant un gros problème avec cette idée. Tous nos mécanismes de responsabilisation reposent en fin de compte sur la responsabilisation des individus.

Ainsi, pour que l’idée de Brin fonctionne, les IA devraient avoir le sens de leur propre individualité, c’est-à-dire quelque chose à perdre en cas de mauvais comportement et quelque chose à gagner en aidant la police à briser les règles de l’IA.

Il faut qu'il s'agisse d'individus qui peuvent réellement être tenus responsables. Qui peut être motivé par les récompenses et découragé par les punitions, dit-il.  

Les incitations ne sont pas trop difficiles à comprendre. Les humains contrôleront probablement le monde physique pendant des décennies, de sorte que les IA pourraient être récompensées par plus de mémoire, de puissance de traitement ou d’accès aux ressources physiques.

Et si nous avons ce pouvoir, nous pouvons récompenser des programmes individualisés qui semblent au moins nous aider contre d’autres programmes malveillants.

Mais comment pouvons-nous amener les entités d’IA à fusionner en individus distincts, définis de manière discrète et dotés d’une force concurrentielle relativement égale ?

Brin propose d'ancrer les IA dans le monde réel et de les enregistrer via la blockchain. (Fenton)

Cependant, la réponse de Brins dérive vers le domaine de la science-fiction. Il propose qu'un composant essentiel de l'IA, le noyau de l'âme, comme il l'appelle, soit conservé dans un emplacement physique spécifique, même si la grande majorité du système fonctionne dans le cloud. Le noyau de l’âme aurait un identifiant d’enregistrement unique enregistré sur une blockchain, qui pourrait être retiré en cas de mauvais comportement.

Il serait extrêmement difficile de réglementer un tel système à l’échelle mondiale, mais si suffisamment d’entreprises et d’organisations refusent de faire affaire avec des IA non enregistrées, le système pourrait être efficace.

Toute IA sans noyau d’âme enregistré deviendrait une hors-la-loi et rejetée par une société respectable.

Cela nous amène au deuxième grand problème de l’idée. Une fois qu’une IA est hors-la-loi (ou pour ceux qui ne se sont jamais enregistrés), nous perdons tout effet de levier sur elle.

L’idée est-elle d’inciter les bonnes IA à combattre les voyous ?

Je ne garantis pas que tout cela fonctionnera. Tout ce que je dis, c'est que c'est ce qui a fonctionné.

Trois lois de la robotique et de l'alignement de l'IA

Brin a continué la trilogie Fondation d’Isaac Asimov.

Brin a poursuivi le travail d'Isaac Asimov avec Foundations Triumph en 1999, on pourrait donc penser que sa solution au problème d'alignement impliquait de câbler les trois lois de la robotique d'Asimov dans les IA.

Les trois règles stipulent essentiellement que les robots ne peuvent pas nuire aux humains ni permettre que du mal leur soit causé. Mais Brin ne pense pas que les trois lois de la robotique aient la moindre chance de fonctionner. Pour commencer, personne ne fait d’effort sérieux pour les mettre en œuvre.

Isaac supposait que les gens auraient tellement peur des robots dans les années 1970 et 1980 parce qu'il écrivait dans les années 1940 qu'ils insisteraient pour que de grandes sommes d'argent soient consacrées à la création de ces programmes de contrôle. Les gens n’ont tout simplement pas aussi peur qu’Isaac s’y attendait. Par conséquent, les entreprises qui inventent ces IA ne dépensent pas cet argent.

Un problème plus fondamental est que Brin affirme qu’Asimov lui-même a réalisé que les trois lois ne fonctionneraient pas. 

L'un des personnages robots d'Asimov, Giskard, a conçu une loi supplémentaire connue sous le nom de loi Zeroth, qui permet aux robots de faire tout ce qu'ils rationalisent comme étant dans le meilleur intérêt de l'humanité à long terme.

Un robot ne peut pas nuire à l’humanité ni, par son inaction, permettre à l’humanité de subir un préjudice.

Ainsi, à l’instar des avocats environnementaux qui ont réussi à interpréter le droit humain à la vie privée de manière créative pour forcer l’action contre le changement climatique, des robots suffisamment avancés pourraient interpréter les trois lois comme ils l’entendent.

Donc ça ne marchera pas.

Isaac Asimovs Trois lois de la robotique (World of Engineering, X)

Bien qu'il doute que faire appel à des robots de meilleure nature puisse fonctionner, Brin estime que nous devrions faire comprendre aux IA les avantages de nous garder là.

Je pense qu'il est très important que nous transmettions à nos nouveaux enfants, les intelligences artificielles, qu'une seule civilisation les a jamais créés, dit-il, ajoutant que notre civilisation repose sur celles qui l'ont précédée, tout comme l'IA repose sur nos épaules. .

Si l’IA a un peu de sagesse, elle saura que nous garder sur nos épaules est probablement une bonne idée. Peu importe à quel point ils deviennent plus intelligents que nous. Il n’est pas sage de nuire à l’écosystème qui vous a créé.

Abonnez-vous Les lectures les plus engageantes de la blockchain. Livré une fois par semaine.

Adresse e-mail

S'ABONNER