Les progrès rapides de l’intelligence artificielle (IA) ont captivé l’imagination des scientifiques et des futuristes. Cependant, une théorie provocatrice a émergé suggérant que l’IA pourrait non seulement façonner le destin de notre civilisation, mais aussi constituer un formidable obstacle à notre capacité à entrer en contact avec la vie extraterrestre.

L'IA comme excellent filtre pour la communication extraterrestre

L’hypothèse du grand filtre, en tant que réponse au problème du paradoxe de Fermi, se demande pourquoi nous n’avons observé aucune civilisation extraterrestre, en particulier celles dotées d’une technologie avancée, bien que l’univers soit si grand. À la lumière de cette théorie, il existe des obstacles dans l’évolution des civilisations qui les empêchent de devenir des sociétés d’exploration spatiale.

L'étude de la notion de Michael Garret, traçable dans Acta Astronautica, montre que la superintelligence (IA) pourrait en effet être le défi d'escalade auquel l'existence est confrontée. L’ASI, la tendance intelligente supérieure à l’humain, pourrait être le cas lorsqu’elle survient à un moment de la phase critique plus que centrale du développement de la civilisation : le passage de l’espèce monoplanaire à l’espèce multiplanaire.

Un facteur destructeur pour l’existence de la race humaine

Selon l’argument de Garrett, l’avènement de la super intelligence artificielle poserait de réels défis de la part de l’évolution des civilisations pour être l’une des rares à traverser avec succès le siècle prochain.

La nature autonome et auto-améliorée de l’IA pourrait très probablement conduire à un scénario dans lequel l’IA surpasserait notre capacité à la contrôler, ce qui pourrait devenir calamiteux non seulement pour les civilisations biologiques, mais aussi pour les civilisations sensibles artificielles.

Les progrès de l’IA exploseraient de façon exponentielle s’ils ne sont pas contrôlés. Cela entraînerait la disparition des civilisations avant même qu’elles aient la chance de devenir multiplanétaires. Les effets néfastes de laisser une IA autonome en puissance peuvent amener l’humanité au point de non-retour où il y aura une destruction incessante et des menaces pour la continuation de la race humaine.

Sauvegarder l’avenir de l’humanité

L’humanité est confrontée à un avertissement à travers ce phénomène, ce qui entraîne la nécessité de s’adapter et de repenser notre relation avec la planète. Les recherches de Garrett sont un avertissement à l’humanité pour qu’elle crée un système de régulation fiable qui régira le développement de l’IA. Il est crucial de prendre en compte les facteurs humains dans l’IA, car nous ne parlons pas seulement du danger d’une utilisation contraire à l’éthique de l’IA sur Terre, mais aussi du fait que l’IA sera la clé de la survie à long terme des humains.

Les tentatives de transformation en un service public multi-planétaire, qui dans le passé n'étaient qu'une utopie, entrent désormais dans une nouvelle phase soutenue par le progrès technologique des entreprises privées. D’un autre côté, cet objectif n’est atteint que si nous réfléchissons soigneusement aux conséquences de l’arrivée d’entités inconscientes et super-intelligentes sur notre planète. Parmi les nombreuses questions soulevées, la préoccupation la plus cruciale est peut-être celle de savoir quel type d’avenir attend l’humanité si elle commence à faire confiance aux machines intelligentes.

Chaque moment historique offre à l’humanité une distinction cruciale dans le développement technologique, les décisions d’aujourd’hui définissant l’avenir de la société humaine.