Un groupe de scientifiques en intelligence artificielle exhorte les nations à créer un système de surveillance mondial pour éviter d’éventuelles « conséquences catastrophiques » si les humains perdaient le contrôle de l’IA.
Dans une déclaration publiée le 16 septembre, un groupe de scientifiques influents en IA ont exprimé leur inquiétude quant au fait que la technologie qu'ils ont contribué à développer pourrait causer de graves dommages si le contrôle humain était perdu.
« La perte de contrôle humain ou l’utilisation malveillante de ces systèmes d’IA pourrait conduire à des conséquences catastrophiques pour l’ensemble de l’humanité », peut-on lire dans la déclaration avant de poursuivre :
« Malheureusement, nous n’avons pas encore développé la science nécessaire pour contrôler et protéger l’utilisation de renseignements aussi avancés. »
Les scientifiques ont convenu que les nations doivent développer des autorités pour détecter et répondre aux incidents d’IA et aux risques catastrophiques dans leurs juridictions et qu’un « plan d’urgence mondial » doit être élaboré.
« À plus long terme, les États devraient élaborer un régime de gouvernance internationale pour empêcher le développement de modèles qui pourraient présenter des risques catastrophiques à l’échelle mondiale. »
Cette déclaration s’appuie sur les conclusions du Dialogue international sur la sécurité de l’IA qui s’est tenu à Venise début septembre, la troisième réunion du genre organisée par le groupe de recherche américain à but non lucratif Safe AI Forum.
Gillian Hadfield, professeur à l'université Johns Hopkins, qui a partagé cette déclaration dans un article sur X, a déclaré : « Si nous étions confrontés à une sorte de catastrophe dans six mois, si nous détectons que des modèles commencent à s'améliorer de manière autonome, qui appelleriez-vous ? »
Source : Gillian Hadfield
Ils ont déclaré que la sécurité de l’IA est reconnue comme un bien public mondial, nécessitant une coopération et une gouvernance internationales.
Les développeurs de l’IA ont proposé trois processus clés : des accords et des institutions de préparation aux situations d’urgence, un cadre d’assurance de la sécurité et une recherche indépendante sur la sécurité et la vérification de l’IA à l’échelle mondiale.
La déclaration a été signée par plus de 30 personnes des États-Unis, du Canada, de Chine, de Grande-Bretagne, de Singapour et d'autres pays. Le groupe comprenait des experts d'institutions de recherche et d'universités de premier plan en matière d'IA et plusieurs lauréats du prix Turing, l'équivalent du prix Nobel de l'informatique.
Les scientifiques ont déclaré que le dialogue était nécessaire en raison de la diminution des échanges scientifiques entre les superpuissances et de la méfiance croissante entre les États-Unis et la Chine, ajoutant à la difficulté de parvenir à un consensus sur les menaces de l'IA.
Début septembre, les États-Unis, l’UE et le Royaume-Uni ont signé le premier traité international juridiquement contraignant au monde sur l’IA, accordant la priorité aux droits de l’homme et à la responsabilité dans la réglementation de l’IA.
Cependant, les entreprises technologiques et leurs dirigeants ont déclaré qu’une réglementation excessive pourrait étouffer l’innovation, en particulier dans l’Union européenne.
Magazine : Un projet de drones intelligents pour Taïwan, des masters trop stupides pour détruire l'humanité : AI Eye