Plusieurs employés actuels et anciens d'OpenAI et de Google DeepMind ont accusé leurs entreprises de cacher des risques liés à l'IA qui pourraient potentiellement déclencher l'extinction de l'humanité. Dans une lettre ouverte, les travailleurs ont affirmé que les entreprises d’IA accordent la priorité au profit tout en évitant « une surveillance [gouvernementale] efficace ».

Lisez aussi : OpenAI aligne le successeur de GPT-4 au milieu de problèmes de sécurité

La lettre ouverte a été signée par 11 anciens employés d’OpenAI, dont deux de Google DeepMind, et approuvée par le « parrain de l’IA » Geoffrey Hinton, ancien de Google. L’objectif du profit et les lacunes réglementaires permettent aux entreprises de dissimuler les menaces posées par l’intelligence artificielle avancée.

L’IA pourrait conduire à « l’extinction de l’humanité »

Selon la lettre, des sociétés d'IA telles qu'OpenAI et Google DeepMind, créateur de Gemini, n'ont pas partagé publiquement d'informations sur les protections inadéquates et les niveaux de risque de leurs systèmes, car elles n'y sont pas tenues.

Sans surveillance réglementaire, les programmes d’IA pourraient causer des dommages importants aux humains. Les salariés ont prévenu :

« Ces risques vont de l’aggravation des inégalités existantes… à la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité. »

Comme l’ont souligné les signataires de la lettre, les sociétés d’IA elles-mêmes ont reconnu ces risques. En mai 2023, les PDG d'OpenAI, Anthropic et Google DeepMind ont cosigné une lettre ouverte du Center for AI Safety. La lettre disait simplement : « Atténuer le risque d’extinction dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques à l’échelle sociétale, tels que les pandémies et la guerre nucléaire. »

Les entreprises d’IA sont de plus en plus surveillées parce qu’elles placent de nouveaux produits et réalisent des profits plutôt que la sûreté et la sécurité. Le créateur de ChatGPT, OpenAI, a noté les préoccupations soulevées dans la lettre et a déclaré qu'il travaillait au développement d'une intelligence artificielle sûre.

« Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs. systèmes et croyons en notre approche scientifique pour gérer les risques », a déclaré la porte-parole d’OpenAI, Lindsey Held, au New York Times.

« Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie, et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde. »

Les lanceurs d’alerte craignent des représailles

Les anciens employés d'OpenAI et de Google ont déclaré qu'ils aimeraient remplir le rôle de surveillance pendant que les régulateurs élaborent des lois qui obligent les développeurs d'IA à divulguer publiquement plus d'informations sur leurs programmes.

Cependant, les accords de confidentialité et la probabilité de représailles de la part des employeurs découragent les travailleurs d'exprimer publiquement leurs préoccupations. Selon la lettre :

« Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de tels cas dans l’ensemble du secteur. Nous ne sommes pas les premiers à rencontrer ou à parler de ces problèmes.

Aux États-Unis, les lanceurs d’alerte sont protégés par la loi, mais ceux qui dénoncent les dangers de l’intelligence artificielle ne sont pas couverts car cette technologie n’est pas encore réglementée.

A lire aussi : ChatGPT propage toujours des mensonges, déclare l'organisme de surveillance des données de l'UE

La lettre appelle les sociétés d’IA à faciliter les retours anonymes vérifiables, à soutenir une culture de critique ouverte et à ne pas exercer de représailles contre les lanceurs d’alerte.

Le chercheur en IA Lance B. Eliot a déclaré que les entreprises adoptent une approche de la carotte et du bâton face aux critiques. Les employés qui ne dénoncent pas les risques sont récompensés par des promotions et des augmentations de salaire.

D’un autre côté, les lanceurs d’alerte et les critiques perdent leurs options d’achat d’actions et peuvent être forcés de quitter l’entreprise et mis silencieusement sur une liste noire par la communauté des dirigeants d’IA.

Reportage cryptopolitain par Jeffrey Gogo