Les employés actuels et anciens d'OpenAI ont exprimé de sérieuses inquiétudes quant aux progrès rapides de l'IA sans surveillance suffisante. Ces initiés soulignent les dangers potentiels associés au développement incontrôlé de l’IA. Ils soutiennent que les entreprises d’IA, y compris OpenAI, sont fortement incitées financièrement à éviter une surveillance efficace, ce qui pourrait entraîner des risques importants.

La lettre ouverte de ces employés souligne la nécessité de meilleures protections pour les lanceurs d’alerte. Ils soutiennent que sans de telles protections, les salariés ne peuvent pas efficacement demander des comptes à leur entreprise. La lettre appelle les sociétés d’IA à autoriser le signalement anonyme de leurs préoccupations et à soutenir une culture de critique ouverte.

Le rôle de Google et d'OpenAI dans l'avancement de l'IA

OpenAI, Google et d’autres géants de la technologie mènent la charge en matière de développement de l’IA.

Cette course aux armements en matière d’IA générative devrait générer des revenus importants. Les projections estiment que le marché pourrait dépasser 1 000 milliards de dollars d’ici une décennie. Cependant, cette évolution rapide comporte des risques importants. Les initiés soulignent que ces entreprises possèdent de nombreuses informations non publiques sur les capacités de leur technologie. Ils soulignent également leurs inquiétudes concernant les mesures de sécurité, qu'ils ne sont pas obligés de partager.

La lettre ouverte souligne que ces entreprises ont actuellement des obligations minimales de divulguer des informations cruciales en matière de sécurité aux gouvernements. Ils ont également des obligations minimales de divulguer ces informations au public. Ce manque de transparence suscite des inquiétudes quant à une éventuelle utilisation abusive de la technologie de l’IA et aux risques associés.

Les dangers mis en avant par les employés d'OpenAI

Les dangers de la technologie de l’IA sont multiples. Les employés d'OpenAI et de Google DeepMind ont souligné des risques allant de la propagation de fausses informations à la possible perte de contrôle sur les systèmes autonomes. Il existe également un risque extrême que la technologie de l’IA conduise à l’extinction de l’humanité si elle n’est pas correctement gérée.

La pétition intitulée « Droit d’avertir l’IA » appelle les entreprises d’IA à permettre à leurs employés de faire part de leurs préoccupations liées aux risques, tant en interne qu’auprès du public. Les signataires affirment que des motivations financières poussent souvent les entreprises à donner la priorité au développement de produits plutôt qu'à la sécurité, compromettant ainsi les processus de surveillance.

Un groupe d'employés actuels et anciens d'OpenAI – dont certains anonymes – ainsi que Yoshua Bengio, Geoffrey Hinton et Stuart Russell ont publié ce matin une lettre ouverte intitulée « Un droit d'avertir concernant l'intelligence artificielle avancée ».https:// t.co/uQ3otSQyDA pic.twitter.com/QnhbUg8WsU

– Andrew Curran (@AndrewCurran_) 4 juin 2024

Appels à des changements internes chez OpenAI

Les employés exhortent OpenAI et d’autres sociétés d’IA à mettre en œuvre des systèmes permettant le signalement anonyme des problèmes de sécurité. Ils plaident pour la suppression des accords restrictifs de non-divulgation qui empêchent les employés de dénoncer les dangers potentiels. Ces changements sont considérés comme essentiels pour favoriser un environnement de développement de l’IA plus sûr.

William Saunders, ancien employé d’OpenAI, a souligné que ceux qui connaissent le mieux les dangers potentiels des systèmes d’IA sont souvent incapables de partager leurs idées par peur des répercussions. Ce secret empêche les informations cruciales sur les risques liés à l’IA de parvenir au public et aux régulateurs.

Réponses et controverses

OpenAI a reconnu l'importance de la sécurité dans le développement de l'IA. Cependant, des actions récentes, telles que la dissolution de l'équipe de sécurité du Superalignment, ont soulevé des doutes quant à leur engagement envers ce principe. OpenAI a depuis créé un comité de sûreté et de sécurité pour répondre à ces préoccupations.

Malgré ces efforts, des controverses continuent d’entourer la gestion et l’approche d’OpenAI en matière de sécurité. L'entreprise a été confrontée à des conflits internes, notamment à l'éviction du PDG Sam Altman pour des questions de transparence. Ces événements soulignent les défis permanents liés à l’équilibre entre l’innovation rapide de l’IA et les mesures de sécurité nécessaires.

En conclusion, si les technologies d’IA promettent des avancées significatives, les préoccupations soulevées par les employés d’OpenAI et de Google soulignent le besoin urgent d’une meilleure surveillance et d’une meilleure transparence. Garantir la sécurité des systèmes d’IA doit être une priorité pour atténuer les risques potentiels et préserver l’avenir.