OpenAI, la société à l'origine de ChatGPT, a récemment créé un comité de sûreté et de sécurité de l'IA composé de hauts dirigeants pour superviser les décisions clés liées à la sécurité et à la confidentialité. Cependant, la décision a soulevé des inquiétudes quant à l’éthique de l’IA en raison du manque d’implication d’experts indépendants.

Le comité sera dirigé par le PDG Sam Altman et les membres du conseil d'administration Bret Taylor, Adam D'Angelo, Nicole Seligman et les experts Jakub Pachocki, Aleksander Madry, Lilian Weng, Matt Knight et John Schulman. Le comité évaluera les processus et les mesures de sécurité d'OpenAI au cours des 90 prochains jours.

Bien qu'OpenAI affirme que le comité a été créé pour renforcer la sécurité de l'IA, le manque d'experts externes indépendants a inquiété de nombreuses personnes. En particulier, certains experts en éthique de l’IA ont critiqué OpenAI pour avoir donné la priorité au développement de produits plutôt qu’à la sécurité, ce qui a conduit de nombreux employés seniors en sécurité de l’IA à quitter l’entreprise récemment.

Daniel Kokotajlo, ancien membre de l'équipe de gouvernance d'OpenAI, Ilya Sutskever, co-fondateur et ancien directeur scientifique d'OpenAI, ont quitté l'entreprise en avril et mai après des désaccords avec Altman sur les priorités de développement de produits plutôt que sur la recherche sur la sécurité de l'IA. 

Jan Leike, ancien chercheur de DeepMind et développeur de ChatGPT et de son prédécesseur, InstructGPT chez OpenAI, a également démissionné car il estime qu'OpenAI n'est pas sur la bonne voie pour résoudre les problèmes de confidentialité et de sécurité de All AI. Gretchen Krueger, chercheuse en politique de l'IA, a également quitté le groupe et a appelé l'entreprise à améliorer la responsabilité et la transparence.

En plus d’appeler à une réglementation de l’IA, OpenAI s’est également efforcé de façonner ces réglementations en embauchant des experts et en dépensant des centaines de milliers de dollars en activités de lobbying aux États-Unis. Récemment, le département américain de la Sécurité intérieure a annoncé qu'Altman serait membre du nouveau Conseil de sûreté et de sécurité de l'IA, qui fournit des recommandations sur le développement et le déploiement d'une IA sûre et sécurisée dans l'infrastructure critique américaine.

OpenAI tente maintenant d'apaiser les inquiétudes en annonçant qu'il retiendra un nombre d'experts en sécurité et techniques indépendants pour soutenir le comité. Cependant, l'entreprise n'a pas publié la liste précise, ni leurs pouvoirs et leur influence sur le comité.

L'auto-vérification de la sécurité de l'IA par OpenAI a soulevé de nombreuses controverses sur l'éthique et les responsabilités des entreprises développant l'IA. Les experts appellent à une surveillance indépendante et plus de transparence dans le développement de l'IA pour garantir la sécurité et l'éthique des humains.