Que se passe-t-il chez OpenAI ? La moitié de l'équipe de sécurité est partie !

Des départs ont eu lieu au sein de l'équipe de sécurité AGI d'OpenAI. Des inquiétudes ont émergé concernant la sécurité des systèmes d'intelligence artificielle (AGI).

Il y a eu un départ majeur au sein de l'équipe de sécurité #AGI d'OpenAI, qui est chargée de s'assurer que les systèmes d'intelligence artificielle générale (AGI) qu'elle développe ne constituent pas une menace pour l'humanité. Près de la moitié des chercheurs de cette équipe ont quitté l'entreprise au cours des derniers mois, selon Daniel Kokotajlo, ancien chercheur en gouvernance d'OpenAI.

Depuis 2024, l'équipe AGI du géant de l'intelligence artificielle OpenAI, que nous connaissons grâce à des modèles de langage GPT tels que #ChatGPT , est passée d'environ 30 à 16 personnes. Cela a suscité des inquiétudes quant à savoir si OpenAI accorde suffisamment d'attention à la sécurité.

Selon Kokotajlo, ces départs ne sont pas le résultat d'un mouvement organisé, mais plutôt de chercheurs individuels décidant de quitter l'entreprise. #OpenAI a déclaré dans un communiqué qu’elle était confiante dans sa capacité à fournir les systèmes d’IA les plus sécurisés au monde.

Il ne faut cependant pas oublier que ces départs majeurs soulèvent des questions sur l’avenir de l’entreprise dans la recherche en sécurité. Cette évolution soulève des questions telles que la manière dont #OpenAI abordera la sécurité des futurs systèmes d’IA générale et sur quels nouveaux projets les chercheurs qui quitteront cette équipe se concentreront.