Deux dirigeants majeurs d’OpenAI ont démissionné de l’entreprise quelques jours seulement après le dévoilement de GPT-4o, le dernier modèle phare et plus « émotif » de l’entreprise.

Le co-responsable de l’équipe Superalignment d’OpenAI quitte

Jan Leike, qui codirige l'équipe Superalignment chez OpenAI, a posté sur X mercredi : « J'ai démissionné ».

j'ai démissionné

– Jan Leike (@janleike) 15 mai 2024

Leike n'a pas encore fourni plus de détails sur sa décision. Cependant, son message est intervenu quelques heures après qu'Ilya Sutskever, le co-fondateur d'OpenAI, a annoncé qu'il quittait l'entreprise et qu'il poursuivrait un « projet qui est très important pour moi personnellement ».

Avant de quitter OpenAI, Sutskever était resté silencieux depuis décembre 2023. Son premier message depuis la pause étant un avis de démission, certaines personnes semblaient inquiètes, compte tenu de la position de Sutskever dans l'entreprise. 

Leike et Sutskever ont codirigé l’équipe Superalignment chez OpenAI. L’unité a été créée pour empêcher les modèles d’IA superintelligents de devenir des voyous. 

A lire aussi : OpenAI lance l’équipe « Superalignment »

Plus tôt ce mois-ci, Sam Altman, co-fondateur et PDG d'OpenAI, a confirmé que la société envisageait de créer un de ces mannequins, communément appelé intelligence générale artificielle (AGI). Un AGI peut effectuer des tâches en tant qu’humains et éventuellement au-delà. 

"Que nous dépensions 500 millions de dollars par an, 5 milliards de dollars, ou 50 milliards de dollars par an, je m'en fiche, je m'en fiche vraiment", a déclaré Altman aux étudiants de l'Université de Stanford. «Tant que nous pouvons trouver un moyen de payer les factures, nous créons AGI. Cela va coûter cher.

Sutskever se dit convaincu qu'OpenAI créera une AGI sûre

Les opinions divergent sur les résultats de l’AGI. OpenAI a déclaré qu’elle pouvait « élever l’humanité ». Cependant, nombreux sont ceux qui affirment que les progrès substantiels de l’AGI pourraient éventuellement entraîner l’extinction de l’humanité.

Par conséquent, de nombreuses personnes s’inquiètent de la manière dont des entreprises comme OpenAI construisent l’AGI. Sutskever, cependant, a affirmé qu'OpenAI construirait une AGI sûre. 

«Je suis convaincu qu'OpenAI créera une AGI à la fois sûre et bénéfique sous la direction de» Sam Altman, Greg Brockman, Mira Murati et Jakub Pachocki.

Jakub Pachocki remplacera Sutskever en tant que nouveau scientifique en chef d'OpenAI. Pachocki travaillait auparavant comme directeur de la recherche.