OpenAI forme un nouveau système d'IA pour succéder à GPT-4 alors que l'entreprise cherche à redémarrer sa réputation. Le modèle sera précédé d'un comité de sûreté et de sécurité dirigé par le PDG Sam Altman et trois autres administrateurs du conseil d'administration. 

A lire aussi : ChatGPT propage toujours des mensonges, déclare l'organisme de surveillance des données de l'UE

L'entreprise basée à San Francisco est sous pression pour démontrer son engagement en faveur de la sécurité. Jan Leike et Gretchen Krueger, chercheurs en risque récemment démissionnés, ont dénoncé la prétendue mauvaise culture de sécurité d'OpenAI sur X, anciennement Twitter.

OpenAI forme le « modèle de la prochaine frontière »

Dans un article de blog publié mardi, la société a déclaré :

"OpenAI a récemment commencé à former son prochain modèle frontière et nous prévoyons que les systèmes qui en résulteront nous amèneront au prochain niveau de capacités sur notre chemin vers l'intelligence artificielle générale (AGI)."

OpenAI n'a pas précisé quand le successeur de GPT-4 serait publié ni ce qu'il pourrait faire. L’entreprise, évaluée à 80 milliards de dollars, a pris le pari d’être un pionnier avec son chatbot IA extrêmement populaire, ChatGPT, à une époque où des favoris comme Google passaient au second plan pour évaluer le risque de réputation.

Même si OpenAI est un pionnier dans la course à l’intelligence artificielle générative, étroitement disputée par Anthropic, Google, Microsoft et d’autres, l’entreprise n’a pas toujours résisté à un examen éthique.

Dans un article annonçant sa démission d’OpenAI sur X, Leike a révélé qu’« au cours des dernières années, la culture et les processus de sécurité sont passés au second plan face aux produits brillants ».

Krueger a écrit que l'entreprise doit « faire davantage pour améliorer des éléments fondamentaux tels que les processus de prise de décision, la responsabilité, la transparence, l'application des politiques et le soin avec lequel nous utilisons notre propre technologie ».

La semaine dernière, un groupe de travail de l’Union européenne a dénoncé les critiques, signalant que ChatGPT, le produit phare de l’entreprise, ne répondait pas à ses normes de précision.

L'entreprise présente la sécurité de l'IA comme argument de vente clé

Pendant ce temps, la récente mise à jour d’OpenAI de son modèle GPT-4 s’est immédiatement heurtée à une dispute très médiatisée, l’actrice Scarlett Johannson accusant la société d’utilisation non autorisée de sa voix.

Lisez aussi : OpenAI supprime ChatGPT Voice après la controverse de Scarlett Johansson

Aujourd’hui, l’entreprise prend la voie rapide vers la laverie automatique en présentant la sécurité comme argument de vente de son prochain programme d’IA. L’entreprise souhaite également être considérée par les régulateurs comme développant une IA responsable. Dans son article de blog, OpenAI a ajouté :

"Bien que nous soyons fiers de construire et de lancer des modèles qui sont à la pointe de l'industrie en termes de capacités et de sécurité, nous nous félicitons d'un débat approfondi à ce moment important."

Le nouveau comité de sûreté et de sécurité sera dirigé par les directeurs Altman, Bret Taylor (président), Adam D'Angelo et Nicole Seligman. Le responsable de la préparation, le responsable des systèmes de sécurité, le responsable de la science de l’alignement, le responsable de la sécurité et le scientifique en chef de l’entreprise feront également partie du comité.

OpenAI a déclaré que le comité « évaluera et développera davantage les processus et les garanties » au cours des trois prochains mois et fera rapport à trois autres directeurs.

L'entreprise a dissous son équipe de sécurité plus tôt ce mois-ci à la suite du départ du chef d'équipe et co-fondateur d'OpenAI, Ilya Sutskever.

Reportage cryptopolitain par Jeffrey Gogo