Pour renforcer la sécurité des projets d'apprentissage automatique, OpenAI a annoncé la formation d'un comité de sûreté et de sécurité. Ce nouvel organe de gouvernance émerge à la lumière des récents changements intervenus dans l'organisation, tels que la suppression de son équipe interne de Superalignment chargée des risques posés par l'IA.

L’annonce du comité fait suite à une série de changements stratégiques au sein de l’entreprise, parallèlement au début de la formation pour le modèle de nouvelle génération de l’entreprise, ce qui laisse présager une progression vers l’AGI.

Le conseil d'administration d'OpenAI forme un comité de sûreté et de sécurité, chargé de formuler des recommandations sur les décisions critiques en matière de sûreté et de sécurité pour tous les projets OpenAI. https://t.co/tsTybFIl7o

– OpenAI (@OpenAI) 28 mai 2024

OpenAI présente un nouveau comité pour une surveillance améliorée de l'IA

Les développeurs de GPT-4, OpenAI, ont encore amélioré leur jeu en constituant un comité de sûreté et de sécurité composé de neuf membres. Ce panel comprend les dirigeants de l'organisation. Sam Altman en tant que PDG et président du conseil d'administration, Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki. Leur principale responsabilité sera d’améliorer la gestion du processus de gestion des risques liés à l’IA.  Un rapport détaillé devrait être remis au conseil d'administration dans les quatre-vingt-dix prochains jours.

A lire aussi : Amazon a du mal à contester la suprématie des puces IA de Nvidia

Le changement d'OpenAI dans la supervision de la sécurité fait suite à de nombreux changements de direction comme le départ d'Ilya Sutskever et de Jan Leike, et la dissolution de l'équipe Superalignment en charge de la sécurité de l'IA. Cette restructuration montre la volonté d’OpenAI d’améliorer ses stratégies de gestion des risques en matière d’IA tout en repoussant les frontières de l’innovation en IA.

OpenAI forme le modèle Next Frontier

En plus du nouveau comité, OpenAI a commencé à former ce qu'ils appellent leur prochain modèle frontière. Ce modèle vise à dépasser les capacités des modèles actuels et à se rapprocher de l'AGI.  Cette décision fait partie de leur mission continue visant à créer des solutions d’IA capables d’effectuer diverses tâches de manière efficace et efficiente. Mira Murati, directrice de la technologie d'OpenAI, a noté que les principales mises à jour de GPT-4 présenteront des améliorations majeures du modèle et pourraient refléter de tels développements dans la technologie et les cas d'utilisation associés.

A lire aussi : Les sociétés chinoises d’IA lancent une féroce guerre des prix

Les dernières informations de Microsoft, un partenaire important qui fournit une infrastructure cloud pour la recherche sur l'IA, indiquent que le nouveau modèle représentera une grande avancée, que Tom Warner, le CTO de Microsoft, qualifie de passage d'une « orque » à une « baleine ». en termes de capacités et de taille.

L'anticipation autour de GPT-5 s'intensifie

Au milieu de ces tendances, des rumeurs courent concernant la version préliminaire du modèle de langage de nouvelle génération d’OpenAI appelée GPT-5. Les rapports de mars montrent que seul un petit nombre d'utilisateurs ont utilisé ce prototype et ont mentionné des améliorations par rapport à GPT-4. Ce buzz a suscité d’énormes attentes parmi les férus de technologie et le grand public, les parties prenantes attendant avec impatience d’en savoir plus sur les perspectives de ce nouveau modèle.

Tout ce qu'OpenAI a fait, de la restructuration du comité de sécurité à la promotion de sa technologie, vise à maintenir sa position de leader dans le développement de l'IA. L’évolution constante d’OpenAI et l’intégration de plates-formes durables en font l’une des principales entreprises contribuant à définir la voie vers l’avenir de la technologie de l’IA.

Reportage cryptopolitain de Chris Murithi