Odaily Planet Daily News Le 14 mai (mardi dernier), heure de l'Est, Ilya Sutskever, scientifique en chef d'OpenAI, a officiellement annoncé sa démission. Le même jour, Jan Leike, l'un des dirigeants de l'équipe OpenAI Super Alignment, a également annoncé sa démission. Vendredi, OpenAI a également confirmé que la « Superintelligence Alignment Team » codirigée par Suzkovo et Jan Lake avait été dissoute. Tôt le matin du 18 mai, Jane Lake a publié 13 tweets sur la plateforme sociale X, révélant la véritable raison de sa démission et d'autres informations privilégiées. En réponse aux dernières informations de Jane Lake, Altman a également publié une réponse urgente le 18 mai : « Je suis très reconnaissant à Jane Lake pour sa contribution à la recherche sur le super-alignement de l'IA et à la culture de sécurité d'OpenAI, et je suis très triste qu'il ait quitté le Malheureusement, il a noté que nous avons encore beaucoup de travail à faire et nous sommes d'accord sur le fait que nous sommes déterminés à avancer dans ce travail. J'écrirai un article plus détaillé sur cette question dans les prochains jours. Musk a commenté la nouvelle de la dissolution de l'équipe « Super Alignment » : « Cela montre que la sécurité n'est pas la priorité absolue d'OpenAI. En résumé, l'une est que les ressources informatiques ne sont pas suffisantes, et l'autre est qu'OpenAI ne paie pas assez. attention à la sécurité . Jane Lake a déclaré que davantage de ressources et d'énergie devraient être investies dans la préparation de la nouvelle génération de modèles d'IA, mais la voie de développement actuelle ne peut pas atteindre l'objectif et son équipe a été confrontée à d'énormes défis au cours des derniers mois. Il est difficile d'obtenir des ressources informatiques suffisantes. Jane Lake a également souligné que la création de machines dépassant l'intelligence humaine comporte de nombreux risques, et OpenAI assume cette responsabilité, mais la culture et les processus de sécurité doivent être marginalisés dans la poursuite du développement de produits. se transformer en entreprise. AGI donne la priorité à la sécurité. Le site Web américain Vox a déclaré le 17 que le conseil d'administration d'OpenAI avait tenté de licencier le PDG Altman. En conséquence, les employés soucieux de la sécurité ont démissionné ou ont été licenciés. Selon le Street Journal, Suzkweil a concentré son attention sur la garantie que l'intelligence artificielle ne nuit pas aux humains, tandis que d'autres, dont Altman, étaient plus désireux de promouvoir le développement de nouvelles technologies.Le magazine Wired a déclaré que Suzkweil était l'un des quatre membres du conseil d'administration qui ont licencié Altman en novembre dernier. Des sources de l'entreprise ont déclaré à Vox.com que les employés soucieux de la sécurité ont perdu confiance en Ultraman. "C'est un processus d'effondrement de la confiance petit à petit, tout comme les dominos tombent un par un." Ils pensent qu'Ultraman prétend donner la priorité à la sécurité, mais se contredit dans son comportement. Le 18, le blog technologique américain TechCrunch a indiqué qu'OpenAI avait abandonné la recherche en matière de sécurité et lancé à la place de nouveaux produits comme GPT-4o, ce qui a finalement conduit à la démission des deux dirigeants de l'équipe "Super Alignment". On ne sait pas quand ni si l’industrie technologique réalisera les percées nécessaires pour créer une intelligence artificielle capable d’accomplir n’importe quelle tâche qu’un humain peut accomplir. (World Wide Web)