Odaily Planet Daily News El 14 de mayo (martes pasado), hora del este, el científico jefe de OpenAI, Ilya Sutskever, anunció oficialmente su renuncia. El mismo día, Jan Leike, uno de los líderes del equipo OpenAI Super Alignment, también anunció su dimisión. El viernes, OpenAI también confirmó que el "Equipo de Alineación de Superinteligencia" codirigido por Suzkovo y Jan Lake ha sido disuelto. En la madrugada del 18 de mayo, Jane Lake publicó 13 tweets en la plataforma social X, revelando el verdadero motivo de su renuncia y más información privilegiada. En respuesta a la información de última hora de Jane Lake, Altman también emitió una respuesta urgente el 18 de mayo: "Estoy muy agradecido con Jane Lake por su contribución a la cultura de seguridad e investigación de súper alineación de IA de OpenAI, y estoy muy triste de que haya dejado el Lamentablemente, señaló que todavía tenemos mucho trabajo por hacer y estamos de acuerdo en que estamos comprometidos a seguir adelante con este trabajo. Escribiré un artículo más detallado sobre este tema en los próximos días. Musk comentó sobre la noticia de la disolución del equipo "Super Alignment": "Esto demuestra que la seguridad no es la principal prioridad de OpenAI. En resumen, una es que los recursos informáticos no son suficientes y la otra es que OpenAI no paga lo suficiente. Atención a la seguridad, Jane Lake dijo que se deberían invertir más recursos y energía en la preparación para la nueva generación de modelos de IA, pero el camino de desarrollo actual no puede lograr con éxito el objetivo y su equipo se ha enfrentado a enormes desafíos en los últimos meses. Es difícil obtener suficientes recursos informáticos. Jane Lake también enfatizó que la creación de máquinas que superen la inteligencia humana está llena de riesgos y OpenAI está asumiendo esta responsabilidad, pero la cultura y los procesos de seguridad deben marginarse en la búsqueda del desarrollo de productos. Transformarse en una empresa da prioridad a la seguridad. El sitio web Vox de EE. UU. declaró el día 17 que la junta directiva de OpenAI intentó despedir al director ejecutivo Altman. Como resultado, Altman recuperó rápidamente el poder, los empleados preocupados por la seguridad renunciaron o fueron despedidos. Street Journal dijo que Suzkweil centró su atención en garantizar que la inteligencia artificial no dañe a los humanos, mientras que otros, incluido Altman, estaban más ansiosos por promover el desarrollo de nuevas tecnologías.La revista Wired dijo que Suzkweil fue uno de los cuatro miembros de la junta que despidieron a Altman en noviembre pasado. Fuentes de la compañía dijeron a Vox.com que los empleados preocupados por la seguridad han perdido la confianza en Ultraman. "Este es un proceso en el que la confianza se derrumba poco a poco, como si fueran fichas de dominó que caen una por una". Creen que Ultraman afirma anteponer la seguridad, pero se contradice en su comportamiento. El sitio web del blog de tecnología TechCrunch de EE. UU. Dijo el día 18 que OpenAI abandonó la investigación de seguridad y en su lugar lanzó nuevos productos como GPT-4o, lo que finalmente llevó a la renuncia de los dos líderes del equipo "Super Alignment". No está claro cuándo o si la industria tecnológica logrará los avances necesarios para crear una inteligencia artificial capaz de completar cualquier tarea que un ser humano pueda realizar. (World Wide Web)