El ex científico jefe de OpenAI, Ilya Sutskever, está iniciando una nueva empresa de inteligencia artificial, apenas un mes después de anunciar su salida de OpenAI. "Estoy fundando una nueva empresa", llamada Safe Superintelligence Inc. (SSI), anunció el miércoles por la noche.

Lea también: El científico jefe de OpenAI, Ilya Sutskever, se despide

SSI tiene su sede en Estados Unidos y oficinas en Palo Alto y Tel Aviv. En una publicación oficial, la startup dijo que tiene "un objetivo y un producto: una superinteligencia segura".

“Buscaremos una superinteligencia segura de forma directa, con un enfoque, un objetivo y un producto. Lo haremos mediante avances revolucionarios producidos por un pequeño equipo descompuesto”, afirmó Sutskever. 

"Nuestro enfoque singular significa que no hay distracciones", dice SSI

Actualmente, SSI está dirigida por Sutskever, Daniel Gross y otro ex investigador de OpenAI, Daniel Levy. Al momento de escribir este artículo, se desconocen los inversores detrás de la startup. 

Sin embargo, la compañía señaló en el anuncio que todo “el equipo, los inversores y el modelo de negocio están todos alineados para lograr “una superinteligencia segura”. El comentario de alguna manera parece una sombra para OpenAI, que una vez fue demandado por Elon Musk por anteponer las ganancias a la humanidad y abandonar su misión original. 

"Nuestro enfoque singular significa que no hay distracciones por gastos generales de gestión o ciclos de productos, y nuestro modelo de negocio significa que la seguridad, la protección y el progreso están todos aislados de las presiones comerciales a corto plazo".

SSI

Sutskever anunció que dejará OpenAI el 15 de mayo después de trabajar durante casi una década en la empresa líder en inteligencia artificial. Antes de eso, había guardado silencio tras un intento fallido de expulsar al director ejecutivo Sam Altman de OpenAI en diciembre del año pasado. 

Después de casi una década, tomé la decisión de dejar OpenAI.  La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de @sama, @gdb, @miramurati y ahora, bajo el...

– Ilya Sutskever (@ilyasut) 14 de mayo de 2024

Otro ejecutivo de OpenAI, Jan Leike, dimitió tras Sutskever. Ambos codirigieron el equipo de Superalignment en OpenAI, que es responsable de evitar que los modelos de IA superinteligentes se vuelvan deshonestos.

Lea también: Otro ejecutivo de OpenAI, Jan Leike, renuncia

Sutskever no explicó claramente los motivos para dejar OpenAI. Sin embargo, Leike citó preocupaciones de seguridad en la empresa y dijo que “en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.

"Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación", dijo Leike. "Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo hasta que finalmente llegamos a un punto de ruptura", añadió.

SSI no es el primero en separarse de OpenAI

Leike se unió al competidor de OpenAI, Anthropic, como investigador de ML el 28 de mayo, mientras que Sutskever se fue a construir su nueva empresa de IA, lo que se ha convertido en una recurrencia.

Cabe destacar que SSI no será la primera empresa en separarse de OpenAI. En 2021, dos ex empleados de OpenAI dejaron la empresa para cofundar Anthropic, que ahora está valorada en 18.400 millones de dólares, después del dinero, al 13 de mayo.

Los fundadores de Anthropic también abandonaron OpenAI debido a desacuerdos con Sam Altman sobre el desarrollo seguro de la IA.

Informe criptopolitano de Ibiam Wayas