William Saunders, un ex empleado de OpenAI y miembro del “equipo de superalineación” de la compañía, reveló recientemente que renunció a la compañía porque sentía que estaba en curso de colisión con la tragedia, muy similar a la desafortunada R.M.S. Titanic en 1912.

Como descubrió Business Insider, Saunders hizo su comentario durante un episodio del podcast del periodista tecnológico Alex Kantrowitz.

Saunders le dijo a Kantrowitz que durante sus tres años en OpenAI, a veces se preguntaba si la compañía estaba en un camino "más parecido al programa Apollo o más parecido al Titanic".

Su razonamiento parece ser que gracias a un esfuerzo científico cauteloso, el programa espacial Apolo fue un éxito, a pesar de sus reveses, mientras que el Titanic fue un fracaso a pesar de sus éxitos.

Según Saunders:

“Se trabajó mucho para hacer que el barco fuera seguro y construir compartimentos estancos para que pudieran decir que era insumergible. Pero al mismo tiempo no había suficientes botes salvavidas para todos”.

OpenAI como el Titanic

Saunders describe el espíritu general de la empresa como uno que otorga mayor prioridad al desarrollo de productos que a la implementación de precauciones de seguridad razonables.

Pinta el panorama de una oficina donde los empleados que plantean preocupaciones sobre seguridad son castigados y el liderazgo se centra en las ganancias.

"Con el tiempo", dijo Saunders, "empecé a sentir que las decisiones tomadas por los líderes se parecían más a la White Star Line construyendo el Titanic".

el iceberg

Saunders no es la primera persona que no está de acuerdo con la forma en que supuestamente OpenAI hace negocios. Elon Musk, uno de los cofundadores distanciados de la compañía, la demandó recientemente por afirmar que se había desviado demasiado de su misión original. Esto, a pesar de que Musk no ha estado involucrado con OpenAI durante años y actualmente opera su propio competidor directo, xAI. Posteriormente, la demanda fue retirada.

La empresa rival de IA, Anthropic, fue fundada en 2021 por ex empleados y cofundadores de OpenAI debido a la preocupación de que OpenAI no se centrara lo suficiente en la confianza y la seguridad. 

Sin embargo, por otro lado, Ilya Sutskever, otro cofundador ahora distanciado y ex científico jefe, que dejó la empresa en mayo de 2024 para iniciar su propia empresa, escribió en ese momento que estaba "seguro" de que el equipo de OpenAI podría hacerlo de forma segura. cumplir sus objetivos.

Con tantos empleados abandonando el barco y al menos uno repitiendo la analogía del Titanic, la pregunta que nos planteamos es: ¿quién o qué es el iceberg?

Si los pasajeros de la analogía somos nosotros (toda la humanidad), entonces el iceberg representa la amenaza existencial que ChatGPT y sistemas similares representan para una sociedad no preparada. Si la IA se vuelve más inteligente y capaz que nosotros, y no tenemos suficientes “botes salvavidas” para proteger a todos de su potencial daño, entonces podríamos ir camino a la tragedia.

Pero si los pasajeros son accionistas y partes interesadas que esperan que OpenAI cree una IA que sea tan inteligente como los humanos, y eso nunca sucede, entonces tal vez el iceberg represente el estallido de la burbuja generativa de la IA.

Relacionado: Las grandes empresas tecnológicas se enfrentan a un ajuste de cuentas financiero si la IA a nivel humano no llega pronto