Ilya Sutskever, cofundador y ex científico jefe de OpenAI, junto con el ex ingeniero de OpenAI Daniel Levy y el inversionista Daniel Gross, anteriormente socio del acelerador de startups Y Combinator, lanzaron Safe Superintelligence, Inc. (SSI). La empresa, con sede en Palo Alto y Tel Aviv, tiene como objetivo avanzar en la inteligencia artificial (IA) priorizando tanto la seguridad como las capacidades. En un anuncio en línea el 19 de junio, los fundadores enfatizaron su compromiso:

“Desde el principio, nuestro enfoque sigue siendo inquebrantable en la seguridad y las capacidades de la IA. Este enfoque singular garantiza que no nos distraigamos con los gastos generales de gestión o los ciclos de los productos, mientras que nuestro modelo de negocio protege la seguridad y el progreso de las presiones comerciales a corto plazo”.

Sutskever y Gross han sido durante mucho tiempo defensores de la seguridad de la IA.

Sutskever abandonó OpenAI el 14 de mayo, tras su participación en el despido del director ejecutivo Sam Altman. Su papel en la empresa se volvió ambiguo después de que se retirara de la junta directiva tras el regreso de Altman. Poco después de la partida de Sutskever, Daniel Levy, junto con varios otros investigadores, también abandonó OpenAI.

Sutskever y Jan Leike codirigieron el equipo de Superalignment de OpenAI, formado en julio de 2023 para explorar métodos de orientación y gestión de sistemas de IA más inteligentes que los humanos, conocidos como inteligencia artificial general (AGI). En sus inicios, OpenAI destinó el 20 % de sus recursos informáticos a respaldar al equipo de Superalignment.

En mayo, Leike también dejó OpenAI para dirigir un equipo en Anthropic, una startup de inteligencia artificial respaldada por Amazon. Tras la marcha de sus investigadores clave, OpenAI disolvió el equipo de Superalignment. Greg Brockman, el presidente de la empresa, defendió sus protocolos de seguridad en una publicación detallada en X.

Otras figuras destacadas de la industria tecnológica también comparten preocupaciones

Los antiguos investigadores de OpenAI, junto con numerosos científicos, expresan profundas preocupaciones sobre la trayectoria futura de la IA. Vitalik Buterin, cofundador de Ethereum, calificó la IAG como “arriesgada” en medio de los recientes cambios de personal en OpenAI. Sin embargo, también señaló que “tales modelos plantean riesgos de catástrofe mucho menores en comparación con la megalomanía corporativa y las aplicaciones militares”.

Fuente: Ilya Sutskever

Elon Musk, director ejecutivo de Tesla y antiguo partidario de OpenAI, y Steve Wozniak, cofundador de Apple, se unieron a más de 2.600 líderes tecnológicos e investigadores para pedir una pausa de seis meses en el entrenamiento de los sistemas de inteligencia artificial. Hicieron hincapié en la necesidad de que la humanidad reflexione sobre los “profundos riesgos” que plantean estas tecnologías.

La publicación El ex científico de OpenAI Ilya Sutskever inicia SSI para la seguridad de la IA apareció primero en Baffic.