OpenAI está entrenando un nuevo sistema de inteligencia artificial para reemplazar a GPT-4 mientras la empresa busca reiniciar su reputación. El modelo estará precedido por un comité de seguridad liderado por el director ejecutivo Sam Altman y otros tres directores de la junta. 

Lea también: ChatGPT aún difunde falsedades, dice el organismo de control de datos de la UE

La empresa con sede en San Francisco está bajo presión para demostrar su compromiso con la seguridad. Los investigadores de riesgos Jan Leike y Gretchen Krueger, recientemente dimitidos, expusieron la supuesta mala cultura de seguridad de OpenAI en X, anteriormente Twitter.

OpenAI entrena el 'modelo de próxima frontera'

En una publicación de blog publicada el martes, la compañía dijo:

"OpenAI ha comenzado recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la inteligencia artificial general (AGI)".

OpenAI no dijo cuándo se lanzaría el sucesor de GPT-4 ni qué podría hacer. La compañía, valorada en 80.000 millones de dólares, adoptó una táctica de ser pionera con su enormemente popular chatbot de IA, ChatGPT, en un momento en que favoritos como Google pasaban a un segundo plano para evaluar el riesgo de reputación.

Si bien OpenAI es líder en la carrera de inteligencia artificial generativa que disputan estrechamente Anthropic, Google, Microsoft y otros, la empresa no siempre ha estado a la altura del escrutinio ético.

En una publicación anunciando su renuncia a OpenAI en X, Leike reveló que "en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes".

Krueger escribió que la empresa necesita "hacer más para mejorar aspectos fundamentales como los procesos de toma de decisiones, la responsabilidad, la transparencia, la aplicación de políticas y el cuidado con el que utilizamos nuestra propia tecnología".

La semana pasada, un grupo de trabajo de la Unión Europea reaccionó a las críticas e informó que ChatGPT, el producto estrella de la compañía, no cumple con sus estándares de precisión.

Empresa presenta la seguridad de la IA como punto de venta clave

Mientras tanto, la reciente actualización de OpenAI a su modelo GPT-4 se convirtió instantáneamente en una disputa de alto perfil, con la actriz Scarlett Johannson acusando a la compañía de uso no autorizado de su voz.

Lea también: OpenAI elimina la voz de ChatGPT después de la controversia de Scarlett Johansson

Ahora, la compañía está tomando su liderazgo por la vía rápida hacia la lavandería, al presentar la seguridad como el punto de venta de su próximo programa de inteligencia artificial. El equipo también desea que los reguladores consideren que desarrolla una IA responsable. En su publicación de blog, OpenAI agregó:

"Si bien estamos orgullosos de construir y lanzar modelos que son líderes en la industria tanto en capacidades como en seguridad, damos la bienvenida a un debate sólido en este momento importante".

El nuevo comité de seguridad estará dirigido por los directores Altman, Bret Taylor (presidente), Adam D'Angelo y Nicole Seligman. El jefe de preparación, el jefe de sistemas de seguridad, el jefe de ciencia de alineación, el jefe de seguridad y el jefe científico de la empresa también estarán en el comité.

OpenAI dijo que durante los próximos tres meses el comité “evaluará y desarrollará aún más los procesos y salvaguardas” e informará a otros tres directores.

La empresa disolvió su equipo de seguridad a principios de este mes tras la salida del líder del equipo y cofundador de OpenAI, Ilya Sutskever.

Informe criptopolitano de Jeffrey Gogo