OpenAI, la compañía detrás de ChatGPT, estableció recientemente un Comité de Seguridad de IA compuesto por líderes senior para supervisar las decisiones clave relacionadas con la seguridad y la privacidad. Sin embargo, la decisión ha generado preocupaciones sobre la ética de la IA debido a la falta de participación de expertos independientes.
El comité estará dirigido por el director ejecutivo Sam Altman y los miembros de la junta directiva Bret Taylor, Adam D'Angelo, Nicole Seligman y los expertos Jakub Pachocki, Aleksander Madry, Lilian Weng, Matt Knight y John Schulman. El comité evaluará los procesos y las medidas de seguridad de OpenAI durante los próximos 90 días.
Aunque OpenAI afirma que el Comité se creó para fortalecer la seguridad de la IA, la falta de expertos externos independientes ha preocupado a muchas personas. En particular, algunos expertos en ética de la IA han criticado a OpenAI por priorizar el desarrollo de productos sobre la seguridad, lo que ha llevado a que muchos empleados senior de seguridad de la IA abandonaran la empresa recientemente.
Daniel Kokotajlo, ex miembro del equipo de gobierno de OpenAI, Ilya Sutskever, cofundador y ex director científico de OpenAI, abandonaron la empresa en abril y mayo después de desacuerdos con Altman sobre las prioridades de desarrollo de productos en lugar de la investigación de seguridad de la IA.
Jan Leike, ex investigador de DeepMind y desarrollador de ChatGPT y su predecesor, InstructGPT en OpenAI, también renunció porque cree que OpenAI no está en el camino correcto para abordar los problemas de privacidad y seguridad de All AI. Gretchen Krueger, investigadora de políticas de IA, también se fue y pidió a la empresa que mejore la responsabilidad y la transparencia.
Además de exigir una regulación de la IA, OpenAI también se ha esforzado por darles forma mediante la contratación de expertos y gastando cientos de miles de dólares en actividades de lobby en Estados Unidos. Recientemente, el Departamento de Seguridad Nacional de EE. UU. anunció que Altman será miembro del recién creado Consejo de Seguridad de IA, que brinda recomendaciones sobre el desarrollo y la implementación de IA segura en toda la infraestructura crítica de Estados Unidos.
OpenAI ahora está tratando de disipar las preocupaciones anunciando que contratará a varios expertos técnicos y de seguridad independientes para apoyar al comité. Sin embargo, la empresa no ha publicado la lista específica, ni sus poderes e influencia en el comité.
La autocomprobación de la seguridad de la IA por parte de OpenAI ha generado muchas controversias sobre la ética y las responsabilidades de las empresas que desarrollan IA. Los expertos piden una supervisión independiente y más transparencia en el desarrollo de la IA para garantizar la seguridad y la ética de los humanos.