TLDR

  • OpenAI experimentó una violación de seguridad a principios de 2023 donde un pirata informático obtuvo acceso a los sistemas de mensajería internos.

  • El hacker robó detalles sobre el diseño de las tecnologías de IA de OpenAI de las discusiones de los empleados, pero no el código central de IA.

  • OpenAI no reveló públicamente el ataque ni lo informó a las autoridades, creyendo que no era una amenaza a la seguridad nacional.

  • El incidente generó preocupación entre algunos empleados sobre posibles vulnerabilidades ante adversarios extranjeros como China.

  • La violación ha reavivado los debates sobre la seguridad, la transparencia y las posibles implicaciones para la seguridad nacional de la IA.

Ha salido a la luz que OpenAI, el creador de ChatGPT, sufrió una importante brecha de seguridad a principios de 2023.

Según un informe del New York Times, un hacker obtuvo acceso a los sistemas de mensajería internos de la empresa y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de OpenAI.

La infracción, que se produjo en abril de 2023, permitió al intruso acceder a un foro en línea donde los empleados discutían las últimas tecnologías de OpenAI.

Si bien el pirata informático no penetró en los sistemas donde la empresa alberga y construye su IA, pudo extraer detalles confidenciales de las discusiones internas. Es importante destacar que el código central de IA, el activo más preciado de OpenAI, permaneció seguro.

Los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión general en las oficinas de la compañía en San Francisco e informaron a la junta directiva.

Sin embargo, decidieron no hacer pública la noticia ni informarla a agencias policiales como el FBI. El razonamiento de la empresa fue que no se había robado ninguna información sobre clientes o socios y creían que el hacker era un individuo privado sin vínculos conocidos con gobiernos extranjeros.

Esta decisión ha planteado dudas sobre las prácticas de transparencia y seguridad en el campo de la inteligencia artificial en rápida evolución. El incidente también ha reavivado las preocupaciones sobre las posibles vulnerabilidades de las empresas de inteligencia artificial ante adversarios extranjeros, en particular China.

Leopold Aschenbrenner, ex director del programa técnico de OpenAI, envió un memorando a la junta directiva de la empresa tras la infracción.

Sostuvo que OpenAI no estaba haciendo lo suficiente para evitar que el gobierno chino y otros adversarios extranjeros robaran sus secretos. Aschenbrenner, quien luego fue despedido de la empresa por razones no relacionadas, expresó su preocupación de que las medidas de seguridad de OpenAI pudieran no ser lo suficientemente sólidas para proteger contra el robo de secretos clave si actores extranjeros se infiltraran en la empresa.

OpenAI ha refutado estas afirmaciones. Liz Bourgeois, portavoz de OpenAI, declaró: "Apreciamos las preocupaciones que Leopold planteó mientras estaba en OpenAI, y esto no condujo a su separación". Y añadió: “Si bien compartimos su compromiso de crear AGI segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces sobre nuestro trabajo. Esto incluye sus caracterizaciones de nuestra seguridad, en particular este incidente, que abordamos y compartimos con nuestra junta directiva antes de que se uniera a la empresa”.

El incidente pone de relieve el delicado equilibrio que las empresas de IA deben lograr entre apertura y seguridad.

Si bien algunas empresas, como Meta, comparten libremente sus diseños de IA como software de código abierto, otras están adoptando un enfoque más cauteloso. OpenAI, junto con competidores como Anthropic y Google, ha estado agregando barreras de seguridad a sus aplicaciones de IA antes de ofrecerlas al público, con el objetivo de evitar el mal uso y posibles problemas.

Matt Knight, jefe de seguridad de OpenAI, enfatizó el compromiso de la empresa con la seguridad:

“Comenzamos a invertir en seguridad años antes de ChatGPT. Estamos en un camino no sólo para comprender los riesgos y adelantarnos a ellos, sino también para profundizar nuestra resiliencia”.

La violación también ha llamado la atención sobre la cuestión más amplia del impacto potencial de la IA en la seguridad nacional. Si bien los sistemas de IA actuales se utilizan principalmente como herramientas de trabajo e investigación, existen preocupaciones sobre aplicaciones futuras que podrían plantear riesgos más importantes.

Algunos investigadores y líderes de seguridad nacional sostienen que incluso si los algoritmos matemáticos en el corazón de los sistemas de inteligencia artificial actuales no son peligrosos hoy, podrían llegar a serlo en el futuro.

Susan Rice, exasesora de política interna del presidente Biden y exasesora de seguridad nacional del presidente Barack Obama, destacó la importancia de tomar en serio los riesgos potenciales:

“Incluso si los peores escenarios tienen una probabilidad relativamente baja, si tienen un alto impacto entonces es nuestra responsabilidad tomarlos en serio. No creo que sea ciencia ficción, como a muchos les gusta afirmar”.

En respuesta a las crecientes preocupaciones, OpenAI ha creado recientemente un Comité de Seguridad para explorar cómo debería manejar los riesgos que plantean las tecnologías futuras. El comité incluye a Paul Nakasone, un ex general del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético.

La publicación El truco no revelado de OpenAI de 2023 plantea preguntas sobre la seguridad y la transparencia de la IA apareció por primera vez en Blockonomi.