Según el Wall Street Journal, OpenAI, la empresa responsable del desarrollo de ChatGPT, sufrió recientemente una importante violación de seguridad, lo que generó preocupaciones sobre posibles riesgos para la seguridad nacional. El incidente, que ocurrió a principios del año pasado, expuso discusiones internas entre investigadores y empleados, pero no comprometió el código central del sistema OpenAI. A pesar de la gravedad del incidente, OpenAI decidió no revelarlo públicamente, una decisión que generó un escrutinio interno y externo.

Comunicaciones internas de OpenAI comprometidas

A principios de 2023, un pirata informático irrumpió en el sistema de mensajería interna de OpenAI y extrajo detalles sobre la tecnología de inteligencia artificial de la empresa. Según dos personas familiarizadas con el asunto, los piratas informáticos visitaron un foro en línea donde los empleados discutieron los últimos avances de la IA, pero no ingresaron al sistema donde se almacena la tecnología central.

Los ejecutivos de OpenAI optan por no revelarlo al público

Según las fuentes, los ejecutivos de OpenAI informaron a los empleados sobre el asunto en una reunión general celebrada en la sede de la compañía en San Francisco en abril de 2023, y también se informó a la junta directiva. A pesar de la violación, los ejecutivos optaron por no notificar al público, alegando que ninguna información de clientes o socios se vio comprometida. Evaluaron que el hacker era un individuo sin vínculos con un gobierno extranjero y no informaron el asunto a las agencias policiales, incluido el FBI.

Crece la preocupación por el espionaje extranjero

La violación aumentó la preocupación entre los empleados de OpenAI de que adversarios extranjeros, especialmente China, pudieran robar tecnología de inteligencia artificial y amenazar la seguridad nacional de Estados Unidos. El incidente también provocó un debate dentro de la empresa sobre la idoneidad de las medidas de seguridad de OpenAI, así como los riesgos más amplios asociados con la inteligencia artificial.

Surgen problemas de seguridad de la IA

Tras el incidente, el director técnico de proyectos de OpenAI, Leopold Aschenbrenner, presentó un memorando a la junta expresando su preocupación por la vulnerabilidad de la empresa al espionaje por parte de entidades extranjeras. Posteriormente, Aschenbrenner fue despedido por la supuesta filtración. Cree que las medidas de seguridad de la empresa son insuficientes para proteger contra amenazas sofisticadas de actores extranjeros.

Declaración oficial de OpenAI

La portavoz de OpenAI, Liz Bourgeois, reconoció las preocupaciones de Aschenbrenner, pero dijo que su salida no estaba relacionada con las cuestiones que planteó. Destacó que OpenAI está comprometido con la construcción de inteligencia artificial general (AGI) segura, pero no estuvo de acuerdo con la evaluación de Aschenbrenner de sus protocolos de seguridad.

El espionaje tecnológico en el contexto de la guerra chino-estadounidense

Las preocupaciones sobre posibles vínculos con China no son infundadas. Por ejemplo, el presidente de Microsoft, Brad Smith, testificó recientemente que los piratas informáticos chinos utilizaron los sistemas de la empresa para atacar las redes federales. Sin embargo, las restricciones legales prohíben a OpenAI discriminar en la contratación según el origen nacional, ya que bloquear el talento extranjero podría obstaculizar el progreso de la IA en Estados Unidos.

(De DEI o MEI: ¿Por qué la política de reclutamiento del unicornio de IA ScaleAI hace que Musk y Coinbase asientan con frecuencia?)

La importancia del talento diverso

Matt Knight, jefe de seguridad de OpenAI, enfatizó que reclutar a los mejores talentos globales es necesario a pesar de los riesgos. Hizo hincapié en la importancia de lograr un equilibrio entre las preocupaciones de seguridad y la necesidad de un pensamiento innovador para hacer avanzar la tecnología de IA.

Toda la industria de la IA se enfrenta a desafíos

OpenAI no es la única empresa que enfrenta estos desafíos. Competidores como Meta y Google también están desarrollando potentes sistemas de inteligencia artificial, algunos de los cuales son de código abierto, lo que promueve la transparencia y la resolución colectiva de problemas en la industria. Sin embargo, persiste la preocupación de que la IA se utilice para engañar a la información y reemplazar puestos de trabajo.

Evaluación de riesgos de seguridad nacional: la IA puede crear armas biológicas y químicas

Algunos estudios realizados por empresas de inteligencia artificial como OpenAI y Anthropic han descubierto que la tecnología de inteligencia artificial actual presenta pocos riesgos para la seguridad nacional. Sin embargo, continúa el debate sobre el potencial futuro de la IA para crear armas biológicas y químicas o piratear sistemas gubernamentales. Empresas como OpenAI y Anthropic están abordando activamente estas preocupaciones fortaleciendo sus protocolos de seguridad y estableciendo comités centrados en la seguridad de la IA.

Acción legislativa gubernamental: restricciones a determinadas tecnologías de inteligencia artificial

Los legisladores federales y estatales están considerando regulaciones que limitarían la liberación de ciertas tecnologías de inteligencia artificial y penalizarían los usos dañinos. Las regulaciones tienen como objetivo reducir los riesgos a largo plazo, aunque los expertos creen que aún pasarán años antes de que surjan peligros significativos de la IA.

El progreso de China en IA

Las empresas chinas están logrando rápidos avances en la tecnología de IA, y China alberga a un gran número de los principales investigadores de IA del mundo. Expertos como Clément Delangue de Hugging Face creen que China pronto podría superar a Estados Unidos en capacidades de inteligencia artificial.

Convocatoria para el desarrollo responsable de la IA

Incluso si las probabilidades actuales son bajas, figuras prominentes como Susan Rice están pidiendo que se consideren seriamente los peores escenarios de IA, enfatizando la responsabilidad de abordar riesgos potencialmente de alto impacto.

Este artículo Wall Street Journal: Los piratas informáticos invadieron OpenAI, lo que generó preocupaciones de seguridad nacional apareció por primera vez en Chain News ABMedia.