Un informe reciente revela una violación de seguridad en OpenAI, donde un pirata informático accedió a los sistemas de mensajería internos el año pasado y robó detalles de diseño sobre las tecnologías de inteligencia artificial de la empresa. El New York Times informó que esta filtración se produjo en un foro en línea donde los empleados de OpenAI compartieron información sobre su progreso actual.

Lea también: El aparente “suicidio” del robot surcoreano ahora está bajo investigación

Se informó que la filtración ocurrió en un foro en línea donde los empleados de OpenAI compartieron actualizaciones recientes. Según dos fuentes anónimas familiarizadas con el incidente, el hacker no obtuvo acceso a los sistemas centrales a través de los cuales OpenAI desarrolla y almacena su IA, como ChatGPT. Según el New York Times, la empresa no informó de la infracción al público porque no se había comprometido nada crítico y no había ninguna amenaza para la seguridad nacional. 

OpenAI mantiene medidas de seguridad tras el incumplimiento

Los ejecutivos de OpenAI compartieron esta información con los empleados durante la reunión general de abril del año pasado y con la junta directiva. A pesar de la infracción, la empresa no consideró la participación de las fuerzas del orden federales y atribuyó el incidente a un particular que no estaba afiliado a ningún estado extranjero. 

Lea también: ChatGPT supera a los humanos a la hora de contar chistes, según muestra un estudio

Aunque el incidente de violación de datos no afectó a los sistemas centrales de la organización que se consideran los más sensibles, según el informe, el incidente señaló el hecho de que es necesario contar con medidas adecuadas para proteger las tecnologías avanzadas de IA.

La batalla legal entre NYT y OpenAI da un giro inesperado

En un acontecimiento relacionado, la batalla legal entre The New York Times y OpenAI recibió una importante actualización recientemente. OpenAI presentó documentos instando al tribunal a ordenar al destacado editor que demuestre la originalidad de sus artículos proporcionando materiales fuente detallados para cada trabajo protegido por derechos de autor. Esta solicitud ha complicado aún más el caso dado que la base del caso se basa en afirmaciones de uso no autorizado del contenido del NYT para entrenar modelos de IA. 

“El Times alega que […] ‘invierte una enorme cantidad de tiempo...’. . . experiencia y talento”, incluso a través de “investigaciones profundas, que normalmente tardan meses y a veces años en informarse y producirse, en áreas complejas e importantes de interés público”.

Los abogados de OpenAI

La solicitud exige que The New York Times presente toda la documentación relacionada con el proceso de autoría, es decir, notas del periodista, memorandos de entrevistas y registros de fuentes. Los abogados de OpenAI también señalaron que, según el NYT, gasta importantes recursos para producir periodismo de clase mundial. Por tanto, los métodos de creación, el tiempo, el trabajo y la inversión son el quid de la cuestión. Por tanto, afirman que OpenAI tiene derecho a inspeccionar estos aspectos a través del proceso de descubrimiento. 

Lea también: Shanghai acoge la conferencia mundial de IA 2024

El New York Times respondió a OpenAI en un aviso legal emitido el 3 de julio para oponerse a la demanda de material fuente relacionado con el contrato. El equipo legal del NYT afirmó que la solicitud de OpenAI es novedosa y basa su argumento en una mala interpretación de los derechos de autor. Sostuvieron que el proceso de creación de material protegido por derechos de autor es irrelevante para la cuestión central del caso.

Se espera que la administración Biden anuncie nuevas reglas en un futuro próximo para evitar el uso indebido de la tecnología de inteligencia artificial estadounidense por parte de países preocupantes, incluidos China y Rusia. Estas son las medidas iniciales que se proponen para contener las sofisticadas aplicaciones de IA actuales como ChatGPT. 

Informe criptopolitano de Brenda Kanana