La asociación entre Apple y OpenAI ha tenido un comienzo difícil, ya que los usuarios de ChatGPT en macOS descubrieron recientemente que sus conversaciones se almacenaban en archivos de texto sin formato. 

Apple se ha posicionado como una empresa que prioriza la privacidad en un mercado donde muchos de sus competidores obtienen la mayor parte de sus ganancias vendiendo o reutilizando los datos de los usuarios. Pero, como lo demostró el ingeniero de datos y electrónica Pedro José Pereira Vieito en una publicación en Meta's Threads, alguien dejó caer la pelota en lo que respecta a la integración de ChatGPT de terceros de OpenAI en macOS.

Amenaza a la privacidad

ChatGPT se lanzó en macOS para los suscriptores en mayo. El acceso general para cuentas que no son suscriptores estuvo disponible el 25 de junio. Sin embargo, hasta el viernes 5 de julio, la aplicación almacenó todos los registros de chat en archivos de texto sin cifrar en los discos duros de los usuarios.

Esto significaba que cualquier persona con acceso a la computadora, ya sea físicamente o mediante un ataque remoto, como malware o phishing, tenía acceso a todas las conversaciones que cualquier usuario de esa computadora tuviera con ChatGPT.

Zona de arena

macOS de Apple tiene una medida de protección de la privacidad llamada “sandboxing” que controla el acceso de las aplicaciones al software y a los datos a nivel del kernel. Las aplicaciones instaladas a través del servicio de aplicaciones de Apple están protegidas de forma predeterminada para que los datos nunca queden sin cifrar.

Pereira Vieito atribuye este problema reciente al hecho de que la aplicación ChatGPT en macOS se ofrece únicamente a través del sitio web de OpenAI:

"OpenAI optó por no participar en la zona de pruebas y almacenar las conversaciones en texto sin formato en una ubicación no protegida, deshabilitando todas estas defensas integradas".

No está claro en este momento si algún usuario se vio realmente afectado por el aparente descuido, pero el tono general en las redes sociales y los comentarios de los expertos indicaron conmoción.

En la sección de comentarios de un artículo publicado en Verge, por ejemplo, el usuario GeneralLex publicó que descubrió los archivos de texto no cifrados almacenados en la memoria de su computadora:

"Utilicé Activity Monitor para vaciar el ejecutable ChatGPT de la memoria y descubrí que, ¡horror de horrores, el registro de chat está en texto plano, sin cifrar en la memoria!"

¿Un simple error?

La verdadera pregunta es: ¿por qué sucedió esto? Sabemos cómo sucedió y está claro que el problema se ha resuelto, pero se desconoce el motivo. 

Presumiblemente, esto se hizo para que OpenAI pudiera acceder fácilmente a los registros de chat para un mayor desarrollo de ChatGPT. Según los términos de uso de la aplicación, los usuarios deben optar explícitamente por no compartir sus datos con OpenAI.

 Pero, ¿por qué Apple no intercedió en nombre de los usuarios antes de que la aplicación estuviera disponible y por qué OpenAI no reconoció que estaba generando datos confidenciales y no cifrados en las máquinas de los usuarios?

Cointelegraph se puso en contacto con OpenAI y Apple para obtener más información, pero no recibió una respuesta inmediata de ninguno de ellos.

Relacionado: Apple potencia Siri e iOS con 'Apple Intelligence' y OpenAI