La partnership tra Apple e OpenAI ha avuto un inizio difficile poiché gli utenti ChatGPT su macOS hanno recentemente appreso che le loro conversazioni venivano archiviate in file di testo semplice. 

Apple si è posizionata come un’azienda che dà priorità alla privacy in un mercato in cui molti dei suoi concorrenti raccolgono la maggior parte dei profitti vendendo o riutilizzando i dati degli utenti. Ma, come dimostrato dall’ingegnere elettronico e di dati Pedro José Pereira Vieito in un post su Meta’s Threads, qualcuno ha perso la palla quando si è trattato dell’integrazione di terze parti di OpenAI di ChatGPT su macOS.

Minaccia alla privacy

ChatGPT è stato rilasciato su macOS a maggio per gli abbonati. L'accesso generale per gli account non abbonati è stato reso disponibile il 25 giugno. Fino a venerdì 5 luglio, tuttavia, l'app ha archiviato tutti i registri delle chat in file di testo normale non crittografati sui dischi rigidi degli utenti.

Ciò significava che chiunque avesse accesso al computer, sia fisicamente che tramite attacchi remoti come malware o phishing, aveva accesso a tutte le conversazioni che ogni utente di quel computer aveva con ChatGPT.

Sandboxing

Il macOS di Apple ha una misura di protezione della privacy chiamata "sandboxing" che controlla l'accesso delle applicazioni al software e ai dati a livello di kernel. Le app installate tramite il servizio app di Apple sono "sandboxate" per impostazione predefinita in modo che i dati non vengano mai lasciati non crittografati.

Pereira Vieito attribuisce questo recente problema al fatto che l'app ChatGPT su macOS è offerta esclusivamente tramite il sito web di OpenAI:

"OpenAI ha scelto di uscire dalla sandbox e di archiviare le conversazioni in testo normale in una posizione non protetta, disabilitando tutte queste difese integrate".

Al momento non è chiaro se qualche utente sia stato effettivamente colpito dall’apparente svista, ma il tono generale sui social media e i commenti degli esperti hanno indicato shock.

Nella sezione commenti di un articolo pubblicato su The Verge, ad esempio, l’utente GeneralLex ha scritto di aver scoperto i file di testo non crittografati archiviati nella memoria del suo computer:

"Ho utilizzato Activity Monitor per scaricare l'eseguibile ChatGPT dalla memoria e ho scoperto che, orrore degli orrori, il registro delle chat è in testo normale, non crittografato nella memoria!"

Un semplice errore?

La vera domanda è: perché è successo? Sappiamo come è successo ed è chiaro che il problema è stato risolto, ma il perché rimane sconosciuto.

Presumibilmente, questo è stato fatto in modo che OpenAI potesse accedere facilmente ai log delle chat per un ulteriore sviluppo di ChatGPT. Secondo i termini di utilizzo dell'app, gli utenti devono esplicitamente rinunciare alla condivisione dei propri dati con OpenAI.

Ma perché Apple non è intervenuta a favore degli utenti prima che l'app fosse pubblicata e perché OpenAI non ha riconosciuto che stava generando dati sensibili e non crittografati sui computer degli utenti?

Cointelegraph ha contattato OpenAI e Apple per maggiori informazioni, ma non ha ricevuto una risposta immediata da nessuno dei due.

Correlati: Apple potenzia Siri e iOS con "Apple Intelligence" e OpenAI