Le partenariat entre Apple et OpenAI a connu un début difficile puisque les utilisateurs de ChatGPT sur macOS ont récemment appris que leurs conversations étaient stockées dans des fichiers en texte brut. 

Apple s’est positionnée comme une entreprise qui donne la priorité à la confidentialité sur un marché où nombre de ses concurrents récoltent la part du lion de leurs bénéfices en vendant ou en réutilisant les données des utilisateurs. Mais, comme l’a démontré l’ingénieur en données et électronique Pedro José Pereira Vieito dans un article sur Meta’s Threads, quelqu’un a laissé tomber la balle en ce qui concerne l’intégration tierce de ChatGPT par OpenAI sur macOS.

Menace pour la vie privée

ChatGPT a été publié sur macOS en mai pour les abonnés. L'accès général aux comptes non abonnés a été rendu disponible le 25 juin. Cependant, jusqu'au vendredi 5 juillet, l'application stockait tous les journaux de discussion dans des fichiers en texte brut non cryptés sur les disques durs des utilisateurs.

Cela signifiait que toute personne ayant accès à l'ordinateur, que ce soit physiquement ou via une attaque à distance telle qu'un logiciel malveillant ou un phishing, avait accès à toutes les conversations que tout utilisateur de cet ordinateur avait avec ChatGPT.

Bac à sable

Le macOS d'Apple dispose d'une mesure de protection de la vie privée appelée « sandboxing » qui contrôle l'accès des applications aux logiciels et aux données au niveau du noyau. Les applications installées via le service d'application d'Apple sont « en bac à sable » par défaut afin que les données ne soient jamais non cryptées.

Pereira Vieito attribue ce problème récent au fait que l'application ChatGPT sur macOS est proposée uniquement via le site Web d'OpenAI :

"OpenAI a choisi de se retirer du bac à sable et de stocker les conversations en texte brut dans un emplacement non protégé, désactivant ainsi toutes ces défenses intégrées."

On ne sait pas encore si des utilisateurs ont été réellement affectés par cette apparente surveillance, mais la teneur générale des médias sociaux et les commentaires des experts indiquent un choc.

Dans la section commentaires d’un article publié sur Verge, par exemple, l’utilisateur GeneralLex a déclaré avoir découvert les fichiers texte non cryptés stockés dans la mémoire de son ordinateur :

"J'ai utilisé Activity Monitor pour vider l'exécutable ChatGPT de la mémoire et j'ai découvert que, horreur des horreurs, le journal de discussion est en texte brut, non crypté en mémoire !"

Une simple erreur ?

La vraie question est : pourquoi est-ce arrivé ? Nous savons comment cela s'est produit et il est clair que le problème a été résolu, mais le pourquoi reste inconnu. 

Vraisemblablement, cela a été fait pour qu'OpenAI puisse facilement accéder aux journaux de discussion pour le développement ultérieur de ChatGPT. Selon les conditions d’utilisation de l’application, les utilisateurs doivent explicitement refuser de partager leurs données avec OpenAI.

 Mais pourquoi Apple n'est-il pas intervenu en faveur des utilisateurs avant la mise en ligne de l'application et pourquoi OpenAI n'a-t-il pas reconnu qu'elle générait des données sensibles et non cryptées sur les machines des utilisateurs ?

Cointelegraph a contacté OpenAI et Apple pour plus d'informations, mais n'a reçu aucune réponse immédiate de leur part.

Connexe : Apple suralimente Siri et iOS avec « Apple Intelligence » et OpenAI