Die Partnerschaft zwischen Apple und OpenAI hatte einen holprigen Start, da ChatGPT-Benutzer auf macOS kürzlich erfuhren, dass ihre Konversationen in Nur-Text-Dateien gespeichert wurden.

Apple positioniert sich als Unternehmen, das Privatsphäre in einem Markt priorisiert, in dem viele seiner Konkurrenten den Löwenanteil ihrer Gewinne durch den Verkauf oder die Weiterverwendung von Benutzerdaten erzielen. Doch wie der Daten- und Elektronikingenieur Pedro José Pereira Vieito in einem Beitrag auf Meta’s Threads demonstrierte, hat jemand bei der Drittanbieterintegration von ChatGPT durch OpenAI auf macOS Mist gebaut.

Bedrohung für die Privatsphäre

ChatGPT wurde im Mai für Abonnenten auf macOS veröffentlicht. Der allgemeine Zugriff für Nicht-Abonnentenkonten wurde am 25. Juni freigegeben. Bis Freitag, den 5. Juli, speicherte die App jedoch alle Chatprotokolle in unverschlüsselten Klartextdateien auf den Festplatten der Benutzer.

Dies bedeutete, dass jeder mit Zugriff auf den Computer – sei es physisch oder über einen Remote-Angriff wie Malware oder Phishing – Zugriff auf jede Konversation hatte, die jeder Benutzer auf diesem Computer mit ChatGPT führte.

Sandboxing

Apples macOS verfügt über eine Datenschutzmaßnahme namens „Sandboxing“, die den Anwendungszugriff auf Software und Daten auf Kernel-Ebene kontrolliert. Über den App-Dienst von Apple installierte Apps werden standardmäßig in einer „Sandbox“ ausgeführt, sodass Daten niemals unverschlüsselt bleiben.

Pereira Vieito führt dieses aktuelle Problem darauf zurück, dass die ChatGPT-App auf macOS ausschließlich über die Website von OpenAI angeboten wird:

„OpenAI hat sich entschieden, aus der Sandbox auszusteigen und die Gespräche im Klartext an einem ungeschützten Ort zu speichern, wodurch alle integrierten Abwehrmaßnahmen deaktiviert wurden.“

Ob tatsächlich Benutzer von diesem offensichtlichen Versehen betroffen waren, ist derzeit unklar, doch der allgemeine Tenor in den sozialen Medien und die Kommentare der Experten deuteten auf Schock hin.

Im Kommentarbereich eines auf The Verge veröffentlichten Artikels schrieb der Benutzer GeneralLex beispielsweise, dass er die unverschlüsselten Textdateien im Speicher seines Computers entdeckt habe:

„Ich habe den Aktivitätsmonitor verwendet, um die ausführbare Datei ChatGPT aus dem Speicher zu löschen und habe – oh Schreck – festgestellt, dass das Chat-Protokoll im Klartext und unverschlüsselt im Speicher vorliegt!“

Ein einfacher Fehler?

Die eigentliche Frage ist: Warum ist das passiert? Wir wissen, wie es passiert ist, und es ist klar, dass das Problem gelöst wurde, aber das Warum bleibt unbekannt.

Vermutlich geschah dies, damit OpenAI für die Weiterentwicklung von ChatGPT problemlos auf die Chatprotokolle zugreifen konnte. Gemäß den Nutzungsbedingungen der App müssen Benutzer der Weitergabe ihrer Daten an OpenAI ausdrücklich widersprechen.

 Aber warum hat Apple nicht im Namen der Nutzer interveniert, bevor die App live ging, und warum hat OpenAI nicht erkannt, dass auf den Rechnern der Benutzer vertrauliche, unverschlüsselte Daten generiert wurden?

Cointelegraph hat OpenAI und Apple um weitere Informationen gebeten, aber von beiden keine unmittelbare Antwort erhalten.

Verwandt: Apple verleiht Siri und iOS mit „Apple Intelligence“ und OpenAI neuen Schwung