Współpraca pomiędzy Apple i OpenAI ma trudny początek, ponieważ użytkownicy ChatGPT na macOS dowiedzieli się niedawno, że ich rozmowy są przechowywane w plikach tekstowych. 

Apple pozycjonuje się jako firma, która priorytetowo traktuje prywatność na rynku, na którym wielu jego konkurentów czerpie lwią część swoich zysków ze sprzedaży danych użytkowników lub zmiany ich przeznaczenia. Jak jednak wykazał inżynier danych i elektronik Pedro José Pereira Vieito w poście w Meta’s Threads, ktoś upuścił piłkę, jeśli chodzi o integrację ChatGPT z firmami zewnętrznymi w OpenAI na macOS.

Zagrożenie prywatności

ChatGPT został udostępniony subskrybentom w maju na macOS. Ogólny dostęp dla kont bez subskrypcji został udostępniony 25 czerwca. Jednak do piątku 5 lipca aplikacja przechowywała wszystkie logi czatów w niezaszyfrowanych plikach tekstowych na dyskach twardych użytkowników.

Oznaczało to, że każdy, kto miał dostęp do komputera, fizycznie lub poprzez zdalny atak, taki jak złośliwe oprogramowanie lub phishing, miał dostęp do każdej rozmowy dowolnego użytkownika tego komputera z ChatGPT.

Piaskownica

W systemie macOS firmy Apple zastosowano funkcję ochrony prywatności zwaną „piaskownicą”, która kontroluje dostęp aplikacji do oprogramowania i danych na poziomie jądra. Aplikacje instalowane za pośrednictwem usługi aplikacji Apple są domyślnie umieszczane w piaskownicy, dzięki czemu dane nigdy nie pozostają niezaszyfrowane.

Pereira Vieito przypisuje ten niedawny problem faktowi, że aplikacja ChatGPT na macOS jest oferowana wyłącznie za pośrednictwem strony internetowej OpenAI:

„OpenAI zdecydowało się zrezygnować z piaskownicy i przechowywać rozmowy w postaci zwykłego tekstu w niechronionej lokalizacji, wyłączając wszystkie wbudowane zabezpieczenia”.

W tej chwili nie jest jasne, czy pozorne przeoczenie faktycznie dotknęło jakichkolwiek użytkowników, ale ogólny wydźwięk w mediach społecznościowych i komentarze ekspertów wskazywały na szok.

Na przykład w sekcji komentarzy artykułu opublikowanego na Verge użytkownik GeneralLex napisał, że odkrył niezaszyfrowane pliki tekstowe przechowywane w pamięci jego komputera:

„Użyłem Monitora aktywności, aby zrzucić plik wykonywalny ChatGPT z pamięci i odkryłem, o zgrozo, dziennik czatu jest zapisany zwykłym tekstem, niezaszyfrowany w pamięci!”

Prosty błąd?

Prawdziwe pytanie brzmi: dlaczego tak się stało? Wiemy, jak do tego doszło i jasne jest, że problem został rozwiązany, ale przyczyna pozostaje nieznana. 

Prawdopodobnie zrobiono to, aby OpenAI mogło łatwo uzyskać dostęp do dzienników czatów w celu dalszego rozwoju ChatGPT. Zgodnie z warunkami korzystania z aplikacji użytkownicy muszą wyraźnie zrezygnować z udostępniania swoich danych OpenAI.

 Ale dlaczego Apple nie interweniował w imieniu użytkowników przed uruchomieniem aplikacji i dlaczego OpenAI nie rozpoznało, że generuje wrażliwe, niezaszyfrowane dane na komputerach użytkowników?

Cointelegraph skontaktował się z OpenAI i Apple, aby uzyskać więcej informacji, ale nie otrzymał od żadnego z nich natychmiastowej odpowiedzi.

Powiązane: Apple doładowuje Siri i iOS dzięki „Apple Intelligence” i OpenAI