Organizacja zajmująca się ochroną prywatności, Noyb, złożyła skargę na OpenAI do austriackiego organu ochrony danych (DPA), twierdząc, że jej produkt ChatGPT łamie wiele przepisów UE dotyczących ochrony danych. Organizacja stwierdziła, że ​​ChatGPT udostępnia nieprawidłowe informacje o ludziach, a Ogólne rozporządzenie o ochronie danych UE (RODO) wymaga, aby informacje o osobach były prawidłowe i aby zapewnić im pełny dostęp do informacji, które ich dotyczą.

OpenAI grozi opłatami wynikającymi z RODO

Noyb został założony przez słynnego prawnika i aktywistę Maxa Schremsa i twierdził, że ChatGPT podał fałszywą datę urodzin znanej osoby publicznej, a gdy został poproszony o pozwolenie na dostęp do danych i ich usunięcie, jego prośba została odrzucona przez Open AI.

Noyb mówi, że zgodnie z unijnym RODO wszelkie informacje na temat każdej osoby muszą być dokładne, a osoba fizyczna musi mieć dostęp i informacje o źródle, ale zgodnie z tym OpenAI twierdzi, że nie jest w stanie poprawić informacji w ich modelu ChatGPT. Firma nie jest również w stanie określić, skąd pochodzą te informacje, a nawet nie wie, jakie dane o poszczególnych osobach przechowuje ChatGPT.

Noyb twierdzi, że OpenAI jest świadomy problemu i wydaje się, że go to nie obchodzi, ponieważ jego argumentem w tej kwestii jest to, że:

„Dokładność faktów w dużych modelach językowych pozostaje przedmiotem aktywnych badań”.

Noyb zauważył, że błędne informacje mogą być tolerowane, gdy ChatGPT wyrzuca je, gdy uczniowie wykorzystują je do odrabiania lekcji, ale stwierdził, że jest to wyraźnie niedopuszczalne w przypadku poszczególnych osób, ponieważ prawo UE wymaga dokładności danych osobowych.

Halucynacje sprawiają, że chatboty są niezgodne z przepisami UE

Noyb wspomniał, że modele AI są podatne na halucynacje i przekazują informacje, które w rzeczywistości są fałszywe. Zakwestionowali techniczną procedurę generowania informacji przez OpenAI, odnotowując rozumowanie OpenAI, że:

„odpowiada na żądania użytkowników poprzez przewidywanie kolejnych najbardziej prawdopodobnych słów, które mogą pojawić się w odpowiedzi na każdy monit”.

źródło: Statista.

Noyb przekonuje, że oznacza to, że pomimo iż firma dysponuje obszernymi zbiorami danych do szkolenia swojego modelu, to jednak nie może zagwarantować, że odpowiedzi udzielane użytkownikom są zgodne ze stanem faktycznym.

Prawnik Noyb ds. ochrony danych, Maartje de Gaaf, powiedział:

„Wymyślanie fałszywych informacji samo w sobie jest dość problematyczne. Ale jeśli chodzi o fałszywe informacje na temat poszczególnych osób, mogą wystąpić poważne konsekwencje”.

źródło: Noyb.

Powiedział też, że każda technologia musi przestrzegać prawa i nie może się nią bawić, gdyż według niego, jeśli narzędzie nie może dać prawidłowych wyników w odniesieniu do poszczególnych osób, to nie można go w tym celu wykorzystać. Dodał też, że firmy nie są jeszcze sprawne technicznie, aby móc tworzyć chatboty, które będą zgodne z przepisami UE w tym zakresie.

Narzędzia generatywnej sztucznej inteligencji są pod ścisłą kontrolą europejskich organów regulacyjnych ds. prywatności, ponieważ w 2023 r. włoski organ ochrony danych tymczasowo ograniczył ochronę danych. Nie jest jeszcze jasne, jakie będą rezultaty, ale według Noyba OpenAI nawet nie udaje, że będzie zgodne z prawem UE.