Organizace na ochranu soukromí Noyb podala stížnost na OpenAI u rakouského úřadu pro ochranu údajů (DPA) s odůvodněním, že její produkt ChatGPT porušuje mnoho zákonů EU na ochranu dat. Organizace uvedla, že ChatGPT sdílí nesprávné informace o lidech a obecné nařízení EU o ochraně osobních údajů (GDPR) vyžaduje, aby informace o lidech byly správné a aby jim byl poskytnut plný přístup k informacím, které se o nich týkají.

OpenAI čelí obvinění z GDPR

Noyb byl založen slavným právníkem a aktivistou Maxem Schremsem a tvrdil, že ChatGPT sdílel falešné datum narození slavné veřejné osobnosti, a když byl požádán o povolení přístupu a smazání dat, která se ho týkají, jeho žádost byla zamítnuta Open AI.

Noyb říká, že podle GDPR EU musí být jakékoli informace o každém jednotlivci přesné a musí mít přístup a informace o zdroji, ale podle něj OpenAI říká, že není schopno opravit informace v jejich modelu ChatGPT. Společnost také není schopna říct, odkud informace pocházejí, a dokonce ani neví, jaká data ChatGPT o jednotlivcích uchovává. 

Noyb tvrdí, že OpenAI si je vědoma problému a zdá se, že se o něj nestará, protože jeho argumentem je, že

"Věcná přesnost ve velkých jazykových modelech zůstává oblastí aktivního výzkumu."

Noyb poznamenal, že špatné informace mohou být tolerovatelné, když je ChatGPT chrlí, když je studenti používají pro své domácí úkoly, ale řekl, že je to pro jednotlivé lidi jednoznačně nepřijatelné, protože je to požadavek práva EU, že osobní údaje musí být přesné. 

Halucinace způsobují, že chatboty nesplňují předpisy EU

Noyb zmínil, že modely umělé inteligence jsou náchylné k halucinacím a poskytují informace, které jsou ve skutečnosti nepravdivé. Zpochybnili technický postup OpenAI pro generování informací, protože zaznamenali úvahy OpenAI, že:

"odpovídá na požadavky uživatelů předpovídáním dalších nejpravděpodobnějších slov, která se mohou objevit v reakci na každou výzvu."

Zdroj: Statista.

Noyb tvrdí, že to znamená, že navzdory skutečnosti, že společnost má k dispozici rozsáhlé soubory dat pro školení svého modelu, nemůže zaručit, že odpovědi poskytnuté uživatelům jsou věcně správné.

Noybův právník pro ochranu údajů, Maartje de Gaaf, řekl:

„Vymýšlení nepravdivých informací je samo o sobě dost problematické. Ale pokud jde o nepravdivé informace o jednotlivcích, může to mít vážné následky.“

Zdroj: Noyb.

Uvedl také, že jakákoli technologie se musí řídit zákony a nemůže si zahrávat, protože podle něj, pokud nástroj nedokáže produkovat správné výsledky o jednotlivcích, pak jej nelze k tomuto účelu použít, dodal také, že společnosti ještě nejsou technicky zdravé, aby vytvořit chatboty, které dokážou vyhovět zákonům EU na toto téma.

Nástroje generativní umělé inteligence jsou pod přísným dohledem evropských regulátorů ochrany soukromí, protože již v roce 2023 italský úřad pro ochranu údajů dočasně omezil ochranu údajů. Zatím není jasné, jaké budou výsledky, ale podle Noyba OpenAI ani nepředstírá, že bude v souladu s právem EU.