ChatGPT, virální chatbot z OpenAI, stále nedosahuje standardů přesnosti dat Evropské unie, podle nové zprávy EU pro ochranu soukromí. 

Čtěte také: Evropský zákon o umělé inteligenci dostává konečné schválení s pokutami až 38 milionů $

Zpráva Evropského výboru pro ochranu údajů (EDPB) není právní dokument. Bude však informovat o společném přístupu k regulaci ChatGPT ve všech 27 členských státech EU.

ChatGPT nesplňuje datové standardy

Národní hlídací psi vytvořili v loňském roce „pracovní skupinu ChatGPT“ na podnět probíhajících případů v několika evropských zemích proti modelu AI. Pracovní skupina spadá pod EDPB.

Ve zprávě zveřejněné 24. května pracovní skupina uvedla:

"Ačkoli opatření přijatá k dodržení zásady transparentnosti jsou prospěšná, aby se předešlo nesprávné interpretaci výstupu ChatGPT, nejsou dostatečná k tomu, aby byla dodržena zásada přesnosti dat."

Velké jazykové modely neboli LLM jsou proslulé „halucinacemi“ – technologie mluví za to, když AI chatboti chrlí nepravdy, často sebevědomě.

Chatboti jako ChatGPT nebo Gemini od Googlu jsou poháněni LLM.  Podle přísného evropského obecného nařízení o ochraně osobních údajů (GDPR) mohou uživatelé žalovat za zkreslení nebo odmítnutí možnosti opravit o sobě nepřesné informace.

Podle zprávy pracovní skupiny: „Vzhledem k pravděpodobnostní povaze (AI) systému vede současný přístup k výcviku k modelu, který může také produkovat zkreslené nebo vymyšlené výstupy.

„Výstupy poskytované ChatGPT budou pravděpodobně koncovými uživateli považovány za fakticky přesné, včetně informací týkajících se jednotlivců, bez ohledu na jejich skutečnou přesnost,“ dodal.

vlajka Evropské unie. Zdroj: Pixabay EU zdvojnásobuje dodržování předpisů

OpenAI již dříve uváděla technickou složitost kvůli neopravení dezinformací, ale hlídací pes Evropské unie se zdvojnásobuje.

„Zejména se nelze dovolávat technické nemožnosti, která by ospravedlnila nesplnění těchto požadavků,“ poznamenala pracovní skupina.

V nově otevřeném případu žaluje rakouská veřejná osoba ChatGPT za to, že neopravil jejich datum narození. OpenAI uvedla, že by to nebylo technicky proveditelné, ale tato nová zpráva zvýší tlak na model AI.

Právník na ochranu údajů spojený s případem, Maartje de Graaf, uvedl, že společnosti v současné době nejsou schopny přimět chatboty AI při zpracování údajů o jednotlivcích do souladu s právními předpisy EU.

„Pokud systém nedokáže produkovat přesné a transparentní výsledky, nelze jej použít ke generování dat o jednotlivcích. Technologie musí splňovat zákonné požadavky, nikoli naopak,“ uvedl de Graaf.

V OpenAI se objevují obavy o bezpečnost

Odborníci tvrdí, že ChatGPT bude vyžadovat ambiciózní změny, aby se nedostal do rozporu s GDPR, které upravuje ochranu dat v Evropské unii.

Pravidla také poskytují pracovní model pro zákony o údajích v Argentině, Brazílii, Chile, Japonsku, Keni, Mauriciu, Jižní Africe, Jižní Koreji, Turecku a Spojeném království.

Čtěte také: OpenAI zlikviduje hlas ChatGPT po kontroverzi Scarlett Johansson

Mezitím byl zpochybněn závazek OpenAI k bezpečnosti uživatelů.

Společnost zasáhla vlna rezignací s vysokým profilem, kdy odchod spoluzakladatele Ilyi Sutskevera, Gretchen Krueger, Jana Leikeho a půl tuctu dalších byl důvodem pro změnu kultury.

Začátkem tohoto týdne OpenAI oznámila pozastavení hlasu ChatGPT „Sky“ poté, co se obávalo, že se podobá hlasu herečky Scarlett Johansson ve filmu Her s tématem AI.

Cryptopolitan Reporting od Jeffreyho Goga