Z nowego raportu unijnego organu nadzorującego prywatność wynika, że ​​ChatGPT, wirusowy chatbot OpenAI, w dalszym ciągu nie spełnia unijnych standardów dokładności danych. 

Przeczytaj także: Europejska ustawa o sztucznej inteligencji zostaje ostatecznie zatwierdzona i grozi karami finansowymi sięgającymi 38 mln dolarów

Sprawozdanie Rady Ochrony Danych Unii Europejskiej (EROD) nie jest dokumentem prawnym. Zapewni to jednak wspólne podejście do regulacji ChatGPT we wszystkich 27 państwach członkowskich UE.

ChatGPT nie spełnia standardów danych

Krajowe organy nadzoru utworzyły w zeszłym roku „grupę zadaniową ChatGPT” pod wpływem toczących się w kilku krajach europejskich spraw przeciwko modelowi sztucznej inteligencji. Grupa zadaniowa podlega EROD.

W raporcie opublikowanym 24 maja grupa zadaniowa stwierdziła:

„Chociaż środki podjęte w celu zapewnienia zgodności z zasadą przejrzystości są korzystne i pozwalają uniknąć błędnej interpretacji wyników ChatGPT, nie są wystarczające, aby zachować zgodność z zasadą dokładności danych”.

Duże modele językowe, czyli LLM, słyną z „halucynacji” – technika mówi wtedy, gdy chatboty AI wypluwają kłamstwa, często z pewnością.

Chatboty takie jak ChatGPT lub Google Gemini są zasilane przez LLM.  Zgodnie z rygorystycznym europejskim rozporządzeniem o ochronie danych (RODO) użytkownicy mogą wnieść sprawę do sądu za wprowadzenie w błąd lub odmowę możliwości poprawienia niedokładnych informacji na swój temat.

Według raportu grupy zadaniowej „Ze względu na probabilistyczny charakter systemu (AI) obecne podejście szkoleniowe prowadzi do modelu, który może również dawać stronnicze lub zmyślone wyniki”.

„Wyniki dostarczane przez ChatGPT prawdopodobnie zostaną uznane przez użytkowników końcowych za zgodne z faktami, w tym informacje dotyczące osób fizycznych, niezależnie od ich rzeczywistej dokładności” – dodał.

Flaga Unii Europejskiej. Źródło: Pixabay UE podwaja poziom zgodności

OpenAI już wcześniej powoływało się na złożoność techniczną w związku z tym, że nie potrafi korygować dezinformacji, ale organ nadzoru Unii Europejskiej podwaja wysiłki.

„W szczególności nie można powoływać się na niemożność techniczną w celu usprawiedliwienia nieprzestrzegania tych wymagań” – zauważyła grupa zadaniowa.

W nowo wszczętej sprawie austriacka osoba publiczna pozywa ChatGPT za niepoprawienie jej daty urodzenia. OpenAI stwierdziło, że nie byłoby to technicznie wykonalne, ale nowy raport zwiększy presję na model sztucznej inteligencji.

Prawnik zajmujący się ochroną danych związany ze sprawą, Maartje de Graaf, powiedział, że obecnie firmy nie są w stanie zapewnić zgodności chatbotów AI z prawem UE podczas przetwarzania danych osobowych.

„Jeśli system nie może dawać dokładnych i przejrzystych wyników, nie można go używać do generowania danych o poszczególnych osobach. Technologia musi spełniać wymogi prawne, a nie odwrotnie” – stwierdził de Graaf.

W OpenAI pojawiają się obawy dotyczące bezpieczeństwa

Eksperci twierdzą, że ChatGPT będzie wymagało ambitnych zmian, aby uniknąć naruszenia RODO, które reguluje ochronę danych w Unii Europejskiej.

Przepisy stanowią również działający model przepisów dotyczących danych w Argentynie, Brazylii, Chile, Japonii, Kenii, Mauritiusie, Republice Południowej Afryki, Korei Południowej, Turcji i Wielkiej Brytanii.

Przeczytaj także: OpenAI wycofuje się z ChatGPT Voice po kontrowersjach ze Scarlett Johansson

Tymczasem zaangażowanie OpenAI w bezpieczeństwo użytkowników zostało zakwestionowane.

W firmę uderzyła seria głośnych rezygnacji, w wyniku której odeszli współzałożyciel Ilya Sutskever, Gretchen Krueger, Jan Leike i pół tuzina innych osób, które uzasadniały zmianę kulturową.

Na początku tego tygodnia OpenAI ogłosiło zawieszenie głosu ChatGPT „Sky” po obawach, że przypomina on głos aktorki Scarlett Johansson w filmie Her, poświęconym sztucznej inteligencji.

Raportowanie kryptopolityczne autorstwa Jeffreya Gogo