Meta otrzymała wiele skarg dotyczących planów wykorzystania danych klientów w szkoleniach dotyczących sztucznej inteligencji, w wyniku czego organizacje zajmujące się ochroną prywatności i organy ochrony danych złożyły skargi w 11 krajach. Grupa aktywistów zajmujących się ochroną prywatności Noyb złożyła skargi po tym, jak Meta zaktualizowała swoją politykę prywatności.

Przeczytaj także: Kto decyduje o tym, w jaki sposób dane osobowe są wykorzystywane w systemach szkoleniowych AI? Wytyczne PDPC dotyczące problemów

Meta ma własny LLM o nazwie Llama, którego najnowsza wersja, Llama 3, została wydana w kwietniu. Według Noyba głównym problemem jest propozycja Meta, aby wykorzystać wieloletnie posty, w tym zdjęcia, jako dane szkoleniowe w celu ulepszenia jej systemu sztucznej inteligencji. Te dane szkoleniowe nie będą jednak obejmować prywatnych wiadomości między użytkownikami a przyjaciółmi lub ich rodzinami.

Meta jest oskarżana o naruszenie RODO

Meta opublikowała niedawno aktualizację swojej polityki prywatności na rynku europejskim, a najnowsze aktualizacje wejdą w życie 26 czerwca. Według Noyba bliższe przyjrzenie się linkom w powiadomieniu pokazuje, że Meta planuje wykorzystać dane na potrzeby bliżej nieokreślonej technologii AI. Firma wspomina również, że zamiast prosić użytkownika o zgodę, Meta utrzymuje, że ma „uzasadniony interes, który przewyższa prawo podstawowe” do ochrony danych i ochrony użytkowników z UE.

„Meta zasadniczo mówi, że może wykorzystać „dowolne dane z dowolnego źródła w dowolnym celu i udostępnić je każdemu na świecie”, o ile odbywa się to za pomocą „technologii sztucznej inteligencji”. – Założyciel Noyb Max Schrems.

Schrems wspomniał również, że Meta narusza Ogólne rozporządzenie UE o ochronie danych (RODO). Dodał dalej, że „Meta nie mówi, do czego będzie wykorzystywać dane, więc może to być prosty chatbot, wyjątkowo agresywna spersonalizowana reklama, a nawet zabójczy dron. Meta twierdzi również, że dane użytkownika mogą zostać udostępnione dowolnej stronie trzeciej.

My (@NOYBeu) złożyliśmy dziś 11 skarg przeciwko próbie @MetaAI wykorzystania wszystkich publicznych i prywatnych danych (innych niż czaty) około 400 milionów europejskich użytkowników na potrzeby nieokreślonej obecnej i przyszłej „technologii sztucznej inteligencji”. Poprosiliśmy o pilną perocedure.https://t.co/U52U7CyNh3

— Max Schrems 🇪🇺 (@maxschrems) 6 czerwca 2024 r.

Czy użytkownicy mogą z tego zrezygnować?

Noyb wskazuje ponadto, że użytkownicy nie mają prawa do usunięcia swoich danych ani „prawa do bycia zapomnianym”. Z tych powodów Noyb zwrócił się do organów ochrony danych w 11 krajach europejskich o zainicjowanie procesów mających na celu „natychmiastowe zatrzymanie tej zmiany”, zanim Meta wprowadzi w życie zaktualizowaną politykę w tym miesiącu.

Firma Noyb złożyła skargi do grup zajmujących się ochroną prywatności w Austrii, Belgii, Francji, Grecji, Niemczech, Irlandii, Włoszech, Holandii, Norwegii, Polsce i Hiszpanii, aby podjąć działania i zaprzestać stosowania tej polityki. Według Noyba art. 66 umożliwia organom ochrony danych wstępne wstrzymanie w podobnych sytuacjach.

Przeczytaj także: Włochy wszczynają dochodzenie w sprawie obaw Sory związanych z ochroną danych przez OpenAI

Rzecznik Meta powiedział jednak The Register, że ich działania są jawne.

„Mamy pewność, że nasze podejście jest zgodne z przepisami dotyczącymi prywatności i jest spójne z tym, jak inne firmy technologiczne rozwijają i ulepszają swoje doświadczenia związane ze sztuczną inteligencją w Europie”.

Irlandzka Komisja Ochrony Danych (DPC) stwierdziła, że ​​Meta opóźniła uruchomienie swojego projektu, aby odpowiedzieć na zapytania DPC, które zostały już rozwiązane. Jednak Noyb zarzuca Meta utrudnianie użytkownikom podjęcia decyzji o rezygnacji.

Kryptopolityczne raporty Enacy Mapakame