Meta wstrzymała swoje plany wykorzystania ogromnych ilości danych użytkowników w Europie do szkolenia swoich modeli sztucznej inteligencji po uzyskaniu znaczących informacji zwrotnych od organów regulacyjnych. 

Decyzja ta ma wpływ na jej działalność w Unii Europejskiej (UE) i Europejskim Obszarze Gospodarczym (EOG), gdzie zamierzano szkolić swój model dużego języka (LLM) o nazwie Llama w zakresie treści generowanych przez użytkowników, w tym publicznych postów i obrazów.

Opór regulacyjny i odpowiedź meta

Początkowo spółka-matka Facebooka zamierzała zwiększyć możliwości sztucznej inteligencji, analizując publiczne posty, podpisy zdjęć i rozmowy z chatbotem na platformach takich jak Instagram. Jednak irlandzka Komisja Ochrony Danych (DPC) sprzeciwiła się temu planowi, co doprowadziło do szerszego przeglądu przez europejskie organy regulacyjne. 

DPC, działając w imieniu unijnych organów ochrony danych, zakwestionował twierdzenie Meta, że ​​ma „uzasadniony interes” w przetwarzaniu tych danych, co skłoniło Meta do zmiany swojej strategii. W niedawnym poście na blogu Meta wyraziła rozczarowanie opóźnieniem, stwierdzając, że utrudnia ono innowacje w zakresie sztucznej inteligencji i wprowadzanie nowych technologii dla europejskich użytkowników. 

Od marca firma podkreślała swoje wysiłki na rzecz uwzględnienia informacji zwrotnych od europejskich organów regulacyjnych i podkreślała niepowodzenie we wprowadzaniu funkcji opartych na sztucznej inteligencji, mających na celu zrozumienie i integrację europejskich niuansów kulturowych.

DPC wydało oświadczenie, w którym potwierdziło decyzję Meta o wstrzymaniu inicjatywy szkoleniowej w zakresie sztucznej inteligencji, co stanowiło kulminację intensywnych dyskusji między firmą a organem regulacyjnym. Organ regulacyjny odnotował swój plan dalszej współpracy z firmą Meta, aby zapewnić zgodność przetwarzania danych z przepisami UE dotyczącymi prywatności. Dialog ten odzwierciedla szersze wysiłki regulacyjne UE mające na celu utrzymanie rygorystycznych standardów ochrony danych.

Wyzwania publiczno-prawne

Decyzja Meta jest również następstwem sprzeciwu społecznego i wyzwań prawnych pod przewodnictwem Europejskiego Centrum Praw Cyfrowych, znanego jako Noyb. Grupa ta aktywnie sprzeciwiała się planom Meta, składając skargi w wielu krajach UE, w tym w Hiszpanii, Austrii i Niemczech. 

Działania Noyb podkreślają znaczące odejście od wcześniejszych wskazań regulacyjnych, co potencjalnie umożliwia Meta przetwarzanie danych. Organizacja opowiada się za rygorystycznym przestrzeganiem ogólnego rozporządzenia o ochronie danych (RODO), zapewniając, że prawa obywateli europejskich do danych nie zostaną naruszone.

Porównanie z innymi gigantami technologicznymi

Broniąc swoich strategii przetwarzania danych, Meta wskazała na podobne praktyki innych gigantów technologicznych, takich jak OpenAI i Google, którzy również wykorzystywali dane użytkowników z UE do szkolenia swoich systemów sztucznej inteligencji. 

Meta argumentuje, że jej metody są bardziej przejrzyste i zapewniają użytkownikom większą kontrolę, podkreślając konieczność gromadzenia takich danych w celu opracowania systemów sztucznej inteligencji, które w pełni uwzględniają zróżnicowany krajobraz kulturowy i językowy Europy. Warto zauważyć, że Meta wyznaczyła użytkownikom z UE termin 26 czerwca na rezygnację z wykorzystywania danych do szkoleń w zakresie sztucznej inteligencji, co nie jest dostępne dla użytkowników w innych regionach z wyjątkiem Illinois w USA.

Wpis Meta odkłada szkolenie AI na temat danych użytkowników z UE po sprzeciwie organów regulacyjnych po raz pierwszy pojawił się na Coinfea.