Meta ogłosiła przerwę w uruchamianiu i szkoleniu swojego asystenta AI w Europie na wniosek irlandzkiej Komisji Ochrony Danych (DPC).

Wniosek pojawił się po tym, jak DPC, główny organ regulacyjny ds. prywatności Meta w UE, zwrócił się do firmy o zaprzestanie szkolenia dużych modeli językowych (LLM) z wykorzystaniem publicznie dostępnych danych zebranych przez użytkowników Facebooka i udostępnień na Instagramie.

Meta stwierdziła, że ​​decyzja pozostawiła ich „rozczarowanych” i uznała ją za „krok wstecz” dla konkurencji i innowacji w zakresie sztucznej inteligencji w UE. Firma upiera się jednak, że przestrzega przepisów europejskich.

DPC poparło zawieszenie, stwierdzając, że „z zadowoleniem przyjmuje tę decyzję” i będzie kontynuować współpracę z Meta po wcześniejszym „szeroko zakrojonym zaangażowaniu”.

Według europejskiej organizacji non-profit NOYB zajmującej się ochroną prywatności wniosek Meta o tymczasowe zawieszenie działalności był wynikiem skarg złożonych przez nią samą oraz przez inne organizacje, takie jak Norweska Rada Konsumentów i kilka innych organów ochrony danych.

Sprawa ta ciągnie się od wielu miesięcy. Meta oświadczyła, że ​​od marca powiadamiała europejskie organy ochrony danych o swoich działaniach.

Jednak sytuacja stała się poważniejsza, gdy 22 maja Meta zaczęła powiadamiać użytkowników o swoich szkoleniach z zakresu sztucznej inteligencji za pośrednictwem ponad dwóch miliardów powiadomień w aplikacji i e-maili. 6 czerwca NOYB złożył skargę do 11 organów ochrony danych.

Meta potwierdziła, że ​​10 czerwca przeprowadziła konsultacje z DPC i oświadczyła, że ​​uwzględniła otrzymaną odpowiedź, aby zapewnić zgodność swoich szkoleń w zakresie sztucznej inteligencji z przepisami dotyczącymi sztucznej inteligencji.

Meta zauważa, że ​​Google i OpenAI również wykorzystywały sztuczną inteligencję do trenowania na danych użytkowników. Firma planuje przestrzegać przepisów ogólnego rozporządzenia UE o ochronie danych (RODO) w oparciu o podstawę prawną „uzasadnionego interesu” – elastycznego przepisu, na którym opierały się inne firmy zajmujące się sztuczną inteligencją.

Ta pauza uwydatnia złożoność i wyzwania związane ze stosowaniem technologii AI, szczególnie w kontekście coraz bardziej rygorystycznych przepisów o ochronie danych.