Meta zacznie używać publicznie udostępnianych treści od dorosłych użytkowników w Wielkiej Brytanii na Facebooku i Instagramie, aby szkolić swoje modele sztucznej inteligencji. Firma będzie używać publicznie dostępnych informacji, takich jak posty, komentarze, zdjęcia i podpisy dorosłych użytkowników na obu platformach.
„W Meta tworzymy sztuczną inteligencję, która będzie odzwierciedlać różnorodność społeczności na całym świecie. Nie możemy się doczekać, aby w tym roku wprowadzić ją na rynek w większej liczbie krajów i języków” – powiedziała Meta.
Firma Meta oświadczyła, że nie korzysta z informacji pochodzących z kont osób poniżej 18. roku życia mieszkających w Wielkiej Brytanii. Źródło: Meta
W lipcu Meta wstrzymała wydawanie AI w Unii Europejskiej po wydaniu przez Irlandzką Komisję Ochrony Danych nakazu wstrzymania wdrażania asystenta AI w UE z powodu obaw o prywatność danych. Meta wykorzystuje dane od użytkowników Facebooka i Instagrama do trenowania swoich modeli AI, ale twierdzi, że odbywa się to za zgodą użytkownika i oferuje opcję rezygnacji.
Meta ma używać wyłącznie informacji publicznych
Meta poinformowała, że będzie wykorzystywać informacje publiczne, takie jak posty, komentarze, zdjęcia i podpisy dorosłych użytkowników Instagrama i Facebooka, aby udoskonalić swoje generatywne modele sztucznej inteligencji dla funkcji i doświadczeń Meta, w tym dla użytkowników w Wielkiej Brytanii.
Dorośli z Wielkiej Brytanii na Facebooku i Instagramie zaczną otrzymywać powiadomienia w aplikacji, które szczegółowo opisują praktyki Meta dotyczące wykorzystania danych i udostępniają opcję sprzeciwu wobec wykorzystywania ich danych do szkolenia AI. Meta wyjaśniła:
„Nie będziemy kontaktować się z osobami, które już wniosły sprzeciw, ponieważ nadal będziemy honorować ich wybór. Będziemy honorować wszystkie formularze sprzeciwu, które już otrzymaliśmy, a także nowe formularze sprzeciwu złożone”.
Irlandzki regulator zwiększa czujność w kwestii sztucznej inteligencji
Komisja Ochrony Danych (DPC), irlandzki organ nadzorczy ds. ogólnego rozporządzenia o ochronie danych (RODO), zaostrzyła swój nadzór.
12 września wszczęto transgraniczne dochodzenie w sprawie Google Ireland Limited, aby ustalić, czy Google przestrzegało unijnych przepisów o ochronie danych podczas opracowywania swojego modelu sztucznej inteligencji.
Organ regulacyjny zbada wykorzystanie danych osobowych obywateli UE w szkoleniu modelu językowego Pathways Language Model 2 (PaLM2) firmy Google. Wprowadzony 10 maja 2023 r. PaLM2 to zaawansowany model językowy charakteryzujący się ulepszonymi możliwościami wielojęzyczności, rozumowania i kodowania.
DPC zbadało również platformę społecznościową X, a dochodzenie zakończono po tym, jak X zgodziła się spełnić wymagane standardy zgodności.
4 września X zgodził się zaprzestać wykorzystywania danych osobowych użytkowników z UE i Europejskiego Obszaru Gospodarczego (EOG). Dane te były wcześniej wykorzystywane do trenowania jego chatbota ze sztuczną inteligencją, Grok.
Czasopismo: Sztuczna inteligencja może już zużywać więcej energii niż Bitcoin — i zagraża to wydobyciu Bitcoinów