Meta ha sospeso i suoi piani per utilizzare grandi quantità di dati degli utenti europei per addestrare i suoi modelli di intelligenza artificiale a seguito di un significativo feedback normativo. 

Questa decisione ha un impatto sulle sue operazioni nell'Unione Europea (UE) e nello Spazio Economico Europeo (SEE), dove intendeva addestrare il suo modello linguistico di grandi dimensioni (LLM) denominato Llama sui contenuti generati dagli utenti, inclusi post pubblici e immagini.

Resistenza normativa e risposta del meta

La società madre di Facebook inizialmente intendeva migliorare le capacità dell’intelligenza artificiale analizzando post pubblici, didascalie di immagini e conversazioni di chatbot su piattaforme come Instagram. Tuttavia, la Commissione irlandese per la protezione dei dati (DPC) si è opposta a questo piano, portando a una revisione più ampia da parte delle autorità di regolamentazione europee. 

Il DPC, agendo per conto delle autorità di protezione dei dati dell’UE, ha contestato l’affermazione di Meta secondo cui aveva “interessi legittimi” nel trattamento di questi dati, spingendo Meta a rivedere la sua strategia. In un recente post sul blog, Meta ha espresso disappunto per il ritardo, affermando che ostacola l’innovazione dell’intelligenza artificiale e l’introduzione di nuove tecnologie per gli utenti europei. 

Da marzo, la società ha evidenziato i propri sforzi per integrare il feedback delle autorità di regolamentazione europee e ha sottolineato la battuta d’arresto nel lancio di funzionalità basate sull’intelligenza artificiale progettate per comprendere e integrare le sfumature culturali europee.

Il DPC ha rilasciato una dichiarazione in cui riconosce la decisione di Meta di interrompere l’iniziativa di formazione sull’intelligenza artificiale, segnando il culmine di intense discussioni tra la società e l’organismo di regolamentazione. L’autorità di regolamentazione ha sottolineato il suo piano di continuare a collaborare con Meta per garantire che qualsiasi trattamento dei dati sia in linea con le leggi sulla privacy dell’UE. Questo dialogo riflette gli sforzi normativi più ampi dell’UE volti a mantenere rigorosi standard di protezione dei dati.

Sfide pubbliche e giuridiche

La decisione di Meta fa seguito anche all’opposizione pubblica e alle sfide legali guidate dal Centro europeo per i diritti digitali, noto come Noyb. Questo gruppo si è attivamente opposto ai piani di Meta presentando denunce in diversi paesi dell’UE, tra cui Spagna, Austria e Germania. 

Le azioni di Noyb evidenziano una significativa inversione rispetto alle precedenti indicazioni normative, consentendo potenzialmente le attività di elaborazione dati di Meta. L’organizzazione sostiene una rigorosa aderenza al Regolamento generale sulla protezione dei dati (GDPR), garantendo che i diritti sui dati dei cittadini europei non siano compromessi.

Confronto con altri giganti della tecnologia

Nel difendere le sue strategie di elaborazione dei dati, Meta ha sottolineato pratiche simili da parte di altri giganti della tecnologia come OpenAI e Google, che hanno anche utilizzato i dati degli utenti dell’UE per addestrare i loro sistemi di intelligenza artificiale. 

Meta sostiene che i suoi metodi sono più trasparenti e offrono un maggiore controllo agli utenti, sottolineando la necessità di tali dati per sviluppare sistemi di intelligenza artificiale che comprendano pienamente il diverso panorama culturale e linguistico dell’Europa. In particolare, Meta aveva fissato una scadenza del 26 giugno affinché gli utenti dell’UE potessero rinunciare all’utilizzo dei dati per la formazione sull’intelligenza artificiale, una disposizione non disponibile per gli utenti di altre regioni ad eccezione dell’Illinois negli Stati Uniti.

Il post Meta rinvia la formazione sull'intelligenza artificiale sui dati degli utenti dell'UE dopo la resistenza normativa è apparso per la prima volta su Coinfea.