TLDR

  • L’autorità brasiliana per la protezione dei dati (ANPD) ha vietato a Meta di utilizzare i dati personali brasiliani per addestrare i suoi modelli di intelligenza artificiale.

  • La decisione fa seguito all’aggiornamento della politica sulla privacy di Meta di maggio, che gli ha consentito di utilizzare i dati pubblici di Facebook, Instagram e Messenger per la formazione sull’intelligenza artificiale.

  • L’ANPD parla di “rischio imminente di danno grave e irreparabile” ai diritti fondamentali degli utenti.

  • Meta ha cinque giorni lavorativi per conformarsi, pena una multa giornaliera di 50.000 reais (circa 8.808 dollari).

  • Ciò fa seguito ad una reazione simile da parte delle autorità di regolamentazione dell’Unione Europea.

L’agenzia nazionale brasiliana per la protezione dei dati (ANPD) ha adottato un provvedimento per proteggere la privacy dei suoi cittadini ordinando a Meta di smettere di utilizzare i dati personali brasiliani per addestrare i suoi modelli di intelligenza artificiale.

Questa decisione, annunciata martedì, arriva in risposta al recente aggiornamento della politica sulla privacy di Meta che ha concesso alla società il permesso di utilizzare post, immagini e didascalie pubbliche di Facebook, Instagram e Messenger per scopi di formazione sull'intelligenza artificiale.

La sentenza dell’ANPD cita “il rischio imminente di danno grave e irreparabile” ai diritti fondamentali degli utenti brasiliani. Con oltre 102 milioni di utenti Facebook e 113 milioni di utenti Instagram in Brasile, il Paese rappresenta un mercato significativo per Meta, rendendo questa decisione particolarmente impattante.

Le preoccupazioni dell’agenzia non sono infondate. Un recente rapporto di Human Rights Watch ha rivelato che LAION-5B, uno dei più grandi set di dati di didascalie di immagini utilizzate per addestrare modelli di intelligenza artificiale, contiene foto identificabili di bambini brasiliani.

Questa scoperta ha sollevato allarmi sul potenziale di deepfake e altre forme di sfruttamento, evidenziando l’urgente necessità di misure di protezione dei dati più rigorose.

Secondo l’ordinanza dell’ANPD, a Meta sono stati concessi cinque giorni lavorativi per dimostrare la conformità alla direttiva modificando la sua politica sulla privacy per escludere l’uso di informazioni personali dai posti pubblici per la formazione sull’IA. In caso contrario, si comporterà una multa giornaliera di 50.000 reais (circa $ 8.808 o £ 6.935).

Meta, in risposta alla decisione, ha espresso disappunto, affermando che il loro approccio è conforme alle leggi locali sulla privacy. Un portavoce dell'azienda ha detto:

“Si tratta di un passo indietro per l’innovazione, la concorrenza nello sviluppo dell’intelligenza artificiale e ulteriori ritardi nel portare i benefici dell’intelligenza artificiale alle persone in Brasile”.

Tuttavia, i difensori della privacy e gli esperti di protezione dei dati hanno accolto con favore la posizione proattiva dell’ANPD.

Pedro Martins di Data Privacy Brasil ha sottolineato le discrepanze tra le misure di protezione dei dati di Meta per gli utenti brasiliani ed europei.

In Europa, Meta aveva previsto di escludere i dati degli utenti sotto i 18 anni dalla formazione sull’intelligenza artificiale, mentre in Brasile sarebbero stati potenzialmente inclusi i post di bambini e adolescenti. Martins ha inoltre osservato che il processo di opt-out per gli utenti brasiliani è più complicato e richiede potenzialmente fino a otto passaggi, rispetto a un processo più semplice in Europa.

Questa decisione dell’ANPD brasiliana rispecchia preoccupazioni simili sollevate nell’Unione Europea. A giugno, Meta ha sospeso i suoi piani per addestrare modelli di intelligenza artificiale sui dati degli utenti europei dopo aver ricevuto una richiesta dalla Commissione irlandese per la protezione dei dati. La società aveva inizialmente pianificato di implementare il cambiamento di politica in Europa il 26 giugno, ma questo è stato sospeso in attesa di un’ulteriore revisione.

La resistenza contro le pratiche di raccolta dati di Meta per la formazione sull’intelligenza artificiale fa parte di un dibattito globale più ampio sulla privacy, sulla protezione dei dati e sullo sviluppo etico dell’intelligenza artificiale.

Per Meta, questa battuta d’arresto in Brasile, a seguito di sfide simili in Europa, potrebbe forzare una rivalutazione della sua strategia globale di intelligenza artificiale. L’azienda dovrà orientarsi in un panorama normativo sempre più complesso pur perseguendo i propri obiettivi di sviluppo dell’intelligenza artificiale.

Il post Il Brasile traccia il limite: Meta ha ordinato di escludere i dati personali dalla formazione sull'intelligenza artificiale è apparso per la prima volta su Blockonomi.