Un gruppo di difesa ha rivelato che i generatori di immagini hanno utilizzato miliardi di immagini di bambini brasiliani per addestrare i loro modelli di intelligenza artificiale senza il loro consenso. Human Rights Watch (HRW) ha condotto una ricerca che mostra che generatori di immagini popolari come Stable Diffusion hanno utilizzato immagini di bambini “che abbracciano tutta la loro infanzia” per addestrare i loro modelli.

Leggi anche: Le aziende tecnologiche sono esortate a combattere l'ondata di materiale pedopornografico generato dall'intelligenza artificiale

Lo studio HRW rivela che queste immagini sono state scattate da circa 10 stati brasiliani. È stato riferito che queste immagini rappresentano un enorme “rischio per la privacy dei bambini” perché l’atto aumenta anche la produzione di immagini non consensuali che portano la loro somiglianza.

Miliardi di immagini di bambini brasiliani utilizzate per addestrare modelli di intelligenza artificiale

Il ricercatore di HRW Hye Jung Han ha esposto il problema dopo aver analizzato una frazione (meno dello 0,0001%) di LAION-5B, un set di dati costruito a partire dalle istantanee Common Crawl del web pubblico. Ha rivelato che il set di dati non conteneva le foto reali, ma conteneva “coppie di testi di immagini” tratte da quasi 6 miliardi di immagini e didascalie pubblicate dal 2008.

Sono state trovate foto di bambini provenienti da 10 stati brasiliani, la maggior parte delle quali comprendevano foto di famiglia caricate su blog personali e genitoriali. Secondo il rapporto si tratta di immagini nelle quali gli internauti non si imbattono facilmente.

Leggi anche: Il Regno Unito dichiara un atto criminale la creazione di deepfake sessualmente espliciti

HRW ha rimosso i collegamenti alle immagini in collaborazione con LAION, l'organizzazione no-profit tedesca che ha creato il set di dati. Rimangono ancora preoccupazioni sul fatto che il set di dati possa ancora fare riferimento a immagini di bambini da tutto il mondo poiché la sola rimozione dei collegamenti non risolve del tutto il problema.

"Si tratta di una questione più ampia e molto preoccupante e, come organizzazione di volontari, faremo la nostra parte per aiutare", ha detto all'Ars il portavoce della LAION, Nate Tyler.

Le identità dei bambini sono facilmente rintracciabili

Il rapporto di HRW ha inoltre rivelato che le identità di molti bambini brasiliani potrebbero essere rintracciabili poiché i loro nomi e le loro posizioni sono stati utilizzati nelle didascalie che hanno costruito il set di dati. Ha anche sollevato preoccupazioni che i ragazzi possano correre il rischio di essere presi di mira dai bulli mentre le loro immagini potrebbero essere utilizzate per contenuti espliciti.

"Le foto esaminate abbracciano l'intera infanzia", ​​si legge in una parte del rapporto.

“Catturano momenti intimi di neonati che nascono nelle mani guantate di medici, bambini piccoli che spengono le candeline sulla torta di compleanno o ballano in mutande a casa…”

HRW.

Han ha tuttavia rivelato che “tutte le versioni pubblicamente disponibili di LAION-5B sono state rimosse”, e quindi c’è meno rischio che le foto dei bambini brasiliani vengano ora utilizzate.

Secondo HRW, il set di dati non sarà nuovamente disponibile finché la LAION non sarà certa che tutti i contenuti segnalati saranno rimossi. La decisione è stata presa dopo che un rapporto dell'Università di Stanford "ha trovato collegamenti in un set di dati che puntavano a contenuti illegali sul web pubblico", inclusi oltre 3.000 casi sospetti di contenuti di abusi sessuali su minori.

Almeno 85 ragazze in Brasile hanno anche denunciato che i loro compagni di classe le hanno molestate utilizzando l'intelligenza artificiale per generare contenuti deepfake sessualmente espliciti "basati su foto prese dai loro contenuti sui social media".

Proteggere la privacy dei bambini

Secondo Ars, LAION-5B è stato introdotto nel 2022, presumibilmente per replicare il set di dati di OpenAI, ed è stato pubblicizzato come il più grande “set di dati di testo-immagine liberamente disponibile”.

Quando HRW ha contattato LAION in merito alle immagini, l’organizzazione ha risposto affermando che i modelli di intelligenza artificiale addestrati su LAION-5B “non potevano produrre i dati dei bambini alla lettera”, sebbene riconoscessero i rischi per la privacy e la sicurezza.

L’organizzazione ha quindi iniziato a rimuovere alcune immagini, ma ha anche ritenuto che genitori e tutori fossero responsabili della rimozione delle foto personali dei bambini da Internet. Han non era d'accordo con la loro argomentazione, dicendo:

“I bambini e i loro genitori non dovrebbero assumersi la responsabilità di proteggerli da una tecnologia dalla quale è fondamentalmente impossibile proteggersi. Non è colpa loro”.

Lui.

HRW ha chiesto l’intervento urgente dei legislatori brasiliani per proteggere i diritti dei bambini dalle tecnologie emergenti. Devono essere adottate nuove leggi per vietare lo smaltimento dei dati dei bambini in modelli di intelligenza artificiale, secondo le raccomandazioni di HRW.

Reporting criptopolitico di Enacy Mapakame