Le vittime lottano perché Google non riesce ad agire rapidamente
Sono in aumento le segnalazioni di immagini e video intimi pubblicati online senza consenso, con i deepfake che aggiungono una nuova dimensione al problema. All'inizio del 2022, due dipendenti della politica di Google hanno incontrato donne vittime della truffa GirlsDoPorn, dove video espliciti di loro stavano circolando online, anche tramite i risultati di ricerca di Google.
Le donne hanno suggerito a Google di usare un hard disk da 25 terabyte contenente tutti gli episodi di GirlsDoPorn per creare un "hash" di ogni clip e bloccarli dai risultati di ricerca. Tuttavia, due anni dopo, nessuna di queste idee è stata implementata e i video continuano ad apparire nei risultati di ricerca.
La risposta inadeguata di Google
Nonostante i recenti cambiamenti che consentono ai sopravvissuti di abusi sessuali basati su immagini di rimuovere più facilmente i risultati di ricerca indesiderati, vittime e sostenitori sono frustrati dalla mancanza di azioni più coraggiose da parte di Google. Google ha rifiutato di adottare lo strumento di settore StopNCII, che condivide informazioni sulle immagini intime non consensuali (NCII), a causa di preoccupazioni sul contenuto del database.
Internamente, i dipendenti di Google hanno suggerito misure più severe, come richiedere ai siti web per adulti di verificare il consenso, ma queste idee non sono state adottate. Un portavoce di Google ha affermato che combattere le immagini esplicite non consensuali (NCEI) rimane una priorità e che le azioni dell'azienda vanno oltre quanto richiesto dalla legge.
Tuttavia, fonti interne a Google sostengono che si potrebbe fare di più. Indicano le restrizioni più severe di Google sul materiale pedopornografico (CSAM) come prova che l'azienda può implementare misure più severe per NCII.
Richiede misure proattive
I sostenitori ritengono che Google dovrebbe adottare misure più proattive per proteggere le vittime. Il National Center on Sexual Exploitation sostiene che Google dovrebbe automaticamente onorare tutte le richieste di rimozione e richiedere ai siti Web di dimostrare che vi era il consenso a registrare e pubblicare i contenuti contestati.
Gli attuali sistemi di Google, che tentano di rimuovere automaticamente i link di ricerca quando riaffiorano contenuti segnalati in precedenza, hanno delle limitazioni. Il sistema di protezione delle vittime note, progettato per filtrare i risultati con immagini esplicite da query di ricerca simili, non è infallibile.
Le vittime come quelle della truffa GirlsDoPorn sono costrette a rimanere vigili, cercando e segnalando costantemente nuovi caricamenti del loro NCII. Questo fardello non dovrebbe ricadere sulle vittime, afferma Adam Dodge, fondatore del gruppo di difesa Ending Tech-Enabled Abuse. Chiede a Google di assumersi maggiori responsabilità nell'identificare e rimuovere in modo proattivo i media non consensuali.
Un invito all'azione
Vittime e sostenitori stanno esortando Google ad adottare misure più forti per combattere il crescente problema delle immagini esplicite non consensuali. Sebbene Google abbia apportato alcuni miglioramenti, come l'aggiornamento dei suoi moduli di rimozione e delle sue policy, questi sforzi sono considerati insufficienti.
Con l'aumento dei deepfake generati dall'intelligenza artificiale e l'aumento delle segnalazioni di NCII, la necessità di misure più solide e proattive è più critica che mai. Le vittime contano su Google affinché adotti le misure necessarie per garantire la loro privacy e sicurezza e per porre fine alla ri-vittimizzazione causata dalla continua comparsa delle loro immagini esplicite online.