Microsoft collabora con StopNCII per combattere le immagini deepfake
L’intelligenza artificiale generativa è diventata uno strumento facilmente disponibile e le immagini pornografiche deepfake si sono diffuse, minacciando seriamente la privacy e la sicurezza personale. Anche gruppi di ragazze coreane sono diventati vittime.
Per combattere le immagini pornografiche non consensuali, il gigante tecnologico Microsoft (Microsoft) ha annunciato che collaborerà con la piattaforma di protezione della privacy StopNCII per rimuovere queste immagini pornografiche dal motore di ricerca Bing. La prima ondata di operazioni di test ha elaborato più di 260.000 immagini .
Le vittime possono utilizzare gli strumenti di StopNCII sui loro telefoni, computer o altri dispositivi per generare un'impronta digitale per immagini pornografiche, siano esse reali o deepfake. Funziona come un tag digitale univoco che i partner (come Bing) possono utilizzare per confrontare le immagini sulla piattaforma e, se viene trovato materiale corrispondente, può essere rimosso o impedita la diffusione in base alle rispettive politiche.
Secondo il media straniero "Engadget" molte aziende tecnologiche hanno già collaborato con StopNCII oltre a Microsoft ci sono anche Facebook, Instagram e Threads di proprietà di Meta. Oltre a TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub e altre piattaforme.
Google non è nell'elenco dei partner?
Essendo il motore di ricerca più popolare, Google ha lanciato anche i propri strumenti per segnalare e rimuovere immagini pornografiche. Tuttavia, secondo un'indagine del media straniero "Wired", Google viene ancora criticato dagli ex dipendenti e dalle vittime per non aver collaborato con StopNCII.
Dopotutto, dal 2020, gli utenti Google in Corea del Sud hanno segnalato un totale di 170.000 ricerche e collegamenti YouTube con contenuti indecenti.
La mancata integrazione di Google con lo strumento StopNCII potrebbe anche comportare ulteriori oneri per le vittime, costringendole ad affrontare le questioni relative alla privacy in modo più complesso e frammentato.
Il governo persegue immagini pornografiche deepfake
"TechCrunch" ha affermato che lo strumento di StopNCII è adatto solo agli adulti di età superiore ai 18 anni. Tuttavia, il problema delle immagini pornografiche deepfake dell'intelligenza artificiale è molto comune e piattaforme come "siti di spogliarsi" hanno iniziato a causare problemi agli studenti delle scuole superiori.
Sfortunatamente, gli Stati Uniti attualmente non hanno leggi specifiche che mirano alla responsabilità per la pornografia deepfake basata sull’intelligenza artificiale, lasciandoli ora costretti a fare affidamento su un mosaico di normative statali e locali per affrontare questi problemi.
Anche così, quest’anno il governo degli Stati Uniti ha iniziato ad adottare alcune misure. Ad esempio, l'Ufficio statunitense per il copyright ha chiesto l'adozione di nuove leggi in materia, e un gruppo di senatori ha anche proposto a luglio il disegno di legge "NO FAKES" per proteggere le vittime di immagini profondamente false. Ad agosto, il governo di San Francisco ha intentato una causa contro 18 siti Web e app per aver generato illegalmente foto di nudo non consensuali.
Oltre agli Stati Uniti, anche la Corea del Sud, dove il problema delle immagini pornografiche deepfake è grave, ha ordinato un giro di vite sui crimini correlati. Secondo l’agenzia di stampa Yonhap, la polizia lancerà un’operazione di sette mesi per rintracciare attivamente coloro che ne sono autori produrre e distribuire queste immagini, soprattutto coloro che producono e distribuiscono queste immagini. Si rivolge a coloro che sfruttano i bambini e i giovani.
Fonte: TechCrunch, Engadget, blog Microsoft
Più copertura
I “contenuti pornografici illegali” generati dall’intelligenza artificiale hanno attirato 200 milioni di visualizzazioni e il governo di San Francisco ha intentato una causa
Non essere dipendente dall’intelligenza artificiale! Il documento sui rischi GPT-4o avverte: gli utenti possono sviluppare un "attaccamento emotivo" alle funzioni vocali