Secondo Decrypt, l’agenzia statunitense Immigration and Customs Enforcement (ICE) sta utilizzando uno strumento basato sull’intelligenza artificiale, Giant Oak Search Technology (GOST), per scansionare i post sui social media alla ricerca di contenuti ritenuti dispregiativi per gli Stati Uniti. La notizia, riportata per la prima volta da 404 Media, ha sollevato preoccupazioni sulla privacy e sulle implicazioni etiche di tale sorveglianza.

GOST aiuta l’agenzia analizzando i post sui social media e determinando il loro potenziale rischio per gli Stati Uniti, secondo il rapporto, che cita documenti riservati. Il sistema classifica i punteggi dei social media di una persona da uno a 100 in base alla sua rilevanza per la missione percepita dall'utente. Mentre in passato le revisioni dei social media sono state utilizzate per indagare su individui potenzialmente pericolosi, l’uso di strumenti come GOST potrebbe offuscare il confine tra la sicurezza nazionale e le libertà individuali fondamentali.

Patrick Toomey, vicedirettore del National Security Project dell'ACLU, ha espresso preoccupazione per l'uso di algoritmi da parte del governo per esaminare i post sui social media. Ha affermato che il governo non dovrebbe utilizzare algoritmi per esaminare i post sui social media e decidere quali individui sono rischiosi, e che le agenzie non dovrebbero acquistare questo tipo di tecnologia in segreto senza alcuna responsabilità. Il pubblico rimane molto scettico nei confronti dell’intelligenza artificiale, in particolare per quanto riguarda la privacy personale. Uno studio del Pew Research Center ha rivelato che il 32% degli americani ritiene che l’intelligenza artificiale nell’assunzione e nella valutazione dei lavoratori abbia maggiori probabilità di danneggiare piuttosto che aiutare i candidati e i dipendenti. Un sondaggio Reuters ha rilevato che la maggior parte degli americani vede l’intelligenza artificiale come una minaccia per l’umanità.