Nell’ambito di estesi esercizi di monitoraggio dell’intelligenza artificiale, migliaia di passeggeri incauti dei treni nel Regno Unito sarebbero stati sottoposti a scansione dei loro volti e a identificare le loro emozioni dal controverso software Rekognition di Amazon. I test, che si sono svolti nel corso dei due anni precedenti nelle stazioni chiave, sono stati supervisionati dall'operatore ferroviario Network Rail.

Il sistema di intelligenza artificiale ha stimato attributi come età, sesso e stato emotivo utilizzando le foto delle telecamere a circuito chiuso; i documenti indicano che questi dati potrebbero eventualmente essere utilizzati per pubblicità mirata. I ricercatori hanno ripetutamente messo in guardia sul fatto che questi strumenti di analisi delle emozioni sono problematici e inaffidabili, e gli esperti di privacy hanno espresso preoccupazione per la “preoccupante” mancanza di apertura e consultazione pubblica sul loro utilizzo.

La diffusione della sorveglianza tramite riconoscimento facciale

Gli esperimenti nel Regno Unito sono solo un esempio di una tendenza mondiale in rapida diffusione in cui sia le agenzie governative che le imprese utilizzano l’analisi video basata sull’intelligenza artificiale e il riconoscimento facciale per spiare vaste popolazioni. Un’analisi approfondita rivela che le tecnologie controverse sono in uso o sono state approvate per l’uso in più di 100 nazioni in tutto il mondo.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Comparitech

Europa

Trentadue nazioni europee hanno consentito o stanno impiegando la sorveglianza con riconoscimento facciale. Il 2020 ha visto l'introduzione delle telecamere CCTV per il riconoscimento facciale da parte della polizia di Londra, che nello stesso anno ha anche effettuato il primo arresto con questa tecnologia. In Germania si prevede che dodici aeroporti e più di 130 stazioni ferroviarie avranno installato il riconoscimento facciale. Una reazione all'ampio utilizzo della tecnologia ha portato al suo divieto nelle scuole svedesi e francesi.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Nord America

Gli Stati Uniti e l’altra metà dei paesi nordamericani utilizzano attualmente la tecnologia di riconoscimento facciale per la sorveglianza. Entro il 2023, il Dipartimento per la Sicurezza Nazionale vuole che il 97% dei volti dei viaggiatori aerei siano archiviati nei database della polizia, che già contengono i volti di oltre il 50% degli americani. Numerose agenzie di polizia e aeroporti l’hanno abbracciato; tuttavia, a causa di problemi di privacy, un numero crescente di giurisdizioni statunitensi, inclusa San Francisco, ne hanno vietato l'utilizzo.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Sud America

Il 92% dei paesi sudamericani, tra cui Brasile e Argentina, dispone di forze di polizia che utilizzano la tecnologia di riconoscimento facciale. Con solo pochi filmati durante i grandi eventi, sono in grado di identificare centinaia di persone ricercate. Uno dei fuggitivi più ricercati nella zona dall'Interpol è stato arrestato dagli agenti brasiliani con l'uso di tecnologia.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Medio Oriente e Asia centrale

Per identificare le persone tra la folla, gli Emirati Arabi Uniti hanno recentemente acquistato occhiali intelligenti con tecnologia di riconoscimento facciale integrata. La tecnologia che scansiona i volti dei passeggeri per sostituire i biglietti dei trasporti pubblici è in fase di test in Kazakistan. In totale, le tecnologie di scansione del riconoscimento facciale sono attualmente operative nel 76% del Medio Oriente e dell’Asia centrale.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Oceania e Asia

Con una fotocamera stimata ogni 12 persone che vivono nel paese, la Cina è il leader mondiale nell’uso diffuso della tecnologia di riconoscimento facciale. Finora, il governo ha venduto la sua tecnologia di spionaggio basata sull’intelligenza artificiale ad almeno sedici paesi stranieri. In altri luoghi, l'Australia vuole confermare l'età prima di consentire l'accesso alla pornografia su Internet, mentre il Giappone intende utilizzarla per limitare la dipendenza dal gioco d'azzardo nei casinò.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Africa

L’Africa ha il tasso più basso di utilizzo della sorveglianza tramite riconoscimento facciale di qualsiasi continente, pari al 20% di tutti i paesi. Si prevede che questa cifra aumenterà, tuttavia, dal momento che nazioni come lo Zimbabwe hanno stretto accordi per ricevere la tecnologia dalla Cina in cambio di dati biometrici che miglioreranno la precisione del sistema per i diversi gruppi etnici.

UK train passengers were allegedly scanned, and their emotions were identified using Amazon's Rekognition software during artificial intelligence exercises supervised by Network Rail.

Foto: Surfshark

I contestati processi di riconoscimento del Regno Unito

Negli esperimenti sulle stazioni ferroviarie del Regno Unito, il controverso sistema Rekognition – che Amazon ha continuato a promuovere a fini di sorveglianza nonostante la resistenza interna – è stato utilizzato per cercare dati sui volti dei filmati delle telecamere. Secondo i documenti ottenuti attraverso una richiesta di libertà di informazione, sono state scattate fotografie mentre i visitatori attraversavano “fili virtuali” alle barriere dei biglietti. Le immagini sono state poi trasmesse al programma per stimare qualità come età e sesso e per identificare emozioni come felicità, tristezza o rabbia.

Gli studi hanno cercato di misurare la “soddisfazione dei passeggeri” utilizzando questi dati e magari di aumentare le “entrate pubblicitarie e di vendita al dettaglio” nelle stazioni. Eppure gli scienziati hanno sempre avvertito che l’interpretazione delle emozioni dalle foto è discutibile da un punto di vista scientifico.

Gli esperimenti sull’intelligenza artificiale sono cresciuti fino a esplorare una varietà di casi d’uso diversi, come il rilevamento di violazioni di domicilio, sovraffollamento, fumo, urla e bighellonamento, nonostante ovvi problemi di validità e accuratezza. Per facilitare tempi di reazione più rapidi, hanno cercato di avvisare automaticamente il personale sui rischi percepiti e sul “comportamento antisociale”.

Anche nei casi in cui non viene utilizzata la tecnologia di riconoscimento facciale, le organizzazioni per la privacy hanno messo in dubbio la generale mancanza di trasparenza e di impegno pubblico attorno a tale sorveglianza invasiva. Un documento di valutazione del rischio, con un “atteggiamento ignorante”, ha chiesto: “Se è probabile che alcuni individui si oppongano o lo trovino invadente?” prima di respingere tali preoccupazioni. E rispondendo: “In generale no, ma per alcune persone non c’è alcuna spiegazione”.

Secondo Jake Hurfurt, responsabile della ricerca presso Big Brother Watch, che ha ottenuto i materiali, l’introduzione e la normalizzazione della sorveglianza dell’intelligenza artificiale in questi ambienti pubblici senza molte discussioni o partecipazione è una tendenza molto preoccupante. 

Network Rail ha sostenuto che le sperimentazioni sono appropriate per mantenere la sicurezza e che sono conformi alle leggi applicabili. Per quanto riguarda ulteriori problemi di privacy o lo stato attuale del rilevamento delle emozioni, l'operatore ferroviario non ha risposto alle domande.

Una discussione internazionale: se è tutto appropriato

Una discussione globale su etica, accuratezza e violazioni delle libertà civili è stata stimolata dal rapido sviluppo del riconoscimento facciale e dell’analisi video basata sull’intelligenza artificiale per scopi di sorveglianza da parte di organizzazioni sia pubbliche che commerciali. I critici hanno attirato l’attenzione sul potenziale delle tecnologie di consentire nuovi livelli di pregiudizio, sorveglianza intrusiva ed erosione della privacy, nonostante le affermazioni dei sostenitori secondo cui le tecnologie migliorano la sicurezza e l’efficienza.

L’uso del software Rekognition di Amazon per scansionare e giudicare segretamente gli stati emotivi dei passeggeri ferroviari del Regno Unito solleva domande più profonde sulla supervisione, sul consenso e su dove tracciare il limite sulla sorveglianza dell’intelligenza artificiale negli spazi pubblici.

Il post Unmasking Big Brother: The Controversial UK Trials of Amazon's Rekognition Software è apparso per la prima volta su Metaverse Post.