Como parte de extensos exercícios de monitorização de inteligência artificial, milhares de passageiros de comboio incautos no Reino Unido tiveram os seus rostos escaneados e as suas emoções identificadas pelo controverso software Rekognition da Amazon. Os testes, que foram realizados ao longo dos dois anos anteriores nas principais estações, foram supervisionados pela operadora ferroviária Network Rail.

O sistema de IA estimou atributos como idade, sexo e estado emocional usando fotos de câmeras CCTV; documentos indicam que esses dados podem eventualmente ser utilizados para publicidade direcionada. Os investigadores alertaram repetidamente que estas ferramentas de análise emocional são problemáticas e não fiáveis, e os especialistas em privacidade expressaram preocupações sobre a “preocupante” falta de abertura e consulta pública em torno da sua utilização.

A disseminação da vigilância de reconhecimento facial

As experiências do Reino Unido são apenas um exemplo de uma tendência mundial em rápida expansão, na qual agências governamentais e empresas comerciais estão a utilizar a análise de vídeo de IA e o reconhecimento facial para espionar grandes populações. Uma análise minuciosa revela que tecnologias controversas estão em uso ou foram aprovadas para uso em mais de 100 países em todo o mundo.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Comparatech

Europa

Trinta e duas nações europeias permitiram ou estão a utilizar vigilância por reconhecimento facial. 2020 viu a introdução de câmeras CCTV de reconhecimento facial pela polícia de Londres, que também fez a primeira prisão com a tecnologia no mesmo ano. Na Alemanha, espera-se que doze aeroportos e mais de 130 estações ferroviárias tenham reconhecimento facial instalado. Uma reação ao amplo uso da tecnologia resultou em proibições da mesma nas escolas suecas e francesas.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

América do Norte

Os Estados Unidos e a outra metade dos países norte-americanos utilizam atualmente tecnologia de reconhecimento facial para vigilância. Até 2023, o Departamento de Segurança Interna pretende ter 97% dos rostos dos viajantes aéreos armazenados em bases de dados policiais, que já contêm os rostos de mais de 50% dos americanos. Numerosas agências policiais e aeroportos adotaram-na; no entanto, devido a preocupações com a privacidade, um número crescente de jurisdições dos EUA, incluindo São Francisco, proibiram a sua utilização.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

América do Sul

92% dos países da América do Sul, incluindo Brasil e Argentina, possuem forças policiais que utilizam tecnologia de reconhecimento facial. Com apenas algumas imagens de câmera durante grandes eventos, eles conseguem identificar centenas de pessoas procuradas. Um dos fugitivos mais procurados na região pela Interpol foi detido por autoridades brasileiras com uso de tecnologia.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

Oriente Médio e Ásia Central

Para identificar pessoas em multidões, os Emirados Árabes Unidos compraram recentemente óculos inteligentes com tecnologia de reconhecimento facial integrada. A tecnologia que escaneia o rosto dos passageiros para substituir bilhetes de transporte público está sendo testada no Cazaquistão. No total, as tecnologias de digitalização de reconhecimento facial estão atualmente em operação em 76% do Médio Oriente e da Ásia Central.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

Oceania e Ásia

Com uma câmera estimada para cada 12 pessoas que vivem no país, a China é líder mundial no uso generalizado de tecnologia de reconhecimento facial. Até agora, o governo vendeu a sua tecnologia de espionagem de IA a pelo menos dezasseis países estrangeiros. Noutros locais, a Austrália quer confirmar a idade antes de permitir o acesso à pornografia na Internet, enquanto o Japão pretende utilizá-la para limitar o vício do jogo nos casinos.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

África

África tem a taxa mais baixa de utilização de vigilância por reconhecimento facial de qualquer continente, com 20% de todos os países. No entanto, prevê-se que este valor aumente, uma vez que países como o Zimbabué firmaram acordos para receber a tecnologia da China em troca de dados biométricos que irão melhorar a precisão do sistema para vários grupos étnicos.

UK train passengers were allegedly scanned, and their emotions were identified using Amazon's Rekognition software during artificial intelligence exercises supervised by Network Rail.

Foto de : Surfshark

Os contestados testes de reconhecimento do Reino Unido

Nas experiências da estação ferroviária do Reino Unido, o controverso sistema Rekognition – que a Amazon persistiu em promover para fins de vigilância, apesar da resistência interna – foi utilizado para pesquisar imagens de câmaras em busca de dados faciais. Foram tiradas fotografias enquanto os visitantes atravessavam “armas virtuais” nas barreiras de passagem, de acordo com documentos obtidos através de um pedido de liberdade de informação. As imagens foram então transmitidas ao programa para estimar qualidades como idade e sexo e para identificar emoções como felicidade, tristeza ou raiva.

Os estudos procuraram medir a “satisfação dos passageiros” utilizando estes dados e talvez aumentar as “receitas publicitárias e de retalho” nas estações. No entanto, os cientistas sempre alertaram que interpretar as emoções das fotos é questionável do ponto de vista científico.

Os experimentos de IA cresceram para explorar uma variedade de casos de uso diferentes, como detecção de invasão, superlotação, fumo, gritos e vadiagem, apesar dos problemas óbvios de validade e precisão. Para facilitar tempos de reação mais rápidos, procuraram notificar automaticamente o pessoal sobre riscos percebidos e “comportamento anti-social”.

Mesmo nos casos em que a tecnologia de reconhecimento facial não é utilizada, as organizações de privacidade questionam a falta geral de transparência e envolvimento público em torno desta vigilância invasiva. Um documento de avaliação de risco, com uma “atitude ignorante”, questionava: “Se é provável que certos indivíduos se oponham ou considerem isso intrusivo?” antes de descartar tais preocupações. E respondendo: “Em geral, não, mas não há prestação de contas para algumas pessoas”.

De acordo com Jake Hurfurt, Chefe de Pesquisa do Big Brother Watch, que obteve os materiais, a introdução e normalização da vigilância por IA nestes ambientes públicos sem muita discussão ou participação é uma tendência muito preocupante. 

A Network Rail argumentou que os testes são apropriados para manter a segurança e que cumprem as leis aplicáveis. Em relação a problemas adicionais de privacidade ou ao estado de detecção de emoções no momento, a operadora ferroviária não respondeu às perguntas.

Uma discussão internacional: se tudo é apropriado

Uma discussão global sobre ética, precisão e violações das liberdades civis foi estimulada pelo rápido desenvolvimento do reconhecimento facial e da análise de vídeo de IA para fins de vigilância por organizações públicas e comerciais. Os críticos chamaram a atenção para o potencial das tecnologias para permitir novos níveis de preconceito, vigilância intrusiva e erosão da privacidade, apesar das alegações dos proponentes de que as tecnologias melhoram a segurança e a eficiência.

O uso do software Rekognition da própria Amazon para escanear e julgar secretamente os estados emocionais dos passageiros ferroviários do Reino Unido levanta questões mais profundas sobre supervisão, consentimento e onde traçar os limites da vigilância por IA em espaços públicos.

A postagem Desmascarando o Big Brother: os controversos testes do software Rekognition da Amazon no Reino Unido apareceu pela primeira vez no Metaverse Post.