Como parte de extensos ejercicios de monitoreo de inteligencia artificial, el polémico software Rekognition de Amazon supuestamente ha escaneado sus rostros e identificado sus emociones a miles de pasajeros desprevenidos de trenes en el Reino Unido. Las pruebas, que se llevaron a cabo durante los dos años anteriores en estaciones clave, fueron supervisadas por el operador ferroviario Network Rail.

El sistema de inteligencia artificial estimó atributos como la edad, el género y el estado emocional utilizando fotografías de cámaras CCTV; Los artículos indican que estos datos podrían eventualmente utilizarse para publicidad dirigida. Los investigadores han advertido repetidamente que estas herramientas de análisis de emociones son problemáticas y poco confiables, y los expertos en privacidad han expresado su preocupación por la "preocupante" falta de apertura y consulta pública sobre su uso.

La difusión de la vigilancia por reconocimiento facial

Los experimentos del Reino Unido son sólo un ejemplo de una tendencia mundial de rápida expansión en la que tanto agencias gubernamentales como empresas comerciales están utilizando análisis de vídeo mediante IA y reconocimiento facial para espiar a grandes poblaciones. Un análisis exhaustivo revela que tecnologías polémicas están en uso o han sido aprobadas para su uso en más de 100 países en todo el mundo.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Comparitech

Europa

Treinta y dos países europeos han permitido o están empleando vigilancia por reconocimiento facial. En 2020, la policía de Londres introdujo cámaras CCTV de reconocimiento facial, y ese mismo año también realizó el primer arresto con esta tecnología. En Alemania se espera que doce aeropuertos y más de 130 estaciones de tren cuenten con reconocimiento facial. Una reacción al uso generalizado de la tecnología ha resultado en su prohibición en las escuelas suecas y francesas.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

América del norte

Estados Unidos y la otra mitad de los países de América del Norte utilizan actualmente tecnología de reconocimiento facial para vigilancia. Para 2023, el Departamento de Seguridad Nacional quiere tener el 97% de los rostros de los viajeros aéreos almacenados en bases de datos policiales, que ya tienen los rostros de más del 50% de los estadounidenses. Numerosas agencias policiales y aeropuertos lo han adoptado; sin embargo, debido a preocupaciones de privacidad, un número cada vez mayor de jurisdicciones estadounidenses, incluida San Francisco, han prohibido su uso.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

Sudamerica

El 92% de los países de América del Sur, incluidos Brasil y Argentina, tienen fuerzas policiales que han utilizado tecnología de reconocimiento facial. Con solo unas pocas tomas de cámara durante eventos grandes, pueden identificar a cientos de personas buscadas. Uno de los prófugos más buscados en la zona por Interpol fue aprehendido por funcionarios brasileños con uso de tecnología.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

Medio Oriente y Asia Central

Para identificar a las personas entre las multitudes, los Emiratos Árabes Unidos compraron recientemente gafas inteligentes con tecnología de reconocimiento facial integrada. En Kazajstán se está probando la tecnología que escanea los rostros de los pasajeros para reemplazar los billetes de transporte público. En total, las tecnologías de escaneo de reconocimiento facial están actualmente en funcionamiento en el 76% de Medio Oriente y Asia Central.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

Oceanía y Asia

Con una cámara estimada por cada 12 personas que viven en el país, China es el líder mundial en el uso generalizado de la tecnología de reconocimiento facial. Hasta ahora, el gobierno ha vendido su tecnología de espionaje de inteligencia artificial a al menos dieciséis países extranjeros. En otros lugares, Australia quiere confirmar la edad antes de permitir el acceso a la pornografía en Internet, mientras que Japón pretende utilizarla para limitar la adicción al juego en los casinos.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto de : Surfshark

África

África tiene la tasa más baja de uso de vigilancia por reconocimiento facial de todos los continentes, con un 20% de todos los países. Sin embargo, se prevé que esta cifra aumente, ya que países como Zimbabwe han llegado a acuerdos para recibir la tecnología de China a cambio de datos biométricos que mejorarán la precisión del sistema para los distintos grupos étnicos.

UK train passengers were allegedly scanned, and their emotions were identified using Amazon's Rekognition software during artificial intelligence exercises supervised by Network Rail.

Foto de : Surfshark

Los impugnados juicios de reconocimiento del Reino Unido

En los experimentos en estaciones de tren del Reino Unido, se empleó el polémico sistema Rekognition, que Amazon ha persistido en promover con fines de vigilancia a pesar de la resistencia interna, para buscar datos faciales en las imágenes de las cámaras. Se tomaron fotografías mientras los visitantes cruzaban “cables trampa virtuales” en las barreras de entrada, según documentos obtenidos a través de una solicitud de libertad de información. Luego, las imágenes se transmitieron al programa para estimar cualidades como la edad y el género e identificar emociones como la felicidad, la tristeza o la rabia.

Los estudios buscaron medir la “satisfacción de los pasajeros” utilizando estos datos y tal vez aumentar los “ingresos por publicidad y venta minorista” en las estaciones. Sin embargo, los científicos siempre han advertido que interpretar las emociones a partir de fotografías es cuestionable desde un punto de vista científico.

Los experimentos de IA crecieron para explorar una variedad de casos de uso diferentes, como detectar intrusiones, hacinamiento, fumar, gritar y holgazanear, a pesar de los problemas obvios de validez y precisión. Para facilitar tiempos de reacción más rápidos, buscaron notificar automáticamente al personal sobre los riesgos percibidos y el "comportamiento antisocial".

Incluso en los casos en que no se utiliza la tecnología de reconocimiento facial, las organizaciones de privacidad han cuestionado la falta general de transparencia y participación pública en torno a una vigilancia tan invasiva. Un documento de evaluación de riesgos, con una “actitud ignorante”, cuestionó: “¿Si es probable que ciertas personas se opongan o lo encuentren intrusivo?” antes de descartar tales preocupaciones. Y respondiendo: “En general no, pero para algunas personas no hay contabilidad”.

Según Jake Hurfurt, jefe de investigación de Big Brother Watch, que obtuvo los materiales, la introducción y normalización de la vigilancia mediante IA en estos entornos públicos sin mucha discusión o participación es una tendencia muy preocupante. 

Network Rail ha argumentado que las pruebas son apropiadas para mantener la seguridad y que cumplen con las leyes aplicables. En cuanto a problemas adicionales de privacidad o el estado actual de la detección de emociones, el operador ferroviario no ha respondido a las consultas.

Un debate internacional: si todo es apropiado

El rápido desarrollo del reconocimiento facial y el análisis de vídeo mediante IA con fines de vigilancia por parte de organizaciones públicas y comerciales ha impulsado un debate mundial sobre la ética, la precisión y las violaciones de las libertades civiles. Los críticos han llamado la atención sobre el potencial de las tecnologías para permitir nuevos niveles de prejuicio, vigilancia intrusiva y erosión de la privacidad a pesar de las afirmaciones de sus defensores de que las tecnologías mejoran la seguridad y la eficiencia.

El uso del software Rekognition de Amazon para escanear y juzgar de forma encubierta los estados emocionales de los pasajeros ferroviarios del Reino Unido plantea preguntas más profundas sobre la supervisión, el consentimiento y dónde trazar el límite en la vigilancia de la IA en los espacios públicos.

La publicación Desenmascarando al Gran Hermano: Las controvertidas pruebas del software Rekognition de Amazon en el Reino Unido apareció por primera vez en Metaverse Post.