Dans le cadre d’exercices approfondis de surveillance de l’intelligence artificielle, des milliers de passagers de train imprudents au Royaume-Uni auraient vu leur visage scanné et leurs émotions identifiées par le logiciel controversé Rekognition d’Amazon. Les tests, réalisés au cours des deux années précédentes dans des gares clés, ont été supervisés par la société ferroviaire Network Rail.

Le système d’IA a estimé des attributs tels que l’âge, le sexe et l’état émotionnel à l’aide de photos de caméras de vidéosurveillance ; des articles indiquent que ces données pourraient éventuellement être utilisées à des fins de publicité ciblée. Les chercheurs ont averti à plusieurs reprises que ces outils d’analyse des émotions sont gênants et peu fiables, et les experts en matière de protection de la vie privée ont exprimé leurs inquiétudes quant au manque « préoccupant » d’ouverture et de consultation publique autour de leur utilisation.

La diffusion de la surveillance par reconnaissance faciale

Les expériences britanniques ne sont qu’un exemple d’une tendance mondiale en pleine expansion selon laquelle les agences gouvernementales et les entreprises utilisent l’analyse vidéo par l’IA et la reconnaissance faciale pour espionner de vastes populations. Une analyse approfondie révèle que des technologies controversées sont utilisées ou ont été approuvées dans plus de 100 pays à travers le monde.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Photo : Comparitech

L'Europe 

Trente-deux pays européens ont autorisé ou utilisent la surveillance par reconnaissance faciale. En 2020, la police de Londres a introduit des caméras de vidéosurveillance à reconnaissance faciale, qui ont également procédé à la première arrestation utilisant cette technologie la même année. En Allemagne, douze aéroports et plus de 130 gares devraient être dotés d'une reconnaissance faciale. En réaction à l'utilisation généralisée de cette technologie, celle-ci a été interdite dans les écoles suédoises et françaises.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Photo de : Surfshark

Amérique du Nord

Les États-Unis et l’autre moitié des pays nord-américains utilisent actuellement la technologie de reconnaissance faciale pour la surveillance. D’ici 2023, le ministère de la Sécurité intérieure souhaite que 97 % des visages des voyageurs aériens soient stockés dans les bases de données de la police, qui contiennent déjà les visages de plus de 50 % des Américains. De nombreux services de police et aéroports l’ont adopté ; cependant, en raison de problèmes de confidentialité, un nombre croissant de juridictions américaines, y compris San Francisco, ont interdit son utilisation.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Photo de : Surfshark

Amérique du Sud

92 % des pays d’Amérique du Sud, dont le Brésil et l’Argentine, disposent de forces de police qui ont utilisé la technologie de reconnaissance faciale. Avec seulement quelques images de caméra lors de grands événements, ils sont capables d’identifier des centaines de personnes recherchées. L'un des fugitifs les plus recherchés dans la région par Interpol a été appréhendé par les autorités brésiliennes grâce à la technologie.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Photo de : Surfshark

Moyen-Orient et Asie centrale

Afin d'identifier les personnes dans la foule, les Émirats arabes unis ont récemment acheté des lunettes intelligentes intégrant une technologie de reconnaissance faciale. La technologie qui scanne le visage des passagers pour remplacer les tickets de transports publics est testée au Kazakhstan. Au total, les technologies de numérisation par reconnaissance faciale sont actuellement opérationnelles dans 76 % du Moyen-Orient et de l’Asie centrale.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Photo de : Surfshark

Océanie et Asie

Avec une caméra pour 12 personnes vivant dans le pays, la Chine est le leader mondial dans l’utilisation généralisée de la technologie de reconnaissance faciale. Jusqu’à présent, le gouvernement a vendu sa technologie d’espionnage par l’IA à au moins seize pays étrangers. Dans d’autres pays, l’Australie souhaite confirmer l’âge avant d’autoriser l’accès à la pornographie sur Internet, tandis que le Japon entend l’utiliser pour limiter la dépendance au jeu dans les casinos.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Photo de : Surfshark

Afrique

L'Afrique a le taux d'utilisation de la surveillance par reconnaissance faciale le plus faible de tous les continents, soit 20 % de tous les pays. Ce chiffre devrait toutefois augmenter puisque des pays comme le Zimbabwe ont conclu des accords pour recevoir la technologie de la Chine en échange de données biométriques qui amélioreront la précision du système pour différents groupes ethniques.

UK train passengers were allegedly scanned, and their emotions were identified using Amazon's Rekognition software during artificial intelligence exercises supervised by Network Rail.

Photo de : Surfshark

Les procès contestés de reconnaissance au Royaume-Uni

Dans les expériences menées dans les gares ferroviaires du Royaume-Uni, le système controversé Rekognition – qu’Amazon a persisté à promouvoir à des fins de surveillance malgré la résistance interne – a été utilisé pour rechercher des images de caméras à la recherche de données faciales. Des photographies ont été prises alors que les visiteurs franchissaient des « fils-pièges virtuels » aux barrières d’entrée, selon des documents obtenus grâce à une demande d’accès à l’information. Les images ont ensuite été transmises au programme pour estimer des qualités telles que l'âge et le sexe et identifier des émotions telles que le bonheur, la tristesse ou la rage.

Les études ont cherché à mesurer la « satisfaction des passagers » à l’aide de ces données et peut-être à augmenter les « revenus publicitaires et de vente au détail » dans les gares. Pourtant, les scientifiques ont toujours averti que l’interprétation des émotions à partir de photos est discutable d’un point de vue scientifique.

Les expériences d’IA se sont développées pour explorer une variété de cas d’utilisation différents, tels que la détection des intrusions, de la surpopulation, du tabagisme, des cris et du flânage, malgré des problèmes évidents de validité et de précision. Afin de faciliter des temps de réaction plus rapides, ils ont cherché à informer automatiquement le personnel des risques perçus et des « comportements antisociaux ».

Même dans les cas où la technologie de reconnaissance faciale n’est pas utilisée, les organisations de protection de la vie privée ont remis en question le manque général de transparence et d’engagement du public autour d’une surveillance aussi invasive. Un document d’évaluation des risques, avec une « attitude ignorante », demandait : « Si certaines personnes sont susceptibles de s’y opposer ou de le trouver intrusif ? avant d'écarter de telles inquiétudes. Et de répondre : « En général, non, mais pour certaines personnes, il n’y a pas de comptes à rendre. »

Selon Jake Hurfurt, responsable de la recherche chez Big Brother Watch, qui a obtenu les documents, l'introduction et la normalisation de la surveillance par l'IA dans ces lieux publics sans beaucoup de discussion ni de participation sont une tendance très inquiétante. 

Network Rail a fait valoir que les essais étaient appropriés pour maintenir la sécurité et qu'ils étaient conformes aux lois applicables. Concernant d’autres problèmes de confidentialité ou l’état actuel de la détection des émotions, l’opérateur ferroviaire n’a pas répondu aux demandes de renseignements.

Un débat international : est-ce que tout cela est approprié ?

Un débat mondial sur les violations de l’éthique, de l’exactitude et des libertés civiles a été stimulé par le développement rapide de la reconnaissance faciale et de l’analyse vidéo par l’IA à des fins de surveillance par les organisations publiques et commerciales. Les critiques ont attiré l’attention sur le potentiel des technologies à permettre de nouveaux niveaux de préjugés, de surveillance intrusive et d’érosion de la vie privée, malgré les affirmations de leurs partisans selon lesquelles les technologies améliorent la sécurité et l’efficacité.

L’utilisation du logiciel Rekognition d’Amazon pour analyser et juger secrètement les états émotionnels des passagers ferroviaires britanniques soulève des questions plus profondes sur la surveillance, le consentement et la limite à la surveillance par l’IA dans les espaces publics.

L'article Démasquer Big Brother : les essais controversés au Royaume-Uni du logiciel Rekognition d'Amazon est apparu en premier sur Metaverse Post.