W ramach szeroko zakrojonych ćwiczeń monitorowania sztucznej inteligencji tysiące nieostrożnych pasażerów pociągów w Wielkiej Brytanii rzekomo zostało zeskanowanych twarzami i zidentyfikowanych emocji za pomocą kontrowersyjnego oprogramowania Amazon Rekognition. Badania, które przez ostatnie dwa lata prowadzone były na kluczowych stacjach, nadzorował przewoźnik kolejowy Network Rail.

System AI oszacował takie atrybuty, jak wiek, płeć i stan emocjonalny, na podstawie zdjęć z kamer CCTV; Artykuły wskazują, że dane te mogą ostatecznie zostać wykorzystane w reklamach ukierunkowanych. Badacze wielokrotnie ostrzegali, że te narzędzia analizy emocji są kłopotliwe i zawodne, a eksperci ds. prywatności wyrazili obawy dotyczące „niepokojącego” braku otwartości i konsultacji społecznych na temat ich stosowania.

Rozpowszechnianie nadzoru nad rozpoznawaniem twarzy

Eksperymenty w Wielkiej Brytanii to tylko jeden przykład szybko rozprzestrzeniającej się na całym świecie tendencji, zgodnie z którą zarówno agencje rządowe, jak i przedsiębiorstwa wykorzystują analizę wideo AI i rozpoznawanie twarzy do szpiegowania dużych populacji. Dokładna analiza pokazuje, że sporne technologie są już w użyciu lub zostały zatwierdzone do użytku w ponad 100 krajach na całym świecie.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Zdjęcie: Comparitech

Europa

Trzydzieści dwa kraje europejskie zezwoliły lub stosują nadzór oparty na rozpoznawaniu twarzy. W 2020 r. londyńska policja wprowadziła kamery CCTV rozpoznające twarz, która w tym samym roku dokonała również pierwszego aresztowania za pomocą tej technologii. Oczekuje się, że w Niemczech dwanaście lotnisk i ponad 130 stacji kolejowych będzie wyposażonych w system rozpoznawania twarzy. Reakcja na szerokie zastosowanie tej technologii zaowocowała zakazami jej stosowania w szkołach szwedzkich i francuskich.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Zdjęcie: Surfshark

Ameryka północna

Stany Zjednoczone i druga połowa krajów Ameryki Północnej korzystają obecnie z technologii rozpoznawania twarzy w celach inwigilacyjnych. Do 2023 r. Departament Bezpieczeństwa Wewnętrznego chce, aby 97% twarzy podróżujących samolotami było przechowywanych w policyjnych bazach danych, w których znajdują się już twarze ponad 50% Amerykanów. Przyjęło to wiele agencji policyjnych i lotnisk; jednakże ze względu na obawy dotyczące prywatności coraz większa liczba jurysdykcji w USA, w tym San Francisco, zakazała jego używania.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Zdjęcie: Surfshark

Ameryka Południowa

W 92% krajów Ameryki Południowej, w tym w Brazylii i Argentynie, policja korzysta z technologii rozpoznawania twarzy. Dzięki zaledwie kilku obrazom z kamer podczas dużych wydarzeń są w stanie zidentyfikować setki poszukiwanych osób. Jeden z najbardziej poszukiwanych przez Interpol uciekinierów w okolicy został zatrzymany przez brazylijskich urzędników przy użyciu technologii.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Zdjęcie: Surfshark

Bliski Wschód i Azja Środkowa

Aby móc identyfikować osoby w tłumie, Zjednoczone Emiraty Arabskie zakupiły niedawno inteligentne okulary ze zintegrowaną technologią rozpoznawania twarzy. W Kazachstanie testowana jest technologia skanująca twarze pasażerów w celu zastąpienia biletów komunikacji miejskiej. Ogółem technologie skanowania oparte na rozpoznawaniu twarzy działają obecnie na 76% Bliskiego Wschodu i Azji Środkowej.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Zdjęcie: Surfshark

Oceanii i Azji

Z szacunkową liczbą aparatów przypadającą na 12 osób mieszkających w kraju, Chiny są światowym liderem w powszechnym stosowaniu technologii rozpoznawania twarzy. Do tej pory rząd sprzedał swoją technologię szpiegowską AI co najmniej szesnastu krajom. W innych miejscach Australia chce potwierdzić wiek przed zezwoleniem na dostęp do pornografii internetowej, natomiast Japonia zamierza wykorzystać ten fakt do ograniczenia uzależnienia od hazardu w kasynach.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Zdjęcie: Surfshark

Afryka

Afryka ma najniższy na jakimkolwiek kontynencie wskaźnik wykorzystania monitoringu wykorzystującego rozpoznawanie twarzy – 20% wszystkich krajów. Oczekuje się jednak, że liczba ta wzrośnie, ponieważ kraje takie jak Zimbabwe zawarły umowy na otrzymanie technologii z Chin w zamian za dane biometryczne, które zwiększą dokładność systemu w przypadku różnych grup etnicznych.

UK train passengers were allegedly scanned, and their emotions were identified using Amazon's Rekognition software during artificial intelligence exercises supervised by Network Rail.

Zdjęcie: Surfshark

Zaskarżone brytyjskie próby uznania

W eksperymentach na brytyjskich stacjach kolejowych kontrowersyjny system rozpoznawania – który Amazon uparcie promował do celów nadzoru pomimo wewnętrznego oporu – został wykorzystany do przeszukiwania nagrań z kamer w poszukiwaniu danych twarzy. Jak wynika z dokumentów uzyskanych w ramach prośby o dostęp do informacji, zdjęcia zostały zrobione, gdy odwiedzający przekraczali „wirtualne potykacze” przy barierkach biletowych. Zdjęcia zostały następnie przesłane do programu, aby ocenić takie cechy, jak wiek i płeć oraz zidentyfikować emocje, takie jak szczęście, smutek czy wściekłość.

W badaniach skupiono się na pomiarze „satysfakcji pasażerów” przy użyciu tych danych i być może zwiększeniu „przychodów z reklam i sprzedaży detalicznej” na stacjach. Jednak naukowcy zawsze ostrzegali, że interpretowanie emocji na podstawie zdjęć jest wątpliwe z naukowego punktu widzenia.

Eksperymenty AI rozwinęły się w celu zbadania wielu różnych przypadków użycia, takich jak wykrywanie wtargnięcia, przeludnienia, palenia, krzyków i włóczenia się, pomimo oczywistych problemów z trafnością i dokładnością. Aby ułatwić szybszy czas reakcji, starano się automatycznie powiadamiać personel o dostrzeganych zagrożeniach i „zachowaniach antyspołecznych”.

Nawet w przypadkach, gdy nie jest stosowana technologia rozpoznawania twarzy, organizacje zajmujące się ochroną prywatności kwestionują ogólny brak przejrzystości i zaangażowania społecznego w związku z tak inwazyjną inwigilacją. W jednym z dokumentów oceny ryzyka, w którym wyrażono „ignoranckie podejście”, zadano pytanie: „Czy istnieje prawdopodobieństwo, że pewne osoby sprzeciwią się lub uznają to za natrętne?” zanim odrzucisz takie zmartwienia. I odpowiedział: „Ogólnie rzecz biorąc, nie, ale w przypadku niektórych osób nie ma rozliczania”.

Według Jake’a Hurfurta, szefa działu badań w Big Brother Watch, który zdobył materiały, wprowadzenie i normalizacja nadzoru AI w miejscach publicznych bez większej dyskusji i udziału jest bardzo niepokojącą tendencją. 

Network Rail argumentowała, że ​​próby są odpowiednie do utrzymania bezpieczeństwa i zgodne z obowiązującymi przepisami. Jeśli chodzi o dodatkowe problemy związane z prywatnością lub stan wykrywania emocji w chwili obecnej, operator kolejowy nie odpowiedział na zapytania.

Międzynarodowa dyskusja: czy to wszystko jest właściwe

Globalna dyskusja na temat etyki, dokładności i naruszeń swobód obywatelskich została wywołana szybkim rozwojem rozpoznawania twarzy i analityki wideo AI do celów nadzoru, zarówno przez organizacje publiczne, jak i komercyjne. Krytycy zwrócili uwagę na potencjał tych technologii w zakresie pozwalania na nowy poziom uprzedzeń, natrętnego nadzoru i erozji prywatności pomimo twierdzeń zwolenników, że technologie te poprawiają bezpieczeństwo i wydajność.

Korzystanie z własnego oprogramowania Amazon Rekognition do ukrytego skanowania i oceny stanów emocjonalnych pasażerów kolei w Wielkiej Brytanii rodzi głębsze pytania dotyczące nadzoru, zgody i tego, gdzie wytyczyć granicę w zakresie nadzoru AI w przestrzeni publicznej.

Wpis Unmasking Big Brother: The Controversial UK Trials of Amazon’s Rekognition Software pojawił się jako pierwszy w Metaverse Post.