Im Rahmen umfangreicher Überwachungsübungen mit künstlicher Intelligenz wurden angeblich Tausende unvorsichtiger Zugpassagiere in Großbritannien von Amazons umstrittener Software Rekognition gescannt und ihre Emotionen identifiziert. Die Tests, die im Laufe der letzten zwei Jahre an wichtigen Bahnhöfen durchgeführt wurden, wurden vom Bahnbetreiber Network Rail überwacht.

Das KI-System schätzte anhand von Fotos von Überwachungskameras Attribute wie Alter, Geschlecht und Gefühlslage. Unterlagen deuten darauf hin, dass diese Daten möglicherweise irgendwann für gezielte Werbung genutzt werden könnten. Forscher haben wiederholt darauf hingewiesen, dass diese Tools zur Emotionsanalyse problematisch und unzuverlässig sind, und Datenschutzexperten haben Bedenken über den „besorgniserregenden“ Mangel an Offenheit und öffentlicher Konsultation zu ihrer Verwendung geäußert.

Die Verbreitung der Gesichtserkennungsüberwachung

Die britischen Experimente sind nur ein Beispiel für einen sich weltweit schnell verbreitenden Trend, bei dem sowohl Regierungsbehörden als auch Unternehmen KI-Videoanalyse und Gesichtserkennung nutzen, um große Bevölkerungsgruppen auszuspionieren. Eine gründliche Analyse zeigt, dass umstrittene Technologien in über 100 Ländern weltweit entweder im Einsatz sind oder für den Einsatz zugelassen wurden.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Comparitech

Europa

32 europäische Länder haben Gesichtserkennungsüberwachung zugelassen oder setzen sie ein. 2020 führte die Londoner Polizei Überwachungskameras mit Gesichtserkennung ein und im selben Jahr kam es auch zu der ersten Festnahme mithilfe dieser Technologie. In Deutschland werden voraussichtlich zwölf Flughäfen und mehr als 130 Bahnhöfe mit Gesichtserkennung ausgestattet. Als Reaktion auf den weit verbreiteten Einsatz der Technologie wurde sie in schwedischen und französischen Schulen verboten.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Nordamerika

Die Vereinigten Staaten und die andere Hälfte der nordamerikanischen Länder nutzen derzeit Gesichtserkennungstechnologie zur Überwachung. Bis 2023 will das Heimatschutzministerium 97 % der Gesichter von Flugreisenden in Polizeidatenbanken gespeichert haben, in denen bereits die Gesichter von mehr als 50 % der Amerikaner gespeichert sind. Zahlreiche Polizeibehörden und Flughäfen haben diese Technologie bereits eingeführt. Aus Datenschutzgründen haben jedoch immer mehr US-Gerichtsbarkeiten, darunter San Francisco, ihre Verwendung verboten.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Südamerika

92 % der südamerikanischen Länder, darunter Brasilien und Argentinien, verfügen über Polizeikräfte, die Gesichtserkennungstechnologie einsetzen. Mit nur wenigen Kamerabildern bei großen Veranstaltungen können sie Hunderte gesuchte Personen identifizieren. Einer der von Interpol meistgesuchten Flüchtigen in der Region wurde von brasilianischen Beamten mithilfe dieser Technologie festgenommen.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Naher Osten und Zentralasien

Um Personen in Menschenmengen zu identifizieren, haben die VAE kürzlich Smart Glasses mit integrierter Gesichtserkennungstechnologie gekauft. Die Technologie, die das Gesicht von Passagieren scannt und Fahrkarten für öffentliche Verkehrsmittel ersetzen soll, wird derzeit in Kasachstan getestet. Insgesamt sind derzeit in 76 % des Nahen Ostens und Zentralasiens Technologien zur Gesichtserkennung im Einsatz.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Ozeanien und Asien

Mit einer Kamera pro 12 Einwohner ist China weltweit führend bei der weitverbreiteten Nutzung von Gesichtserkennungstechnologie. Bislang hat die Regierung ihre KI-Spionagetechnologie an mindestens sechzehn Länder verkauft. Australien will beispielsweise das Alter bestätigen, bevor es den Zugang zu Internetpornografie erlaubt, während Japan beabsichtigt, sie einzusetzen, um die Spielsucht in Casinos einzudämmen.

UK train passengers were allegedly scanned and their emotions identified using Amazon's Rekognition software during artificial intelligence exercises, supervised by Network Rail.

Foto: Surfshark

Afrika

Afrika weist mit 20 % aller Länder den niedrigsten Anteil der Gesichtserkennungsüberwachung auf. Dieser Anteil dürfte jedoch steigen, da Länder wie Simbabwe Vereinbarungen getroffen haben, die Technologie von China zu beziehen. Im Gegenzug erhält das Land biometrische Daten, die die Genauigkeit des Systems für verschiedene ethnische Gruppen verbessern.

UK train passengers were allegedly scanned, and their emotions were identified using Amazon's Rekognition software during artificial intelligence exercises supervised by Network Rail.

Foto: Surfshark

Die umstrittenen britischen Anerkennungsprozesse

Bei den Experimenten in britischen Bahnhöfen wurde das umstrittene System Rekognition – das Amazon trotz interner Widerstände weiterhin für Überwachungszwecke einsetzt – eingesetzt, um Kameraaufnahmen nach Gesichtsdaten zu durchsuchen. Es wurden Fotos gemacht, als Besucher „virtuelle Stolperdrähte“ an den Fahrkartenschranken überquerten, wie aus Dokumenten hervorgeht, die auf Anfrage nach dem Freedom of Information Act eingeholt wurden. Die Bilder wurden dann an das Programm übermittelt, um Eigenschaften wie Alter und Geschlecht abzuschätzen und Emotionen wie Glück, Trauer oder Wut zu identifizieren.

Die Studien untersuchten, wie man mit diesen Daten die „Zufriedenheit der Fahrgäste“ messen und möglicherweise die „Werbe- und Verkaufseinnahmen“ an den Bahnhöfen steigern könnte. Wissenschaftler haben jedoch immer gewarnt, dass die Interpretation von Emotionen anhand von Fotos aus wissenschaftlicher Sicht fragwürdig sei.

Die KI-Experimente wurden ausgeweitet, um eine Vielzahl unterschiedlicher Anwendungsfälle zu untersuchen, wie etwa das Erkennen von Hausfriedensbruch, Überfüllung, Rauchen, Schreien und Herumlungern, trotz offensichtlicher Probleme mit Validität und Genauigkeit. Um schnellere Reaktionszeiten zu ermöglichen, versuchten sie, das Personal automatisch über wahrgenommene Risiken und „asoziales Verhalten“ zu informieren.

Selbst in Fällen, in denen keine Gesichtserkennungstechnologie zum Einsatz kommt, haben Datenschutzorganisationen den allgemeinen Mangel an Transparenz und öffentlichem Engagement im Zusammenhang mit einer derart invasiven Überwachung in Frage gestellt. In einem Risikobewertungsdokument wurde mit „ignoranter Haltung“ die Frage gestellt: „Würden bestimmte Personen wahrscheinlich Einwände erheben oder es als aufdringlich empfinden?“, bevor diese Bedenken zurückgewiesen wurden. Und man antwortete: „Im Allgemeinen nicht, aber bei manchen Leuten ist das nicht nachvollziehbar.“

Laut Jake Hurfurt, Forschungsleiter bei Big Brother Watch, dem die Materialien vorliegen, ist die Einführung und Normalisierung der KI-Überwachung in diesen öffentlichen Umgebungen ohne große Diskussion oder Beteiligung eine sehr besorgniserregende Tendenz.

Network Rail argumentiert, dass die Versuche zur Aufrechterhaltung der Sicherheit geeignet seien und den geltenden Gesetzen entsprächen. Zu weiteren Datenschutzproblemen oder dem aktuellen Stand der Emotionserkennung hat der Bahnbetreiber auf Anfragen nicht geantwortet.

Eine internationale Diskussion: Ob das alles angemessen ist

Die rasante Entwicklung der Gesichtserkennung und der KI-Videoanalyse für Überwachungszwecke durch öffentliche und kommerzielle Organisationen hat eine globale Diskussion über Ethik, Genauigkeit und Verletzungen der bürgerlichen Freiheiten ausgelöst. Kritiker haben darauf hingewiesen, dass diese Technologien möglicherweise zu neuen Ebenen der Voreingenommenheit, aufdringlichen Überwachung und Aushöhlung der Privatsphäre führen, obwohl die Befürworter behaupten, dass die Technologien die Sicherheit und Effizienz verbessern.

Der Einsatz der Amazon-eigenen Software Rekognition zum verdeckten Scannen und Beurteilen der Gefühlszustände britischer Bahnreisender wirft tiefer gehende Fragen zu Aufsicht, Einwilligung und der Frage auf, wo bei der KI-Überwachung im öffentlichen Raum die Grenze zu ziehen ist.

Der Beitrag „Big Brother entlarvt: Die umstrittenen britischen Tests der Erkennungssoftware von Amazon“ erschien zuerst auf Metaverse Post.