Nie mehr anonym: 2020 könnte als das Jahr in die Geschichte eingehen, in der automatisierte Gesichtserkennung in Europa zum Alltag wird. Behörden und Firmen überall in Europa testen solche Technologien.

Die EU-Kommission legt nächste Woche ihren Masterplan für Künstliche Intelligenz vor, das heiße Thema eines möglichen Verbotes von Gesichtserkennung in der Öffentlichkeit dürfte sie dabei eher umschiffen.

Ohne staatliche Verbote könnte Gesichtserkennung bald allgegenwärtig sein. Als Einstimmung darauf haben wir einige bizarre und bedenkliche Beispiele aus ihrem Einsatz rund um die Welt gesammelt.

Klassenaufsicht

Wenn die Kamera nach Schulschwänzern späht: Eine Schule in Skellefteå im Norden Schwedens kontrollierte die Anwesenheit von 22 Schülerinnen und Schülern in einem Pilotprojekt drei Wochen lang mit Gesichtsscannern. Damit verlieren die Jugendlichen selbst in der Schule einen Raum, um sich unerkannt und unregistriert zu bewegen.

Einen unmäßigen Eingriff in die Privatsphäre fand das die schwedische Datenschutzbehörde. Die Jugendlichen hätten den automatisierten Kontrollen zwar zugestimmt, die Einwilligung sei aber wegen des Machtgefälles zwischen ihnen und der Schulverwaltung ungültig. Die Behörde stoppte das Projekt, die Kommune muss 20.000 Euro Strafe zahlen. In Frankreich verbot die Datenschutzbehörde einen Testlauf von vornherein.

Lächeldetektor

Die polnische Bank PKO Bank Polski möchte ihr Schalterpersonal zu guter Laune erziehen. Dafür setzt Polens größte Bank auf die Technologie eines Startups, die sie gerade in ihren Filialen testet. Die Geräte sollen durch Gesichtsscans verraten, ob die Angestellten auch genug lächeln. Tun sie es, geht ein kleiner Geldbetrag an einen wohltätigen Zweck, verrät die Bank in ihren PR-Materialien. Unklar ist, ob die Technologie zwischen einem echten und einem erzwungenen Lächeln unterscheiden kann.

Meerlaus-Falle

Meist wird an Tieren getestet, was erst später bei Menschen eingesetzt wird – bei Gesichtserkennung ist es andersrum. Ein norwegischer Konzern möchte die Technologie in seinen High-Tech-Fischfarmen einsetzen. Sie soll erkennen, ob die Lachse vom Parasiten Caligidae befallen ist, auch bekannt als Meerlaus. Allerdings werde die Technologie erst in einigen Jahren marktreif sein, sagt die norwegische Firma. Für Fische reicht es offenbar noch nicht.

Offene rechtliche Fragen und hohe Fehlerraten tun allerdings bisher wenig, um den Einsatz von Gesichtserkennung am Menschen zu stoppen. Im Gegenteil, Politiker wie der EU-Abgeordnete Axel Voss und der frühere EU-Digitalkommissar Andrus Ansip sprechen sich vehement gegen ein Verbot der Technologie aus – immerhin könnte dies deren Einsatz an Fischen verhindern, stellte Ansip jüngst in den Raum.

Wählerinnenvergrauler

Bei der Präsidentenwahl in Afghanistan im September 2019 fotografierte die Wahlbehörde jede Wählerin und jeden Wähler, die Bilder wurden in einer biometrischen Datenbank gespeichert. Der Einsatz von Gesichtserkennung sollte Wahlbetrug verhindern.

Allerdings schrecke dies Frauen vom Wählen ab, klagen Frauenrechtlerinnen. Denn die Frauen müssen im Wahllokal ihren Schleier vor Fremden ablegen, um fotografiert zu werden – besonders in religiösen Kreisen in konservativen Gegenden des Landes sei das ein No-Go. Aktivistinnen fürchten, dass durch Gesichtserkennung die Wahlbeteiligung von Frauen weiter sinkt.

Wildparkwächter

Automatisierte Gesichtserkennung breitet sich in China in rasantem Tempo aus: Polizei und Sicherheitsbehörden, aber auch Geschäfte, Bürogebäude und Schulen setzen auf die Technologie. Der chinesische Staat setzt die Technologie überdies als rassistisches Machtwerkzeug zur Unterdrückung der uigurischen Minderheit ein.

Widerstand gibt es nun ausgerechnet bei einem Safari-Park in der Metropole Hangzhou. Ein chinesischer Jura-Professor klagt dagegen, dass der Park Gesichtserkennung am Eingang verpflichtend machte. Dies verstoße gegen seine Rechte als Konsument. Chinas schwache Datenschutzgesetze lassen kaum Spielraum für solche Beschwerden, doch sind Berichte über den Fall in den Staatsmedien ein Anzeichen, dass selbst in China die Skepsis gegenüber der Verbreitung der Technologie wächst.

Städteverwanzer

Das serbische Innenministerium kündigte vor einem Jahr an, es werde in der Hauptstadt Belgrad 1.000 Kameras für Gesichtserkennung und automatische Kennzeichenerfassung an 800 Standorten installieren. Die Technologie liefert der Konzern Huawei, der von den USA der Spionage für den chinesischen Staat verdächtigt wird. Das Projekt sorgt für einen Aufschrei der serbischen Zivilgesellschaft, bisher aber ohne viel Wirkung.

Der serbische Fall zeigt, wie weit Behörden jenseits der EU-Datenschutzgesetze gehen können. Die serbische Regierung möchte mit dem System Kriminalität verhindern, sie könnte zugleich aber auch Regierungsgegner:innen überwachen und vom Demonstrieren abhalten, fürchtet ein serbischer Datenschützer. Huawei prahlte in einer Broschüre, dass seine „Safe City“-Technologie bereits in 230 Städten weltweit verwendet wird, darunter in autoritär regierten Staaten wie Russland, der Türkei und Aserbaidschan.

Fanbremse

Dem dänischen Fußballverein Brøndby IF sieht sich seine Fans genauer an. Seit dem Sommer sind an den Eingängen des Brøndbyer Stadions Kameras installiert, um automatisiert nach Leuten zu suchen, gegen die ein Platzverbot besteht. Pro Match scannt das System im Schnitt 14.000 Besucherinnen und Besucher, um eine der 50 gesperrten Personen zu finden. Durch die Technologie könnten Besucher rascher gescannt und schneller ins Stadion geschleust werden, sagt der Verein.

Datenschützer:innen werfen aber die Frage der Verhältnismäßigkeit auf – immerhin muss nun jede Besucherin und jeder Besucher überwacht werden, bloß um eine kleine Gruppe von Menschen von dem Stadion fernzuhalten. Dabei sei die Zahl der Festnahmen bei Fußballspielen an einem Rekordtief und die Sicherheit in den Stadien selbst nach Angaben des Vereins gestiegen, sagt die NGO IT-Pol. Der Fall sollte auch Nicht-Fußballfans zu denken geben – denn bewährt sich der automatisierte Gesichtsabgleich im Stadion aus Sicht der Behörden, ist es bald auch mit der Anonymität bei Rockkonzerten, Messen und anderen Großveranstaltungen vorbei.

Wir suchen weitere Beispiele für bizarre und problematische Anwendungsfälle von automatisierter Geschichtserkennung. Tipps gerne in den Ergänzungen oder an alex at netzpolitik.org.