Unsere Gesichter hinterlassen Spuren im Internet. Ein Test zeigt: Mit wenig Aufwand lassen sie sich finden – und identifizieren.

Es klappt mit fast jedem Gesicht. Egal, ob man im Halbdunkeln steht, in einer Menschenmasse oder im Hintergrund eines fremden Selfies. Unsere Maschine findet das Gesicht, vermisst es und kennt den dazugehörigen Namen. Waren Sie am Frauenstreik? An der Streetparade? Am Schwingfest? An der Gaypride? Unsere Maschine könnte es wissen. Ihr Gesicht hat Sie verraten.

Künstliche Intelligenz macht aus Gesichtern einzigartige Fingerabdrücke. Kombiniert man das mit den Milliarden von Fotos in den sozialen Medien, entsteht eine mächtige biometrische Datenbank – und damit eine effektive Überwachungsmaschine.

Um das zu zeigen, hat SRF Data ein Experiment gemacht. Dabei wurden über 230’000 öffentliche Bilder der sozialen Plattform Instagram nach Kandidierenden der letztjährigen Wahlen durchsucht – vollautomatisch via frei erhältlicher Gesichtserkennung-Technologie. Mit Erfolg: Hunderte Personen konnten in den Bildern identifiziert werden.

Ein Beispiel: Jeffrey Ferpozzi aus Zürich hat im Oktober 2019 für die junge SVP kandidiert. Vor mehr als einem Jahr hat er an der Streetparade teilgenommen – mit rot gefärbten Haaren und einer Dose Bier in der Hand. Das zeigt ein Instagram-Bild von 2018, das die selbst gebaute Gesichts-Suchmaschine entdeckt hat.

«Ich finde das besorgniserregend»

Sinnbildlich auch der Fall der Bernerin Laura Bircher (FDP). Sie taucht auf einem Streetparade-Foto von 2016 auf. Pikant: Das Foto wurde bereits vor einiger Zeit gelöscht. Auf das Fundstück angesprochen, sagt die heutige Anwältin: «Das ist schon etwas beunruhigend.» Insbesondere, wenn man berücksichtige, dass heutzutage oft Freunde Bilder von einem ins Internet stellten. «Allgemein stehe ich der Gesichtserkennungstechnologie eher kritisch gegenüber.» Sie dürfe nur als letzte Massnahme eingesetzt werden.

Jeffrey Ferpozzi hingegen sieht vor allem die Chancen der Gesichtserkennung, insbesondere für die Polizei. «Es ist gut, wenn man damit Verfahren beschleunigen und effizient gestalten kann.» Wichtig sei Transparenz: Man müsse wissen, wer die Daten habe, wann sie gelöscht würden. «Die Leute müssen wissen, was auf sie zukommt.»

Unter den Treffern der Suchmaschine sind auch Fälle, bei denen den Personen gar nicht bewusst war, dass sie gerade fotografiert wurden. So zum Beispiel die Gymnasiastin Gianna Strobel, die im letzten Juni am schweizweiten Frauenstreik in Biel teilgenommen hat. Ein Foto zeigt sie in einer grossen Menschenmenge. Strobel schaut nicht in die Kamera. Sie persönlich findet das «besorgniserregend». Vor allem, weil sie persönlich darauf achte, in den sozialen Medien möglichst viel von sich privat zu halten.

Sibel Arslan, Nationalrätin für die Grünen-Fraktion aus Basel-Stadt, wird am Frauenstreik aus einer grossen Gruppe von Politikerinnen erkannt. Sie findet, man müsse Gesichtserkennung in der Schweiz «ganz klar verbieten.» Die Freiheit von allen werde dadurch eingeschränkt.

Auch Karin Weigelt, FDP-Politikerin aus St. Gallen, wird von der Maschine im Hintergrund eines Gruppenfotos an der Olma-Messe erkannt. Als sie damit konfrontiert wird, überrascht sie das nicht besonders. Sie sei fasziniert von der Technologie und sieht darin grosses Potenzial. Andererseits gibt sie zu bedenken: «Es braucht klare Rahmenbedingungen für deren Einsatz.» Da gebe es noch einiges zu tun.

Auch frei erhältliche Technologie ist ausreichend gut

Das Rezept zur selbst gebauten Suchmaschine beinhaltet zwei Zutaten: die Technologie und die Daten.

Zuerst zur Technologie: Spitzenreiter sind hier grosse Unternehmen wie Amazon. Der Online-Gigant bietet seit 2016 den Rekognition-Dienst, Link öffnet in einem neuen Fenster an, mit dem sich nicht nur Prominente in Fotos identifizieren, sondern beispielsweise auch Ethnien, Geschlechter und sogar Gemütsregungen aus Gesichtern lesen lassen.

So ist SRF Data vorgegangen Mit einem Computer-Script hat SRF Data zunächst automatisch rund 230’000 öffentliche Instagram-Bilder heruntergeladen. Dafür wurde eine externe Programmierbibliothek verwendet. Es wurden ausschliesslich Bilder heruntergeladen, die von Anlässen und Grossereignissen in der Schweiz stammen (mittels eindeutigen Hashtags wie #streetparade2018). Gleichzeitig wurden von smartvote.ch die Portraitbilder aller Kandidierenden der eidgenössischen Wahlen 2019 heruntergeladen (inkl. Name, Kanton und Partei). Bei den Instagram-Bildern und bei den Portraitbildern der Kandidierenden wurde sodann eine Gesichtserkennung (ohne Identifizierung) durchgeführt, um alle Gesichter in den Bildern zu extrahieren. Dafür kam ebenfalls eine frei verfügbare Programmierbibliothek, Link öffnet in einem neuen Fenster zum Einsatz. Diese verwendet ein sogenanntes «ResNet»-Gesichtserkennungs-Modell, das mit drei Millionen Gesichtern vortrainiert wurde., Link öffnet in einem neuen Fenster Letztlich wurden die rund 400’000 Gesichter, die in den Instagram-Bildern gefunden wurden, mit der Datenbank der rund 2500 Kandidierenden abgeglichen. Das ist die eigentliche Gesichtsidentifizierung: Für jedes Gesicht in einem Instagram-Bild wurde der/die ähnlichste Kandidierende eruiert. Danach wurde mittels eines Vergleich-Tools die ähnlichsten Paare von Instagram-Gesichtern und Kandidierenden manuell überprüft. Dabei konnten hunderte Treffer eruiert werden. Der Aufwand für das Experiment belief sich auf rund drei Personenwochen. Mit Ausnahme der illustrativen Beispiele, die hier oder in der Sendung «10vor10» gezeigt werden, wurde die komplette Datenbank danach unwiderruflich gelöscht. Zudem war sie zu keinem Zeitpunkt von ausserhalb der IT-Infrastruktur von SRF erreichbar.

Dass jedoch nur Tech-Konzerne oder staatliche Behörden über mächtige Gesichtserkennungs-Software verfügen, ist ein Trugschluss. Im Internet gratis verfügbare Software schafft es gar, schlecht beleuchtete Gesichter, die nicht frontal der Kamera zugewandt sind, zuverlässig einer Person zuzuordnen.

Künstliche Intelligenz mit rassistischer Schlagseite

Die frei erhältliche Technologie funktioniert nach dem gleichen Prinzip wie die der grossen Player: Eine künstliche Intelligenz (KI), ein sogenanntes neuronales Netzwerk, wandelt ein Gesicht in eine lange Zahlenreihe um. Das neuronale Netzwerk wurde vormals mit Millionen von Bildpaaren darauf «trainiert», ähnlichen Gesichtern möglichst ähnliche Zahlenreihen zuzuordnen.

Soll ein Gesicht identifiziert werden, wird dessen Zahlenstrahl mit allen anderen in der biometrischen Datenbank verglichen. Dieser einfache mathematische Vergleich resultiert immer in einem ähnlichsten Gesicht. Ob es auch tatsächlich ein Treffer ist, kann die KI nicht beweisen. Das muss zwingend ein Mensch überprüfen.

Hier offenbart sich ein fundamentales Problem der automatischen Gesichtserkennung: die falschen Treffer. Christine Grogg ist EVP-Grossrätin im Kanton Bern. Sie taucht im Hintergrund eines Selfies des Grand Prix Bern von 2018 auf. Vermeintlich. «Die Person sieht mir sehr ähnlich, aber ich war gar noch nie am Grand Prix», sagt Grogg zu SRF. Was hier harmlos scheint, kann in anderen Fällen unangenehme Konsequenzen haben.

Wenn man scheinbar zum Täter wird, der auf einer Überwachungskamera festgehalten wurde, kann bereits die polizeiliche Visite eine Belastung sein. Grogg meint dazu: «Bei mir hat Ihre Anfrage ein mulmiges Gefühl hinterlassen. Insbesondere die Vorstellung, bei einer Fahndung falsch verdächtigt zu werden. Das könnte weitreichende Folgen für mich haben.»

Legende: Nur ein vermeintlicher Treffer: Christine Grogg (rechts) war gar nicht am Grand Prix Bern (links). SRF

Hinzu kommt, dass die Fehlerquote bei der Erkennung nicht-weisser Ethnien und Frauen höher ist. Dies, weil die Trainingsdatensätze für konventionelle Gesichtserkennungs-Systeme oft einseitig ausgewählt werden. Die Algorithmen können folglich vor allem weisse Männer gut voneinander unterscheiden. Bei allen anderen kommt es häufiger zu falschen Treffern.

Dass flächendeckende Überwachung mit Hilfe von Gesichtserkennung mehr als ein Experiment ist, zeigte jüngst ein Fall, den die New York Times ans Licht brachte: Das Start-up Clearview hatte Milliarden von Personenbilder aus dem Web gesaugt. Diese gigantische Datenbank ermöglicht es nun offenbar Hunderten von Polizeistellen, Link öffnet in einem neuen Fenster in den USA, gesuchte Personen zu identifizieren. Kritiker läuten bereits das endgültige Ende der Privatsphäre ein – und bemängeln die unterschiedlich hohen Fehlerquoten unter den Geschlechtern und Ethnien.

Datenabfluss eine «Herausforderung für Internetunternehmen»

Neben der gereiften Technologie braucht es für die Gesichts-Suchmaschine auch noch Daten. Einerseits Fotos, die man nach Leuten durchsuchen kann, andererseits Portraitbilder inklusive Identifikation für die biometrische Datenbank. Beides kann mit einfach verfügbaren Tools und etwas Programmierkenntnissen ohne grossen Aufwand aus dem Internet bezogen werden. Eine Goldgrube für Start-ups wie Clearview, deren Ziel es ist, möglichst von jeder Person auf der Erde ein gutes Portraitfoto abzuspeichern.

Das Herunterladen von Instagram-Bildern, das sogenannte Scraping, verletzt zwar die Nutzungsbedingungen. Trotzdem ist es noch immer relativ einfach, grosse Mengen an öffentlichen Bildern aus der Plattform, die zu Facebook gehört, herunterzuladen.

Damit konfrontiert schreibt ein Facebook-Sprecher: «Das Scrapen von öffentlichen Informationen ist eine Herausforderung für alle Internetunternehmen, da es technisch sehr schwierig zu erkennen ist.»

Man habe Teams, die sich eigens mit der Bekämpfung von Scraping beschäftigen. «Wir gehen sowohl mit technischen als auch rechtlichen Mitteln dagegen vor.» Weiter weist er darauf hin: «SRF hat im Zuge dieser Recherche gegen die Nutzungsbedingungen verstossen.»

Datenschützer kämpft für Anonymität im öffentlichen Raum

Adrian Lobsiger, eidgenössischer Datenschutzbeauftragter (EDÖB), schreibt auf Anfrage: «Werden die Daten von Dritten gegen den Willen von sozialen Plattformen beschafft, stellt dies grundsätzlich einen unkontrollierten Abfluss von Personendaten (Data Breach) dar.» Für diesen hätten unter anderem auch die Betreiber der sozialen Netzwerke einzustehen.

Zur Gesichts-Suchmaschine, wie sie SRF Data zu Demonstrationszwecken gebaut hat, sagt er: «Die Massenbeschaffung von Gesichtsdaten aus dem Internet ist eine Persönlichkeitsverletzung.» Dies, weil die Nutzerinnen und Nutzer der sozialen Netzwerke davon ausgehen könnten, dass ihre Fotos durch die Nutzungsbedingungen geschützt seien – auch wenn sie öffentlich zugänglich seien.

Eine Applikation, wie sie Clearview in den USA anbietet, wäre hierzulande folglich nicht legal. Lobsiger habe die Polizei und die Sicherheitsbehörden dazu aufgefordert, ihm allfällige Pläne zur Verwendung solcher Applikationen mitzuteilen. «Die Antworten stehen noch aus.»

Der oberste Schweizer Datenschützer will «im Rahmen seiner gesetzlichen Befugnisse alles unternehmen, um den Einsatz solcher Applikationen gegenüber der Schweizer Bevölkerung zu verhindern.» Er werde sich auch weiterhin dafür einsetzen, dass sie sich zu Fuss als auch mobil im öffentlichen Raum anonym bewegen kann.

Mitarbeit: Pirmin Roos und Julian Schmidli

10vor10, 07.02.2020, 21:50 Uhr