Von Jannis Brühl und Hakan Tanriverdi

Eine neue Technik hält Einzug in Millionen Hosentaschen, und mit ihr die Angst. Diese Woche stellte Apple das iPhone X vor. Es lässt sich nicht nur mit einem Zahlencode entsperren, sondern auch, indem der Besitzer sein Gesicht vor das Telefon hält. "Face ID" nennt der Konzern das. Die Möglichkeit, Gesichter automatisch zu erkennen, macht rasante Fortschritte, weil Kameras immer präziser werden und Algorithmen Bilder immer besser erkennen können. Das verunsichert viele.

Die Präsentation des neuen iPhone fällt zusammen mit der hitzigen Debatte über künstliche Intelligenz. Deshalb kommt es zu einem Missverständnis: Apples Entsperrsystem ist Fachleuten zufolge erst einmal unproblematisch. Sie nennen die Technik Gesichtsverifikation: Das Gesicht einer Person wird mit einem 3-D-Modell abgeglichen, das nur auf dem Gerät gespeichert ist. So kann das iPhone die Frage beantworten: "Ist das der rechtmäßige Nutzer dieses Telefons oder nicht?" Bei Face ID könne er "kein praktisch relevantes Missbrauchspotenzial erkennen. Gesichtserkennung im öffentlichen Raum halte ich dagegen für höchst problematisch", sagt Florian Gallwitz, Informatiker und Experte für Mustererkennung an der Ohm-Hochschule Nürnberg. Er meint Gesichtsidentifikation, wie sie die Polizei am Berliner Bahnhof Südkreuz testet: Videokameras erfassen Gesichter, Software gleicht sie mit einer Datenbank von Porträtfotos ab.

Während Apple Gesichter dezentral speichert, sammelt der Staat sie zentral - und immer mehr Behörden dürfen darauf zugreifen. Im Juli ermöglichte die Koalition Bundesnachrichtendienst, Militärischem Abschirmdienst, Verfassungsschutz von Bund und Ländern sowie Zoll- und Steuerfahndern, automatisiert und reibungslos auf alle Passfotos zuzugreifen. Das war vorher nur in Ausnahmefällen möglich.

Die Rechtsgrundlage für den Einsatz von Software zur Gesichtserkennung müsse erst noch geschaffen werden, wie Andrea Voßhoff anmerkt, die Bundesbeauftragte für Datenschutz und Informationsfreiheit. Die neuen Zugriffsmöglichkeiten auf Fotos in Kombination mit der immer weiter ausgeweiteten Videoüberwachung werden Bürger künftig an überwachten Orten leicht identifizierbar machen.

Nun haben die Behörden also Zugriff auf einen riesigen Satz Gesichter, über den sie Software laufen lassen könnten, die für den Menschen unsichtbare Eigenschaften erkennt. Diese Variante der Gesichtserkennung wirkt am unheimlichsten: Selbstlernende Algorithmen werten unzählige Fotos aus und können solche Muster erkennen.

Ein Programm kann die ethnische Herkunft aus Fotos ermitteln

91 Prozent So hoch ist die Trefferquote einer Software der Stanford-Universität, die anhand von Fotos zwischen homosexuellen und nicht homosexuellen Männern unterscheidet. Das klingt nach hoher Treffsicherheit. Die Studie zeigt allerdings auch die Grenzen der Technik: Weil die Fotos von einer Dating-Website stammten, konnte sie nur diejenigen als schwul klassifizieren, die das auf der Seite auch offen angaben.

Das Unternehmen Kairos etwa hat Software entwickelt, die die ethnische Herkunft einer Person aus Porträtfotos ermitteln kann (zum Beispiel: "50 Prozent schwarz, 30 Prozent hispanisch, 20 Prozent weiß"). Das Unternehmen wirbt damit, dass Make-up-Hersteller Produktempfehlungen auf die Herkunft ihrer Kunden abstimmen könnten. Man stelle sich vor, so eine Software würde von einem rassistischen Regime eingesetzt. Die Technik ist so beunruhigend, dass Kairos' afro-amerikanischer Gründer Brian Brackeen regelrecht darum bettelt, die US-Regierung möge sie regulieren. Selbst die Identifikation von Vermummten macht Fortschritte, eine aktuelle Studie gibt die Erfolgsquote mit 69 Prozent an, wenn die gescannten Personen eine Kappe auf dem Kopf und einen Schal vor dem Gesicht tragen. Da freut sich der Diktator, der es mit Protestierenden zu tun hat.

Informatiker Gallwitz findet auch Software problematisch, die Menschen als "kriminell" einordnet: "Wenn eine Geldtransportfirma prüfen kann, ob das System einen Bewerber für einen potenziellen Kriminellen hält, könnte das die Auswahlentscheidung beeinflussen." Es gibt aber nicht nur bedenkliche Einsatzmöglichkeiten. Ermittler lassen zum Beispiel Software über Kinderpornos laufen. Gesichter der Opfer, die sie darin finden, werden mit Fotos verschwundener Kinder abgeglichen. Algorithmen lesen aus Gesichtern allerdings keine "Wahrheit", sondern nur Wahrscheinlichkeiten. So ist es auch bei der Stanford-Studie mit einem Programm, das Medien zum "Radar" erklärten: Es könne erkennen, ob Fotografierte schwul seien. Kritikern zufolge erkennt das Programm dies aber gerade nicht, sondern nur, wer sich mit bestimmten Frisuren, Gesichtsausdrücken oder Posen, die das Programm für "typisch schwul" hält, auf Fotos zeigt.

Kann nun Apples Sperre mit solchen dubiosen Mustererkennungssystemen kurzgeschlossen werden? Das ist unwahrscheinlich. "Face ID" ist ein komplexes System aus Infrarot-Sensoren, die das Gesicht kartieren und ein 3-D-Modell erstellen. Dieses wird nicht als Bild gespeichert, sondern als Wert aus Zahlen und Buchstaben. Aus dem lässt sich nicht einfach rückwärts rechnen, wie das Gesicht aussieht. Apple speichert den Wert in einem abgeschotteten Bereich, den Hacker erst einmal knacken müssten. Jan Krissler, Doktorand an der TU Berlin, überlistete im Mai den Iris-Scanner des Samsung Galaxy S8. "Das System macht einen wirklich guten Eindruck", schreibt er über Face ID. Zu Details könne er sich nicht äußern, da er für Apple die Sicherheit des Systems teste. Apple ist einer der wenigen IT-Konzerne, die ihr Geld nicht mit Nutzerdaten verdienen. Er verkauft teure Hardware. Deshalb kann er es sich leisten, Daten nur auf dem Handy zu speichern statt auf seinen Servern.

Der US-Senator Al Franken fragt Apple dennoch, ob der Konzern die Daten je aus dem Gerät abfließen lassen würde und ob die Polizei Zugriff auf sie bekomme. Noch hat Apple nicht geantwortet. Doch der Konzern hat Privatsphäre als Marketing-Instrument erkannt. 2016 legte er sich dafür mit dem FBI an. Die Ermittler wollten das iPhone eines Terroristen auslesen. Apple verweigerte die Hilfe. Bürgerrechtler empfehlen das iPhone als sehr sicher. Die Preisgabe der Daten wäre also ein großer Imageschaden. Über die weltweit größte Sammlung an Fotos menschlicher Gesichter verfügt übrigens Facebook. Der Konzern ist in den USA mitten in einer Lobbyoffensive. Er will Gesetze verhindern, die ihm vorschreiben, was er mit den Gesichtern seiner Nutzer machen darf.

Korrektur: In einer früheren Version dieses Artikels war ein Satz fälschlicherweise der Bundesdatenschutzbeauftragten als Zitat zugeordnet worden. Dies wurde korrigiert.