Sicherheitstechnologie Mit Biometrie fängt man keine Terroristen

Von Andrea Knaut

Wie gut können Kameras Terroristen identifizieren? Dieser Frage geht IT-Expertin Andrea Knaut nach. (imago/Olaf Selchow)

Die Bundespolizei will in Zukunft Kameras samt Gesichtserkennung einsetzen. Doch mit Biometrie fängt man keine Terroristen, sagt Informatikerin Andrea Knaut. Aufgrund der Fehlerquote würde das System wohl mehr falsche denn echte Terroristen identifizieren.

Fingerabdrücke identifizieren jeden Menschen eindeutig ein ganzes Leben lang. Das ist Allgemeinwissen. Aber es stimmt so nicht. Es sind die Maschinen oder Menschen, die Fingerabdrücke aufnehmen und analysieren, die die Identifikation vornehmen.

Hierbei gibt es unzählige Tücken: Zum Beispiel haben nicht alle Menschen Fingerabdrücke in geeigneter Qualität oder Umgebungsbedingungen sind schlecht für deren Aufnahme. Fingerkuppen ändern sich über die Zeit, etwa durch schwere Handarbeit, Verletzung oder absichtliche Verstümmelung. Auch zwischen Kindes- und Erwachsenenalter verändern sich ihre Proportionen und Ausprägungen.

Und Fingerabdrücke sind nur eines von vielen sogenannten biometrischen Merkmalen. Auch Iris, Handvenen-Muster, Gesichtsbild und etliche weitere gehören dazu.

Identische Bilder sind ein sicherer Hinweis auf eine Fälschung

Sie alle gelten als unbestechliche Repräsentanten unserer Identität. Dabei messen biometrische Verfahren keine Identität, sondern Ähnlichkeit. Völlig identische Bilder von Fingerabdrücken oder Gesichtern sind ein sicherer Hinweis auf eine Fälschung. Nur genügend ähnliche Bilder stammen mit hoher Wahrscheinlichkeit von demselben Menschen.

Das ist auch deswegen problematisch, weil die Philosophie hinter biometrischen Sicherheitstechnologien eben nicht nur sagt: Das ist das Gesicht von Frau Meier. Sondern: Das ist das Gesicht der kriminellen Frau Meier.

Kriminalistinnen und Statistikerinnen halten es darum mit dem englischen Juristen Sir William Blackstone. Der hatte formuliert: "Es ist besser, dass zehn Schuldige entkommen, als dass ein Unschuldiger leidet." Eine Software hingegen arbeitet einfach mit einem Schwellwert. Wessen Ähnlichkeitswert darüber liegt, der gilt als identifiziert und damit als schuldig.

Selbst geringe Fehlerquoten haben verheerende Auswirkungen

Dabei können sich schon geringe Fehlerquoten an fälschlich identifizierten Menschen verheerend auswirken. Gerade, wenn ganze Bahnhöfe, Innenstädte und Flughäfen mit automatisierten biometrischen Erkennungssystemen ausgestattet werden, um Menschen zu identifizieren, die des Terrorismus verdächtigt werden.

Das Problem: Selbst eine geringe Fehlerquote fälschlicher Identifizierungen liegt mutmaßlich weit über der Quote an realen Terroristen und Terroristinnen vor Ort. Die Falschpositivrate sorgt dafür, dass bei millionenfacher Überprüfung am Ende eines jeden Tages Tausende Menschen für Terroristen gehalten werden. Die Wahrscheinlichkeit dafür, dass sie alle zu Recht verdächtigt werden, liegt im prozentualen Nachkommabereich.

Und trotzdem wird dieser Gedanke meist großzügig übersehen: Dass ein Treffer biometrischer Überwachungssysteme nur dann ein starkes Indiz wäre, wenn die reale Terroristen-Quote mindestens so hoch wäre wie die Falschpositivrate.

Täglich müssten 300 Terroristen am Berliner HBf umsteigen

Was das bedeutet? Sehen wir uns den Berliner Hauptbahnhof mit täglich 300.000 Besuchern an. Stellen wir uns ein vergleichsweise ausgereiftes System vor, das lediglich 0,1 Prozent falsche Treffer produziert. Selbst ein so treffsicheres System wäre erst dann brauchbar, wenn am Berliner Hauptbahnhof Tag für Tag mindestens 300 Terroristinnen und Terroristen umsteigen würden. Glaubt das im Ernst jemand? Und selbst dann wäre jeder Treffer lediglich ein Indiz.

Wir müssen deshalb lernen, dass man mit Biometrie keine Terroristen fängt. Biometrische Merkmale sind kein Spiegel unserer Identität.

Biometriesysteme verstärken nur Effekte autoritärer Systeme: Während Bürgerinnen oder Papierlose immer erkannt werden, egal als wer und egal ob zurecht, entzieht sich das kontrollierende System der Verantwortung.

Informatikerin Andrea Knaut (Andrea Knaut)Andrea Knaut, Jahrgang 1977, ist Informatikerin und hat über Fehler biometrischer Fingerabdruckerkennungssysteme an der Humboldt-Universität zu Berlin promoviert. Sie ist aktiv in der Arbeitsgruppe Internet und Gesellschaft der Gesellschaft für Informatik (GI) und im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF).