Gesichtserkennung auf Videos : Hamburger Polizei hat Datenhunger

Die Polizei will dauerhaft eine Software nutzen, die sie für die Strafverfolgung nach G20 installiert hat. Kritik kommt vom Datenschutzbeauftragten.

HAMBURG taz | Die Hamburger Polizei will die Software, die sie im Nachgang des G20-Gipfels nutzt, um mutmaßliche StraftäterInnen zu identifizieren, jetzt dauerhaft einsetzen. Das bestätigte ein Polizeisprecher der taz. Der hamburgische Datenschutzbeauftragte Johannes Caspar hält die Technologie für verfassungsrechtlich bedenklich und prüft, dagegen vorzugehen.

Mit einer solchen Software kann die Polizei aus Übersichtsaufnahmen und Videos anhand biometrischer Merkmale Gesichter erkennen, herausfiltern und speichern. Wie die Gesichtserkennung allerdings genau eingesetzt wird – ob sie lediglich zum Auffinden von Personen im Bildmaterial dient oder auch ein Abgleich mit vorhandenen Fotos aus Polizeiakten erfolgt, ist unklar. Auch der Name der Software ist unbekannt.

Im Juli war dem Chef der Sonderkommission „Schwarzer Block“, Jan Hieber, im G20-Sonderausschusses die Nachricht herausgeplatzt, nunmehr einen „völlig neuen Standard in der Beweisführung“ zu besitzen. Demnach steht der Polizei seit März das Gesichtserkennungsprogramm zur Fahndung nach G20-Gewalttätern zur Verfügung. Damit können auffällige Merkmale markiert und in der Masse von Videodaten gesucht werden, die inzwischen einen Umfang von über 100 Terabyte hat.

Das Vorbild für die Software kommt aus den USA: Nach dem Anschlag beim Marathon 2013 in Boston setzte die Polizei dort das Gesichtserkennungsprogramm von Amazon ein. Nach den sexuellen Übergriffen in der Silvesternacht 2016 in Köln wurde das Programm zum Bundeskriminalamt nach Deutschland transferiert.

Der Einsatz eines derartigen Instruments ermöglicht es zum einen, Standortdaten, Verhaltensprofile sowie auch soziale Kontakte Betroffener zusammenzufügen und unbekannte Täter, von denen lediglich Gesichtsaufnahmen vorliegen, in der Datenmasse zu finden.

Zum anderen ist auch eine Inverssuche nach Personen über deren biometrische Bilder möglich, die einem bestimmten Spek­trum zugeordnet werden und etwa in Gefährderdateien oder Melderegistern namentlich erfasst sind. Es lässt sich so ermitteln, ob diese Personen etwa an einer Demonstration teilgenommen und bei bestimmten Ausschreitungen Straftaten begangen haben.

„Für die Annahme, dass Gefährder tatsächlich durchgeprüft werden, liegen uns allerdings derzeit keine Anhaltspunkte vor“, sagt Caspar. „Es besteht jedoch ein hohes abstraktes Gefährdungspotenzial mit Blick auf das informationelle Selbstbestimmungsrecht“, so der Datenschutzbeauftragte.

Was ihm außerdem Sorge bereitet: Die automatisierte Gesichtserkennung setz eine möglichst große Menge personenbezogener Daten voraus. „Wenn das Verfahren dazu führt, dass von allen auf dem Bildmaterial abgebildeten Personen individuelle Gesichts-IDs erstellt werden, über die eine biometrische Analyse läuft, werden massenhaft Daten Unbeteiligter über längere Zeiträume in Datenbanken gespeichert.“ Es sei davon auszugehen, dass die Betroffenen darüber nicht informiert werden, und sich folglich auch nicht juristisch wehren können, moniert Caspar.

Auch die innenpolitische Sprecherin der Grünen, Antje Möller, äußert Skepsis. Im Rahmen der Strafverfolgung beim G20-Protest sei die temporäre Anwendung von Gesichtserkennungsprogrammen vielleicht noch „sinnvoll und vertretbar“ gewesen, so Möller. „Die generelle Anwendung wirft hingegen viele Grundrechtsfragen auf.“