Mit diesem Programm testet die Polizei, wie gut Bürger Gesichter wiedererkennen können. Damit will sie sogenannte Super-Recogniser identifizieren.

Von Michael Moorstedt

Crowdsourcing ist eine feine Sache. Zumindest für Unternehmen und Behörden. Anstatt sich selbst anzustrengen, lagert man die Entwicklung von neuen Produkten, fragwürdigen neuen Limo-Geschmacksrichtungen oder dem Motto für das jährliche Feuerwehrfest einfach an die Kunden, Nutzer und Bürger aus.

Das Prinzip wird mittlerweile auf so gut wie alles und jeden angewendet. Sogar auf Denunziantentum und Blockwarterei. Die haben im Internet ja eh eine große Tradition. Bislang wurden die vermeintlichen Missetäter aber nur an den Online-Pranger gestellt. Doch weil sich in der Tech-Branche ja immer alles stetig weiterentwickeln muss, gibt es in den USA jetzt seit kurzem eine Vigilanten-App mit direktem Draht zur örtlichen Polizeiwache. Mit dem "Task Force" genannten Programm lassen sich "verdächtige und potenziell kriminelle Aktivitäten" per Fingerwisch melden. Der Entwickler ist stolz auf sein "Uber für die Polizei".

Noch ein Stückchen weiter dreht das Prinzip das Start-Up Flock Safety. Hier möchte man gleich Dutzende von vermeintlich intelligenten Kameras an besorgte Nachbarschaften verkaufen. Deren Aufnahmen würden dann von einem intelligenten Bilderkennungsalgorithmus analysiert und bei Gefahr im Verzug direkt an die Ermittler geschickt werden. Verbrechen würden nicht nur verhindert, heißt es, sondern gleich auch noch aufgeklärt.

Die dank der Technik aufgelösten Fälle, die Flock stolz auf der Unternehmenswebsite präsentiert, erinnern dann allerdings nicht so sehr an die Zukunft der Kriminalitätsbekämpfung sondern eher an den Mickey-Maus-Detektivclub. Vor allem häufen sich die Berichte, dass mal wieder ein verdächtiges Kennzeichen an die Polizei gemeldet wurde, einfach nur deshalb, weil der zugehörige Wagen neu im Viertel war. Ist das die Privatisierung des Überwachungsstaats? Ansonsten identifizierten die Kameras einen Fahrraddieb, ein anderer Mitmensch war der wilden Müllentsorgung schuldig, außerdem gab es noch eine Bande Halbwüchsiger zu beanstanden, die mit ihren aufgemotzten Autos herumprotzten.

Man kann den Nutzen der Technik also zu Recht hinterfragen. Aber hier geht es schließlich vor allem um gefühlte Sicherheit. Kein Wunder, dass Flock zuletzt ein paar Millionen Dollar Risikokapital zugeschossen wurden.

Wie "intelligente Video-Analyse" Racial Profiling massentauglich macht

Problematisch wird es in Sachen Crowdsourcing dann, wenn die Menge ohne ihr Wissen und ohne Zustimmung dafür benutzt wird, um Überwachung zu schärfen. Wie die Investigativ-Plattform The Intercept vergangene Woche meldete, hat IBM jahrelang Videodaten der New Yorker Polizei dazu benutzt, ein hauseigenes Bilderkennungsprogramm zu trainieren.

Dank der unzähligen Stunden an Anschauungsmaterial lässt sich mit der Software gezielt nach Eigenschaften wie Alter und Geschlecht suchen, aber auch nach Haarfarbe, Bartwuchs oder Hautton. In der neuesten Version der "Intelligent Video Analytics" Software gibt es gleich Kategorien wie Weiß, Schwarz oder Asiatisch anzuklicken. Das Programm, das einst als Mittel der Terrorbekämpfung entwickelt wurde, wird mittlerweile an Polizeibehörden im ganzen Land verkauft.

Racial Profiling nennt man diese Methode im Fachjargon. Das meint nichts anderes, als wenn der tapfere deutsche Polizist auf seiner Streife mal wieder rein zufällig nur Menschen mit dunkler Hautfarbe "rauszieht". Nur eben gesteuert, systematisch, permanent. Und auf hunderttausende Menschen gleichzeitig angewendet.