Die jüngsten Fortschritte haben es für Regierungsbehörden möglich gemacht, Probleme zu antizipieren und vorherzusagen, anstatt auf sie zu reagieren: unter anderem durchGesichtserkennung (Symbolbild).

Von Adrian Lobe

Digitale Konzerne sind besessen davon, menschliches Verhalten vorherzusehen. Die Autokorrektur weiß, welches Wort wir als nächstes tippen. Amazon weiß, welches Buch wir als nächstes kaufen werden. Unter dem Stichwort "predictive analytics" versuchen seit geraumer Zeit aber auch Regierungen, das Verhalten ihrer Bürger mit algorithmischen Prognosetechniken vorherzusagen.

In zahlreichen Ländern setzen Polizeibehörden sogenannte Predictive-Policing-Software ein, die aus Daten eine Wahrscheinlichkeit für Verbrechen in der Zukunft vorhersagt. In den USA hat die Stadt Chicago einen Algorithmus entwickelt, um Hygieneverstöße in Restaurants vorherzusagen. In Großbritannien versuchen Behörden mit Big-Data-Analysen Missbrauchsfälle von Kindern zu prognostizieren. Und in Deutschland will die Bundeswehr mithilfe eines KI-Systems "potenzielle" Krisen noch vor ihrer Entstehung vorhersagen.

Die Unternehmensberatung Deloitte hat vor einigen Monaten einen Bericht publiziert, in dem verschiedene "Regierungstrends" beschrieben werden. Der interessanteste Punkt ist der des "antizipativen Regierens" (anticipatory government). "Die jüngsten Fortschritte in natural language processing (eine Art automatisierte Verarbeitung menschlicher Sprache; Anm. d. Red.), maschinellem Lernen sowie Sprach- und Bilderkennung haben es für Regierungsbehörden möglich gemacht, Probleme zu antizipieren und vorherzusagen, anstatt auf sie zu reagieren", heißt es da. Von Kriminalitätsbekämpfung über Obdachlosenhilfe bis hin zur Unfallprävention ließen sich Probleme vermeiden. Regieren wird zu einem technokratischen Risiko- und Prozessmanagement: Input, Output, fertig.

In New Orleans errechnete eine Software, wer ein Verbrechen begehen könnte

Das Bemerkenswerte an diesem neuen Politikmodus ist nicht nur, dass Herrschaft auf eine neue Legitimationsgrundlage (nämlich Daten) gestellt wird, sondern dass über die deterministischen Formeln auch neue Regeln festgesetzt werden. Denn was als krisenhaft gilt, definieren ja nicht mehr der Entscheider oder der politische Souverän, sondern die Entwickler der Software. Wenn eine IBM- oder SAP-Software wie im Fall der Bundeswehr eine wie auch immer geartete Krise identifiziert, auf die die Politik reagieren soll, dann ist dies letztlich eine Lobby-Meinung, die im Gewand eines vermeintlich evidenzbasierten Systems Eingang in das politische System findet. Diese Privatisierung und Technisierung des Politischen ist die Fortsetzung libertärer Staatsutopien, deren Vordenker schon vor Jahrzehnten von "marktförmigen" Regierungsstrukturen redeten.

Dem liegt auch ein völlig anderes Politikverständnis zugrunde: Einem politisches Problem wird schon vor der Politisierung die Legitimität abgesprochen. Der Ansatz vorausschauender Regierungsarbeit besteht im Kern darin, soziale Phänomene wie Kriminalität, Obdachlosigkeit oder Arbeitslosigkeit zu unterbinden, als wären sie die Folge einer verspäteten oder ineffektiven Politikbearbeitung.

Wer politische Probleme ausschließen will, will letztlich auch Teilhabe am System verhindern

Hier zeigt sich die depolitisierende Wirkung einer Herrschaftstechnik, die mit einer mathematischen Rationalität den Sauerstoff aus dem politischen System zieht. Politische Probleme sind ja, zumindest nach einem demokratischen Verständnis, kein Problem in dem Sinn, dass sie "stören". Vielmehr sind sie Ausgangspunkt eines politischen Aushandlungsprozesses, der nach dem klassischen Modell des Politikzyklus mit der Benennung (Problemdefinition) beginnt und in den nächsten Stufen mit dem Agenda-Setting, der Politikformulierung, und -Implementierung fortgesetzt wird. Eine Politikterminierung kennt der politische Prozess gewiss auch - sie ist aber nicht mit einer Entpolitisierung gleichzusetzen. Wer also politische Probleme ausschließen will, will letztlich auch Teilhabe am System verhindern.

Man muss sich deswegen von dem Gedanken befreien, das Gemeinwesen sei so etwas wie ein Thermostat, den man auf Wohlfühltemperatur regulieren könne. Demokratie ist immer ein unfertiges System. Gerade darin besteht das Politische, also das öffentliche Aushandelbare und Veränderbare. Die präemptive Politikvermeidung ist mit ihrer Zukunftsfixiertheit eine strukturkonservative Gegenwartsversessenheit. Alles soll so bleiben, wie es ist. Im kybernetischen Verständnis sind politische Probleme Störungen im Betriebsablauf.

Es gibt natürlich auch im Verwaltungsstaat Störungen im polizeirechtlichen Sinn (zum Beispiel eine Ruhestörung oder ein falsch parkendes Auto), die es zu beseitigen gilt. Und auch bei der Frage, ob eine Demonstration eskaliert, muss die Polizei eine Prognose über den hypothetischen Geschehensablauf anstellen. Sie tut dies aber nicht mit Computern, sondern nach menschlichem Ermessen und Erfahrungen. Genau das ist der Unterschied zum präemptiven Regierungs- und Verwaltungshandeln, das in der Zeitachse viel früher ansetzt und bestimmte Abläufe gar nicht erst zulässt. Darin offenbart sich das autoritäre Potenzial dieser Instrumente.

Das autoritäre Potenzial solcher Regierungsformen liegt darin, bestimmte Abläufe nicht mehr zuzulassen

Einmal angenommen, eine Softwarefirma entwickelt ein Computerprogramm, das anhand von Variablen wie Teilnehmerzahl, Aggressivität geobasierter Tweets und Lautstärke eine Wahrscheinlichkeit berechnet, mit der eine Demonstration in Gewalt umschlägt. Wenn eine Polizeibehörde diese Software einsetzt und auf Basis der Berechnung eine Demonstration untersagt - wäre diese computergestützte Prognose dann im rechtsstaatlichen Sinne gültig? Könnte man die Entscheidung der Software auf verwaltungsrechtlichem Wege anfechten? Und wenn der Computer einen erratischen Score errechnet - sind die Amtswalter dann weisungsgebunden? Das sind nur einige, rechtlich völlig unklare Fragen, die deutlich machen, wie der Programmcode die Verfahrensregeln des Rechtsstaats überschreibt.

So hat beispielsweise die ominöse Datenfirma Palantir in New Orleans eine Predictive-Policing-Software getestet, von deren Einsatz nicht mal der Stadtrat wusste. Das Vorhersagemodell nutzte eine Netzwerkanalyse, die Verbindungen zwischen Personen, Orten, Autos, Waffen und Social-Media-Posts herstellte und anhand weiter Daten ein Risiko errechnete, wer ein Verbrechen begehen oder diesem zum Opfer fallen könnte. Wer von der Software als Gefährder eingestuft und wer auf Listen steht, erfährt die Öffentlichkeit nicht. Algorithmen sind eine Black Box.

Was an diesem datengetriebenen, deterministischen Governance-Modellen irritiert, ist ja nicht nur die materielle Aushöhlung des Politischen und Ausschaltung diskursiver Verfahren, sondern auch, dass die Zukunft nicht mehr als gestaltbarer Möglichkeitsraum begriffen wird, sondern als latente Bedrohung, ein Risiko, das es zu "managen" gilt - mit der bitteren Pointe, dass Utopien unter dem Datenregime unter Ideologieverdacht stehen, weil sie nicht berechenbar sind.

Korrektur: In einer früheren Version dieses Textes hieß es, die Unternehmensberatung Deloitte habe vor einigen Monaten einen Bericht publiziert, in dem es unter anderem um Neuro-Linguistisches Programmieren (NLP) geht. Das stimmt nicht. Tatsächlich meint die Abkürzung NLP hier das sogenannte natural language processing, eine Art automatisierte Verarbeitung menschlicher Sprache. Wir bitten, den Fehler zu entschuldigen.