05.07.2017, 17:16 Uhr Gerade keine Zeit? Hinweis: Wir haben in diesem Artikel Provisions-Links verwendet und sie durch "*" gekennzeichnet. Erfolgt über diese Links eine Bestellung, erhält t3n.de eine Provision.

Justizminister Heiko Maas möchte Algorithmen einer staatlichen Kontrolle unterwerfen und fordert „vorurteilsfreies Programmieren“. Nach den Erfahrungen mit dem Netzwerkdurchsetzungsgesetz lässt Schlimmes ahnen.

Anzeige

Mein persönlicher Aha-Moment war die Buchung eines Fluges. Als ich die Webseite des Anbieters einige Stunden später erneut aufrief, war mein gewünschter Flug plötzlich ein gutes Stück teurer. Nach einem Wechsel von Browser und IP-Adresse konnte ich den Flug wieder etwas günstiger buchen. Ob der Reiseanbieter wirklich einen Algorithmus verwendet, um personalisiert den Preis hoch zu treiben, oder ich nur eine zufällige Preisschwankung erlebt habe, lässt sich nachträglich nicht klären. Mein Browser-Wechsel könnte einen solchen Algorithmus ausgetrickst haben oder einfach nur Voodoo gewesen sein. Was bleibt ist der unangenehme Verdacht.

Nix mehr verpassen: Die t3n Newsletter zu deinen Lieblingsthemen! Die t3n Newsletter zu deinen Lieblingsthemen! Jetzt anmelden

Über Algorithmen und ihre Auswirkungen auf die Gesellschaft wird schon lange debattiert und dabei wurden auch immer wieder Forderungen an den Staat formuliert. So fordert der Sicherheitsexperte Bruce Schneier schon seit Jahren ein Transparenzgesetz für Algorithmen. Vergangenen Montag nahm sich Justizminister Heiko Maas des Themas an und forderte in einer Rede ein „digitales Antidiskriminierungsgesetz“, Transparenz für Algorithmen und eine staatliche Agentur, von der nicht ganz klar ist, was ihre Aufgaben sein sollen. Leider wiederholt er in seiner Ansprache aber auch die Fehler, die bisher in der Debatte gemacht wurden: Er verrührt so unterschiedliche Dinge wie IT-Sicherheit mit den gesellschaftlichen Auswirkungen des Facebook-Algorithmus, Predictive Policing und Scoring-Verfahren wie etwa bei der Schufa. Wenn er Daten in gut und böse sortiert – er nennt da „positive Daten“, die nützen und „negative Daten“, die schädlich seien – möchte man sich mit Grausen abwenden. Man kann dabei aber nicht mehr überhören, dass er mal wieder die alte, unsinnige Floskel bemüht, dass das Internet „kein rechtsfreier Raum“ sein dürfe.

Anzeige

Jedes Kochrezept ist ein Algorithmus

Da hilft nur: Einen Schritt zurücktreten und durchatmen. Es gibt keine „guten“ und „bösen“ Daten. Es kommt nur darauf an, wie sie von wem verwendet werden. Und ein Algorithmus ist nichts weiter als eine Rechen- oder Handlungsanweisung. Jedes Kochrezept ist ein Algorithmus. Wenn Sachbearbeiter in Ämtern Entscheidungen treffen, dann vollziehen sie Algorithmen anhand ihrer Vorgaben. Algorithmen diskriminieren nicht, Menschen tun es. So gesehen könnte eine Art digitales Antidiskriminierungsgesetz tatsächlich eine gute Idee sein. Leider werden hierfür fast immer gruselige Beispiele aus anderen Ländern bemüht: Etwa US-Gerichte, die Computersysteme verwenden, um die Rückfallwahrscheinlichkeit eines Täters zu berechnen, von der dann das Strafmaß mit abhängt. Oder ein soziales Scoring in China, das einmal dazu führen soll, dass brave, angepasste Bürger mit hohen Punktzahlen gewisse Privilegien genießen.

Das Problem ist nur: So etwas wäre in Deutschland sowieso illegal. Entsprechende Beispiele sind hierzulande auch gar nicht so einfach zu finden. Da wird dann gerne spekuliert, Krankenversicherungen könnten ihre Tarife an Gesundheitsdaten binden, was sie aber gar nicht dürfen. Regelmäßig wird auf die Schufa geschimpft, selten werden jedoch Vorschläge gemacht, wie sich das Scoring verbessern ließe und trotzdem vermieden wird, dass zu viele Kredite an Menschen gehen, die sie nicht bedienen können. Und wenn echte Diskriminierung im Spiel ist, etwa bei der Auswahl von Job- und Wohnungsbewerben nach Namen und Hautfarbe, könnten algorithmische Computersysteme am Ende durchaus neutraler und fairer sein als die althergebrachte Praxis. Systeme wie Predictive Policing gefährden Grundrechte, wenn sie wie in Minority-Report gegen einzelne Menschen eingesetzt werden, können aber durchaus helfen, die Kriminalität zu senken, wenn sie der Polizei helfen, ihre Streifen in die richtigen Straßen zu schicken.

Anzeige

Auf der anderen Seite stehen Dienste wie Facebook oder Google. Derzeit gibt es laut Algorithm Watch keine belastbare Studie, die belegt, dass Google über das Ranking von Suchergebnissen die öffentliche Meinung aktiv beeinflusst. Dass sich Hatespeech in sozialen Medien aufschaukelt, liegt wohl weniger an den verwendeten Algorithmen als der Tatsache, dass Menschen dort auf andere Menschen treffen, die Hassbotschaften nicht sozial ächten sondern mit vielen Likes belohnen. In manchen Gruppen entsteht ein Klima, in dem es nur noch darauf ankommt, sich mit noch krasseren Posts zu überbieten. Mit der Kontrolle von Algorithmen lässt sich da nicht viel tun, allenfalls mit tiefen Einschnitten in die Meinungsfreiheit.