Angesichts des zunehmenden Einflusses von Algorithmen auf Wirtschaft, Gesellschaft und Politik hat sich Bundesjustizminister Heiko Maas für klarere und schärfere Regeln für Programmierer und Unternehmen ausgesprochen. "Der technische Fortschritt darf nicht zu gesellschaftlichem Rückschritt führen", betonte der SPD-Politiker am Montag auf der Konferenz "Digitales Leben ­ Vernetzt. Vermessen. Verkauft?" in Berlin. "Wir dürfen nicht genau die Werte verkaufen und opfern", die für die freiheitliche und gleiche Gesellschaft essenziell seien.

Heiko Maas fordert unter anderem ein "Transparenzgebot für Algorithmen". (Bild: heise online / Stefan Krempl)

"Ein digitales Antidiskriminierungsgesetz könnte hilfreich sein für vorurteilsfreies Programmieren", erklärte Maas. Seit zehn Jahren gebe es auf diesem Gebiet Bestimmungen für die analoge Welt in Form des Allgemeinen Gleichbehandlungsgesetzes. Ein vergleichbarer Ansatz könnte auch in der digitalen Welt etwa den Einsatz diskriminierender Algorithmen verhindern. Dies sei nötig, da derzeit mithilfe automatisierter Entscheidungsfindung vielfach "soziale Ungleichheit reproduziert und verfestigt" werde. Algorithmen könnten Handlungsfreiheit auch durchaus auch einschränken, verwies der Jurist auf die Debatte über Echokammern und Filterblasen in sozialen Netzwerken.

Programmierte Fremdbestimmung

Für die schöne neue Welt der programmierten Fremdbestimmung führte der Sozialdemokrat zahlreiche Beispiele ins Spiel. Der Rhythmus, mit dem wir die Tastatur bedienen, gibt Einsicht in unsere Konsumlaune", erläuterte der Minister. Bewerbungen würden durch selbstlernende Algorithmen vorsortiert, die Justiz in den USA prognostiziere damit bereits die Rückfallwahrscheinlichkeit von Straftätern. In China solle künftig mit einem "Citizen Score" die soziale Zuverlässigkeit der Bürger berechnet und mit scharfen Sanktionen unterlegt werden. In Australien seien bei einem einschlägigen Experiment der Finanzbehörden mit Datenabgleichen massive Steuerschulden von Millionen Menschen berechnet worden.

"Wir reduzieren Menschen auf ihre Vergangenheit, können ihnen wichtige Chancen für den Neustart verbauen", warnte Maas. Gerade bei Polizei und Strafverfolgung könnten die Folgen verheerend sein, wenn Big Data mit statistischen Scoring-Verfahren ausgewertet würden. Diverse Nachteile und Ausgrenzung drohten. In den USA habe sich bereits gezeigt, dass die Anerkennung der automatischen Gesichtserkennung als Beweismittel vor Gericht zu einem deutlich höheren Risiko für Afro-Amerikaner führe, fälschlich verurteilt zu werden. Dies habe daran gelegen, dass die Systeme mit weißen Testpersonen trainiert worden seien und bei diesen viel differenzierter funktionierten.