Algorithmen, die in den USA routinemäßig eingesetzt werden, um die Rückfallgefahr von Straftätern zu berechnen, benachteiligen systematisch Afroamerikaner. Das berichten Journalisten des US-Portals ProPublica, die eine Software analysiert haben, die für diese Risikobewertung eingesetzt wird: Compas (Correctional Offender Management Profiling for Alternative Sanctions) der Firma Northpointe. Die berechnete demnach bei Afroamerikanern fast doppelt so häufig wie bei Weißen fälschlicherweise eine hohe Rückfallgefahr. Gleichzeitig wurde ein späteres erneutes Vergehen weißer Straftäter fast doppelt so oft nicht vorhergesagt wie bei Schwarzen.

Maschinen bewerten Angeklagte

Wie ProPublica erläutert, werden in verschiedenen Bereichen des US-Justizsystems seit Jahren Risikobewertungs-Tools eingesetzt, um die Rückfallgefahr von Verurteilten abzuschätzen. Deren Berechnungen würden etwa zugrunde gelegt, um Kautionen festzulegen, Strafhöhen auszuwählen oder über frühere Haftentlassungen auf Bewährung zu entscheiden. Im Falle des untersuchten Compas (manche US-Bundesstaaten haben demnach auch eigene Software, andere nutzen Tools von Forschungseinrichtungen) liegen der Software jeweils die Antworten auf einen Fragebogen vor. Entweder haben Beschuldigte den selbst ausgefüllt oder sie werden aufgrund der über ihn vorhandenen Daten befüllt.

Abgefragt wird unter anderem, ob sich die Eltern der Beschuldigten getrennt haben, ob Freunde oder Verwandte im Gefängnis waren, wie oft sie umgezogen sind oder wie oft sie mit ihrem Geld gerade so über die Runden kommen. Eine Frage nach der Hautfarbe gehört aber nicht dazu. Der als Geschäftsgeheimnis deklarierte Algorithmus weist dem Beschuldigten dann einen Wert zu, der das Rückfallrisiko abbilden soll. Der werde etwa einem Richter vorgelegt. ProPublica berichtet von Fällen, in denen danach bereits ausgehandelte Bestrafungen noch einmal geändert wurden oder Kautionen verfügt wurden, die vorher nicht vorgesehen waren.

Irrende Algorithmen

Weißen Angeklagten wird viel häufiger ein geringes Rückfallrisiko zugewiesen als schwarzen. (Bild: ProPublica)

Untersucht hat das Portal nach eigenen Angaben mehr als 10.000 Bewertungen aus einer Gemeinde in Florida und spätere Kontakte der Angeklagten mit der Justiz. Abgesehen von den systematischen Fehlern abhängig von der Hautfarbe sei die Software demnach insgesamt auch nur etwas treffsicherer gewesen als ein Münzwurf: 61 Prozent derer, für die ein Rückfall als wahrscheinlich bezeichnet wurde, wurden innerhalb von zwei Jahren auch tatsächlich wieder festgenommen.

Der – offengelegten – Analyse zufolge wurden schwarzen Angeklagten alle zehn Risikowerte etwa gleich häufig zugewiesen. Für Weiße dagegen wurde mehrheitlich das geringste Rückfallrisiko berechnet, alle folgenden mit abnehmender Häufigkeit. In Bezug auf einen gewalttätigen Rückfall sei die Fehlerquote noch höher, Schwarzen also viel häufiger zu Unrecht ein höheres Rückfallrisiko bescheinigt worden, Weißen zu Unrecht ein zu niedriges. Northpointe hat die Anschuldigungen gegenüber ProPublica zurückgewiesen.

Mit Beispielen unterstreichen die Autoren jedoch ihre Schlussfolgerungen. Berichtet wird etwa von einem 18-jährigen (schwarzen) Mädchen, das ein fremdes Kinderfahrrad fortzufahren versuchte, aber es nach der Entdeckung durch die Besitzerin liegen ließ. Dem Mädchen mit bis dato vier leichten Vergehen wurde ein hohes Rückfallrisiko zugewiesen, anders als einem 41- jährigen Weißen, der Sachen in ähnlichem Wert gestohlen hatte. Trotz zuvor zwei bewaffneter Überfälle und eines versuchten bewaffneten Überfalls sei sein Rückfallrisiko gering, entschied die Software. Der 41-jährige sitze jedoch inzwischen für schweren Diebstahl eine achtjährige Haftstrafe ab, das Mädchen dagegen wurde nicht rückfällig.

System ist nicht blind

Warum sich die Software derart täuschen kann, erklärt der Richter Mark Boessenecker gegenüber ProPublica. So könne jemand ein kleines Kind monatelang jeden Tag belästigt haben und trotzdem ein geringes Rückfallrisiko bescheinigt bekommen – weil er einen Job hat. ProPublica selbst hat in einem der Fragebögen von Northpointe die Fragen markiert, durch die die Benachteiligung von Afroamerikanern entstehen könnte. Aufgrund der Lebensumstände der unter anderem vom US-Justizsystem benachteiligten Bevölkerungsgruppe dürften sie diese häufig anders beantworten als Weiße und den Algorithmen damit die Grundlage für Bewertungen geben, die sich bei näherer Betrachtung als falsch herausstellen. Die könne aber dramatische Folgen haben, wenn Menschen fälschlicherweise zu lange in Haft bleiben oder eine große Rückfallgefahr übersehen werde.

Lesen Sie dazu auch bei Technology Review:



(mho)