Joe Biden, "eine Frühgeburt"? Barack Obama, ein "Fälscher"? Künstliche Intelligenz wirkt nicht besonders klug, wird sie auf das berühmte Foto aus dem "Situation Room" des Weißen Hauses während der Stürmung von Osama bin Ladens Rückzugsort in Pakistan angewendet.

Von Michael Moorstedt

Die Gegenwart erzählt seltsame Geschichten. Zum Beispiel die einer jungen Frau aus China, die sich operativ ihre Nase begradigen ließ. Doch nach dem Eingriff litt die Patientin unter unvorhergesehenen Nebenwirkungen. Sie konnte sich weder bei ihrem Online-Banking-Dienst anmelden noch Hotels oder Zugfahrten buchen, auch die Pforte ihres Arbeitgebers verweigerte ihr den Einlass. Ihr Äußeres war so verändert, dass sie sich nicht mehr durch ein in China gängiges Gesichtserkennungsprogramm bei den verschiedenen Online-Diensten identifizieren konnte.

Automatisierte Gesichtserkennung wird uns immer häufiger begegnen. Schon längst gibt es Experimente, ob man nicht anhand eines Bildes entscheiden könnte, wer einen Kredit bekommt - oder wer verhaftet wird. Doch wie sieht es eigentlich aus, das Bild, das sich die Software von den Menschen macht? Unter imagenet-roulette.paglen.com kann man ausprobieren, was da passiert. Man lädt ein Bild hoch und die im Hintergrund tätigen Algorithmen schätzen die eigene Person ein. Die Website ist Teil der Kunstausstellung "Training Humans", die vergangene Woche in der Mailänder Galerie Osservatorio Fondazione Prada eröffnete. Der Netzkünstler Trevor Paglen und Kate Crawford, Direktorin des KI-Forschungsinstituts AI Now, wollen zeigen, wie wir von unsichtbaren Systemen bewertet und taxiert werden.

Online machten Tausende Menschen bei dem Bilderroulette mit. In den Kommentaren gruselten sie sich, wenn die Software mit ihrer Einschätzung nahe an den Fakten lag - und machten sich über das Programm lustig, wenn es Unsinn ausspuckte. Das war aber nur für Weiße und Männer amüsant - zu Frauen fällt dem System meist nur "sexy" oder "Mutter" ein. Bei einer Person mit schwarzer Hautfarbe bleibt in den meisten Fällen nur genau das übrig: "schwarz".

Paglen und Crawford beweisen, dass jede Ebene automatisierter Bilderkennung vor allem politisch und nicht technisch aufgeladen ist. Als Quelle für das Experiment dient die Imagenet-Datenbank. Sie ist eines der am häufigsten verwendeten Werkzeuge, mit denen Unternehmen ihre künstlichen Intelligenzen trainieren. Hier lagern Millionen von Bildern, die von miserabel bezahlten Klick-Arbeitern per Hand verschlagwortet werden, die so ihre eigenen Vorurteile in ein System einbringen, das später als objektiv - weil maschinell - vermarktet wird. Als Reaktion auf die Website gab Imagenet bekannt, rund die Hälfte der Fotos aus seiner Sammlung zu löschen.

Paglen und Crawford kommen in ihrer Recherche aber zu weiteren erschreckenden Erkenntnissen. So besteht ein Datensatz, mit dem Computern beigebracht wird, Emotionen zu erkennen, aus gerade mal sechs verschiedenen Gesichtsausdrücken. Die den heutigen Gesichtserkennungsalgorithmen zugrunde liegenden Prinzipien vergleichen sie deshalb in einem Essay mit der Phrenologie - jener kruden Lehre, mit der im 19. Jahrhundert versucht wurde, von Merkmalen wie der Schädelform auf Charaktereigenschaften eines Menschen zu schließen. Die Pseudowissenschaft von gestern ist die Pseudowissenschaft von heute.