Von Michael Moorstedt

Als er die Ergebnisse auf dem Bildschirm sah, bekam es Max Hui Bai mit der Angst zu tun. Wie so oft hatte der Psychologiedoktorand für seine Umfragen die Crowdsourcing-Plattform Mechanical Turk eingesetzt. Doch was bislang gut funktionierte, ergab plötzlich keinen Sinn mehr. Offene Fragen wurde mit zusammenhanglosem Kauderwelsch beantwortet, die Hälfte der Fragebögen konnte er nicht verwenden, die Studie ein Fall für den Müll.

Nachdem andere Forscher Ähnliches berichten, hat sich in der Wissenschaftsgemeinde nun der Verdacht erhärtet, dass findige Nutzer automatische Bots auf die Beantwortung der Fragebögen ansetzen. Und diese Bots sind weit davon entfernt, konsistente Antworten zu liefern. Amazons Crowdsourcing-Plattform ist ebenso wie ähnliche Angebote ein komfortabler Weg, um schnell an Umfrageergebnisse zu kommen. Tausende Studien werden jedes Jahr so erarbeitet, in den USA fußen bis zur Hälfte aller sozialwissenschaftlichen Befragungen in Teilen auf Mechanical Turk.

KIs hacken

Das ist nicht nur aus erkenntnistheoretischer Sicht problematisch. Denn es sind nicht nur Geisteswissenschaftler, die auf der Plattform Daten erheben. Sondern auch Informatiker, die hier ihre künstlichen Intelligenzen (KI) trainieren wollen. In der IT-Security-Szene gibt es nun Befürchtungen, diese Daten könnten von Hackern benutzt werden, um die KIs zu hacken. Der beste Weg, eine selbstlernende Maschine zu täuschen, sei es, ihr falsche Dinge beizubringen. Der Fachbegriff dafür lautet Adversarial Example, also feindliches oder gegensätzliches Beispiel. Wenn sie diesen Daten ausgesetzt sind, scheinen die Maschinen zu halluzinieren, sie sehen Dinge als wahr an, die gar nicht da sind.

Computer nehmen die Welt anders wahr. Die Bilderkennungsalgorithmen erschließen sich ihre Umgebung nicht durch eine Mischung aus Lichtreizen, Bewegungen und Konturen. Sondern nur durch die Analyse einer Ansammlung von Pixeln. Und wenn nur ein paar dieser Pixel manipuliert werden, kann eine KI vollkommen aus dem Konzept geraten. Für das menschliche Auge sind die Verformungen dagegen gar nicht wahrnehmbar. Den Computer veranlassen sie dagegen, ein Foto oder einen Satz falsch einzuordnen.

Die Erfahrung zeigt, dass einmal identifizierte Schwachstellen auch ausgenutzt werden. Noch sind Beispiele dafür jedoch akademischer Natur. Das macht sie aber nicht weniger grotesk und furchteinflößend. Da erkennt der Algorithmus etwa auf einem Foto ein Gewehr statt der abgebildeten Schildkröte. Ein Mann mit einer albernen Brille im Gesicht wird als die Hollywood-Schauspielerin Milla Jovovich identifiziert. Eine automatische Foren-Moderationssoftware erkennt derbe Beleidigungen als Komplimente. Oder durch ein paar geschickt platzierte Aufkleber wird in der Wahrnehmung eines selbstfahrenden Autos aus einem Stoppschild ein Zeichen zur Aufhebung des Tempolimits.