Von Sarah Spiekermann

Künstliche Intelligenz (KI) ist ein epochaler Technologiesprung, der die Menschheit vor ganz neue Fragen stellt, die keine Disziplin alleine beantworten kann. John Brockman, Agent für Wissenschaftsliteratur und Gründer des Debattenforums edge.org, hat das "Possible Minds"-Projekt ins Leben gerufen, das Natur- und Geisteswissenschaften zusammenführt, um KI und deren wahrscheinliche Ausformungen und Folgen zu ergründen. Das Feuilleton der SZ druckt Texte aus dem Projekt sowie europäische Reaktionen wie diese hier als Serie.

Die Autorin ist Expertin für KI-Ethik und leitet das Institute for Management Information Systems der Wirtschaftsuniversität Wien. Im April erscheint ihr Buch "Digitale Ethik - Ein Wertesystem für das 21.Jahrhundert" bei Droemer.

Künstliche Intelligenzen haben ein Gegenüber: die Menschen. Mit ihnen soll die KI kooperieren. Sie soll sie unterstützen. Dafür braucht die KI eine Vorstellung von den Menschen. Wenn man jedoch in die Informatikwelt hineinhorcht und fragt, wie dieses Menschenbild aussieht, dann steht ein Fragezeichen im Raum. Ein grundlegendes Bild vom Menschen ist nicht bekannt. Ist es vielleicht der "Dau"? Das ist die noch gängigste Bezeichnung und steht für "dümmsten anzunehmenden User", für den eine Anwendung möglichst einfach konstruiert werden muss. Oder ist es eines der ebenso unerfreulichen Synonyme, die auf Wikipedia zu finden sind, wie etwa "FSVG", "Fehler sitzt vor Gerät"?

Charlie Chaplins Film "Modern Times" fasst das Menschenbild unserer ersten Maschinenparks zusammen, die damals nur in Firmen zu finden waren. Bei Chaplin war der Mensch Diener der Maschine, ein Vereinfachter und Ausgelieferter. Sind diese Bilder veraltet in der heutigen Welt, wo sich uns Technik doch als super fortschrittliche, bonbonsüße Community-Oase voller Freiheiten darstellt?

Dass die Frage nach dem Menschenbild aktueller ist denn je, hat technische, ökonomische und gesellschaftliche Gründe. Die Digitalisierung umfängt uns immer stärker. Bisher waren es die Bildschirmoberflächen unserer Computer und Smartphones, die man ausschalten kann, zumindest zu Hause. Sollten Betreiber und Entwickler uns also als "dümmste anzunehmende User" ansehen, dann sei es so. Aber mit der "digitalen Transformation" und dem Eintritt künstlicher Intelligenzen in unser tägliches Leben, mit durchdigitalisierten Autos, persönlichen Kredit-Scores, Alexas im Wohnzimmer, Bots im Call Center und dergleichen kommt uns Menschen dieses Digitale zunehmend so nahe, dass es nicht mehr egal ist, ob wir Nutzer als die Dümmeren angesehen werden.

Schon vor 300 Jahren wurde der Mensch mit Begriffen der Technik beschrieben

Im Zentrum steht - technisch gesehen - die Frage der "Funktionsallokation": Wie viel Kontrolle bekommt der Mensch zugewiesen und wie viel die Maschine? Geisteswissenschaftler würden von Machtverteilung sprechen. Gibt es einen "Aus"-Knopf für den Roboterpolizisten, der vielleicht schon bald an unserer Haustür klingeln könnte? Oder gibt es diesen "Ausknopf" nicht mehr, ganz im Sinne eines mehr oder weniger gut gemeinten Technologiepaternalismus? Nach welchen Regeln bestellt Alexa Vorräte für den Kühlschrank? Vollautomatisch? Mit dem Menschen als letzter Entscheidungsinstanz? Oder hält sie sich ganz zurück, uns überhaupt zu beeinflussen? Solche granular abgestuften Fragen der Kontrollallokation zwischen Mensch und Maschine sind zentral für die langfristige Freiheit und Würde von uns Menschen. Und wie sie beantwortet werden, hängt davon ab, was für ein Menschenbild die Entwickler haben, beziehungsweise die Institutionen, die diese beauftragen.

Hat man ein vertrauensvolles Menschenbild, so lässt man Homo sapiens auch die Kontrolle. Die Bedeutung der Kontrollallokation wird dabei leicht unterschätzt. Ökonomisch könnte man argumentieren, dass die unsichtbare Hand des Marktes es richten wird. Wer will schon für paternalistische Maschinen im Wohnzimmer bezahlen? Was ist aber, wenn ein krankhaft übergewichtiger Mensch einen staatlich geförderten Vertrag mit seiner Versicherung abgeschlossen hat, Amazons Sprachassistenten Alexa so zu nutzen, dass diese ihm nur Gemüse nach Hause liefert, wofür es Prämienrabatt gibt? Was wenn der Vertrag mit der Autoversicherung beinhaltet, dass weniger Prämie anfällt, wenn der Fahrassistent übernimmt? Solche Deals, die die Freiheit von Menschen gegen Geldvorteile eintauschen und uns in ein eigenartiges Maschinenkorsett einspannen, sind nicht so abwegig, sondern gängig werdende Praxis, wie die Harvard-Professorin Shoshana Zuboff in ihrem Buch "Das Zeitalter des Überwachungskapitalismus" darlegt.

Denn in der Digitalökonomie haben sich Geschäftsmodelle herausgebildet, denen kein gutes Menschenbild zugrunde liegt. Hier wird der Mensch zwar nicht mehr ausschließlich auf den "Homo oeconomicus" reduziert, also einen egoistischen Präferenzoptimierer. Dafür ist man aber zu einem ebenso fragwürdigen Menschbild übergegangen, das uns als vorhersehbar irrational darstellt. Insbesondere dieses letztere Bild des Menschen aus der Verhaltensökonomie paart sich nun fruchtbar mit der Digitalisierung. Was wäre besser, als die digitalen Dienste, Sprachassistenten, KIs, Autos, et cetera so zu bauen, dass sie uns vorhersehbar irrationale Selbstoptimierer in ein "richtiges" Verhalten hineinlotsen? Die Verhaltensökonomen Cass Sunstein und Richard Thaler sprechen von "Stupsen" (Englisch: Nudge). Also einer digitalen Transformation des Alltags und des Wirtschaftens, in denen Maschinen Menschen in ihr fortschrittliches Dasein hineinstupsen. Das bringt uns zurück zu Charlie Chaplin und dem Bild des ausgelieferten, fremdbestimmten Menschen. In der Schule wurde diese Form von "Modern Times" als überkommener Auswuchs früher Industrialisierungsphasen dargestellt. Sind wir nun mit der Digitalisierung schnurstracks auf dem Weg in diese veraltet geglaubte Vergangenheit?