Drei Vorhersagen von führenden Fachleuten. Erstens: „Meines Erachtens gibt es einen Weltmarkt für vielleicht fünf Computer.“ Zweitens: „Es gibt keinen Grund, warum Menschen zu Hause einen Computer haben sollten.“ Drittens: „640.000 Bytes Speicherkapazität sollten jedem genügen.“

Den ersten Satz sagte der frühere Präsident des Computerkonzerns IBM Thomas Watson im Jahr 1943, den zweiten der Computerpionier und Unternehmer Ken Olson im Jahr 1977, den dritten kein Geringerer als Microsoft-Mitgründer Bill Gates im Jahr 1981. Alle Aussagen sind, um ihnen eine historische Dimension zu geben, nicht wirklich alt.

Sie zeigen, wie schwer sich sogar diejenigen zuweilen mit den Chancen von Technologie tun, die sie am besten einschätzen können. Wer von heute darauf zurückschaut, kann als einen Rat für die Zukunft mitnehmen, dass große Vorsicht geboten scheint, wenn es darum geht, ernsthaft zu spekulieren, was Computer wohl niemals können werden.

„Computer werden uns übertreffen“

Die Diskussion über „künstliche Intelligenz“, ob, wann und wie Computer uns Menschen einmal in jeder Geisteskraft erfordernden Hinsicht überholen werden, läuft derzeit auf Hochtouren. Und sie ist auch ganz oben in Gremien angekommen, die für unzählige Menschen Entscheidungen treffen. Die ranghöchsten Fachleute des Weißen Hauses haben Ende des vergangenen Jahres ausdrücklich dazu angeregt, sich auf ein Leben vorzubereiten, in dem künstliche Intelligenz eine dominante Rolle spielt.

Wissenschaftler des Internationalen Währungsfonds wiederum haben ausführlich die wirtschaftlichen Chancen und Risiken analysiert – und dabei herausgestellt, dass schlaue Computer letztendlich einerseits jedes Alterungsproblem lösen, andererseits aber auch zu eskalierenden Verteilungskonflikten infolge brutal wachsender Ungleichheit führen könnten.

Die Prognose des gerade 75 Jahre alt gewordenen weltbekannten Physikers Stephen Hawking dazu steht im Raum: „Die Computer werden irgendwann in den kommenden hundert Jahren mit ihrer künstlichen Intelligenz den Menschen übertreffen.“ Namhafte Unternehmen stecken viele Ressourcen in dieses Feld, zum Beispiel die Technologiekonzerne Alphabet (Google), Apple und Facebook, die großen Autohersteller oder der deutsche Konzern Bosch. Und natürlich unzählige kleine Start-Ups rund um den Globus.

Der geniale Alan Turing

Dass wir heute genau über den Begriff „künstliche Intelligenz“ reden, ist auch ein Zufall und wohl zum Teil ein unbeabsichtigter Marketing-Erfolg. John McCarthy, einem Mathematikprofessor am Dartmouth College in Hanover im amerikanischen Bundesstaat New Hampshire, kann zugeschrieben werden, ihn in den fünfziger Jahren zuerst verwendet zu haben. Er erwähnte ihn in einem Schreiben an die Rockefeller-Stiftung, mit dem er um Geld für eine Fachkonferenz bat.

Mit ihm bemühten sich die damals schon mehr etablierten Forscher Marvin Minsky von der Harvard-Universität, Nathan Rochester von IBM und Claude Shannon vom Telekommunikationsunternehmen Bell Telephone darum. McCarthy erdachte den Begriff auch, um seine Forschung von dem damals schon bestehenden Fach Kybernetik abzugrenzen, von der „wissenschaftliche Untersuchung von Kontrolle und Kommunikation von Tieren und Maschinen“.

McCarthy und die meisten anderen Teilnehmer der Dartmouth-Konferenz wiederum waren Vertreter der Mathematischen Logik, eines Teilbereichs der Mathematik, der sich grob gesagt damit beschäftigt, Aussagen und Konzepte als Symbole darzustellen und durch bestimmte Transformationen Schlussfolgerungen daraus zu ziehen. Die Fortschritte in der Computertechnologie eröffneten auf diesem Feld ganz neue Möglichkeiten der praktischen Anwendung. Den Weg dafür bereitete wesentlich der geniale Alan Turing, der für die britische Regierung Funksprüche der deutschen Wehrmacht entschlüsselt hatte mit dem ersten elektromagnetischen Computer der Welt. Turing schrieb in seinem Artikel „Computing Machinery and Intelligence“ im Jahr 1950, worum sich der Fortschritt in der Computertechnologie drehen werde: Um das Verständnis natürlicher Sprache, Übersetzungsleistungen, Entscheidungsfindung und eben die mathematische Beweisführung.

Herausforderung für die Menschheit

Faktisch ging es damals noch nicht um Fragen wie die, ob womöglich die Zukunft der gesamten Menschheit infrage steht infolge der Entwicklung schnellerer und besserer Computer. „Wenn McCarthy einen eher langweiligen Begriff verwendet hätte, der nicht eine Herausforderung der menschlichen Dominanz und Erkenntnisfähigkeit suggerieren würde, (…) würde Fortschritt auf diesem Gebiet wohl eher als das erscheinen, was es ist - das andauernde Fortschreiten der Automatisierung“, schreibt der amerikanische Unternehmer und IT-Experte Jerry Kaplan in seinem lesenswerten Einführungsbuch über „künstliche Intelligenz“.

Gleichwohl ist die Dartmouth-Konferenz so etwas wie die Geburtsstunde der künstlichen Intelligenz als eigener wissenschaftlicher Disziplin, auch wenn nicht jeder darunter exakt dasselbe versteht und eine genaue Definition des Begriffs ohnehin schwierig ist. McCarthy beschrieb die Aufgabe des Faches als „Erschaffen einer Maschine, die sich so verhält, dass man dies intelligent nennen würde, wenn ein Mensch sich so verhielte“. Jerry Kaplan erklärt ergänzend dazu: „Die Essenz von künstlicher Intelligenz - tatsächlich die Essenz von Intelligenz überhaupt - ist die Fähigkeit, zügig probate Verallgemeinerungen zu treffen auf Basis begrenzter Daten.“

Das Interesse an dem Gebiet wuchs rasch. Allen Newell und Herbert Simon, der später einmal den Wirtschaftsnobelpreis bekommen sollte, konstruierten ein Programm (Logic Theory Machine), das mathematische Theoreme beweisen konnte. In den sechziger Jahren dann trat die Defence Advanced Research Projects Agency (Darpa) des amerikanischen Verteidigungsministeriums als Geldgeber auf den Plan und finanzierte drei Forschungslabore für künstliche Intelligenz am MIT in Boston, an der Stanford-Universität und an der Carnegie-Mellon-Universität.

Schach, Go, Jeopardy

In der Folge hat es immer wieder Hochphasen und Zeiten der Ernüchterung auf dem Gebiet gegeben, sogenannte „AI-Winter“, in denen teils überoptimistische Ankündigungen von Forschern ein klägliches Rendezvous mit der Realität erlebten. Für großes öffentliches Interesse und Begeisterung wiederum sorgte in der jüngeren Vergangenheit beispielsweise, als der Computer Deep Blue im Jahr 1997 einen Zweikampf gegen den damaligen Schachweltmeister Gary Kasparow gewann. IBM hatte dafür drei Forscher von der Carnegie-Mellon-Universität angeheuert.

Auf den Sieg des Computers folgte eine Debatte über das Verhältnis von menschlicher und maschineller Intelligenz. „Schach wurde lange für eine unnachgiebige Bastion intellektuellen Vermögens gehalten, die voraussichtlich jedem Versuch von Automatisierung widersteht“, erinnert sich Kaplan. Jahre später gewann IBMs Supercomputer Watson ebenfalls öffentlichkeitswirksam das Quizformat „Jeopardy“.

Vor einem Jahr wiederum besiegte ein Programm, das Mitarbeiter von Googles Abteilung für künstliche Intelligenz „Deep Mind“ erschaffen hatten, den Weltmeister im traditionsreichen Brettspiel Go. Auch das ging durch die Medien – und vollkommen zu Recht. Go beinhaltet wesentlich mehr Zugmöglichkeiten als Schach; durch den mathematisch-technischen Ansatz, mit dem Deep Blus Kasparow geschlagen hatte, wäre das nicht lösbar gewesen.

Computer therapiert Krebs

Weniger öffentlich, dafür für das Fach bedeutender, haben vor einigen Jahren der Computerexperte Andrew Ng von der Stanford-Universität und der Google-Mitarbeiter Jeff Dean beigetragen. Sie hatten 16.000 Prozessoren zusammengeschaltet und dann ein Programm zehn Millionen Youtube-Videos mehrere Tage anschauen lassen, also eine gewaltigen Datenmenge. Der Computer hatn dabei von selbst Unterscheidungen gelernt. „Wir haben ihm während des Trainings nie gesagt ,Das hier ist eine Katze'", sagte Dean danach. „Er erfand im Grunde das Konzept einer Katze.“ Das ist der Kern der neuen Forschung und die große Hoffnung: Computer sollen selbständig lernen, indem sie mit einer dem menschlichen Gehirn nachempfundenen Software ausgestattet werden.

Was möglich ist und auf welchen Feldern Computer Menschen mindestens ebenbürtig sein werden, zeigt sich gegenwärtig: Der IBM-Computer Watson hilft, Krebspatienten zu behandeln. Er hat in einem Experiment sogar teilweise bessere Therapien vorgeschlagen als Fachärzte – auch weil er teils offenbar neue Forschungspapiere „kannte“, die noch nicht alle Mediziner gelesen hatten. Google wiederum lässt seit kurzem seinen Übersetzungsdienst mit künstlicher Intelligenz arbeiten. Auch das ist bedeutender, als es klingt, denn: Wie leicht wir mit Computern kommunizieren können, entscheidet mit darüber, wie sehr wir sie in unseren Alltag lassen.

Mehr zum Thema 1/

Die Antwort auf die Frage, ob Computer einmal schlauer als wir Menschen sein werden, lautet darum wohl: Ja, mindestens in begrenztem Umfang und natürlich je nachdem, was wir als intelligent verstehen. In vielen sehr speziellen Tätigkeiten, vor allem in jenen, die klar messbar und definierbar sind, werden Computer Menschen überholen oder haben dies schon getan. So ähnlich wie die industrielle Revolution menschliche Muskelkraft und Körperfertigkeit vielfach neutralisierte, wird der Aufstieg der Computer dies mit der Geisteskraft tun. Schon heute können Computer beispielsweise komplizierte Berechnungen schneller durchführen als Menschen, können in großen Datenmengen schneller Muster erkennen. Spannend ist, ob diese Entwicklung die Menschen ängstigen sollte. Niemand sorgt sich (hoffentlich) oder ist eifersüchtig auf Taschenrechner oder auf Autos, weil sie schneller fahren können als der schnellste Mensch rennen kann.

Fundamental bedeutend wird die Frage, wenn es darum geht, ob Computer wirklich einmal in nahezu allen Belangen gleichzeitig überlegen sein werden. Und besonders in Kombination von Fortschritten in der Biologie, Biotechnologie, Neurowissenschaft und Genetik. Ray Kurzweil, ein amerikanischer Technologie-Vordenker und Unternehmensgründer, der mittlerweile in führender Position für Google arbeitet, hat schon viel darüber geschrieben, wie Menschen und Computer quasi miteinander „leben“ oder gar verschmelzen. „Computer waren zunächst eine Erweiterung unseres Verstandes, und am Ende werden sie unseren Verstand erweitern. Die Maschinen sind schon heute ein integraler Bestandteil unserer Kultur.“

Er hält auf mittlere bis lange Sicht durchaus Szenarien für möglich, in denen sich viele Menschen freiwillig für Neuro-Implantate entscheiden, die sie viel direkter mit Computern verbinden als das Smartphone in der Hosentasche. Der Physiker Stephen Hawking ging sogar noch weiter, als er einmal die Möglichkeit einer technologischen, von Computern betriebenen eigenen Evolution ins Gespräch gebracht hatte, die schneller sein werde als die biologische.

Das ist natürlich ungeheuer vage, die sehr ferne Zukunft, und ganz und gar nicht unbeeinflussbar von uns. Nur gedanklich komplett ausschließen sollte man wohl keine einigermaßen durchdachte Utopie wie Dystopie. Vielmehr dürfte gelten, was der Mathematiker John von Neumann schon im Jahr 1949 sagte: „Es scheint, dass wir die Grenzen dessen erreicht haben, was mit Computertechnologie möglich ist, allerdings sollte man mit solchen Aussagen vorsichtig sein, denn fünf Jahre später klingen sie oft ziemlich dumm.“