Bayessche Gehirne und effizientes Rechnen

Es wurde nicht immer als selbstverständlich angesehen, dass das Gehirn Vorhersagen über seine Erfahrungen macht und auswertet. Bis ins späte 20. Jahrhundert nahmen Hirnforscher an, dass das Gehirn eine Art Detektor für Muster in Sinnesdaten sei: Es registriere Sinnesreize, verarbeite sie und erzeuge ein Verhalten als Reaktion. Dabei repräsentiert die Aktivität einzelner Hirnzellen die An- oder Abwesenheit bestimmter Reize. Einige Neurone im visuellen Kortex reagieren zum Beispiel nur auf die Kanten sichtbarer Objekte, andere auf deren Orientierung, Färbung oder Schattierung.

Doch dieser Prozess erwies sich als weit komplizierter als zunächst angenommen. So ergaben spätere Experimente, dass die Neurone, die auf Linien reagieren, aufhören zu feuern, wenn das Gehirn eine immer länger werdende Linie wahrnimmt – obwohl die Linie nicht verschwindet. Außerdem kann die Detektortheorie nicht erklären, warum im Gehirn ein beträchtlicher Teil des Informationsflusses »top-down« zu verlaufen scheint, also von Arealen für komplexere Inhalte in Richtung jener, die einfachere Sinnesdaten verarbeiten.

Hier kommt das »bayessche Gehirn« ins Spiel, eine Theorie, die bis in die 1860er Jahre zurückreicht und das traditionelle Modell auf den Kopf stellt. Ihr zufolge erkennt das Gehirn nicht einfach Sinnesmuster, sondern zieht aus ihnen fortlaufend Schlüsse darüber, was in der Welt mutmaßlich zu passieren scheint. Dabei folgt es den Regeln der bayesschen Wahrscheinlichkeitsrechnung, die die Wahrscheinlichkeit eines kommenden Ereignisses auf Basis vorheriger Erfahrungen ermittelt. Statt auf Sinneseindrücke zu warten, konstruiert das Gehirn also ständig aktiv Hypothesen darüber, wie die Welt funktioniert. Es erklärt so außerdem neue Erfahrungen und füllt Lücken, wenn die Sinnesdaten unvollständig sind. Nach Meinung einiger Experten könnte man Wahrnehmung also auch als »kontrollierte Halluzination« auffassen.

So erklärt die Theorie vom bayesschen Gehirn auch, wie optische Täuschungen zu Stande kommen: Zwei Punkte, die im schnellen Wechsel auf einem Bildschirm blinken, erscheinen beispielsweise wie ein einzelner Punkt, der hin- und herspringt. Unser Gehirn beginnt unbewusst, die beiden Punkte als ein Objekt zu betrachten. Unser abstraktes Verständnis darüber, wie sich Objekte in der Welt bewegen, beeinflusst also grundlegend, wie wir Objekte wahrnehmen. Das Gehirn füllt einfach Informationslücken – in diesem Fall über die Bewegung –, auch wenn es dabei mitunter danebenliegt.

Wie das allerdings auf Ebene der neuronalen Schaltkreise funktioniert, ist weiterhin unklar. »Die Idee vom bayesschen Hirn macht eigentlich kaum Aussagen über die zu Grunde liegenden Mechanismen«, sagt Mark Sprevak, Professor für die Philosophie des Geistes an der University of Edinburgh in Schottland. Und genau hier kommt die Theorie des Predictive Coding ins Spiel. Sie liefert ein konkretes Rezept für den Bau eines bayesschen Hirns. Ein Hinweis darauf steckt im Namen: »Predictive Coding« ist von einer Technologie zur effizienten Übertragung von Telekommunikationssignalen abgeleitet. Bei Videos beispielsweise ähneln sich die Daten der aufeinanderfolgenden Einzelbilder sehr stark. Da wäre es ineffizient, die Pixel in jedem Bild einzeln zu codieren, wenn die Datei zum Verschicken komprimiert wird. Es ist sinnvoller, nur die Veränderungen der aufeinanderfolgenden Einzelbilder zu codieren und so das gesamte Video beim Empfänger wiederaufzubauen.

Laden... © Lucy Reading-Ikkanda / Quanta Magazine; dt. Bearbeitung: Spektrum der Wissenschaft (Ausschnitt)

Im Jahr 1982 erkannten Forscher, dass sich dieses Prinzip wunderbar in der Hirnforschung nutzen lassen könnte. Es liefert nämlich eine Erklärung dafür, wie Neurone in der Netzhaut Informationen über visuelle Reize codieren und durch den Sehnerv schicken. Außerdem wusste man bereits, dass das Belohnungssystem des Gehirns auf ähnliche Weise arbeitet: Dopaminneurone codieren hier die Diskrepanz zwischen einer erwarteten und der tatsächlichen Belohnung. Solche Prognosefehler helfen Tieren, ihre Erwartungen an künftige Ereignisse anzupassen und so bessere Entscheidungen zu treffen.

Die Idee hinter dem »Predictive Coding« stammt aus der Telekommunikation

Dennoch glaubten die meisten Forscher, dass Predictive Coding nur in bestimmten Netzwerken des Gehirns implementiert ist. Ein Bild, an dem neue Methoden wie die funktionelle Magnetresonanztomografie (fMRT) zu rütteln begonnen haben.

Eine universelle Theorie

Was die Hypothese des Predictive Coding so attraktiv macht, ist ihre ungewöhnliche Erklärungskraft. »Was ich überzeugend finde, ist, wie viele Phänomene man damit unter einen Hut bringt«, sagt Andy Clark, der ebenfalls an der University of Edinburgh forscht. Der Professor für Logik und Metaphysik gilt als Experte der Theorie.

Predictive Coding begreift zum Beispiel Wahrnehmung und motorische Steuerung als zwei Seiten derselben Informationsverarbeitung. In beiden Fällen minimiert das Gehirn Vorhersagefehler, bloß auf unterschiedliche Weise. Bei der Wahrnehmung wird das interne Modell angepasst, bei der motorischen Steuerung die Außenwelt selbst. Stellen Sie sich etwa vor, dass Sie Ihre Hand heben wollen. Wenn Ihre Hand nicht bereits gehoben ist, erzeugt die wahrgenommene Diskrepanz einen großen Vorhersagefehler. Der kann leicht minimiert werden, indem Sie Ihre Hand heben.

Die bisher überzeugendsten Belege für die Predictive-Coding-Theorie haben denn auch Experimente zur Wahrnehmung und motorischen Steuerung geliefert. In einem Artikel, der im Juni 2018 im Fachmagazin »Journal of Neuroscience« veröffentlicht wurde, beschreiben die Autoren ein Experiment, bei dem sie Probanden das englische Wort »kick« auf einem Bildschirm lesen ließen. Anschließend spielten sie ihnen eine verzerrte Aufnahme des Wortes »pick« vor, die wie ein lautes Flüstern klang. Viele der Probanden hörten jedoch statt »pick« das Wort »kick«. fMRT-Scans zeigten, dass im Gehirn dabei der einleitende »k«- oder »p«-Laut am stärksten repräsentiert war – jener Laut also, der mit dem Vorhersagefehler korreliert. Hätte die Hirnaktivität nur die Wahrnehmungserfahrung wiedergegeben, hätte das stärkste Signal stattdessen auf das Wortende »ick« fallen müssen, das sowohl auf dem Bildschirm als auch in der Aufnahme vorkam.

Einige Forscher versuchen nun zu zeigen, dass Predictive Coding auch in Bereichen außerhalb der Wahrnehmung und Motorik relevant ist. Sie wollen den Vorhersagemechanismus als Grundlage aller Vorgänge im Gehirn etablieren. »Er gibt uns eine Art Baukasten, mit dem ganz unterschiedliche Verarbeitungsstrategien zusammengesetzt werden können«, erklärt Clark. Jede Hirnregion könnte so ihre jeweils eigene Art von Vorhersage produzieren.

Karl Friston und andere Forscher denken, dass dies auch für höhere kognitive Prozesse einschließlich der Aufmerksamkeit und Entscheidungsfindung gelte. Jüngste Simulationen des präfrontalen Kortex legen etwa nahe, dass das Predictive Coding eine Rolle beim Arbeitsgedächtnis und zielorientierten Verhalten spielt. Einige Wissenschaftler vermuten sogar, dass auch Emotionen auf dem Predictive Coding beruhen: Sie könnten Zustände sein, die Gehirne erzeugen, um Vorhersagefehler über interne Signale wie Körpertemperatur, Herzfrequenz oder Blutdruck zu minimieren. Bei emotionaler Aufregung etwa weiß das Gehirn sofort, dass sich all diese physiologischen Faktoren ändern. So entsteht womöglich auch das Konzept des Selbst.

Die meisten aktuellen Arbeiten zum Predictive Coding konzentrieren sich heute auf den Bereich Neuropsychiatrie und Entwicklungsstörungen. »Wenn das Gehirn eine Schlussfolgerungsmaschine ist, ein Organ der Statistik, dann wird es auch die gleichen Fehler machen wie ein Statistiker«, sagt Friston. Das bedeutet, es wird gelegentlich falsche Schlüsse ziehen, also zu viel oder zu wenig Gewicht auf Vorhersagen oder Vorhersagefehler legen.

»Was ich überzeugend finde, ist, wie viele Phänomene man damit unter einen Hut bringt«

(Andy Clark)

Auf diese Weise könnte man einige Merkmale des Autismus als die Unfähigkeit des Gehirns verstehen, Fehler in der Vorhersage sensorischer Signale auf der untersten Ebene der Verarbeitungshierarchie zu ignorieren. Die Betroffenen würden viel zu viel Gewicht auf Sinneserfahrungen legen, ein Bedürfnis nach Wiederholung und Vorhersehbarkeit erzeugen und eine besondere Empfänglichkeit für bestimmte Illusionen mit sich bringen. Bei der Schizophrenie könnte das Gegenteil der Fall sein: Legt das Gehirn den Fokus zu stark auf die eigenen Vorhersagen und nicht ausreichend auf die Sinnesdaten, kommt es zu Halluzinationen. Experten mahnen jedoch zur Vorsicht: Autismus und Schizophrenie seien viel zu kompliziert, um auf eine einzige Erklärung oder einen einzigen Mechanismus reduziert zu werden.

»Die größte Tragweite hat dabei die Erkenntnis, wie anfällig unsere mentale Funktion für Fehler ist«, sagt Philip Corlett, ein klinischer Neurowissenschaftler an der Yale School of Medicine. Zur Demonstration pflanzte sein Team gesunden Probanden falsche Überzeugungen ein und ließ sie Dinge »halluzinieren«, die sie zuvor wahrgenommen hatten. Konkret konditionierte Corletts Team die Freiwilligen darauf, einen Ton mit einem visuellen Muster zu assoziieren. Nach der Konditionierung hörten sie dann auch den Ton, selbst wenn nur das visuelle Muster präsentiert wurde: eine Illusion, die durch eine erlernte Überzeugung ausgelöst wird. Nun versuchen Corlett und seine Mitarbeiter herauszufinden, wie es funktioniert, dass sich solche Überzeugungen in der Wahrnehmung niederschlagen. »Mit den Studien haben wir einen ersten Beweis dafür geliefert, dass Wahrnehmung und Kognition nicht getrennt arbeiten«, sagt Corlett. »Neue Überzeugungen können antrainiert werden, und dann verändern sie, was man wahrnimmt.«

Ein tieferer Blick ist nötig

In den Kognitionswissenschaften ist die Theorie auch auf Grund solcher Erkenntnisse schon recht weit verbreitet. Ein echter Beweis für das Predictive Coding sind aber auch diese experimentellen Resultate nicht. »Solche Ergebnisse sind mit dem Predictive Coding zwar kompatibel«, sagt Sprevak, »sie können jedoch nicht zeigen, dass das Modell die bestmögliche Erklärung für die Daten liefert.« Dafür müsste man tiefer in die Netzwerke des Gehirns schauen.

»In der System-Neurowissenschaft ist Predictive Coding noch immer ein Nebenschauplatz«, sagt Georg Keller, Neurowissenschaftler am Friedrich-Miescher-Institut für Biomedizinische Forschung in Basel. Sein Labor versucht das zu ändern. In einer im Jahr 2017 im Fachmagazin »Neuron« veröffentlichten Studie berichten Keller und seine Kollegen, wie sie beobachteten, dass sich im Sehsystem von Mäusen Neurone entwickelten, die auf Basis neuer Erfahrungen Vorhersagen machten. Die Entdeckung ist einem technischen Missgeschick zu verdanken. Das Ziel der Forscher war, ihre Mäuse in einer Art virtueller Welt zu trainieren. Bei der 3-D-Programmierung war ihnen allerdings ein Fehler unterlaufen: Wenn sich die Tiere nach links drehten, wanderte ihr Blickfeld nach links statt nach rechts wie in der Realität.

Die Forscher machten sich dies zu Nutze. Sie nahmen die Signale der Hirnaktivität der Tiere auf, die den visuellen Fluss repräsentieren. Dabei stellten sie fest, dass sich die Signale langsam an die Regeln der verkehrten Trainingswelt anpassten, als die Tiere die neuen Regeln lernten. »Die Signale sahen aus wie Vorhersagen visueller Bewegungen nach links«, sagt Keller.

Das Argument der Forscher: Würden die Signale reine Sinnesdaten darstellen, hätten sie sich in der virtuellen Welt sofort umdrehen müssen. Würden sie motorischen Signalen entsprechen, würden sich die Tiere nie umdrehen. Beides war nicht der Fall. Stattdessen seien es Prognosen, die die Veränderungen im Sichtfeld bei einer Bewegung vorhersagen, sagt Keller. Diese Ergebnisse von Keller seien eine völlig neue Art des Nachweises, meint Clark. »Sie demonstrieren Zelle für Zelle und Schicht für Schicht, dass Predictive Coding die beste Erklärung dafür liefert, was in dem Experiment vor sich ging.«

Etwa zur gleichen Zeit berichteten Forscher um Caspar Schwiedrzik vom European Neuroscience Institute Göttingen von ähnlichen Ergebnissen in einem Teil des Makakenhirns, das mit der Gesichtserkennung im Zusammenhang steht. Frühere Studien hatten bereits gezeigt, dass Neurone in den unteren Schichten des so genannten Gesichtsnetzwerks orientierungsrelevante Merkmale von Gesichtern codieren – einige werden zum Beispiel nur bei Gesichtern im Profil aktiv, andere bei Frontalansichten. In höheren Schichten des Netzwerks repräsentieren die Neurone dagegen Gesichter auf abstraktere Weise, sie reagieren dort eher auf die Identität als auf die Ausrichtung im Raum.

In der Makakenstudie trainierten die Forscher die Affen mit Paaren von Gesichtern. Das Gesicht, das den Affen zuerst gezeigt wurde, verriet immer auch etwas über das darauf folgende. Später manipulierten sie die dabei entstandenen Erwartungen der Affen, indem sie das erwartete Gesicht entweder aus einem anderen Blickwinkel zeigten oder ein ganz anderes Gesicht verwendeten. Dabei beobachteten die Wissenschaftler Vorhersagefehler in den niedrigeren Ebenen des Netzwerks. Ihren Ursprung hatten diese Fehlersignale aber in den höheren Schichten des Netzwerks, wo die Vorhersagen über die Identität getroffen werden. Das weist darauf hin, dass die niedrigeren Ebenen Fehlersignale erzeugen, indem sie die Sinnessignale mit den Vorhersagen vergleichen, die aus höheren Schichten stammen.

»Es war spannend, dass wir nicht nur Vorhersagefehler selbst, sondern auch den spezifischen Inhalt dieser Vorhersagefehler in diesem System gefunden haben«, sagt Studienautor Schwiedrzik. Bei Versuchen an Menschen scheint sich die Hypothese des Vorhersagefehlers ebenfalls zu bestätigen. Zumindest deuten darauf noch vorläufige Ergebnisse einer Studie von Forschern um Lucia Melloni vom Max-Planck-Institut für empirische Ästhetik in Frankfurt hin.

Eine Vorhersage bitte – codiert oder verarbeitet?

Doch längst nicht alle Forscher sind der Auffassung, dass sich Predictive Coding als grundlegender Hirnmechanismus herauskristallisiert. Bei anderen sind die Zweifel noch prinzipieller. David Heeger, Professor für Psychologie an der New York University, findet es wichtig, zwischen »Predictive Coding«, einer effizienten Form von Informationsübertragung, und »Predictive Processing« zu unterscheiden. Wobei er Letzteres als das beständige Treffen von Vorhersagen über Zukünftiges auffasst. »In der Literatur herrscht darüber große Verwirrung, weil diese unterschiedlichen Konzepte oft in einen Topf geworfen werden«, sagte er. Andere bayessche Modelle könnten unter bestimmten Umständen eine genauere Beschreibung der Gehirnfunktion liefern.

Einig dagegen sind sich die meisten Experten darüber, dass die Forschung am Predictive Coding viel Potenzial für maschinelles Lernen bietet. Zwar beschäftigt sich die künstliche Intelligenz derzeit nicht sonderlich intensiv mit dem Modell. Friston aber denkt, dass eine »Deep-Learning«-Architektur, die auf Predictive Coding beruht, die Intelligenz der Maschinen noch näher an die des Menschen bringen könnte. Das eingangs erwähnte GQN von Deep Mind ist ein gutes Beispiel dafür. Ein anderes stammt von Forschern von der University of Sussex. 2018 implementierten sie das Predictive Coding in einer Kombination aus künstlicher Intelligenz und virtueller Realität. Heraus kam dabei eine »Halluzinationsmaschine«, die in der Lage war, halluzinatorische Zustände nachzuahmen, wie sie typischerweise durch psychedelische Drogen verursacht werden.

Derartige Fortschritte beim Maschinenlernen könnten auch dazu genutzt werden, neue Erkenntnisse über die Hirnfunktion zu gewinnen. Bevor es jedoch so weit ist, haben Hirnforscher noch viel zu tun. Sie müssen Methoden wie die von Keller, Schwiedrzik und anderen optimieren, wenn sie herauszufinden wollen, wo genau im Gehirn die internen Modelle sitzen. Es bleibt abzuwarten, ob weitere Experimente die Existenz des Predictive Coding auch in höheren kognitiven Prozessen belegen.

Predictive Coding »ist für die Neurowissenschaft so wichtig wie Evolution für die Biologie«, sagt Lars Muckli von der University of Glasgow, der sich intensiv mit der Theorie auseinandergesetzt hat. Bislang aber, findet Sprevak, »ist das letzte Wort noch nicht gesprochen«.