Sie ist eine der beliebtesten Methoden der neurowissenschaftlichen Forschung. Man kann mit ihr dem Gehirn beim Arbeiten zusehen. Sogar Schlangen hat man schon mit in die Röhre geschoben, um im Probandenhirn zu schauen, wo die Angst denn nun genau sitzt: Die Rede ist von funktioneller Magnetresonanztomografie, kurz fMRT. Bei diesem modernen Bildgebungsverfahren lassen sich physiologische Prozesse im Körper quasi live filmen. Starke Magnetfelder machen beispielsweise die Sauerstoffsättigung des Blutes in bestimmten Hirnarealen mit hoher räumlicher Auflösung sichtbar. Eine höhere Sauerstoffsättigung gilt als Indikator für eine stärkere Aktivität der jeweiligen Region und voilà – schon hat man ein sogar für den Laien einfach nachzuvollziehendes mächtiges Werkzeug für Forschung und Medizin.

Die Hirnaktivität beobachten, ohne von außen störend einzugreifen: Das ist der Stoff, aus dem die Träume von Psychologen, Psychiatern und Hirnforschern sind. Über viele Jahre waren fMRT-Studien Anlass für vermeintlich grandiose wissenschaftliche Erfolge. Doch was Anders Eklund und seine Kollegen von der schwedischen Universität Linköping und der University of Warwick in England nun herausgefunden haben, könnte das gesamte fMRT-Forschungsfeld erschüttern. Die Wissenschaftler betrachteten die drei gängigsten Auswerteprogramme für fMRT-Aufnahmen und fanden heraus, dass diese in bis zu 70 Prozent der Messungen falsch-positive Ergebnisse lieferten. Die Probleme könnten laut der Forscher um Eklund etwa 40 000 wissenschaftliche Veröffentlichungen betreffen, in denen fMRT zum Einsatz kam.

Bei fMRT-Aufnahmen werden einzelne Voxel, das sind die dreidimensionalen Entsprechungen der Pixel-Bildpunkte einer 2-D-Aufnahme, zu so genannten Clustern zusammengefasst. Diese Aufgabe übernimmt ein Algorithmus. Die Cluster bestehen aus Gruppen benachbarter Voxel, die allein zwar winzig sind, deren gemeinsame korrelierte Aktivität aber einen Rückschluss auf eine aktive Region erlaubt. Die Forscher überprüften mit frei verfügbaren alten Daten aus Messungen an 499 gesunden Probanden im Ruhezustand die statistische Zuverlässigkeit der Auswertealgorithmen. Dazu verglichen sie insgesamt knapp drei Millionen Mal zufällig zusammengestelte Daten von Gruppen bestehend aus 20 der 499 Probandendatensätze. Erst durch diesen "Open-Data"-Ansatz, den die Forscher explizit würdigen, sei ihre Untersuchung überhaupt möglich geworden. Sie beobachteten, dass in bis zu 70 Prozent der Vergleiche Hirnaktivität festgestellt wurde, wo gar keine vorhanden war. Die zu erwartende Fehlerquote lag bei lediglich fünf Prozent.

Als Grund sehen Eklund und Co. räumliche Autokorrelationsfunktionen, die die Programme verwenden, um Cluster zu definieren und deren Form nicht der erwarteten gaußschen Verteilung folgt. Schon früher hatte es Kritik an fMRT-Messungen gegeben, wurde ihre Zuverlässigkeit, Reproduzierbarkeit und Aussagekraft angezweifelt. Sogar bei einem toten Lachs hatten Forscher beispielsweise einmal Hirnaktivität nachgewiesen und damit das Verfahren diskreditiert. Eklund schlägt ein neues Verfahren vor, um die von ihm und seinen Kollegen enthüllten Probleme bei der Auswertung zumindest für die Zukunft zu lösen. Sein Ansatz sei zwar wesentlich rechenintensiver als die bisherigen Algorithmen. Die mittlerweile verfügbaren leistungsstarken und dabei günstigen Grafikkarten sollten aber annehmbare Rechenzeiten ermöglichen, die die Auswertungen wesentlich verbessern würden, so die Forscher.