Grund für die Verrenkungen, die unser Gehirn dabei unternimmt, ist das so genannte Konsistenzmotiv, wie Psychologe Vogel weiter ausführt: »Wir haben das Bedürfnis, dass unser Wissen widerspruchsfrei ist. Alles andere würde ja logisch keinen Sinn ergeben.« Stehen unsere Einstellung und eine nicht dazu passende Information nebeneinander, sprechen Wissenschaftler von kognitiver Dissonanz. Um diesen unangenehmen Spannungszustand aufzulösen, müssen wir an manchen Stellen Informationen abwehren. Am einfachsten sei das, wenn man Fakten rundheraus für falsch erklären kann, so Vogel. Ist das nicht möglich, können wir auch das Gewicht der Information kleinreden. »Überzeugte VW-Fans etwa sagen sich dann: Okay, beim Schadstoffausstoß wurde getrickst, aber das ist ja nicht der Grund, warum ich diese Marke fahre«, erläutert Vogel.

Ich möchte das nicht!

2016 untersuchten Neurowissenschaftler um Jonas Kaplan von der University of Southern California in Los Angeles die neuronalen Grundlagen dieser Abwehrreaktion. Die Teilnehmer lagen im Hirnscanner und lasen Gegenargumente zu politischen Statements, denen sie zuvor überzeugt zugestimmt hatten. Einer der Befunde war, dass die Versuchspersonen anschließend umso weniger ihre Meinung änderten, je stärker beim Lesen der Gegenargumente ihre Amygdala aktiv war. Diese Struktur, oft als Angstzentrum des Gehirns bezeichnet, ist immer beteiligt, wenn wir Situationen emotional bewerten. Für das Gehirn macht es zu einem gewissen Grad demnach keinen Unterschied, ob wir körperlich bedroht sind oder ob unsere Identität bedroht ist, schlussfolgern die Forscher – und je heftiger unsere emotionale Reaktion auf diese Bedrohung ausfällt, desto eher halten wir an unseren Überzeugungen fest.

Ebenfalls weit verbreitet ist ein anderer Abwehrmechanismus, den Wissenschaftler häufig in Studien mit Rauchern gefunden haben. In diesem Fall würde eine Raucherin denken: Mag sein, dass Tabakrauch die Gefahr für viele Krankheiten erhöht – aber mich wird das nicht treffen. »Optimistischer Fehlschluss« heißt dieser Denkfehler. So ließe sich auch die Uneinsichtigkeit mancher eingefleischten Impfgegner erklären, sagt Kommunikationswissenschaftlerin Christina Peter. »Viele glauben ja durchaus, dass Masern bei kleinen Kindern zum Tod führen können«, unterstreicht Peter. »Sie sind nur davon überzeugt, dass es ihrem Kind schon nicht passieren wird.«

Wie wir mit unliebsamen Informationen umgehen, darüber entscheidet, wie extrem und gefestigt unsere Meinung im Vorhinein ist. Das hat verschiedene Gründe. Zum einen sind sehr starke Einstellungen – die glühende Anhängerschaft für einen Fußballverein, die tiefe Verachtung einer politischen Partei – besonders wichtig für die eigene Identität. Sie aufzugeben, ist psychologisch kostspieliger als bei weniger markanten Einstellungen, etwa der Bevorzugung dieser oder jener Jogurtsorte am Kühlregal. Zum anderen aber sind Menschen, die eine Sache passioniert vertreten, oft umfassender informiert. Daher kennen sie mehr Argumente für ihre Meinung, mit denen sie Angriffe parieren können.

Laden... © fotolia / ulkas (Ausschnitt) Privilegierte Quellen | Was Menschen für wahr oder falsch halten, hängt viel stärker vom sozialen Umfeld ab als von Daten, Fakten oder Argumenten.

Diese Fähigkeit, Herausforderungen des eigenen Weltbilds mit Gegenargumenten zu begegnen, baut sich meist langsam auf. Und nicht selten sind es gerade Überzeugungsversuche anderer, welche die ideologischen Abwehrkräfte stärken. Der Sozialpsychologe William McGuire (1925–2007) von der Yale University prägte dafür den Begriff der Inokulation, zu Deutsch: Impfung. Analog zum medizinischen Vorgang, so fanden McGuire und seine Mitarbeiter heraus, können wiederholte, schwache Argumente gegen unsere Position uns gegen stärkere Attacken immunisieren. Wichtig dabei: Die Gegenargumente müssen so stark sein, dass wir sie überhaupt einer Widerlegung würdig finden – aber dennoch nicht stark genug, um unsere Überzeugung ernsthaft zu erschüttern.

Was hängen bleibt – und was nicht

Einen ebenfalls subtilen Effekt, bei dem Argumente über die Zeit hinweg die genau gegenteilige Wirkung entfalten, hat Christina Peter selbst untersucht. »Oft gibt es ja solche Mythen- oder Faktenchecks in der Presse«, erklärt Peter. Dabei werde häufig die falsche Information noch einmal wiederholt, à la: »Was ist dran am Mythos ›Impfen verursacht Autismus?‹« Wenn Menschen das flüchtig lesen, bleibt oft nur die fehlerhafte Aussage hängen – nicht aber die Tatsache, dass diese eigentlich korrigiert wurde. Aus Sicht desjenigen, der die falsche Information richtigstellen wollte, geht der Schuss also nach hinten los, daher spricht man auch von einem »backfire effect«. Zu ihm trägt bei, dass wir Fakten zuallererst in Kategorien wie »Das hab ich schon mal gehört« oder »Das ist mir vollkommen neu« einsortieren und dass wir prägnante Aussagen besser behalten als Kontextinformationen. »Eine Fehlinformation ist oft kurz und knackig, die Wahrheit dagegen eher dröge und kompliziert«, so die Kommunikationswissenschaftlerin.