Avez-vous déjà rencontré des gens qui changent d’avis quand vous leur exposez des faits qui sont contraires à leurs convictions ? Moi jamais. Pire, les gens semblent renforcer leurs croyances et les défendre avec acharnement quand il y a des preuves accablantes contre elles. L’explication est liée au fait que notre vision du monde nous semble menacée par des preuves factuelles qui ne vont pas dans son sens.

Les créationnistes, par exemple, contestent les preuves de l'évolution comme les fossiles ou la génétique parce qu'ils s'inquiètent que des forces séculières empiètent sur la foi religieuse. Les anti-vaccination se méfient des firmes pharmaceutiques et pensent que l'argent corrompt la médecine. Cela les amène par exemple à croire qu’il y a un relation de cause à effet entre les vaccins et l’autisme malgré la vérité gênante que la seule étude affirmant un tel lien a été rétractée et son auteur principal accusé de fraude. Les conspirationnistes du 11 septembre se concentrent sur des détails minutieux comme le point de fusion de l'acier dans les tours du World Trade Center, qui a causé leur effondrement, parce qu'ils pensent que le gouvernement américain ment et mène des opérations « sous faux pavillon » pour créer un nouvel ordre mondial. Les négationnistes du climat étudient les cernes de croissance des arbres, les carottes de glace et les concentrations de gaz à effet de serre parce qu'ils sont passionnés par la liberté, en particulier celle des industries à mener leurs affaires sans être contraintes par des réglementations gouvernementales restrictives. Les obsédés de l’origine de Barack Obama ont désespérément disséqué son certificat de naissance en quête d’une fraude, car ils croyaient que le premier président afro-américain des Etats-Unis était un socialiste qui avait pour but de détruire le pays.

Dans ces exemples, les conceptions du monde profondes de ces partisans sont perçues comme étant menacées par les rationnalistes, ce qui fait de ces derniers « l'ennemi à abattre ». Ce emprise de la croyance sur la preuve s'explique par deux facteurs : la dissonance cognitive et l'effet rebond (backfire). Dans un ouvrage classique publié en 1956 intitulé Quand la prophétie échoue, le psychologue Leon Festinger et ses co-auteurs ont décrit ce qui est arrivé à une secte vouant un culte aux ovnis après que le vaisseau-mère extraterrestre attendu n'est pas arrivé à l’heure annoncée. Au lieu d'admettre leur erreur, « les membres du groupe ont cherché frénétiquement à convaincre le monde de leurs croyances », et ils ont fait « une série de tentatives désespérées pour effacer cette dissonance entre leur croyance et la réalité en faisant de nouvelles prédictions après la prophétie initiale, dans l'espoir que l'une finirait par être la bonne ». Festinger a qualifié cet état de dissonance cognitive, une tension inconfortable qui survient lorsque l'on considère deux idées contradictoires simultanément.

Dans leur livre Les erreurs des autres. L'autojustification, ses ressorts et ses méfaits, publié en 2007, les deux psychologues sociaux Carol Tavris et Elliot Aronson (un ancien étudiant de Festinger) documentent des milliers d'expériences démontrant comment les gens déforment et sélectionnent les faits pour les adapter à leurs croyances préexistantes et réduire leur dissonance cognitive. Leur métaphore de la « pyramide de choix » illustre comment deux individus ayant des positions proches – côte à côte au sommet de la pyramide – peuvent rapidement diverger et finir au pied de la pyramide sur des faces opposées, avec des opinions inverses, dès lors qu’ils se sont mis en tête de défendre une position.

Dans une série d'expériences, Brendan Nyhan, de Dartmouth College, et Jason Reifler, de l'Université d'Exeter, ont identifié un second facteur, connexe, qu'ils ont nommé « effet rebond » (en anglais, backfire) : corriger les erreurs factuelles liées aux croyances d’une personne n’est pas seulement inefficace, mais cela renforce ses croyances erronées, car « cela menace sa vision du monde ou l’idée qu’elle se fait d’elle-même ». Les sujets d’une expérience recevaient par exemple des articles de presse fictifs qui confirmaient des idées fausses répandues, comme la présence d’armes de destruction massive en Irak. Puis on donnait aux participants un article qui démontrait qu’aucune arme de destruction massive n’avait été trouvée. Résultat : les sujets d’orientation libérale qui étaient opposés à la guerre ont accepté le nouvel article et rejeté les anciens, alors que les conservateurs qui soutenaient la guerre ont fait le contraire. Pire, ils ont déclaré être encore plus convaincus de l’existence d’armes de destruction massive après avoir lu l’article montrant qu’il n’y en avait pas, au motif que cela prouvait seulement que Saddam Hussein les avait cachées ou détruites. En fait, Nyhan et Reifler ont noté que chez de nombreux conservateurs, « la croyance que l'Irak possédait des armes de destruction massive juste avant l'invasion par les États-Unis a persisté longtemps après que l'administration Bush elle-même a fini par admettre que ce n’était pas le cas ».

Si les corrections factuelles ne font qu'empirer les choses, que pouvons-nous faire pour convaincre les gens que leurs croyances sont erronées ? Selon mon expérience empirique, on peut adopter le comportement suivant :

Mettre ses émotions de côté. Discuter, ne pas attaquer (pas d’attaque ad hominem ni de point Godwin). Ecouter attentivement et essayer de d'analyser la position de votre interlocuteur avec précision. Montrer du respect. Reconnaître que vous comprenez pourquoi quelqu'un peut soutenir cette opinion. Essayer de montrer comment changer de vision des faits n’implique pas nécessairement de changer de vision du monde.

Ces stratégies ne fonctionnent pas toujours pour convaincre les gens de changer de point de vue, mais en ces temps où il est devenu si courant de s’affranchir de la vérité dans le débat public, cela pourrait au moins aider à réduire les dissensions inutiles.

Article original publié sur ScientificAmerican.com