Cet été, Katharine Viner (@kathviner), rédactrice en chef du Guardian a publié un long article sur Comment la technologie bouleverse la vérité (un article que vient de traduire Courrier International, et qui a déjà été largement discuté sur Rue89 ou Big Browser par exemple).

Sommes-nous dans un régime post-vérité ?

L’article de Katharine Viner nous explique qu’à l’heure des réseaux sociaux, la vérité ne compte plus. La journaliste prend notamment l’exemple du Brexit détaillant le fait que les arguments de ceux qui ont fait campagne pour la sortie du Royaume-Uni de l’Europe se sont écroulés le lendemain même de l’élection. « Le Brexit a été le premier scrutin d’une nouvelle ère, celle de la politique post-vérité. Les partisans du maintien du Royaume-Uni dans l’UE ont bien – mollement – tenté de démontrer les mensonges du camp adverse en s’appuyant sur des faits, mais ils ont vite découvert que les faits ne pesaient pas lourd dans les débats ».

Pour elle, la presse eurosceptique a fait feu de tout bord pour créer un lien émotionnel qui l’a largement emporté sur la présentation factuelle de l’autre camp. Et les réseaux sociaux notamment ont renforcé l’absence de consensus, l’absence de vérité partagée. Les rumeurs et les mensonges l’ont emporté sur les faits. « A l’heure du numérique, il n’a jamais été aussi facile de publier des informations mensongères qui sont immédiatement reprises et passent pour des vérités. » Pour la journaliste, combattre cette escalade de désinformation nécessite des organes de presse fiables pour parvenir à dissiper les rumeurs…

C’est oublier peut-être que l’enjeu, en fait, n’est pas la vérité. Dans les conversations et les rumeurs que l’on colporte, la vérité n’a pas sa place…. « Les gens relaient les opinions des autres, même s’il s’agit de mensonges ou d’informations fallacieuses ou incomplètes, parce qu’ils ont le sentiment d’avoir appris quelque chose d’important », explique Danielle Citron (@daniellecitron), spécialiste du harcèlement en ligne.

Et les algorithmes des médias sociaux qui nous enferment dans nos bulles de filtres nous proposent une vision du monde soigneusement sélectionnée pour aller dans le sens de nos croyances et de nos convictions, nous éloignant de toutes réfutations. Sur Facebook, Tom Steinberg (@steiny), le fondateur de MySociety, au lendemain du Brexit, disait : « Je cherche activement des gens qui se réjouissent de la victoire des pro-Brexit sur Facebook, mais les filtres sont tellement forts et tellement intégrés aux fonctions de recherche personnalisées sur des plateformes comme Facebook que je n’arrive pas à trouver une seule personne contente de ce résultat électoral, et ce alors que près de la moitié du pays est clairement euphorique aujourd’hui »… Pour lui, il y a là un facteur de division extrêmement grave de la société : « nous ne pouvons pas vivre dans un pays où la moitié des gens ne savent strictement rien de l’autre moitié ».

C’est la faute aux réseaux sociaux !

Pourtant, peut-on accuser seulement les réseaux sociaux et la personnalisation algorithmique de cette évolution ? Nos bulles de filtres et nos chambres d’échos sont-elles les seules responsables de cette évolution ?

Pour Emily Bell, directrice du Tow Center for Digital Journalism de l’université de Columbia, les organes de presse ne contrôlent plus la diffusion de leurs contenus. Et les réseaux sociaux concentrent un pouvoir d’accès à l’information qui n’a jamais existé jusqu’à présent. A l’image de ce que révélait la récente grande enquête du New York Times Magazine montrant la puissance de nouveaux médias politiques qui fabriquent du contenu uniquement pour Facebook, dont le but n’est pas d’attirer les internautes vers des articles, mais de développer le partage et les revenus, sans aucune déontologie en faveur de la prudence ou la véracité de l’information. Comme le soulignait la lecture par Xavier de la Porte de cet article: « ces sites privilégient ce qui choque (…). Ils fabriquent des mèmes (c’est-à-dire des motifs que les internautes vont utiliser, détourner, partager). (…) Ils ne poursuivent pas tous un but politique », mais parfois seulement un but commercial, où le clic est le seul modèle d’affaires.

Katharine Viner pointe la même dérive des contenus taillés sur mesure pour ces outils sociaux, cette junk food news… Pour elle « trop d’entreprises de presse mesurent leurs contenus en termes de viralité au détriment de la qualité ou de la vérité ». Les rumeurs et les mensonges circulent plus rapidement du fait de leur caractère sensationnel. L’important n’est plus que les histoires soient vraies, mais que les gens cliquent ! Pour Katharine Viner, « l’ère des faits est révolue ».

« Au lieu de renforcer les liens sociaux, d’informer ou de cultiver l’idée qu’informer est un devoir civique et une nécessité démocratique, ce système crée des communautés clivées qui diffusent en un clic des mensonges les confortant dans leurs opinions et creusant le fossé avec ceux qui ne les partagent pas. » Reste que Katharine Viner analyse ce changement depuis la presse : la presse en ligne s’appuie sur un modèle fondé sur le nombre de clics, l’audience. Or, dans cette logique, face à des contenus conçus pour la viralité, la presse ne peut que perdre la bataille de la vérité. La solution repose-t-elle sur un nouveau modèle économique de la presse, comme l’appelle de ses voeux la journaliste ? C’est certainement croire trop rapidement que les nouveaux acteurs de l’information qui exploitent très bien ces outils sociaux relèvent d’un projet éditorial de type presse… Or, comme le montrait l’enquête du New York Times, l’objectif de ces nouveaux acteurs et la façon même dont fonctionnent les médias sociaux n’est pas exactement le même que ceux d’un média.

L’enjeu ne semble pas tant de renforcer la déontologie de la presse que de laisser le champ libre à ces acteurs qui exploitent les médias sociaux, sans avoir toujours réellement des liens avec une forme de presse. Plus que de définir le rôle des médias dans un espace public fragmenté et déstabilisé, l’enjeu tient peut-être plus d’évoquer ces nouveaux objets médiatiques qui utilisent les réseaux sociaux pour démultiplier leur audience. Pour la sociologue Zeynep Tufekci, « pendant des décennies, les journalistes ont été les garde-fous du discours public », mais leur effacement change la donne. Pour Viner, la réponse repose sur le besoin d’une culture journalistique forte, mais à nouveau, c’est peut-être mal voir que ces nouveaux acteurs sont d’abord et avant tout de nouvelles formes médiatiques, en grandes parties incompatibles avec celles qui étaient les nôtres jusqu’à présent. Comme le souligne l’article du New York Times, nous sommes là face à une information partisane à la véracité douteuse, indifférente voire hostile aux médias, qui cherche plus à générer du clic et des revenus que de la vérité ou du consensus.

Enfin, si la critique pointe facilement la responsabilité des médias sociaux, chambres d’échos des rumeurs et campagnes de dénigrements, ceux-ci semblent surtout des leviers qu’utilisent de nouveaux acteurs qui ne sont absolument pas à la recherche d’analyses rationnelles et mesurées.

Les réseaux sociaux sont-ils les seuls responsables ?

Dans un éditorial consacré au sujet, le New scientist estime que les rumeurs sont désormais entendues par tous. Les revendications trompeuses, mais accrocheuses, sont conçues pour se propager plus rapidement que les efforts pour les contredire. Le droit à la liberté d’expression s’est transformé en capacité à dire et diffuser n’importe quoi, même (surtout) des choses stupides ou dangereuses. Pour le New Scientist, le défi consiste plus à faire exploser les bulles de filtres qu’à développer une police des médias sociaux. Pas sûr pourtant que ça aide à éloigner les idées stupides et dangereuses… Un indice de fiabilité de l’information ne serait-il pas plus déterminant, pour autant qu’on sache comment l’implémenter efficacement ? A moins qu’il faille plutôt s’inspirer des travaux de Google et Moonshot pour combattre le djihadisme en proposant automatiquement des contenus reflétant un avis contraire dès qu’on cherche à accéder à un sujet ?

Pour le spécialiste Jayson Harsin, c’est un ensemble de conditions convergentes qui ont créé les conditions de ce nouveau régime de post-vérité explique-t-il dans un article publié dans la revue Communication, Culture & Critique. Pour lui, ces changements ne relèvent pas seulement de la responsabilité des réseaux sociaux. Mais tiennent aussi du développement de la communication politique professionnelle et du marketing politique. Ils relèvent également du développement des sciences cognitives et comportementales et du marketing qui permet l’utilisation stratégique des rumeurs et mensonges de manière toujours plus ciblés, de la fragmentation des médias et des gardiens de l’information centralisée ; de la surcharge d’information et son accélération ; ainsi que des algorithmes qui régissent, classent et personnalisent l’information à laquelle on accède. Un ensemble d’éléments convergents qui empêche un retour à des formes antérieures de journalisme, comme l’appelle Viner.

Comme le souligne Harsin, même l’explosion du fact checking, cette pratique de vérification des arguments, n’a pas été capable de rétablir l’autorité des médias. Pire, estime-t-il, les rumeurs prennent une place de plus en plus importante dans l’économie de l’attention… Pourtant, souligne le chercheur, la surcharge informationnelle et la démultiplication de l’information ne sont pas des explications suffisantes. « La géographie de l’information et de la vérité s’est déplacée comme la temporalité de la consommation de médias : elle n’est plus délivrée le matin ou le soir, mais elle est composée de millions d’alertes et de vibrations (…) et les informations se déplient dans une économie de l’attention de plus en plus chargée affectivement et constamment connectée ». Pour Harsin, c’est la marque d’un changement du régime de vérité au profit de marchés dédiés qui produisent, planifient et managent l’information par l’entremise de l’analyse prédictive. L’information tient désormais plus d’un marché que d’un espace public et citoyen.

Selon lui, pour comprendre cette évolution, il faut entendre la différence qu’il y a entre la société disciplinaire de Foucault et la société de contrôle de Deleuze. En passant à une société hyper-fragmentée, nous devenons de plus en plus sensibles à une société de contrôle qui repose sur la puissance algorithmique qui produit des groupes sociaux distincts, influencés par une surveillance des données qui n’est plus centralisée par un Etat, mais encodée par tous ceux qui ont intérêt à contrôler nos comportements. Pire, conclut-il, ces systèmes visent, par nature, à nous faire admettre qu’il n’y a plus de vérité vérifiable, notamment parce qu’il n’y a plus d’autorité de confiance. Au final, cette capture de l’attention démobilise en favorisant l’acceptation du statu quo ou au contraire surmobilise pour bloquer toute remise en question de l’action politique ou plus de justice sociale.

Le passage d’une société de faits à une société de données nous conduit-il à une crise de l’information ?

Dans le New York Times, l’économiste britannique William Davies (@davies_will), revient également sur ce sujet. Les acteurs de la production d’information se sont démultipliés, rappelle-t-il. « Si les journaux peuvent tenter de résister aux excès de la démagogie populiste, ils ont plus de mal à répondre à la crise des faits », c’est-à-dire à l’inflation des sources, des études… dont le niveau de crédibilité est trop insuffisamment évalué.

Nous sommes entrés dans une industrie de l’information, une industrie des faits, où la connaissance devient si morcelée et abondante qu’elle ne parvient plus à être vérifiée ou interprétée. Or, souligne Davies, nous sommes au milieu d’une transition qui nous fait passer d’une société de faits à une société de données. Selon lui, la confusion règne autour de l’état exact des connaissances et des chiffres dans l’espace public, exacerbant le sentiment que la vérité elle-même est en train d’être abandonnée. Pour Davies, nous sommes confrontés à un volume sans précédent de données, mais celles-ci sont surtout utilisées pour recueillir le sentiment des gens. Les marchés financiers eux-mêmes ne sont plus tant des faits que des outils d’analyse des sentiments des investisseurs. « Une fois que les chiffres sont considérés comme des indicateurs de sentiment plutôt que comme des déclarations sur la réalité, comment pouvons-nous avoir un consensus sur la nature des problèmes sociaux, économiques et environnementaux ou pire encore, nous entendre sur les solutions à y apporter ? » Les mensonges et les théories du complot prospèrent donc. Et tandis que nous avons toujours plus de moyens pour mesurer combien de personnes croient en ces théories, il semble que nous ayons de moins en moins de moyens pour les persuader de les abandonner.

Dans un autre article sur le sujet, William Davies rappelle que selon l’historienne Mary Poovey, les faits sont nés avec l’invention de la comptabilité à double entrée. Ces mesures et méthodes se sont alors normalisées, mais sont également devenues apolitiques, permettant aux chiffres de se déplacer librement dans le discours public. La politisation des sciences sociales, des mesures, le développement de l’administration de la politique et des statistiques ont politisé les chiffres. La tentative de transformer la politique en exercice purement scientifique a participé à cette déconstruction des faits, comme l’expliquent également les travaux d’Alain Desrosières. Pour Davies, les chiffres et les faits, produits par les organismes publics indépendants peinent à être encore considérés comme indépendants alors qu’ils ont été des instruments puissants pour imposer l’autorité politique des ces 35 dernières années.

Des outils pour interagir plutôt que comprendre

Loin d’apporter une conclusion à ces débats, l’essayiste Douglas Ruskoff (@rushkoff), qui publie un nouveau livre (Lancer des pierres contre les Bus de Google : où comment la croissance est devenue l’ennemi de la prospérité), est lui aussi revenu sur ce sujet en apportant un point de vue intéressant.

Dans une tribune livrée à FastCoExist, il rappelle que les promoteurs des nouvelles technologies ont longtemps pensé que le numérique allait nous aider à nous connecter au monde entier, annonçant, un peu naïvement, une nouvelle communauté mondiale de pairs promettant de nous libérer des frontières entre les hommes… Ce n’est pas ce qui est vraiment arrivé.

Loin de seulement abêtir les foules comme on le lui reproche facilement, la télévision a créé une société plus ouverte, plus globale. Grâce à la télévision, les gens ont pu voir pour la première fois comment la vie se déroulait ailleurs. « La télévision nous a tous connectés et a brisé les frontières nationales », estime-t-il. Or, pour Ruskoff, l’environnement des médias numériques est différent : il repose d’abord sur la polarisation et la distinction. Les médias numériques valorisent des choix binaires : ce que vous appréciez ou n’appréciez pas, ce avec quoi vous êtes d’accord ou pas, noir ou blanc, riche ou pauvre. Leur fonctionnement favorise une boucle de rétroaction qui auto-renforce chaque choix que nous faisons, qui personnalise nos contenus et nous isole davantage dans nos propres bulles de filtre. « L’internet nous aide à prendre parti » – pourtant, il faut rappeler que cette question de la polarisation reste discutée. Ce qui est sûr, c’est que les médias numériques offrent un environnement très différent de celui de la télévision.

Si nous sommes aujourd’hui déconcertés par le retour du nationalisme du Brexit à Donald Trump, c’est notamment parce que nous interprétons encore la politique à travers l’écran de télévision alors même qu’il disparaît. Les premières manifestations nées des médias numériques, comme celles contre l’Organisation mondiale du commerce à Seattle nous paraissaient un amalgame incohérent de causes disparates… Mais le rejet partagé de la mondialisation et l’internet leur a permis de s’organiser collectivement. Les printemps arabes qu’on a interprétés comme un mouvement mondial ne tenaient-ils pas plutôt de réveils nationalistes, locaux ? La rupture de la cohésion européenne s’interprète peut-être de la même façon, estime Ruskoff. « L’Union européenne est un produit de l’environnement de la télévision ». Mais la transition vers un environnement numérique rend les gens beaucoup moins tolérants à la dissolution des frontières…

Pour Ruskoff, ce qui explique également cette polarisation du débat public, c’est la mémoire. De Google à Wikileaks, de Snowden à la NSA… on ne cesse de nous rappeler que tout ce que nous faisons en ligne est enregistré. Or, avec cette combinaison de renforcement des préjugés et de la mémorisation, nous obtenons, presque mécaniquement, un renforcement des nationalismes. Certes la mondialisation a eu des effets délétères, notamment pour nombre de ceux qui nous invitent à revenir en arrière, notamment du fait du développement de la disparité des richesses… Pour Ruskoff, promouvoir la connexion, la tolérance et l’internationalisation nécessite de le faire en comprenant le changement d’environnement numérique en cours.

Comme il l’explique encore dans une interview pour Salon, les nouveaux médias ont des biais, notamment dans le fait qu’ils favorisent des réponses très émotionnelles. Ils nous proposent d’interagir avec des choses, plutôt que de les comprendre. Les gens l’intègrent d’ailleurs assez bien, puisqu’ils cherchent à répondre autrement avec la technologie. Ils veulent répondre de manière plus volontaire, plus autonome, comme le montre les images et vidéos qu’ils postent, à l’exemple des innombrables enregistrements des dérapages de la police américaine.

Pour le dire autrement, on pourrait dire que la personnalisation de l’information que permet le numérique développe un rapport au monde émotionnel voire passionnel qui n’aide certainement pas beaucoup à faire société. D’une certaine manière ce constat d’échec prolonge celui que faisaient déjà des chercheurs sur le fait que si les médias sociaux parvenaient à mettre les sujets sur le devant de la scène, ils ne réussissaient pas à les transformer ou les accomplir. La recherche d’une portée, d’une diffusion toujours plus large semble finalement un frein à l’explicabilité du monde.

Reste qu’on voit bien en fait que la construction argumentative se laisse facilement abuser. Si l’argument de Ruskoff sur la télé créant une société plus ouverte et plus globale semble intéressant par exemple, il oublie combien la télé, le direct, en rendant difficile la vérification des déclarations, favorise à l’extrême la polarisation des débats. Plus qu’une « propagande des algorithmes » que dénonçait Frédéric Joignot dans le Monde, on voit bien que nous sommes surtout plus sensibles à des formes informationnelles sous dopamines comme disait Neil Jomunsi, quels que soient les médias qui les portent… Le problème n’est donc pas tant d’opposer les formes médiatiques les unes aux autres, mais de voir que toutes sont sensibles au caractère social des formes argumentatives, aux partis-pris, aux axagérations, aux émotions…

La technologie portera-t-elle des solutions ?

Force est de reconnaître que pour l’instant, les solutions au problème sont plutôt rares. Certes, on peut améliorer la vérification des faits. Nombre d’entreprises développent des outils permettant de mesurer la fiabilité de l’information. Pas sûr pourtant que cela ait beaucoup d’impact sur tous ceux qui ont d’autres motivations que propager la vérité. Les appels à améliorer la qualité de l’actualité associent surtout des médias traditionnels qui sont, finalement, assez peu les moteurs de cette détérioration. Si la réponse est vertueuse, la cible ne semble pas être adaptée au problème, à l’image de la coalition récente First Draft News. En fait, comme le souligne Clay Shirky dans le New Scientist, nous ne sommes pas dans une guerre de l’information, mais dans une guerre culturelle. Le problème de ces réponses est qu’elles n’abordent qu’une partie du problème. Avancer un argument politique qui porte n’a pas grand-chose à voir avec la vérité. L’émotion et l’autorité comptent tout autant, sinon plus, que la vérité. Nous ne sommes plus à l’ère de la post-vérité, mais bien à celle du mensonge éhonté, où la vérité devient une opinion parmi d’autres…

Dans un autre article, le New Scientist estime que la technologie pourrait pourtant faire partie de la solution au problème qu’elle engendre. Non seulement les logiciels peuvent évaluer la véracité des faits et idées, mais peut-être demain pourraient-ils également aider à formuler des arguments pour répondre ou nous aider à analyser la tonalité des arguments utilisés, comme pour nous aider à voir les biais cognitifs dont usent nos interlocuteurs comme nous l’imaginions déjà dans Bodyware.

Pour Noam Slonim, chercheur et responsable du groupe de travail sur les technologies du débat chez IBM, demain, plutôt que nous renvoyer des résultats vers les opinions des autres, les moteurs de recherche pourraient générer des synthèses de faits et d’arguments pour et contre, un peu à la manière d’une cartographie des controverses, comme les pratique Sciences Po par exemple.

Reste à parvenir à distinguer ce qui relève des chiffres, des faits et de leur véracité, de ce qui relève de la crédibilité, du respect d’une autorité, ou encore des émotions… Pour Francesca Toni, chercheuse en intelligence artificielle à l’Imperial College de Londres, l’argumentation est ce qui nous rend capable de résoudre les conflits. Mais croire que les machines peuvent nous aider à encourager une argumentation et un débat de qualité, n’est-ce pas oublier que l’argumentation n’est pas qu’une question rationnelle, mais également une construction sociale ?

Chris Reed, chercheur au Centre pour les technologies argumentatives de l’université de Dundee, s’est appuyé sur une émission de débat de la BBC, Moral Maze (qu’on pourrait traduire par « le labyrinthe moral » et qui fonctionne un peu sous la forme d’un tribunal pour discuter de questions éthiques) pour tenter de classifier la trame des argumentaires, afin d’établir un outil d’analyse pour entraîner son programme et créer une cartographie d’argumentations. Par exemple, lorsque nous avons tendance à avancer des hypothèses qui nous tiennent particulièrement à coeur, nous avons tendance à utiliser des questions plutôt que des affirmations, afin de faire bonne figure si notre argument est rejeté. De même, quand des points de vue très opposés se forment, nous avons plutôt tendance à éviter de devenir très brutaux. Ivan Habernal et Iryna Gurevych de l’université technique de Darmstadt en Allemagne ont construit quant à eux un système pour analyser l’efficacité de nos arguments afin de permettre à des machines de les classer et d’apprendre à argumenter d’une manière plus convaincante.

Reste à mesurer notre capacité à faire confiance aux machines pour suivre leurs arguments… Pour l’instant, force est de constater que nous avons plutôt beaucoup de mal à leur faire confiance. Et il sera certainement difficile de suivre les arguments que nous donneront les machines, aussi censés ou exacts soient-ils, notamment parce qu’elles ne sont pas exemptes de biais. Pas sûr donc que les arguments des machines nous aident à nous départir de nos propres partis-pris.

Hubert Guillaud