Facebook a conduit pendant une semaine en 2012 une expérimentation massive, auprès de plus de 600 000 membres, pour manipuler leur état mental en fonction de ce qu'ils lisaient ou non sur la plateforme.

Facebook a provoqué de vives réactions en révélant dans une revue scientifique qu'il avait mené en 2012 une expérience de manipulation mentale auprès de 683 003 utilisateurs du réseau social. Pendant une semaine, Facebook a augmenté ou diminué le nombre des messages à connotation positive ou négative lus par ses membres dans leur fil d'actualité, et analysé l'effet que ces modifications provoquaient. Le site de Mark Zuckerberg voulait vérifier une théorie selon laquelle il existe une forme de viralité des émotions, et que le fait de voir des gens heureux nous rend heureux, même si on ne leur parle pas directement. Ou inversement, que de voir des gens tristes ou en colère rend triste ou en colère.

"Lorsque les expressions positives ont été réduites, les gens ont produit moins de messages positifs et davantage de messages négatifs ; quand les expressions négatives ont été réduites, le schéma opposé s'est produit. Ces résultats indiquent que les émotions exprimées par d'autres sur Facebook influencent nos propres émotions, constituant une preuve expérimentale de contagion sociale de masse à travers les réseaux sociaux", se félicitent les chercheurs de la firme de Palo Alto.

La publication de cette étude a créé un certain émoi, le réseau social révélant au grand jour ses immenses pouvoirs de capacité de manipulation des foules, et un certain manque d'éthique dans le fait d'utiliser ses clients comme cobayes. Il n'y voit pourtant rien de mal.

"La raison pour laquelle nous avons fait cette étude c'est que nous nous soucions de l'impact émotionnel de Facebook et des gens qui utilisent notre produit", s'est défendu dimanche le directeur de cette recherche, Adam D. I. Kramer. "Nous avons pensé qu'il était important de vérifier l'inquiétude courante que le fait de voir des messages positifs d'amis conduise des gens à avoir des sentiments négatifs ou à se sentir à l'écart. Dans le même temps, nous étions inquiets du fait qu'une exposition à la négativité d'amis pourrait conduire les gens à éviter d'utiliser Facebook".

Un pouvoir de manipulation politique

S'il dit comprendre "l'anxiété" causée par cette publication, il ne regrette rien, au contraire, estimant que ses travaux apportent des conclusions "positives". Il assure toutefois que depuis 2012, des codes de conduites internes plus stricts ont été mis en place pour encadrer les expériences qui peuvent être conduites sur les membres.

Reste qu'une telle expérience confirme le pouvoir immense que peut avoir une entreprise privée dont les services sont utilisés par des centaines de millions d'internautes. Si ses motivations étaient clairement commerciales, car un client heureux est un client qui consomme, on imagine que de telles manipulations peuvent s'appliquer à des domaines plus précis, et beaucoup plus sensibles.

Quid de la possibilité pour Facebook de limiter l'exposition de ses membres à des publications d'informations "déviantes", jugées dangereuses pour l'équilibre de la société tout entière ? Quel est le pouvoir de Facebook sur la modélisation des esprits ? Faut-il par exemple qu'il limite l'exposition aux discours d'islamistes extrémistes pour participer à la lutte contre le djihad ? En temps de guerre froide, aurait-il dû combattre les publications communistes pour favoriser les discours capitalistes ?

C'est toute la question de la neutralité des plateformes, dont on sous-estime le caractère extrêmement politique. Nous l'avions vu au sujet de la sanction des sites anti-avortement par Google, au sujet de la visibilité dangereuse de médecines alternatives, ou encore au sujet de l'influence de Google sur les élections.

Est-ce plus rassurant que ces outils de manipulation des masses soient mis dans les mains d'une société privée plutôt que dans celles d'un régime autoritaire ? Seul l'avenir à long terme le dira.

Partager sur les réseaux sociaux Tweeter Partager Partager Partager redditer

La suite en vidéo