Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). Puis, internet et ses puissants moteurs de recherche ont permis de faire naître des filtres selon ses centres d’intérêts. Les médias sociaux ont ensuite proposé une autre forme de filtre, des filtres basés sur nos relations sociales… jusqu’à ce que celles-ci deviennent trop importantes et qu’elles nécessitent une autre approche : une approche algorithmique qui personnalise le filtrage selon un ensemble complexe de facteurs. La bulle du filtre, posée par Eli Pariser, repose sur l’idée que nos tendances naturelles à l’homophilie sont amplifiées par des filtres conçus pour nous donner ce que nous voulons, plus que des idées qui nous challengent, nous conduisant à des formes d’isolement idéologique et à la polarisation. « Les fausses nouvelles conçues pour tromper le public et recueillir des publicités reposent sur le fait que les algorithmes de Facebook ont du mal à déterminer si les informations sont vraies ou non, alors qu’ils peuvent facilement voir si les informations sont nouvelles et populaires. Lorsque le Congrès américain réclame des actions à l’encontre des fake news ou de la propagande russe, il ne réclame rien d’autre qu’une autre forme de filtrage, basée sur qui crée le contenu et sur la véracité des faits. »

« Pourquoi les plateformes de médias sociaux comme Facebook et Twitter ne donnent-elles pas aux utilisateurs des outils puissants pour filtrer leurs propres flux ? À l’heure actuelle, les algorithmes contrôlent ce que nous voyons, mais nous ne pouvons pas les contrôler. (…) Vous pouvez payer et faire de la publicité auprès des femmes de couleur entre 40 et 60 ans qui vivent à Seattle, mais vous ne pouvez pas choisir de lire les points de vue de ces femmes. Bien qu’il existe des projets très innovants comme BlockTogether (@blocktogether, qui permet aux utilisateurs victimes de harcèlement de partager des listes d’utilisateurs bloqués sur Twitter), les plateformes peinent à offrir des outils de contrôle aux utilisateurs eux-mêmes. Et à moins qu’émerge un jour des plateformes sociales sous forme de services publics (comme le proposait Ethan Zuckerman lui-même en mai dernier), il est peu probable que les plateformes donnent aux utilisateurs plus de contrôle sur ce qu’ils voient. »

Comme le rappelle le chercheur, les filtres algorithmiques optimisent les plateformes pour favoriser l’engagement et la rétention des utilisateurs dans le but de vendre l’attention des utilisateurs aux annonceurs.

Tout l’enjeu à venir consiste donc à proposer d’autres modalités pour filtrer les contenus, ou mieux encore, de permettre aux utilisateurs d’accéder et de décider des paramètres des filtres qui les façonnent, comme nous le soulignions nous-mêmes. Si les paramètres relèvent des prérogatives des plateformes, cela n’empêche pas d’imaginer des services qui ouvrent ces paramètres depuis les services web de ces mêmes plateformes.

C’est ce que propose Gobo, un prototype fonctionnel lancé par le Centre des médias civiques, le Media Lab et le laboratoire d’études comparatives des médias du MIT. Gobo est un agrégateur de médias sociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. L’outil, lié à nos comptes Facebook et Twitter, permet à chaque utilisateur de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux. Plusieurs filtres sont ainsi disponibles : un filtre politique permet de sélectionner des publications proches de ses points de vue ou éloignées de ses opinions politiques ; un filtre de sérieux permet de contrôler le volume de fun dans les billets qui vous sont proposés ; un filtre de politesse permet de contrôler le ton des billets ; un autre permet d’ajuster un curseur pour définir l’équilibre entre les sexes de votre flux d’information, permettant par exemple de mettre tous les hommes que vous suivez en sourdine… Un autre filtre permet d’ajuster la viralité de ce qui vous est proposé selon que les posts sont peu ou très populaires.

Enfin, chaque article que le système vous affiche explique le critère selon lequel il a été filtré.

Gobo pour l’instant n’est bien sûr qu’un démonstrateur. Il est lent. Il est imparfait puisqu’il dépend des modalités d’accès que proposent Facebook ou Twitter à des services tiers. Il utilise des techniques de machine learning assez basiques pour classer les informations selon les filtres, techniques qui devraient s’améliorer avec le temps… Reste que si l’outil est imparfait, il offre enfin une perspective stimulante pour permettre aux utilisateurs de reprendre la main sur les réseaux sociaux. Il permet de jouer avec les critères et donc de comprendre en partie les logiques algorithmiques à l’oeuvre dans la sélection qui nous est délivrée. Il montre en tout cas que d’autres distributions de l’information sont possibles… et que les boites noires sont à leur tour manipulables. Que l’accès aux critères et aux paramètres des systèmes est la modalité de la reconquête de notre liberté et de notre autonomie.

Espérons que Gobo se développe et inspire nombre de nouveaux services pour aider les utilisateurs à reprendre la main sur les réseaux sociaux ! A l’heure où Mark Zuckerberg continue de décider pour chacun ce qu’il a droit de voir (en annonçant vouloir désormais donner la priorité aux proches au détriment des marques et médias), privilégiant les liens forts sur les liens faibles (dans une vision normative et moraliste de nos relations sociales), Gobo rappelle que les utilisateurs sont assez grands pour décider par eux-mêmes de ce qu’ils veulent voir, pour autant qu’on leur laisse apprécier les biais de leurs outils. Et qu’ils aimeraient peut-être surtout décider qui suivre selon les priorités qu’ils ont décidé, plutôt que d’être soumis aux priorités que d’autres veulent décider pour eux.

Hubert Guillaud