Sur Medium, Tristan Harris (@tristanharris) qui se présente comme ex-designer de l’éthique chez Google, a livré un long et passionnant article sur la manière dont le design aujourd’hui exploite nos vulnérabilités. De plus en plus, la technologie exploite les faiblesses psychologiques, sociales et cognitives des gens, à la manière des magiciens qui cherchent à exploiter les vulnérabilités de la perception de leur public. Les concepteurs font la même chose : ils jouent de nos vulnérabilités psychologiques pour attirer et retenir notre attention, sans rencontrer beaucoup d’autres contraintes que les limites du public à les accepter.

Si l’idéal de la liberté individuelle défend bec et ongle notre capacité à faire des choix libres de toutes contraintes, il continue à ignorer (ou à faire semblant d’ignorer) combien ceux-ci peuvent être manipulés et manipulables, sans en être conscients.



Image : page d’accueil de l’initiative de Tristan Harris, concevoir pour bien dépenser son temps.

Or quand on donne aux gens une sélection de choix, ils se demandent rarement ce qui n’est pas proposé… Pourquoi leur propose-t-on certaines options et pas d’autres ? Quels sont les objectifs de celui qui les propose ?… Ou si ce choix « capacite » le besoin de l’utilisateur ou créé seulement une distraction… Pour Tristan Harris par exemple, consulter Yelp pour y trouver un bar pour continuer à discuter avec des amis transforme sa requête en quel bar semble être le plus attirant ou le proche selon les propositions que renvoie l’application. Or, le menu qui nous propose plus d’autonomie est différent du menu qui nous propose le plus de choix, rappelle le designer. Pour lui, toutes les interfaces utilisateurs sont des menus qui remplacent les questions qu’on se pose par une autre. La liste des notifications de son téléphone correspond-elle à ce qui nous préoccupe ? Pour lui, celui qui contrôle le “menu” contrôle les choix. Telle est la première vulnérabilité que tentent d’exploiter nos outils.

Le second détournement dont nous sommes victimes consiste à développer des techniques addictives : un design de la dépendance, comme l’évoquait Natasha Schüll. Inspiré des techniques de conception des machines à sous, l’enjeu est de proposer des récompenses à chaque action de l’utilisateur (enfin pas à tous les coups, “la dépendance est maximisée lorsque le taux de rémunération est variable”). Or, nous avons désormais tous des machines à sous dans nos poches. Quand on fait glisser les visages sur Tinder, nous jouons à une machine à sous en attente d’un “match” (voir “Comment gagner à Tinder ?”). Désormais, tous les produits web proposent des récompenses à intermittence variable… Or, face à ce problème, estime Harris, les grandes entreprises du web ont désormais une responsabilité. Ils doivent en réduire les effets. Pour lui par exemple nous devrions avoir la main sur la cadence des notifications, pour pouvoir nous défaire des addictions qu’impliquent ces machines. Nous devrions pouvoir régler quand nous voulons recevoir les notifications ou les likes qui nous sont adressés (dans une heure ou une semaine), leur intensité, etc.

Le troisième détournement dont nous sommes l’objet c’est la peur de manquer quelque chose, le fameux Fomo : le risque de manquer le sujet dont discutent mes amis sur FB. C’est une peur sans limites. Du moment que nous n’utilisons pas quelque chose, nous allons rater ce qu’il s’y passe. Mais vivre avec la peur n’aide pas beaucoup à vivre, rappelle le designer. Il suffit de se délaisser de cette crainte pour se réveiller de l’illusion dans laquelle elle nous maintient. Ce que nous ne voyons pas ne nous manque pas ! Pour Harris, comme le pointaient les designers Sebastian Deterding ou Fabien Girardin, plutôt que se focaliser sur la peur de manquer, notre rapport à la technologie serait très différent si les grands acteurs du web et notamment les réseaux sociaux se focalisaient sur le “bon usage du temps”, s’ils nous aidaient à bien dépenser notre temps.

Le 4e détournement dont nous sommes victimes exploite l’approbation sociale. “Nous sommes tous vulnérables à l’approbation sociale. Le besoin d’appartenir, d’être approuvé ou apprécié par nos pairs est parmi les motivations humaines les plus élevées”, rappelle le designer. Or, désormais, celle-ci est tout entière capitalisée par les entreprises technologiques. FB en est bien sûr le parangon, puisque toutes les actions qu’on est invité à y commettre se cristallisent dans le like, la forme ultime de l’approbation. Pour Harris, exploiter cette vulnérabilité sociale donne aux designers une puissance sans mesure, et ce alors que certains publics y sont très sensibles (notamment les adolescents).

Autre vulnérabilité exploitable : la réciprocité sociale. Nous sommes très sensibles à la réciprocité des gestes. Si vous me dites bonjour, je dois vous le dire également. Si vous m’envoyez un e-mail, il est impoli de ne pas vous répondre. Si vous me suivez sur FB, il est impoli de ne pas vous suivre en retour (notamment pour les plus jeunes)… Et là encore, cette vulnérabilité psychologique est très exploitée par les plateformes et services du web. Nombre d’entre elles exploitent l’asymétrie de perception que nous en avons. Lorsque vous recevez une invitation de quelqu’un pour entrer en connexion avec lui sur FB ou Linked-in, vous imaginez que cette personne a fait un choix conscient pour vous inviter, alors qu’en réalité, elle a certainement répondu inconsciemment à la liste de profils à contacter qui lui sont suggérés par le système. “En d’autres termes, Linked-in transforme vos pulsions inconscientes (« ajouter » une personne) en nouvelles obligations sociales que des millions de gens se sentent obligés de “rembourser””… Au grand bénéfice de ces plateformes qui augmentent ainsi le temps que vous passez chez elles et les interactions que vous avez par leur entremise. “Qu’en serait-il si les entreprises technologiques avaient la responsabilité de réduire au minimum la réciprocité sociale ?” Ou s’il y avait une organisation indépendante, représentant les intérêts du public, qui surveillerait les abus psychologiques des entreprises technologiques ?

Harris pointe encore bien des techniques mises en place par les plateformes sociales pour capter notre attention : les pages sans fin, les flux infinis, les vidéos qui se lancent toutes seules… Pour forcer les gens à consommer, le mieux est de continuer à leur donner à manger, même lorsqu’ils n’ont plus faim. Ca ressemble à une forme de gavage. Le professeur de psychologie de Cornell, Brian Wansink, a montré dans une étude que vous pouviez amener les gens à manger bien au-delà de leurs limites en leur proposant de la soupe dans un bol sans fond, qui se remplit automatiquement à mesure qu’ils mangent. Avec des bols de ce type, les gens mangent 73 % de calories de plus que ceux qui ont des bols normaux et sous-estiment énormément le nombre de calories qu’ils ont réellement mangé. C’est la même chose avec ces principes déployés par les entreprises de technologie. Les contenus qui défilent sans fin sont des solutions pour éliminer toute raison pour vous faire faire une pause, pour vous inviter à reconsidérer ce que vous êtes en train de faire, voir le quitter. Les vidéos en lecture automatique exploitent le même biais. Une grande partie du trafic de FB ou YouTube est généré par cette technique. “Le temps que vous passez chez eux est la monnaie que ces plateformes se disputent”. Qu’en serait-il si les entreprises devaient répondre d’un “temps bien dépensé” pour vous ? Si elles devaient limiter le temps que vous passez chez elles au profit de la qualité de ce que vous y trouvez ?

Autre biais que ces entreprises exploitent (on en est au 7e) : l’interruption instantanée. “Les entreprises savent que les messages qui interrompent les gens immédiatement sont plus convaincants pour amener les gens à répondre que les messages délivrés de manière asynchrone”. L’interruption renforce le sentiment d’urgence et la réciprocité sociale. Ainsi, Facebook Messenger indique automatiquement à l’expéditeur lorsque vous avez “vu” un message. Le but bien sûr est de vous obliger à répondre puisque vous savez que l’autre a vu que vous aviez lu son message. Encore un élément sur lequel FB ne nous donne pas la main… Bien évidemment cette démultiplication d’interruption se révèle très contreproductive, et pour Harris, là encore, nous avons besoin de normes de conception partagées pour les limiter.

Les entreprises pratiquent également des méthodes pour nous tromper, comme d’entremêler leurs motivations aux nôtres. Faire que ce que vous voulez devient inséparable de ce que l’entreprise veut de vous. Ainsi dans les magasins, le marketing a tendance à placer les produits les plus demandés au fond du magasin pour vous pousser à traverser tous les autres rayons. Or, “si les magasins étaient vraiment organisés pour aider les gens, ils mettraient les articles les plus populaires à l’avant”. De même, quand vous cherchez un événement sur Facebook (votre raison), l’application vous fait d’abord parvenir sur le mur d’informations (leur raison). “Facebook veut convertir chaque raison que vous avez de l’utiliser en leur raison pour maximiser le temps passé chez eux”. Au lieu de cela, vous pourriez avoir accès à chacune des fonctions de FB indépendamment les unes des autres. De même, vous pourriez pouvoir chercher un e-mail sans avoir à recevoir tous les e-mails non lus, qui détournent votre attention.

Autre défaut de conception selon Harris : l’absence de choix. Si vous n’aimez pas un service et bien, utilisez-en un autre ! Désinscrivez-vous ! Désinstallez-le ! C’est un peu facile. On sait pourtant que l’impuissance n’est pas le consentement. Or, rappelle Harris, comme les magiciens qui nous invitent à prendre la carte qu’ils ont choisie pour nous, les entreprises rendent les choix qu’elles veulent nous faire faire plus faciles d’accès que les choix qu’elles ne veulent pas que nous fassions. Si tous les choix sont disponibles, tous ne sont pas accessibles avec la même facilité. A quand une agence qui notera la facilité à se désabonner d’un service ou qui imposera un nombre maximal d’étapes pour le faire ?

Dernier biais que pointe Harris, celui du pied dans la porte. La plupart des services exploitent l’incapacité des gens à prévoir les conséquences de leur utilisation. Quand vous cliquez sur un article pour le lire, on vous propose encore trop rarement le temps de lecture qu’il va vous demander. Pour Harris, “afficher le “coût réel” d’un choix est une manière de traiter ses utilisateurs avec dignité et respect”. Dans un internet qui permettrait de bien dépenser son temps, les choix devraient être formulés en terme de coûts et d’avantages.



Image : extrait du tableau que dresse Tristan Harris listant les différences entre des produits conçus pour consommer notre attention et des produits conçus pour bien employer notre temps.

Et Harris de conclure. Cette liste n’énumère que quelques-unes des techniques utilisées pour capter l’attention des gens. Or il y en a littéralement des milliers. C’est ce qu’on apprend au laboratoire des technologies de la persuasion dont Harris a été l’élève, comme il le rappelle dans une belle interview recueillie par Rue89. Aujourd’hui, des centaines de designers et d’ingénieurs apprennent et travaillent à de nouvelles manières de retenir notre attention. Or notre temps, notre attention sont précieux. Nous devrions les protéger avec la même rigueur que nous essayons de le faire concernant notre vie privée ou nos droits. Nous en sommes loin. Comme il le dit dans son “manifeste du temps bien employé” nous avons besoin de restaurer nos choix. En esquissant une grille de principes, il nous donne les premières recommandations pour retrouver des formes d’indépendances. Comme il le soulignait dans Rue89, il va nous falloir du temps pour bâtir des technologies respectueuses de notre attention, comme il nous a fallu du temps pour construire une agriculture et un label bio, plus respectueux de nous-mêmes et du monde.

Reste que Tristan Harris esquisse des réponses possibles, des formes de recommandation, des modalités d’obligation… qui nous poussent à penser que le sujet mûrit et qu’il est certainement temps de pousser des réponses qui prennent enfin au sérieux les utilisateurs. Même si le plus dur risque d’être de les convaincre qu’ils sont en fait beaucoup moins libres qu’ils le croient.

Hubert Guillaud

En prolongement de cet article, voir également : la Silicon Valley est-elle à la recherche d’une conscience ?