Alexis Lloyd (@alexislloyd) est la directrice créative du laboratoire du New York Times, la structure de R&D du journal, créé en 2006, où elle est à la tête d’une petite équipe multidisciplinaire regroupant chercheurs, designers et informaticiens… Son équipe est chargée de construire des prototypes pour observer leur impact sur la production et la consommation de l’information. Mais elle n’est pas venue sur la scène de Lift pour nous parler de ce que fait le NYTimes Lab (dommage). Elle est venue nous parler de l’impact de l’innovation technologique sur la culture.

Nous ne sommes pas les maîtres des appareils que nous utilisons

« Pour innover, il faut comprendre et déchiffrer les indicateurs de changements autour de nous », estime la designer. Mais ce n’est pas si simple, car si on sait où va l’innovation technologique, il est plus difficile de saisir l’innovation culturelle et sociale. La prospective technologique n’a jamais bien su anticiper les changements culturels explique-t-elle en nous montrant une vidéo des années 60 décrivant la cuisine du 21e siècle. Certes, les gens qui l’ont produite imaginaient la connectivité et l’invasion des écrans, mais la liste des achats de la ménagère était soumise à son mari pour recevoir son approbation… Si la prospective technologique est facile, celle des transformations sociales est bien moins évidente.



Image : Alexis Lloyd sur la scène de Lift.

Si l’on regarde les technologies pour la cuisine de demain proposées par Whirlpool au dernier CES par exemple, le même biais est à l’oeuvre. Certes, tous les appareils sont connectés les uns les autres, comme nous le promet l’internet des objets : et le four se met en marche parce qu’on a sorti une pizza du frigo. Si le ton est différent, les principes de conception restent les mêmes que ceux des ingénieurs des années 60. « On demande invariablement à nos machines de le faire pour nous. On projette toujours dans nos machines cette libération des corvées quotidiennes, comme si elles allaient enfin nous soulager du quotidien. Elles doivent toujours être plus efficaces que nous. L’utilisateur ne doit jamais comprendre comment elles marchent. Le design lui-même doit nous décourager de regarder à l’intérieur. Elles fonctionnent seules. Elles n’ont qu’un bouton. Elles savent tout faire à l’image du tournevis sonique du docteur Who. Elles doivent nous décharger de tout contrôle… »

C’est cette conception même qui est trompeuse, estime la designer. « Nul ne veut que les choses travaillent pour nous. Trop souvent, ces systèmes font des choix implicites pour nous, mais ne font pas ce que l’on veut. Notre électronique est conçue comme des boites noires dont on ne peut ni voir les choix, ni les corriger ou les adapter… alors que les choix qui sont programmés ont des conséquences d’autant plus importantes qu’ils ont un impact public. Via les algorithmes de recommandation, nos machines choisissent pour nous les médias que l’on regarde, via les données qu’ils expédient aux propriétaires des plateformes, ils informent de nos comportements d’autres personnes que nous sans que nous sachions toujours lesquels, à l’image des boîtes noires de nos voitures auxquelles certains assureurs peuvent avoir accès… »

Pour contourner cela, nous sommes contraints d’adapter nos comportements aux limitations des machines. Quand on parle à Siri ou Google Now, nous devons prendre un accent pour être bien compris. Parfois, nous sommes contraints de négocier avec nos machines, comme quand nous ne pouvons utiliser certains mots non reconnus par nos correcteurs automatiques ou quand nous devons utiliser des systèmes comme Ghostery pour faire apparaître les données que les pages web sur lesquelles nous surfons envoient d’une manière invisible à une multitude de services en ligne. Enfin, pour contourner les systèmes, nous pouvons tenter de nous y opposer, à l’image du travail d’Adam Harvey et de son CV Dazzle, qui propose d’adapter nos coupes de cheveux et notre maquillage pour éviter la reconnaissance faciale, « un moyen pour s’exclure du système tout en reconnaissant son pouvoir ».

« Ces manières de contourner les effets des systèmes techniques que nous utilisons, sont des indicateurs précieux de nouvelles postures, de nouvelles relations que nous entretenons avec l’expérience subjective que nous avons de ces systèmes », estime la designer. « Plutôt que de voir la technologie comme des outils, nous la percevons comme un acteur doté de pouvoir qui fait de nous un élément dans un système de négociation. Les algorithmes montrent que nous ne sommes pas au centre des processus, que nous ne sommes pas les maîtres des appareils qu’on utilise, que nous ne sommes que des noeuds humains dans des réseaux… »

Ces systèmes sont conçus pour rendre la complexité invisible à l’utilisateur final. Or, cette simplification nous fait perdre notre pouvoir. Comme le dit l’artiste critique Julian Oliver : « notre incapacité à décrire et comprendre l’infrastructure technologique réduit notre portée critique, nous laissant à la fois impuissants et assez souvent vulnérables. L’infrastructure ne doit pas être fantôme. » L’informatique en nuage est un bon exemple d’une simplification dangereuse. « Nous avons besoin d’approches qui reconnaissent la place de ces systèmes dans nos vies, qui nous engagent avec leur complexité. L’utilisateur doit avoir plus d’information, plus de pouvoir et donc plus de nuances. Ce n’est pas une solution simple », estime Alexis Lloyd, « mais c’est la seule alternative que nous pouvons construire aux boites noires ». Les gens ne doivent pas voir les algorithmes comme des serviteurs, mais comme des systèmes à pirater selon leurs besoins.

Et la designer de nous inviter à embrasser de nouveaux principes de conception.

La transparence. « La transparence ne veut pas dire tout montrer, mais en montrer suffisamment pour comprendre. Quand on a une conversation avec un ami, on ne connait pas tout ce qui entre en compte dans le processus de décision, mais nous avons suffisamment de signaux et nous partageons les informations nécessaires à notre interaction. La transparence est primordiale pour avoir confiance dans les systèmes. Elle est importante pour que le système ne fasse pas ce que je ne veux pas qu’il fasse et me donne suffisamment d’information pour comprendre ce qu’il fait. Elle donne à l’utilisateur la connaissance nécessaire pour qu’il soit capable de faire des corrections si le système ne fonctionne pas parfaitement… Et ils ne fonctionnent jamais parfaitement, ils ne s’adaptent jamais parfaitement à nos besoins. Les systèmes mécaniques étaient visibles, ils dévoilaient leurs processus, même si ceux-ci étaient trop complexes pour que l’utilisateur commun puisse agir dessus. Mais avec le numérique, nous ne voyons même plus le processus », explique-t-elle en montrant en nous montrant une montre mécanique transparente et une montre analogique.

L’agencement. « C’est-à-dire permettre de comprendre comment les processus gèrent les systèmes ». La voiture est un bon exemple d’équilibre… S’il se passe beaucoup de choses intelligentes sous le capot, reste que le conducteur peut encore intervenir à tout moment…

La virtuosité. L’essayiste Edward Tenner dans son livre Nos propres objets l’expliquent très bien. « La technologie consiste en des structures, des dispositifs et des systèmes que nous utilisons. La technique se rapporte à nos compétences à les utiliser. » Les lacets sont une une technologie très simple, mais son utilisation dépend de nombreux facteurs comme le pays, la culture, l’activité… autant de facteurs qui agissent sur leurs couleurs, leurs matières, la matière dont on les lace… « La virtuosité, c’est notre capacité à jouer d’un système technique selon nos besoins et leur expressivité. C’est notre habilité à utiliser la technologie pour dépasser leurs seules fonctionnalités, c’est notre capacité à utiliser la technologie pour nous donner des super pouvoirs pour mieux nous exprimer ».



Image : illustration du graphiste Geoffrey Dorne de Graphism.fr réalisée en direct pendant la conférence d’Alexis Lloyd à Lift dans le cadre d’eventypo, via son compte Flickr.

Notre culture est notre capacité à nous adapter à des systèmes qui ne fonctionnent pas comme on l’attend. Pour cela, nous avons besoin de mieux respecter l’utilisateur… estime Alexis Lloyd. Ce sera la seule façon pour réussir à mieux l’impliquer. Nous devons laisser une place aux utilisateurs pour qu’ils puissent façonner leurs comportements dans les systèmes, plutôt que l’inverse… C’est-à-dire plutôt que façonner des systèmes pour qu’ils dictent leurs comportements aux gens.

La culture algorithmique est un mythe

Difficile de présenter Ian Bogost (@ibogost). Créateur de jeux, auteur de nombreux ouvrages de références dans ce domaine, professeur d’informatique interactive à l’Institut de technologie de Georgie, cofondateur de la société Persuasive Games… Ian Bogost est une figure incontournable de la scène du jeu, notamment du fait de ses positions sévères et de ses analyses critiques des dérives du secteur. Pas étonnant alors, qu’invité à parler de la culture algorithmique, il en prenne d’emblée le contre-pied, en affirmant : « il n’y a pas de culture algorithmique ».

Dans un article intitulé « The reversal of the overheated image », Marshall McLuan rappelait combien les choses s’inversent quand elles arrivent à leur point limite. La voiture a été longtemps le symbole de la liberté, mais quand nous l’utilisons tous, nous ne pouvons plus avancer. Nous vivons à une époque où l’ensemble des idées héritées des Lumières (la raison, le scepticisme…) s’inversent pour devenir leur opposé. L’idée de faire avancer la civilisation par le savoir et la raison scientifique faisait avancer le monde. Or, aujourd’hui, « les concepts hérités de la science et de l’innovation sont devenus des concepts si omniprésents, si inconsistants, qu’ils semblent être devenus l’inverse de ce qu’ils signifiaient, comme de nouvelles religions ».



Image : Ian Bogost sur la scène de Lift.

Bien souvent, nous utilisons le terme d’algorithme pour parler de la culture contemporaine, sans bien savoir ce que ce mot signifie. Pour Ian Bogost, la « culture algorithmique » est un symptôme de l’inversement de la science. Elle recouvre plus une théologie qu’autre chose. Dans un récent article intitulé « les algorithmes de nos vies », Lev Manovich expliquait que le logiciel est devenu le langage universel. C’est un sentiment répandu et partagé de penser que le logiciel sous-tend notre monde contemporain. Cela semble plausible. Mais est-ce si vrai ? interroge Bogost. Nous avons toujours rationalisé le présent à travers le moment industriel contemporain. Mais bien souvent cette rationalisation n’en est pas. Nous usons de métaphores. Quand Nicholas Carr lance « Est-ce que Google nous rend idiot ? », Carr évoque une métaphore pour nous permettre de comprendre le monde. Aujourd’hui, tout le monde compare nos cerveaux à des ordinateurs, mais pendant longtemps on les a comparés à des montres… Les métaphores dont nous usons parlent plus de notre niveau de compréhension technique qu’elles ne décrivent une réalité. Il y a une lacune entre le monde et les métaphores qui le décrivent. Elles sont incomplètes. Le monde n’est pas une horloge.

Dans son livre, Images de l’organisation, Gareth Morgan analyse comment l’entreprise est souvent vue comme une machine. Et c’est une métaphore qui domine encore nos conceptions actuelles. Une métaphore succède toujours à une autre. La métaphore nous trompe toujours. Aujourd’hui, nous avons tous tendance à croire que toutes nos productions sont automatisées, que tout est produit par des machines sur des chaînes de production continues. C’est loin d’être la réalité, rappelle-t-il en montrant des images d’ouvriers chinois en train de monter des jouets, de coller des cheveux à des poupées, de les habiller… La production nécessite beaucoup d’efforts manuels, beaucoup de touches humaines. Les produits sont encore souvent assemblés à la main quand les éléments sont fabriqués par les machines. Les machines nous aident à fabriquer les merdes qu’on commercialise, mais la fabrication n’est pas aussi fluide et automatisée qu’on le pense. Elle est une suite de processus qui comportent souvent encore beaucoup de touches humaines.

Quand on évoque le monde algorithmique, on pense à du code, à des équations mathématiques, à des tableurs géants où tout est parfaitement rangé. Mais qu’y a-t-il vraiment derrière le rideau ? Que souhaite-t-on invoquer avec cette image de l’algorithme ? En quoi la métaphore de l’algorithme nous donne-t-elle une vision imprécise du calcul qu’il produit ? On les croit purs, immanents, alors que comme on l’a vu dans la fabrication sensée être automatisée, cela est bien plus compliqué.

Regardons un instant les algorithmes de Netflix sur lesquels Bogost a récemment fait un travail de rétro-ingénierie pour The Atlantic, en mettant en avant les quelques 80 000 microgenres que Netflix a mis en place pour tenter de catégoriser la diversité des contenus de sa base de données de films. On peut croire que l’algorithme a de la cohérence, qu’il produit un processus… Mais en fait, c’est un peu le bordel ! Le concours lancé en 2006 par Netflix pour améliorer son moteur de recommandation, son algorithme de filtrage, n’a pas réussi à améliorer de façon significative son système. Pour tenter d’agir, Netflix s’est tourné vers la catégorisation du contenu. Pour créer les microgenres, ils ont utilisé des gens à qui ils ont fait voir des films et les ont formés pour qu’ils étiquettent les films de multiple manière, que ce soit sur l’intrigue, son contenu, son style, etc. Les algorithmes n’auraient pas pu coller des étiquettes aux films. Là encore, notre culture algorithmique si parfaitement rationnelle a besoin des humains.

Google Maps est-il un logiciel de cartographie ? Alors pourquoi utilise-t-il des voitures, des caméras ? Qu’est-ce qu’un algorithme si ce n’est pas un synonyme de logiciel ? « Un algorithme est une caricature, une distorsion. C’est un terme qui tente d’attraper un système complexe pour l’abstraire, pour tenter de capturer une logique de comportement, tout en faisant l’impasse sur ses imperfections. Les algorithmes sont un système procédural, comme les jeux vidéos, c’est-à-dire qu’ils fonctionnent par une succession d’étapes. Or, si, par essence, les jeux admettent d’être une caricature, un faux semblant – ils n’essayent pas d’être « vrais », seulement d’être amusants – ce n’est pas le cas des algorithmes. Sim City n’est qu’une parodie de l’automatisation de la planification urbaine, tout comme nos systèmes de Smart Cities. »

Les algorithmes ne sont qu’un élément de la computation du monde. Quand on l’utilise, on simplifie toujours des systèmes complexes. Le risque est que cette simplification nous aveugle. Aujourd’hui, la culture algorithmique tente de nous dire que tout changement social est déterminé. Ce n’est certainement pas si vrai… estime Bogost.

Sommes-nous devenus nos propres algorithmes ?

Pour l’artiste et écrivain Joanne McNeil (@jomc), la question de notre rapport aux machines a bien été synthétisée par l’oeuvre du cinéaste et plasticien Philippe Parreno (Wikipédia) « en qui avez-vous le plus confiance, vos yeux ou mes mots ? » (vidéo). A l’heure des bots, qui sur l’internet sont dans leur habitat naturel, qui sont l’un des plus puissants folklores d’internet, la question de la frontière entre ce qui est humain et ce qui ne l’est pas semble toujours plus floue. Et cela se traduit dans notre langage et les objets que nous utilisons tous les jours, explique l’écrivain en nous montrant un tee-shirt où est inscrit « Quel est le mot de passe du Wi-Fi ? », faisant référence au développement de la culture geek partout autour de nous. Est-ce là les mots d’une machine ou ceux d’un être humain ?

L’art et le langage ont toujours exprimé l’intentionnalité de l’humanité, rappelle Joanne McNeil. Mais désormais l’informatique, les algorithmes, nos machines semblent vouloir aussi y participer. Le problème est qu’ils n’y arrivent pas si bien. Et qu’en fait, plutôt que de transformer les machines en humains, l’automatisation nous transforme nous en robots.



Image : Joanne McNeil sur la scène de Lift.

Et Joanne McNeil de nous inviter à observer nos comportements sur Facebook. Comme c’est le cas avec les messages d’anniversaires, qui nous transforment en robots, les uns sous les autres, sur les murs Facebook de nos relations. « Sur Facebook, on a tout le temps l’impression d’être un bot ». Vous n’avez même plus besoin de vous souvenir des dates d’anniversaire, mais la commodité de cette mémoire externalisée nous oblige à nous comporter comme les autres, loin de ce que devrait être un échange chaleureux.

« En faisant produire et expliciter nos interactions personnelles par des machines, nous nous transformons nous-mêmes en machines ». L’annonce d’un anniversaire ne nous encourage pas à être créatifs, mais juste à nous souhaiter quelque chose. Et l’artiste de s’inquiéter de la perspective d’une vie sociale automatisée sous l’égide de Facebook. Or, Facebook a un intérêt à l’ingénierie de nos relations : chaque fois que vous souhaitez un joyeux anniversaire à quelqu’un, cela indique à Facebook votre proximité avec lui et cela indique au site la nature de votre relation avec cette personne. Un article récent montrait que Facebook sait deviner si deux personnes sont en relation, non pas selon le nombre de contacts mutuels, mais au contraire selon la dispersion de leurs relations. Dans La révolution Facebook David Kirkpatrick estime que Facebook pourrait prédire avec 33% de précision si quelqu’un va se mettre en couple d’ici la semaine… Facebook est capable de tracer d’innombrables indices pour savoir si deux personnes se rapprochent, comme d’assister à des événements ensemble ou ajouter des amis en communs…

Dans le film Pile et Face Gwyneth Paltrow vie deux versions de sa vie selon qu’elle attrape ou manque une rame de métro. On a un peu l’impression que les algorithmes de Facebook agissent de la même manière. Selon la relation que vous ajoutez à votre graphe, le like que vous faites ou pas, votre profil va être transformé, sans que l’on puisse en mesurer l’incidence.

Sur ShinyShiny, en 2010, Anna Leach s’est interrogée pour savoir si les amis qui étaient présentés sur son profil n’étaient pas des profils pris au hasard parmi ses relations, mais ceux qui cliquaient le plus sur son profil. Les lecteurs ont commencé à se créer de faux profils pour regarder leurs profils réels et voir si leurs faux avatars avec qui ils interagissaient se présentaient plus souvent que d’autres relations.

Comment sont choisis les gens qui apparaissent dans notre fil Facebook ? Est-ce parce qu’ils sont là, en temps réel ? Est-ce parce que cela fait longtemps qu’on n’est pas allé les voir ? Est-ce parce qu’on va voir leur profil souvent ? Un programme qui analyse vos likes est capable de déterminer votre orientation sexuelle avec 88% de précision, de savoir si vous êtes un utilisateur de drogue avec 75% de précision… Dans un article récent de Buzzfeed intitulé « Facebook savait que j’étais gay avant ma famille », Buzzfeed a interviewé quelqu’un qui a reçu une publicité ciblée qui titrait « Coming out ? Besoin d’aide ? » à un moment où il était sur le point de faire son coming out. Sara Watson pour The Atlantic a écrit un article où elle montrait que Facebook savait qu’elle allait se fiancer avec quelqu’un avant qu’elle ne l’annonce…

« Les algorithmes créent des paranoïas, des rumeurs… Mais aussi de nouveaux langages, de nouvelles formes de narration des relations entre les gens sans que nous sachions toujours très bien comment sont édités nos fils d’informations par des robots ». Facebook produit un classement de l’amitié, qui produit un « score » d’affinités entre les gens, qui tente de mesurer l’activité de ceux qui s’intéressent à vous plus que les autres. Un score qui influence considérablement notre relation aux autres, puisque selon ce score, les actualités des gens qui sont sensés nous être proches nous serons plus proposées que les autres.

Les algorithmes ne cessent de faire des suppositions sur nous. C’est en cela qu’ils nous font nous sentir comme un robot. Kate Losse a travaillé un certain temps chez Facebook, son livre, The Boy Kings montre combien les algorithmes sont maladroits. Si à l’image de Sara Watson, nous pouvons être effrayés quand Facebook devine qui est votre fiancé, la plupart du temps, cette hypothèse est erronée. Les algorithmes de Facebook interprètent une relation selon la fréquence à laquelle quelqu’un clique sur un autre profil. Mais il peut y avoir d’autres raisons à cela. Peut-être que vous voulez accéder à l’image d’un ami commun, peut-être qu’accéder à ce profil est un raccourci pour accéder à autre chose… L’algorithme de Facebook suppose des choses dans les clics, sans demander aux utilisateurs leur valeur.

Pour Facebook, toutes les interactions sont positivées. Quand Facebook nous rappelle l’anniversaire de nos relations, il interprète notre relation à l’autre (dont bien souvent nous ne sommes pas assez proches pour connaître la date d’anniversaire). Bientôt, Facebook souhaitera un bon anniversaire à nos relations automatiquement. L’application Romantimatic propose déjà d’envoyer des SMS romantiques à la personne de votre choix, pour faire comme si vous pensiez à elle. Bienvenue à nos vies sociales automatisées…

Rien n’est magique !

Dan Williams est développeur (@iamdanw) à Makeshift à Londres. Et il commence par nous emmener au port d’Anvers pour nous raconter comment les trafiquants de drogue cachent de la drogue dans des conteneurs, mais surtout, comment ils ont réussi à pirater les ordinateurs des autorités portuaires, via des dispositifs physiques et des logiciels malveillants (voir également cet article de la BBC). La conteneurisation du monde, cette standardisation du transport de marchandises, propose la même efficacité aux trafiquants qu’aux autres. Le plus grand porte-conteneur du monde, le Emma Maersk publie chaque jour sa localisation (et ce n’est pas le seul, le trafic maritime, mais aussi le trafic aérien son facilement accessibles en ligne) et d’ailleurs, Dan Williams a utilisé cette information pour prendre conscience de la globalisation en se faisant imprimer la localisation du bateau chaque jour.

« Tout ce que nous produisons aujourd’hui, tout ce que nous faisons est appelé à devenir flux. Le réseau est un ensemble de flux. Et il suffit de modifier cette information accessible, comme l’ont fait les trafiquants dans le port d’Anvers, en cherchant à modifier les informations sur les conteneurs, pour changer le monde. » Les atomes sont les prochains bits d’information, expliquait Chris Anderson, l’auteur de Makers, expliquant par là que les infrastructures physiques allaient devenir aussi accessibles que l’étaient les infrastructures numériques. Les usines sont devenues des machines que l’on commande à distance, comme l’a expliqué Anderson en évoquant la difficulté qu’il avait pour trouver des moteurs adaptés à ses projets de drones autonomes et comment il lui avait suffi d’utiliser Alibaba.com pour trouver un fournisseur capable de fabriquer des moteurs selon ses propres spécifications. « Les usines sont devenues des machines que l’on commande à distance, elles sont devenues une caractéristique de nos outils de dialogue en ligne. »



Image : Dan Williams sur la scène de Lift.

Mais en fait, ce n’est pas si simple qu’on nous le présente, rappelle le développeur. Les atomes ne se commandent pas d’un claquement doigt. Dan Williams est allé au hackspace de Londres. Les imprimantes 3D y étaient plus souvent en panne qu’autre chose et leur production se résume à ce qu’elles impriment quand nul n’est en train de les réparer ou de les démonter… Et le développeur de nous montrer un projet de cartographie 3D qu’il a voulu réaliser en bois. Mais ce n’était pas si simple, explique-t-il. Si on n’y prend pas garde, le bois, avec la découpe laser peut prendre feu. Y dessiner quelque chose dessus demande de l’expérience, car on a vite fait d’y faire des tâches de brûlures. Cela nécessitait de connaître quelque chose au travail du bois, même pour faire un assemblage avec des bouts de contreplaqué, car l’une des grandes questions justement est comment assembler les pièces entre elles… Dan a fini par laisser ce projet en plan. Faire les choses en vrai n’est pas si simple, comme le souligne bien ceux qui s’y sont essayés à l’image du reportage de Tim Maly chez Shapeways, qui montre comment la fabrication additive génère de la poussière et nécessite de la main-d’oeuvre pour polir les pièces ou les mettre en carton ; ou les constats de l’architecte Bryan Boyer qui parle de bataille avec la matière. « Ce qu’il est le plus facile de faire avec la matière, c’est de la transformer en déchets pour nos poubelles », plaisante le développeur.

Avec le logiciel, on efface facilement une erreur. Avec le matériel, ça ne fonctionne jamais comme prévu ! Cory Doctorow, dans son roman, Makers, parle très bien de cette difficulté. Alors que dansl’ essai qui porte le même titre, Chris Anderson ne parle jamais de la difficulté à faire. Tout est simple pour lui. Peut-être parce que plus qu’automatiser, Anderson nous parle de comment il a outsourcé sa production. Et que finalement, on confond trop souvent l’un avec l’autre, comme le suggère Steve Corona dans un article où il explique comment il a externalisé les choses les plus ennuyeuses de son existence, celles qu’il n’avait pas le temps de faire et qu’il repoussait sans cesse au lendemain, par exemple en ayant recours à un assistant distant sur FancyHands, pour s’occuper de ses réservations d’hôtel ou de train.

Automatiser est donc une abstraction qui cache autre chose et qui vise à rendre les choses plus faciles. « En tant que développeur logiciel, quand j’abstrais, cela signifie en fait que je cache ce que je fais. C’est la même chose quand on parle d’algorithmes. C’est un terme utilisé pour ne pas dire ce que l’on fait vraiment. »

Et le développeur d’évoquer Renew London, ces poubelles espionnent installées l’été dernier au coeur de Londres et qui ont fait scandale parce qu’elles récoltaient les données provenant des téléphones mobiles des passants sans leur consentement. Nul n’a bien compris pourquoi cette entreprise de marketing, qui est depuis en redressement judiciaire, s’est lancée dans ce projet. La ville de Londres est intervenue pour faire arrêter ce système. Mais qui sait si d’autres poubelles ne nous surveillent pas ? Ces gens-là ont inventé un système pour surveiller les autres, mais n’ont pas même été capables de mettre un détecteur pour savoir quand leurs poubelles débordaient !

Dans le film Minority Report, pour les besoins de l’intrigue, pour que le spectateur puisse être plongé dans l’action, on voit la surveillance dont le héros est l’objet. « Mais dans la vraie vie, ce n’est pas le cas. La surveillance dont nous sommes l’objet est invisible. » Nous avons besoin de rendre visible cette surveillance, à l’image du travail de James Bridle, sous l’ombre des drones, qui consiste à faire apparaître dans la ville, en les dessinant sur le bitume, les drones qui nous surveillent, pour matérialiser leur existence. Pour Dan Williams, nous avons besoin de comprendre comment les machines fonctionnent, comme nous y invite le manifeste de l’ingénierie critique.

Reste que, comme l’expliquait Nick Seaver dans un récent article, la rétro-ingénierie permet de tenter de comprendre leur fonctionnement, mais ne répond jamais au pourquoi, à la raison, à ce qui explique pourquoi le fonctionnement des machines qui nous entourent fonctionnent ainsi. Or, aujourd’hui, nous sommes dans « l’île de Google », un endroit où des ingénieurs très puissants pensent et inventent le monde entre eux, comme s’en moquait Mat Honan dans Wired en évoquant les délires des ingénieurs lors d’une des grandes messes de Google. Ils peuvent faire tout ce qu’ils veulent sans être vus. A l’entrée de Jurassic Park, Jeff Goldblum ne dit-il pas, « Que Dieu nous sauve, on est entre les mains des ingénieurs ! », conclut Dan Williams.

Pour le dire autrement, surveiller les algorithmes ne suffira peut-être pas…

Hubert Guillaud