Lulea, au nord de la Suède, près du cercle polaire, un jour de printemps glacial et neigeux. Le « data center » (centre de données) de Facebook, installé à la sortie de la ville, est peint en couleurs neutres et ne porte aucune enseigne. Mais il a du mal à passer inaperçu : il mesure 320 mètres de long, 100 de large et 30 de haut. Sa superficie équivaut à dix-sept patinoires de hockey sur glace, ont calculé les Suédois.

C’est ici que, depuis 2013, est traitée une part importante des requêtes des 310 millions d’utilisateurs européens de Facebook (sur un total mondial de 1,65 milliard) et que sont stockées temporairement leurs données – textes, photos, vidéos…

A l’intérieur, le bâtiment est divisé en quatre salles contenant des dizaines de milliers de serveurs, rangés sur de hautes étagères et baignant dans une lumière bleue futuriste. Leur nombre exact et leur puissance de calcul sont des secrets industriels. Chez Facebook, la transparence s’applique aux utilisateurs, pas à l’entreprise…

Le lieu est un peu bruyant, mais il est d’une propreté absolue. Aucun objet ne traîne nulle part. Il est aussi quasiment désert. Joel Kjellgren, le directeur du site, explique que les équipes de maintenance sont rarement obligées d’intervenir :

Nos serveurs sont dotés de systèmes d’autoréparation. Quand l’un d’entre eux tombe en panne à cause d’un bug, le réseau interne le détecte, établit un diagnostic, et le répare.

Pour prouver la robustesse de l’ensemble, il débranche une machine : « Le système va constater qu’elle est manquante et redistribuer automatiquement la charge de travail. » Pour assurer une présence humaine minimale 24 heures sur 24, le centre emploie près de 150 personnes. A intervalles réguliers, des équipes de techniciens viennent des Etats-Unis pour des opérations de maintenance.