Le kilogramme nouveau est arrivé ! En novembre 2018, les unités de base du Système international ont été redéfinies en référence à sept constantes physiques dont la valeur exacte a été définitivement fixée. Retour sur les raisons et les enjeux d’une réforme attendue depuis trente ans. Cet article fait partie du TOP 10 des plus lus sur notre site cette année.

L’univers de la métrologie vient de vivre une véritable révolution. Le 20 mai, le « grand K » ou prototype international du kilogramme (PIK), ce cylindre de platine iridié conservé au Bureau international des poids et mesures (BIPM), à Sèvres – qui depuis 1889 définit l’unité de masse –, a pris sa retraite. Le vieil étalon cède sa place à une nouvelle définition du kilogramme, formulée à partir de la constante de Planck de la physique quantique. C’est ce qu'avait acté la Conférence générale des poids et mesures (CGPM) lors de sa 26e réunion qui s'est tenue du 13 au 16 novembre 2018 à Versailles.

La vénérable institution en a d'ailleurs profiter pour redéfinir trois autres des sept unités que compte le Système international, le fameux SI, également à partir de constantes fondamentales. Et pour l’ensemble, une définition explicitement fondée sur ces dernières a été adoptée. De quoi conférer aux unités de base un caractère réellement pérenne et universel : la fin d’un long processus de mise en cohérence sans précédent dans l’histoire de la métrologie.

Des unités devenues imprécises

À l’évidence, il était temps d’y mettre bon ordre. « Toutes les définitions des unités étaient plus ou moins devenues pathologiques », lâche simplement Marc Himbert, du Conservatoire national des arts et métiers (Cnam). Qu’on en juge : alors que science et industrie sont entrées dans l’ère du nano-monde, la totalité des références de masse sur la planète sont aujourd’hui étalonnées à partir d’un artefact dont la masse a lentement varié d’environ 50 microgrammes par rapport à celle de ses copies. Sans compter que, comme le fait remarquer François Nez, du Laboratoire Kastler-Brossel (LKB) , « imaginez que l’on fasse tomber l’étalon de masse, c’en serait alors fini du kilogramme ! » Et de proche en proche, des unités qui en dépendent, tels le newton, le joule ou le watt.

Quant au kelvin, l’unité de température, il est actuellement défini comme une fraction de la température thermodynamique du point triple de l’eau – où l’eau coexiste à l’équilibre sous les trois phases : solide, liquide et vapeur. Or, cette définition dépend de la qualité de l’eau (impuretés, composition isotopique…) utilisée pour la mettre en œuvre. Du reste, liée à une température particulière, elle est peu adaptée à la mesure des températures inférieures à 20 kelvins (-253,15 °C) ou supérieures à 1 300 kelvins (1 026,85 °C).



Les grandes nations ont pris conscience de la nécessité de mettre en place un système de normes communes. Et que dire de l’ampère, l’unité de courant électrique, définie à partir de la force mécanique entre deux fils infiniment longs, séparés d’un mètre, dans lesquels circule un courant ? ! Cela fait plusieurs décennies que les professionnels de l’électricité l’ont en pratique troquée contre une définition impliquant des processus quantiques.

Comme le résume Marc Himbert, « nous faisions face à un quadruple problème de cohérence, de pérennité, d’universalité et de précision ». Soit les quatre critères qui dictent les travaux de la CGPM depuis son instauration, en 1875, lors de la signature de la « Convention du mètre », rien moins que le plus ancien traité international aujourd’hui en vigueur.

Un idéal d’universalité

Comme l’explique Matthias Dörries, aux Archives Henri-Poincaré , à l’université de Strasbourg, « dans le courant du XIXe siècle, à la faveur de la révolution industrielle et de l’émergence d’un vaste marché international, les grandes nations ont pris conscience de la nécessité de mettre en place un système de normes communes ». D’un mot, il s’agit alors d’assurer qu’un kilogramme de sucre est bien le même à Paris, à New York ou à Londres. Tout comme aujourd’hui, l’objectif était d’établir une confiance dans les mesures, seule à même d’élaborer sur une base fiable savoirs scientifiques, décisions politiques et échanges commerciaux.

En plus de ces considérations pratiques, la normalisation des unités de mesure est également portée par l’idéal d’universalité du siècle précédent, incarné en particulier par la Révolution française. En 1791, l’Assemblée constituante décide de définir « une unité qui ne renferme ni d’arbitraire ni de particulier à la situation d’aucun peuple sur le globe ». Proclamation à l’origine de l’épopée scientifique des deux astronomes Delambre et Méchain qui, pendant sept ans, mesureront une fraction du méridien de Paris, entre Dunkerque et Barcelone, d’où ils déduiront la longueur d’un mètre, jetant les bases du système métrique, ancêtre du SI. Une formidable aventure où, jusqu’aujourd’hui, s’articulent science fondamentale, technologie et politique.

C’est ainsi qu’en 2011, la CGPM prenait acte de l’intention du Comité international des poids et mesures (CIPM) de proposer une révision du SI, et adoptait en 2014 une résolution sur sa révision à venir. Le principe de cette dernière ? Refonder le SI sur ce que la physique offre aujourd’hui de plus universel et de plus intangible : les constantes fondamentales, en particulier celles de la mécanique quantique – physique de l’infiniment petit –, où la régularité des phénomènes, de même que leur précision, offrent des références à nulle autre pareilles. « Le moteur du changement en cours est assurément l’émergence de la mécanique quantique dans l’univers de la métrologie », confirme Christian Bordé, président du Comité science et métrologie de l’Académie des sciences.

Le sacre de la mécanique quantique

Concrètement, la mécanique quantique fait son entrée dans le SI en 1967, avec la redéfinition de la seconde en référence à la fréquence de transition de deux niveaux de l’atome de césium. Puis, en 1983, le mètre devient la longueur parcourue par la lumière en une fraction de seconde, unité qui se déduit donc de la réalisation de la seconde et d’une valeur fixée pour la vitesse de la lumière. La réforme en cours s’inscrit dans cette perspective.

Ainsi, le kilogramme sera bientôt redéfini à partir de la constante de Planck, h. Celle-ci est en effet le produit d’une énergie par un temps, et l’énergie est reliée à la masse via l’équation E = mc2. Pour sa part, le kelvin sera redéfini à partir de la constante de Boltzmann (k), liée à la mesure de l’agitation thermique des constituants fondamentaux d’un corps. Quant à l’ampère, qui n’est autre qu’une charge par unité de temps, il sera relié à la charge élémentaire (e). Enfin, la mole, l’unité de quantité de matière, sera définie directement en fixant la constante – ou nombre – d’Avogadro (N A ).

C. Hein pour CNRS le Journal. Sources: 3e CGPM, 1901 et projet de résolution n°1 pour la 26e CGPM Partager Partager

Pour en arriver là, les experts internationaux ont soupesé de nombreux critères. Quelle est la façon la plus cohérente de définir les unités au vu des connaissances en physique fondamentale ? Est-il possible de réaliser physiquement les définitions envisagées ? Comment, ensuite, utiliser ces réalisations pour disséminer les unités auprès des utilisateurs ? Par exemple, dans le cas de l’ampère, une partie de la discussion a porté sur le fait de savoir s’il fallait définir celui-ci à partir de la permittivité diélectrique du vide ou bien de la charge élémentaire. « La première possibilité était plutôt défendue par les opticiens et les physiciens des milieux dilués, la seconde par ceux de la matière condensée, détaille Marc Himbert. In fine, c’est cette dernière qui l’a emporté dans la mesure où elle est plus conforme à la façon dont les électriciens mesurent effectivement un courant électrique. » Illustration du fait qu’en matière de métrologie, les questions pratiques ont un poids au moins équivalent à celui des considérations fondamentales.

Tout changer… pour que rien ne change

Si tel est bien le cas, faut-il s’attendre à des bouleversements instantanés ? « Très clairement, non », indique Marc Himbert. Et pour une raison simple : tout a été fait pour assurer une continuité maximale entre l’ancien et le nouveau système. En effet, les valeurs des constantes fondamentales participant à la définition du nouveau SI ont pu être fixées une bonne fois pour toutes après avoir été mesurées très précisément – donc avec une très faible incertitude – selon les anciennes définitions. L’incertitude de la mesure porte donc désormais sur les anciens étalons de référence.



Le GPS aurait été quasi impossible à développer sans la redéfinition du mètre, en 1983. Dans ce cas, quel est l’intérêt de changer de références ? Tout simplement parce qu’une fois le kelvin fondé sur une constante fondamentale, sa définition n’impliquera plus aucune température particulière, évitant très concrètement la propagation d’erreurs dans l’étalonnage des thermomètres au fur et à mesure que l’on s’éloigne du point triple de l’eau. Idem avec le kilogramme, qui désormais ne fera plus aucune référence à un étalon matériel. Etc.

Ainsi, « les premiers bénéficiaires du nouveau kelvin devraient être les industries concernées par les hautes températures », analyse Marc Himbert. Ce qui n’est pas rien. En effet, « 60 % des capteurs présents dans l’industrie sont des capteurs de température », précise le métrologue. Mais aussi les laboratoires de recherche fondamentale, concernés par les très basses températures, de même que par les propriétés de la matière aux échelles les plus fines. Avec des conséquences impossibles à anticiper. Par exemple, « le GPS aurait été quasi impossible à développer sans la redéfinition du mètre, en 1983. Mais celle-ci ne le préfigure aucunement », souligne Marc Himbert.

Une réforme pour renouveler la confiance

Au-delà, « le nouveau SI renouvellera notre confiance dans les unités fondamentales et leur caractère universel », ajoute Christian Bordé. Sans pour autant éviter ici ou là quelques résistances. « Il a fallu une génération pour que s’impose le système métrique via l’école, rappelle Matthias Dörries. Et pour certaines applications, on compte encore en douzaines ! » Et pas seulement sur les marchés.

C. Hein pour CNRS le Journal Partager Partager

Ainsi, le 23 septembre 1999, la sonde Mars Climat Orbiter s’est écrasée sur Mars. En cause, un logiciel de vol exprimant la poussée des micropropulseurs en unités de mesure anglo-saxonnes, quand celui de l’équipe de navigation qui recevait ces données pour calculer les corrections de trajectoire les exprimait dans les unités du système métrique… Or, fait remarquer Marc Himbert, « si elle est édifiante, cette anecdote ne met pas en cause le SI, mais l’usage qu’on en fait ».

Quoi qu’il en soit, le nouveau SI, fondé sur la physique la plus fondamentale, sera-t-il l’ultime système d’unités ? Rien n’est moins sûr. Pour de nombreux scientifiques, la candela, unité d’intensité lumineuse, n’a rien à y faire. « La candela n’a aucun caractère fondamental, admet Marc Himbert. Pour autant, elle est très importante pour l’industrie de l’éclairage, avec de réels enjeux économiques, de sécurité et de santé. » Idem pour la mole, définie à partir du nombre d’atomes contenus dans un gramme de carbone 12 et qui, selon certains, n’aurait pas plus de signification que la douzaine pour les œufs, tout en étant pourtant très utilisée pour toute la chimie et ses applications.

Mais ce n’est pas tout. D’aucuns font remarquer que la seconde reste tributaire des propriétés d’un atome particulier, le césium. « Sur le papier, il faudrait introduire G, la constante fondamentale de la gravitation, dans le SI, afin de définir la seconde. C’est ce qu’il y a de plus naturel pour un physicien », plaide Christian Bordé, avant d’ajouter : « Sauf qu’il n’existe aujourd’hui aucune façon de mesurer G avec la précision requise. » À l’inverse, la définition en vigueur permet une incertitude relative de 10-16, ce qu’aucune autre unité ne peut revendiquer, avec pour conséquence de placer la seconde au sommet de tout l’édifice du SI. « Si vous avez une belle définition, mais impossible à réaliser, ça n’a aucun sens, argumente Noël Dimarcq, du laboratoire Systèmes de référence temps-espace . La force de la définition de la seconde, c’est aujourd’hui sa précision. » Sans compter que l’unité de temps est actuellement la seule que l’on puisse transférer d’un point à un autre du globe par satellite ou fibre optique.

« Au mieux, le SI reflète la connaissance que l’on a de la physique sur les plans fondamental et expérimental à un moment donné », résume François Nez. « De ce point de vue, le nouveau système est le meilleur dont on puisse aujourd’hui se doter », conclut Christian Bordé. Ce qui justifie aisément d’en finir avec le « grand K ». ♦

_________________________________

Les métamorphoses du mètre

Tout comme le kilogramme, l’ampère, le kelvin ou la mole, le mètre et la seconde changeront de définition à l’occasion de la 26e réunion de la Conférence générale des poids et mesures (CGPM). Toutefois, cette redéfinition du mètre sera plus superficielle que celle du kilogramme : elle ne consistera qu’à expliciter la constante physique sur laquelle est construite l’unité de longueur, en l’occurrence c, la vitesse de la lumière dans le vide. Ainsi, le mètre était jusqu’ici défini comme « la longueur du trajet parcouru dans le vide par la lumière pendant une durée de 1/299 792 458 de seconde ». À partir de 2019, entrera en vigueur une définition rigoureusement équivalente, mais dite à « constante explicite », où le mètre sera « défini en prenant la valeur numérique fixée de la vitesse de la lumière dans le vide, c, égale à 299 792 458 lorsqu’elle est exprimée en m/s, la seconde étant définie en fonction de Δν Cs ».

Défini dès 1791 comme le dix millionième de la longueur du quart de méridien passant par Paris, le mètre fut mesuré avec précision par les astronomes Delambre et Méchain. C’est à partir de cette définition qu’a été réalisé le premier étalon matériel du mètre.

Le mètre a aussi été la première unité à être redéfinie à partir d’une constante physique atomique. En effet, avant de se baser sur la vitesse de la lumière (fixée en 1983), le CGPM avait abandonné dès 1960 toute référence à l’étalon-mètre construit en 1889 et défini le mètre par rapport à la « longueur d’onde dans le vide de la radiation correspondant à la transition entre les niveaux 2p 10 et 5d 5 de l’atome de krypton 86 ».

-----------------------------------------------

Pour aller plus loin*

« Tous mesureurs, tous mesurés. La science au cœur de la société », collogue organisé par le CNRS les 18 et 19 octobre, au siège de l'organisme (3 rue Michel-Ange, 75016 Paris). Au grogramme : une réflexion interdisciplinaire sur le rôle et les enjeux de la mesure pour les sciences et un espace « démo » présentera aux visiteurs innovations, expériences et dispositifs autour de la mesure.

https://mesures.sciencesconf.org (link is external)



