Chaque année, la prestigieuse revue en ligne, The Edge, pose à ses digerati une grande question. Cette fois-ci, il s’agissait de déterminer l’idée scientifique à laquelle il faut renoncer. Parmi les 174 réponses, un bon nombre concernait certains aspects des sciences dites « dures », notamment de la physique. Elles mettaient en cause la validité de la théorie des cordes, la réalité du saut quantique, voire l’existence de l’univers lui-même (deux articles s’interrogeaient en effet sur la valeur de ce concept). D’autres participations ont été plus philosophiques, s’inquiétant de la nature de la liberté, de la moralité, de la société ou de la culture. Enfin, une proportion importante touchait aux sujets technologiques.

De l’impossibilité de tout connaitre

Sans entrer dans les arguties autour de la physique quantique, quelques-uns de ces sujets « durs » ont des implications sur nos sociétés et nos psychologies. Ainsi l’astrophysicien Martin Rees, ancien président de la vénérable Royal Society, remet-il en cause la possibilité de connaître toutes choses. Pour lui, notre cognition est fondamentalement limitée :



« Peut-être certains aspects de la réalité sont-ils intrinsèquement au-delà de nos capacités d’analyse, leur compréhension nécessitant un intellect post-humain – tout comme l’appréhension de la géométrie euclidienne se situe au-delà des possibilités des primates non humains. Certains pourraient objecter qu’il n’existe pas de limite à ce qui est calculable. Mais il existe une différence entre ce qui est calculable et ce qui peut être connu conceptuellement. Quiconque a appris la géométrie cartésienne peut facilement visualiser une figure simple – une ligne ou un cercle, si on lui fournit l’équation correspondante. Mais nul, muni du simple algorithme nécessaire pour tracer l’ensemble de Mandelbrot, ne saurait en imaginer toutes les complexités (…). Savoir si le futur à long terme sera peuplé de post-humains organiques ou de machines intelligentes peut être matière à débat, mais il est sûr que de nouvelles perceptions de la réalité seront développées par ces êtres futurs. »

La controverse des Big Data, encore et toujours..

Le problème des big data et les nouvelles méthodes liées à ces grosses masses d’informations sont évidemment au menu des réflexions. Ce qu’il y a d’intéressant dans la question de The Edge, c’est que les réponses sont loin d’être unanimes et des désaccords se font jour quant aux idées à mettre au rebut. Ainsi, Gary Marcus, chercheur en sciences cognitives se montre-t-il très critique vis-à-vis des big data :

« Bien des gens, même des scientifiques, mettent beaucoup plus d’espoir dans les big data qu’ils ne le devraient en réalité. Parfois il semble que la moitié des discours sur la science aujourd’hui, de la physique aux neurosciences, concerne les big data, et les outils associés comme la « réduction dimensionnelle », les logarithmes de « machine learning » ou la « visualisation de l’information ». Les big data sont très utiles pour découvrir des corrélations : plus votre ensemble de données est robuste, plus vous avez de chance de découvrir des corrélations, certaines pouvant même être très complexes, impliquant des variables multiples. Mais corrélation n’est pas causalité, et ne le sera jamais. Toutes les big data du monde ne vous aideront pas à comprendre que fumer cause le cancer. Pour comprendre réellement la relation entre la cigarette et le cancer, vous devrez effectuer des expériences, et comprendre la mécanique de choses comme les cancérigènes, les oncogènes et la réplication de l’ADN. »

Un avis qui n’est pas partagé du tout par Melanie Swan, fondatrice de DIYGenomics qui, emboîtant le pas de Chris Anderson, veut faire prendre sa retraite… à la méthode scientifique elle-même ! Ou plus exactement, elle rejette l’idée qu’il n’existerait qu’une méthode scientifique, laquelle serait aujourd’hui bien inadaptée aux nouvelles manières de faire de la science liées au big data, au crowdsourcing, ou à la biologie synthétique. La méthode scientifique, qui consiste en une série d’observations, d’expérimentations et de prédictions, a été élaborée à une époque où l’information était rare. Aujourd’hui au contraire elle est surabondante. Cela implique de nouvelles façons de créer des modèles plus complexes qui vont au-delà de la simple notion de causalité traditionnelle.

Le crowdsourcing de la recherche contribuerait, lui aussi, à cette obsolescence de la méthode traditionnelle, là encore à cause de la grosse masse de données fournie. Quant à la biologie synthétique, qui envisage de créer des organismes entièrement nouveaux, elle s’oppose « à l’esprit de caractérisation passive des phénomènes pour lequel la méthode scientifique originale a été développée ».

Embrasser le monde physique

La réponse la plus intéressante, celle qui ouvre le plus de portes est peut-être celle de « M. Fablab », Neil Gershenfeld, qui lui, veut mettre à la poubelle… la science informatique elle-même. Mais en fait, il s’agirait plutôt de la science informatique telle qu’elle est pratiquée aujourd’hui. « La science informatique est une curieuse sorte de science » explique-t-il en préambule : « elle ignore implicitement et s’oppose explicitement aux principes du reste de la science ». Pour preuve, continue-t-il, la multiplication des modèles de hardware, de langages de programmation, d’architecture. Pourtant note-t-il, la réalité physique qui sous-tend toutes ces variantes est une et indivisible. En conséquence, la prolifération de ces différents paradigmes est de l’ordre « de la fiction« . Autrement dit, ils reposent sur des principes arbitraires, sans lien avec la réalité physique.

« On rencontre des efforts héroïques pour maintenir cette fiction. Programmer aujourd’hui, c’est un peu comme habiter les jardins du plaisir de Metropolis, en comptant sur les travailleurs des niveaux inférieurs pour suivre vos instructions. »

Il existe des responsables à cette vision abstraite, déconnectée du réel de la computation, continue Gershenfeld. Et ce ne sont pas moins que les deux fondateurs de l’informatique, Alan Turing et John von Neumann.

En effet, la Machine de Turing est un système abstrait dans lequel une tête de lecture passe sur une bande de papier pour en lire les instructions passées dessus. Ce qui, remarque Gershenfeld, est en fait très anti-physique : quelle énergie la tête de lecture utilise-t-elle ? Quelle est la ressource matérielle nécessaire pour créer la bande ? Avec quoi sont inscrits les symboles, etc. ? Pourtant, c’est ce modèle purement théorique qui va être implémenté par von Neumann, créant l’architecture sur laquelle sont bâtis la plupart des ordinateurs d’aujourd’hui.

Jamais cette architecture (celle qui consiste à séparer processeur, mémoire, instructions et données) n’a été conçue pour être une vérité universelle, affirme Gershenfeld. « En fait », précise-t-il, « von Neumann a écrit sur la programmation en se pliant aux contraintes d’un des premiers ordinateurs, l’EDVAC. »



Mais au final, même Turing et von Neumann ont cherché à dépasser leur première approche et à retrouver le monde réel de la physique. Von Neumann s’est intéressé à l’autoréplication (il est l’inventeur des premiers automates cellulaires, tandis que Turing se penchait vers la formation de patterns, comme en témoigne son article de 1952 sur les « bases chimiques de la morphogenèse (.pdf)« , qui s’intéressait à la formation spontanée de spirales et autres structures dans le monde naturel… Aujourd’hui, explique Gershenfeld, il existe des chercheurs qui travaillent à reconnecter le monde physique et celui de la computation, en se penchant sur des ordinateurs micro-fluidiques (comme celui réalisé par l’équipe de Gershenfeld au MIT), en s’intéressant aux propriétés quantiques de la matière, etc. Et Gershenfeld de conclure, de manière très lyrique :

« Dans le film Matrix, Neo se voit donner le choix entre une pilule rouge lui permettant de quitter le monde fictionnel dans lequel il vit, ou une pilule bleue pour conserver ses illusions. Ce qu’il a découvert était bien plus perturbant, mais au final bien plus satisfaisant. Le même choix existe aujourd’hui pour le monde digital, qui consiste soit à embrasser la réalité physique dans laquelle il se trouve, soit à éviter de le faire. (…) C’est à cette condition que nous pourrons nous montrer en mesure de programmer l’ordinateur universel ultime, l’univers lui-même. »

Rémi Sussan