La celebre teoria di Wheeler “It from bit” ipotizza che ciò che chiamiamo realtà emerge in ultima analisi dal porre domande binarie sì/no e registrare le risposte sui nostri dispositivi; in breve, che tutte le cose fisiche sono in origine informazione teorica e che questo è un universo partecipativo.

di Roberto Paura

(Questo testo è tratto da “La singolarità nuda”, di Roberto Paura, IF press)

John Archibald Wheeler è stato uno dei pionieri della gravità quantistica, il tentativo di trovare una teoria unitaria che tenga insieme i due grandi paradigmi della fisica teorica, la relatività generale (che descrive la gravità) e la meccanica quantistica (che descrive le altre tre forze fondamentali, agenti a livello microscopico). Coniò il celebre termine “buco nero” e la fortunata idea che l’universo, al livello più elementare, sia discreto e non continuo, costituito da una sorta di “schiuma spazio-temporale”. Pur essendo un fisico teorico rigoroso, fu tuttavia sempre interessato alle visioni più eterodosse e radicali, come l’ipotesi del multiverso o quella, da lui elaborata, dall’universo “partecipativo”, in cui il ruolo dell’osservatore previsto dall’interpretazione di Von Neumann-Wigner della meccanica quantistica (secondo cui il passaggio dell’indeterminismo quantistico al mondo deterministico che sperimentiamo dipende dall’interazione con un osservatore cosciente) viene enfatizzato fino al punto da immaginare che l’osservatore cosciente sia una conditio sine qua non per l’esistenza stessa dell’universo. Non a caso, Wheeler fu uno dei fisici più apprezzati e citati dal Fundamental Fysiks Group, con i cui membri aveva avuto numerosi scambi epistolari, pur prendendo le distanze dalle loro visioni New Age.

Nella fase più avanzata della sua brillantissima carriera, Wheeler si convertì alla teoria dell’informazione, convinto che l’applicazione di questo paradigma alla fisica teorica potesse rivoluzionare completamente questo settore. Per sintetizzare il suo programma di ricerca, Wheeler utilizzò un’espressione, o meglio una domanda, destinata a produrre una vasta e duratura eco nel mondo della fisica teorica: “It from Bit?”. Come spiegò nell’articolo del 1989 nel quale per la prima volta propose questa tesi programmatica: «It from bit simbolizza l’idea che ogni oggetto del mondo fisico possiede in fondo – molto in profondità, in molti casi – una sorgente e una causa immateriale; che ciò che chiamiamo realtà emerge in ultima analisi dal porre domande binarie sì/no e registrare le risposte sui nostri dispositivi; in breve, che tutte le cose fisiche sono in origine informazione teorica e che questo è un universo partecipativo».

In questa visione Wheeler fondeva anche le sue teorie precedenti: in particolare, rigettava la suggestiva ipotesi di un’analogia tra universo e computer, ritenendo che tale analogia implicasse l’esistenza di un “programmatore” cosmico, qualcuno che facesse funzionare il computer, sostenendo piuttosto l’idea di un universo che si “auto-sintetizza”, versione aggiornata alla luce della teoria dell’informazione della sua vecchia teoria dell’universo partecipativo; inoltre, l’idea di una realtà composta di bit non era, a sua volta, che la versione “informatizzata” della sua concezione di uno spazio-tempo discreto, non continuo, costituito da unità indivisibili (idea oggi alla base della gravità quantistica a loop).

Un gran numero di fisici e matematici ha raccolto, negli ultimi trent’anni circa, l’eredità di Wheeler in questo ambito. Gli ambiziosi sviluppi del teletrasporto quantistico, portati avanti in particolare dall’équipe di Anton Zeilinger, e della crittografia quantistica, si fondano per esempio su una rilettura dei principali elementi della meccanica quantistica “nel linguaggio dei bit”, appunto.

“It from Bit” non sintetizzava una teoria formalmente elaborata, ma un programma di ricerca. Nel suo articolo del 1989, Wheeler elencava i punti da sviluppare nella ricerca futura, riassumibili nell’obiettivo di ricondurre tanto la meccanica quantistica quanto la relatività generale, e le teorie più avanzate di gravità quantistica come quella delle stringhe, alla teoria dell’informazione, in particolare riscriverle «nel linguaggio dei bit». Un gran numero di fisici e matematici ha raccolto, negli ultimi trent’anni circa, l’eredità di Wheeler in questo ambito. Gli ambiziosi sviluppi del teletrasporto quantistico, portati avanti in particolare dall’équipe di Anton Zeilinger, e della crittografia quantistica, si fondano per esempio su una rilettura dei principali elementi della meccanica quantistica “nel linguaggio dei bit”, appunto.

Seth Lloyd, docente di ingegneria al MIT di Boston, dopo aver ascoltato una conferenza di Wheeler al Santa Fe Institute sul tema “It from Bit”, decise di esplorare questa direzione di ricerca. Lloyd è uno dei pionieri della computazione quantistica, quella branca a cavallo tra fisica e ingegneria informatica che tenta di creare un computer quantistico, la cui caratteristica è la possibilità di sfruttare il principio quantistico della sovrapposizione per aumentare enormemente le capacità di calcolo di un processore: anziché i bit, infatti, il computer quantistico sfrutta i qubit, che non sono caratterizzati da una dicotomia antitetica 0-1, ma dalla possibilità di assumere contemporaneamente entrambi gli stati. Nei suoi studi in questo ambito, Lloyd ha aggiornato l’intuizione di Wheeler passando da “It from Bit” a “It from Qubit” (da quantum bit), dizione oggi accolta da tutti gli studiosi impegnati in questo programma di ricerca.

Nel suo popolare testo divulgativo Il programma dell’universo (2000), Lloyd si è spinto a sostenere l’indistinguibilità di un computer quantistico in grado di simulare l’universo dall’universo in cui viviamo.

Nel suo popolare testo divulgativo Il programma dell’universo (2000), Lloyd si è spinto a sostenere l’indistinguibilità di un computer quantistico in grado di simulare l’universo dall’universo in cui viviamo. Mentre un computer digitale tradizionale non è in grado di ottenere una perfetta simulazione dell’universo, dati i limiti della sua capacità di elaborazione dell’informazione, un computer quantistico sarebbe invece «in grado di replicare ogni possibile comportamento di un sistema fisico»; pertanto, secondo Lloyd, «in linea di principio, l’insieme dei componenti dell’universo si può mettere in corrispondenza biunivoca con un numero finito di qubit. Allo stesso modo, la dinamica dell’universo, cioè l’insieme delle interazioni tra i suoi componenti, si può far corrispondere a un insieme di operazioni logiche sugli stessi qubit». La conseguenza è che «una simulazione dell’universo fatta da un computer quantistico non è distinguibile dall’universo stesso».

Tra i più importanti risultati della fisica dell’informazione a livello cosmologico c’è senza dubbio il recupero del principio olografico nel corso degli anni Novanta, che dalla suggestiva ma poco formalizzata ipotesi di Bohm è oggi assurto a paradigma dominante della fisica teorica, fino a promettere – forse più di ogni altra linea di ricerca contemporanea – la possibilità di conseguire quella auspicata “teoria del tutto” inseguita per decenni dai fisici per ottenere una comprensione unitaria della realtà (di cui parleremo in dettaglio nel quarto capitolo). Le origini di questo revival risalgono anch’esse agli anni Settanta, quando un allievo di Wheeler, Jacob Bekenstein, scoprì che i buchi neri possiedono entropia. All’epoca si credeva che i buchi neri, “inghiottendo” fatalmente tutta la materia che cade nel loro pozzo gravitazionale senza uscita, potessero ridurre l’entropia complessiva dell’universo, evidente violazione della seconda legge della termodinamica. Bekenstein dimostrò invece che, all’aumentare della quantità di materia che cade in un buco nero, il suo orizzonte degli eventi – ossia il suo confine – aumenta di dimensioni, cosicché aumenta anche l’entropia del buco nero e quella (complessiva) dell’universo.

I calcoli di Bekenstein rivelarono tuttavia una proprietà bizzarra dei buchi neri: la misura della loro entropia, calcolata come la quantità e la distribuzione dell’informazione relativa alla materia inghiottita che essi contengono, non è proporzionale al volume del buco nero, ma all’area della sua superficie, ossia dell’orizzonte degli eventi (nello specifico, a un quarto dell’area della superficie). Si trattava di una scoperta problematica, poiché per la misura dell’entropia di un qualsiasi ambiente delimitato (come il tradizionale esempio di un contenitore di gas) si deve sempre tenere conto del suo volume, non certo dell’area della superficie del contenitore. Nel caso dei buchi neri, l’entropia non è funzione dello spazio tridimensionale (il volume), ma di uno spazio con una dimensione in meno (l’area).

Si dovettero attendere i primi anni Novanta per sviluppare una spiegazione di questa caratteristica dei buchi neri, unendo teoria dell’informazione e principio olografico. In un articolo del 1993 il futuro premio Nobel per la fisica Gerard t’Hooft introdusse per primo il paragone con l’ologramma per spiegare il comportamento dell’entropia dei buchi neri: «La situazione può essere paragonata a un ologramma di un’immagine tridimensionale su una superficie bidimensionale. L’immagine è in un certo qual modo sfocata a causa delle limitazioni della tecnica dell’ologramma, ma la sfocatura è minima rispetto alle incertezze generate dalle consuete fluttuazioni meccaniche quantistiche. I dettagli dell’ologramma sulla superficie stessa sono intricati e contengono tutte le informazioni consentite dalla finitezza della lunghezza d’onda della luce – ossia la lunghezza Planck. […] Apparentemente si deve concludere che una superficie bidimensionale disegnata in uno spazio a tre dimensioni può contenere tutte le informazioni relative all’intero spazio. Ciò dovrebbe valere per qualsiasi superficie bidimensionale che si estende all’infinito».

La conclusione di t’Hooft suggeriva che questa proprietà olografica non fosse esclusiva dei buchi neri, ma condivisa anche da tutti quei volumi delimitati da una superficie bidimensionale tendente all’infinito. Il suo articolo non lo esplicitava, ma t’Hooft stava pensando naturalmente all’universo, il quale è delimitato da un confine di questo tipo, l’orizzonte cosmologico. Durante una visita a t’Hooft all’Università di Utrecht nel 1994, il fisico e cosmologo Leonard Susskind apprese delle conclusioni del suo articolo e, rientrato a Stanford, elaborò la proposta pubblicata poi in un articolo quello stesso anno col titolo The World as a Hologram, nel quale suggerì che il principio olografico potesse essere usato per raggiungere una teoria di gravità quantistica estendendo il caso dei buchi neri all’intero universo.

Così come, su una piastra olografica, osserviamo solo solchi apparentemente senza senso, che riproducono l’ologramma tridimensionale solo quando la piastra è illuminata dai due fasci laser, poiché tra quei solchi e l’immagine olografica esiste un’equivalenza in termini di informazione, così le due teorie appaiono diversissime ma si rivelano equivalenti se si guarda all’informazione che contengono.

Come ha sintetizzato il giornalista scientifico Jim Baggott: «Susskind si spinse a speculare che l’informazione contenuta nell’intero universo è in realtà una proiezione a bassa energia dell’informazione “codificata” sull’orizzonte cosmico […]. La realtà è in ultima analisi informazione immagazzinata sul bordo dell’universo». Questa dualità tra un volume tridimensionale e una superficie bidimensionale che lo delimita è possibile, naturalmente, solo nell’ambito della teoria dell’informazione. Quello che t’Hooft e Susskind avevano scoperto è infatti, spiega il fisico Brian Greene, che «l’informazione richiesta per descrivere i fenomeni fisici all’interno di una qualsiasi regione dello spazio può essere codificata in modo completo dai dati presenti su una superficie che circonda la regione. […] La nostra familiare realtà tridimensionale, secondo la proposta di questi audaci pensatori, sarebbe paragonabile a una proiezione olografica di quei distanti processi fisici bidimensionali».

Nel suo articolo, Susskind suggeriva di estendere il principio olografico alla teoria delle stringhe, la principale teoria di gravità quantistica in fase di sviluppo in quegli anni, di cui Susskind era stato uno dei pionieri. Non dovette attendere molto, perché nel 1997 il fisico delle stringhe Juan Maldacena sviluppò quella che oggi è nota come “corrispondenza AdS/CFT” che non solo rappresentava un gigantesco balzo in avanti nella capacità della teoria delle stringhe di descrivere l’universo in cui viviamo, ma consegnava una descrizione olografica dell’universo stesso, perfettamente in linea con le intuizioni di t’Hooft e Susskind (e, dal punto di vista della genealogia delle idee, di Bohm).

In quel periodo la teoria delle stringhe stava vivendo una nuova rivoluzione, dopo aver incontrato uno dei suoi tanti vicoli ciechi: Edward Witten aveva dimostrato che cinque diversi tipi di teoria delle stringhe, apparentemente diversi tra loro, potevano essere considerati manifestazioni di un’unica “teoria madre”, che egli chiamò teoria-M, aggiungendo alle nove dimensioni spaziali in cui tradizionalmente funziona la teoria delle stringhe una decima dimensione. Utilizzando gli strumenti messi a disposizione da Witten, in particolare il concetto di dualità (che permette di considerare due diverse teorie come equivalenti da un punto di vista matematico), Maldacena scoprì che esiste una dualità (o corrispondenza) tra una teoria delle stringhe a basse energie che altro non è se non la tradizionale teoria quantistica dei campi a tre dimensioni spaziali – quella del Modello Standard delle particelle – senza la gravità, e una teoria delle stringhe a dieci dimensioni con la gravità. La prima parte di questa corrispondenza agisce dunque in un numero di dimensioni inferiori alla seconda; Maldacena concluse che la teoria quantistica dei campi agisce sul bordo dell’universo e “proietta” al suo interno, in un volume (bulk) a dimensioni superiori, un universo dotato di gravità simile a quello che sperimentiamo.

La corrispondenza AdS/CFT, in tal modo, consente di rappresentare i due paradigmi della fisica teoria – meccanica quantistica e relatività generale – come equivalenti incorporando la teoria delle stringhe e il principio olografico. Così come, su una piastra olografica, osserviamo solo solchi apparentemente senza senso, che riproducono l’ologramma tridimensionale solo quando la piastra è illuminata dai due fasci laser, poiché tra quei solchi e l’immagine olografica esiste un’equivalenza in termini di informazione, così le due teorie appaiono diversissime ma si rivelano equivalenti se si guarda all’informazione che contengono. Witten, estendendo la congettura di Maldacena, scoprì per esempio che un buco nero nel bulk a dieci dimensioni è equivalente a un plasma di quark e gluoni sul confine dell’universo: sono due fenomeni fisicamente molto diversi, ma sul piano dell’informazione del tutto equivalenti.

Roberto Paura (1986) svolge un dottorato di ricerca in comunicazione della fisica all’Università di Perugia. Giornalista scientifico, ha lavorato per Fanpage e per la Città della Scienza di Napoli, ed è attualmente direttore della rivista Futuri dell’Italian Institute for the Future, redattore per Quaderni d’Altri Tempi e collaboratore per Il Tascabile e Query. Cura inoltre la collana di divulgazione scientifica Megaverso per le Edizioni Cento Autori, in cui è apparso quest’anno il suo libro Universi paralleli. Perché il nostro universo potrebbe non essere l’unico.

In copertina: Un’opera di René Magritte.