La scienza, secondo alcuni, è andata fuori strada. Ma chi siamo noi per per dire quale sia la via che porta alla realtà?

Tutte le immagini di: José Quintanar

di Roberto Paura

Qualche giorno fa un amico che si interessa di filosofia della scienza, Tommaso Tosi, ha scritto questo post su Facebook: «Ma chi glielo dice ai postmoderni che la meccanica quantistica non dimostra una sorta di “incertezza cosmica” o “inconsistenza della realtà”, quando il principio di indeterminazione si limita a sancire la non commutatività degli operatori lineari descriventi due osservabili incompatibili e coniugate, ed essa rimane comunque una teoria operativa, e non fondamentale, della natura? Chi gli dice che la relatività generale non dimostra che “tutto è relativo”, ma che anzi la covarianza generale delle equazioni di campo permette che le leggi fisiche descritte dalla teoria siano immutate ed ugualmente valide indipendentemente da ogni cambio di coordinate di riferimento? Chi gli dice che i teoremi di incompletezza non dimostrano che “ogni teoria è incoerente o infondata”, dato che sono validi solamente per i sistemi formali descritti da un linguaggio del primo ordine che possono esprimere l’insieme dei naturali dotato delle operazioni binarie interne di somma e prodotto e che siano gödelianamente numerabili?».

La conclusione di Tosi, secondo cui «il postmodernismo è una grande mistificazione», non la condivido – e l’obiettivo di quest’articolo è (anche) spiegare il perché.

Sappiamo infatti che nell’epoca postmoderna spesso la narrazione ha preso il sopravvento sul contenuto, il medium sul messaggio, come spiegava già molti anni fa Marshall McLuhan. Il risultato è che di scienza si parla tantissimo, ma quasi sempre a sproposito.

Per definire la stagione che stiamo vivendo lo storico della scienza Robert P. Crease ha parlato di un “momento quantistico”, “momento newtoniano” che ha dominato la visione popolare della scienza per tutto il XVIII e XIX secolo. «Il principio di indeterminazione di Heisenberg, il gatto di Schrödinger, gli universi paralleli e altri concetti e immagini della meccanica quantistica compaiono su magliette e tazze, cartoni animati, romanzi, poemi e film», scrive con Alfred Schraff Goldhaber nel suo libro Ogni cosa è indeterminata (2014). «Nella serie televisiva americana Breaking Bad, “Heisenberg” è lo pseudonimo del protagonista… Nel marzo 2012, un editoriale del New York Times sosteneva che la terminologia quantistica fosse il modo corretto di descrivere la campagna e la personalità del candidato alla presidenza Mitt Romney: “Perché siamo entrati nell’era della politica quantistica; e Mitt Romney è il primo politico quantistico”».

Gli esempi potrebbero continuare all’infinito. L’appropriazione delle nuove concezioni della scienza da parte della cultura di massa d’altronde non è un fenomeno esclusivo dei tempi postmoderni, in cui la scoperta di un nuovo esopianeta diventa la scusa per una corsa al meme nei social. La rivoluzione copernicana fa la sua apparizione in letteratura grazie a John Milton, con il suo Paradise Lost del 1667; le scoperte di Newton sulla natura della luce influenzarono poeti come John Keats e teorici politici come Thomas Jefferson, che, nel citare le “leggi della natura” nel primo rigo della Dichiarazione d’indipendenza americana, aveva chiaramente in mente Newton. La teoria della relatività, interpretata in quel modo più o meno errato o “filosofico” descritto da Tosi, ha influenzato la letteratura di Joyce, Woolf, Proust, Svevo, Pirandello, per la gioia di generazioni di studenti liceali alle prese con difficilissime tesine. La più celebre icona “pop” della teoria del caos resta il matematico («caosologo, per l’esattezza») Ian Malcolm in Jurassic Park.

Oggi assistiamo a una costante appropriazione delle teorie della fisica contemporanea per sostenere le visioni filosofiche più varie, dal relativismo all’antiriduzionismo fino al misticismo orientale o al cristianesimo, come riassume lo storico della scienza Alexandre Moatti nel suo libro Alterscience: «Il principio d’indeterminazione di Heisenberg o il principio dell’entanglement quantistico nato dalla soluzione sperimentale del paradosso EPR sono abbondantemente utilizzati fuori contesto, vale a dire al di fuori del loro dominio di validità alla scala microscopica (quella della costante di Planck), e presentati come frenate per la scienza e per la sua volontà riduzionista. Per i teorici dell’ecologia profonda, come Arne Naess, o per l’ingegnere britannico James Lovelock, inventore dell’ipotesi Gaia, che presenta la Terra come un essere vivente, la distinzione cartesiana tra il soggetto (l’osservatore) e l’oggetto (la Natura) sarebbe stata definitivamente invalidata dal principio di Heisenberg. Il principio quantistico degli stati entangled è a sua volta (…) la prova quasi scientifica dell’olismo». E ancora, «il principio di complementarità onda-particella di Bohr è invocato dal teologo Thierry Maignen, ingegnere di formazione, per spiegare il Dio fatto uomo: “Come la luce è allo stesso tempo onda e corpuscolo, Gesù è al contempo dio e uomo”. Il fisico Fritjof Capra utilizza la fisica quantistica per giustificare il buddismo nel suo best-seller Il Tao della fisica (1975). Per lui, un’esperienza della mistica buddista è analoga a un’esperienza della fisica subatomica».

Problema numero uno: la scienza “pop”

La divulgazione scientifica ha un’ampia parte di responsabilità in tutto questo. La crociata per rendere la scienza comprensibile al grande pubblico, sintetizzata nell’acronimo PUS (Public Understanding of Science), ha prodotto inevitabili semplificazioni che, come nel gioco del telefono senza fili, attraverso continue ripetizioni si sono trasformate in aberrazioni del messaggio iniziale. Elizabeth Leane, che dopo una laurea in fisica è diventata docente di letteratura inglese, si è occupata a lungo della questione di come la letteratura divulgativa scientifica abbia contribuito a costruire un’immagine della scienza diversa da quella reale, soprattutto nell’ambito della fisica. L’abbondante uso di metafore e analogie, unitamente all’assenza di matematica all’interno dei testi divulgativi (si ricordi che l’editore di A Brief History of Time disse a Stephen Hawking che ogni equazione in più nel libro avrebbe dimezzato il numero dei lettori, convincendolo a lasciare solo quella più famosa, E = mc2), favoriscono fraintendimenti dovuti al fatto che non tutti i concetti scientifici possono trovare una facile traduzione non-matematica. Leane parla di un vero e proprio boom dei libri di divulgazione scientifica a partire dagli anni Settanta, che ha raggiunto un picco negli anni Novanta con testi come quelli di Stephen Hawking, Brian Greene, Richard Dawkins, Paul Davies, Lawrence Krauss e molti altri (oggi potremmo parlare di un “secondo boom”, sulla spinta del successo dei testi di Carlo Rovelli, Brian Cox e così via). Secondo Leane, i libri di divulgazione scientifica scritti da scienziati sono usati non solo e non tanto per aumentare la conoscenza dell’impresa scientifica tra i non addetti ai lavori, ma per promuovere o difendere le proprie idee e teorie o criticare quelle degli altri. La divulgazione scientifica diventa allora – potremmo dire, parafrasando Clausewitz – la continuazione della ricerca scientifica con altri mezzi, di tipo persuasivo. Mentre Greene difendeva nei suoi libri l’eleganza della teoria delle stringhe, Lee Smolin ne attaccava i presupposti per cercare di tirare acqua al mulino (all’epoca assai malconcio) della loop quantum gravity, come fa oggi Rovelli, mentre Hawking o Roger Penrose difendevano con i loro libri congetture che nell’alveo della comunità scientifica hanno fatto sollevare più di un sopracciglio. È noto, ancora, quanto il libro di Walter Alvarez T. Rex and the Crater of Doom, pubblicato nel 1997, abbia contribuito a rendere popolare la tesi dell’impatto meteorico come causa principale dell’estinzione dei dinosauri. Non a caso il libro di Leane Reading Popular Physics ha come sottotitolo “schermaglie disciplinari e strategie testuali”.

Con il termine “popular physics” (e il più generale popular science), s’intende l’insieme dei testi divulgativi di fisica e, per estensione, la fisica “pop” che essi veicolano. Secondo Felicity Mellor, che insegna comunicazione della scienza all’Imperial College di Londra, i testi di divulgazione sono strumenti di costruzione pubblica della scienza, che cercano di fornire un’immagine non controversa della scienza, spesso con toni celebrativi. Nel farlo, tuttavia, forniscono la sensazione che la fisica contemporanea sia un dominio inaccessibile ai non-fisici, perché enfatizzano la stravaganza della fisica, la sua distanza dal senso comune, e cercano di renderla comprensibile utilizzando immagini provenienti dalla fantascienza o in generale dal nostro immaginario fantastico (si pensi a testi come La fisica di Star Trek o Alice nel paese dei quanti). Solo lo scienziato, sorta di “sciamano” moderno, come lo ha definito Alan Nieman, che ha studiato la divulgazione scientifica in termini di visual culture, può consentire al pubblico dei non esperti di accedere al “magico mondo” della scienza contemporanea. Secondo Egil Asprem, che studia i rapporti tra nuove religioni, scienza e complottismo all’Università di Stoccolma, tra gli effetti della divulgazione scientifica c’è la riduzione della multi-causalità dei fenomeni scientifici a spiegazioni “monocausali”: è il caso, per esempio, della genetica ricondotta all’idea che esista un gene per ogni tratto somatico o comportamentale, per esempio il gene dell’intelligenza. Un altro effetto è il ricorso all’intenzionalità per spiegare meccanismi della natura: il “gene egoista” di Dawkins è immaginato come una macchina che ha per obiettivo la sua riproduzione. Il risultato è l’emergere di concezioni distorte della scienza nel corso del processo di semplificazione che diventano poi virali, un’epidemia in grado di trasformare, nella cultura di massa, il gatto di Schrödinger in uno zombie.

Problema numero due: la fisica “post-empirica”

Le responsabilità, comunque, non sono tutte della comunicazione della scienza. Come fa notare il divulgatore Jim Baggott nel suo libro Farewell to Reality (2013), se la fisica non si occupasse continuamente di concetti sempre più vicini alla metafisica che alla scienza, come la ricerca delle particelle supersimmetriche, delle stringhe, delle dimensioni extra, del multiverso, dei computer quantistici, della natura olografica dello spazio-tempo, quella cioè che Baggott chiama la fairy-tale physics, ossia la fisica fantastica (o, più letteralmente, “fiabesca”), «pensate che continuerebbe a ricevere lo stesso livello di attenzione dalle agenzie di finanziamento, dalle università, dagli editori di divulgazione scientifica, dai produttori di programmi televisivi e radiofonici e dal grande pubblico?». Per Baggott, la fisica contemporanea si sta sempre più allontanando dal confine tracciato dal principio di falsificabilità di Popper, posto nel Novecento a fondamento del metodo scientifico, sconfinando in un reame dove conta solo la fantasiosità e l’eleganza delle teorie, senza più il dovere di testarle. A suo dire, «quando non c’è più il tentativo di fondare gli sviluppi teorici sui duri fatti della realtà empirica, il risultato è la metafisica».

Roger Penrose, nel suo libro Fashion, Faith and Fantasy (2016), sostiene che la fisica teorica sia entrata in un vicolo cieco a causa della pressione di fenomeni che con la scienza non hanno nulla a che fare, come appunto la moda, la fede e la fantasia. La moda è quella che ha spinto molti fisici a continuare una ricerca come quella nell’ambito della teoria delle stringhe (e della sua evoluzione, la teoria-M) nonostante l’assenza di evidenze sperimentali, sulla base della considerazione che la consistenza matematica di una teoria sia un presupposto sufficiente a perseguirla. La fede è quella che spinge i fisici quantistici a non mettere in discussione la tradizionale interpretazione di Copenaghen, basata sul principio di indeterminazione di Heisenberg e sul principio di complementarietà di Bohr, accettando l’idea che essa non si limiti ad avere un ruolo operativo, ma che descriva anche la natura fondamentale della realtà. Infine, la fantasia è quella che ha spinto a sviluppare modelli teorici al limite della fantascienza, come quello dell’inflazione cosmica, per spiegare il Big Bang e l’origine dell’Universo; dal momento che il modello dell’inflazione ha come suo corollario quello dell’esistenza di un numero potenzialmente infinito di altri universi, e continua a non fornire osservazioni a favore della sua veridicità, modelli alternativi meno fantasiosi, come i modelli ciclici dell’universo (uno dei quali è stato proposto dallo stesso Penrose), dovrebbero godere, a rigor di logica, della stessa considerazione della teoria dell’inflazione.

Non sono posizioni nuove, in realtà. Già nel 2006, nel suo The Trouble with the Physics, Lee Smolin aveva lanciato l’allarme sull’avvitamento della fisica teorica in seguito alla rivoluzione delle stringhe (alimentata nel grande pubblico, prima di The Big Bang Theory, dai libri di Brian Greene e Leonard Susskind). Di fronte al problema di avere una teoria che non è in grado di dare conto dei valori dell’universo in cui viviamo, ma fornisce almeno 1o^500 soluzioni diverse, gli stringhisti più spregiudicati si sono convinti che ognuna di quelle soluzioni può essere valida in un altro universo, e che pertanto la teoria delle stringhe predice l’esistenza di altri universi. Non solo: abdicando completamente all’ambizione di ottenere prove sperimentali delle proprie teorie, gli stringhisti hanno lanciato l’attacco al falsificazionismo popperiano (con Susskind in prima linea contro quelli che definisce spregiativamente i “Poppernazi”), invocando l’ascesa di una scienza post-empirica, termine coniato dal filosofo della fisica Richard Dawid nel suo libro String Theory and the Scientific Method (2013): una scienza, cioè, che non richiede più di fare predizioni testabili per essere considerata vera, ma a cui basta la consistenza matematica e il fatto di essere, come dice Dawid, the only game in town, l’unica alternativa disponibile in grado di spiegare la realtà.

A tuonare contro la scienza post-empirica sono stati in tanti, a partire dai fisici teorici George Ellis e Joe Silk in un ormai celebre editoriale su Nature del dicembre 2014, autentica chiamata alle armi per difendere “il cuore e l’anima” della fisica da un pensiero pericoloso che, se accettato, «renderebbe difficile separare una simile “scienza” dal pensiero New Age o dalla fantascienza». La loro collega Sabine Hossenfelder, una delle voci più critiche sull’argomento, non le manda a dire: «Sono piuttosto stanca e nauseata di queste persone che vendono speculazioni semi-matematiche come fisica teorica e occupano posti di lavoro con le loro cosiddette teorie del niente che non portano da nessuna parte», ha scritto sul suo seguitissimo blog Backreaction. Sull’argomento è in uscita la traduzione inglese del suo primo libro, intitolato Lost in Math, dal sottotitolo eloquente: “Come la bellezza ha portato la fisica fuori strada”. La sua opinione è che ormai molti dei suoi colleghi siano così abituati a occuparsi di cose che non si vedono da credere senza problemi a quelle che non esistono, facendosi guidare solo dalla ricerca di concetti come “bellezza” ed “eleganza” nello sviluppo delle loro teorie.

Problema numero tre: l’era iper-reale

Tra i libri del filosofo francese Jean Baudrillard che hanno superato la prova del tempo, c’è senza dubbio Simulacres et Simulation (1981). La tesi di fondo di Baudrillard, che scriveva all’alba dell’era della realtà virtuale, è tanto semplice quanto vera: abbiamo costruito simulacri della realtà che hanno preso il sopravvento sulla realtà e l’hanno sostituita. Viviamo in una realtà simulata che non è però, come quella di Matrix, un gigantesco velo di Maya che nasconde la realtà reale: la mappa si è sostituita al territorio, la simulazione ha preso il posto della realtà. Viviamo nell’era iper-reale. L’esempio più lampante per spiegare il concetto è quello dei social network, dove ciascuno di noi costruisce una propria immagine di sé, un simulacro del vero “io”. Senonché, con l’andare del tempo, finiamo per uniformare il nostro io analogico a quello digitale, a impostare la nostra vita al fine di allinearla al simulacro che abbiamo costruito online. Sbaglieremmo nel credere che sia possibile scavare al di sotto della patina social per riportare alla luce il “vero” sé di una persona: il simulacro ha preso il sopravvento e si è sostituito al reale. Baudrillard non poteva nemmeno immaginare allora l’avvento dei social network, ma le loro dinamiche hanno inverato la sua tesi più di ogni altro fenomeno. Non a caso oggi parliamo dell’epoca della post-verità, anche qui compiendo l’errore di non rileggere Baudrillard: perché non c’è una verità vera sotto la patina della post-verità. Essa si è completamente sostituita alla verità originaria, è diventata una nuova verità. Come dice Morpheus in Matrix, citando proprio Baudrillard: «Benvenuto nel deserto del reale». Tutto, oggi, è iper-reale.

Lo è anche la scienza, naturalmente. Baudrillard non ne parla nel suo libro, ma riflettiamoci: cos’è il processo di «sostituzione del reale con i segni del reale» se non quel processo di sostituzione della realtà del processo scientifico con la sua rappresentazione? Tra gli esempi utilizzati dal filosofo francese per spiegare la sua tesi c’è Disneyland, un mondo reale – perché esiste geograficamente, lo possiamo sperimentare – ma immaginario, perché i suoi diversi mondi (Frontierland, Tomorrowland ecc.) sono simulacri della realtà. Disneyland non è dunque né vera né falsa, ma iper-reale. Non è così anche per quella scienza che si è così tanto distaccata dalla sua essenza, da diventare qualcos’altro, né vera né falsa? La scienza narrata in spettacoli televisivi come Cosmos, per esempio, tanto nell’edizione classica di Carl Sagan quanto in quella più recente di Neil deGrasse Tyson, è ben diversa da quella che si svolge nei laboratori: «I documentari televisivi presentano un’immagine della scienza estremamente idealizzata», spiega Esa Väliverronen, docente di media studies all’Università di Helsinki. «Tipico dei documentari scientifici televisivi è la mistificazione del processo di ricerca in una storia dell’inevitabile progresso della scienza». Massimo Sandal, ricercatore e giornalista scientifico, ha fatto notare un paio di mesi fa in un suo articolo che, sì, «la scienza ha sempre dato spettacolo, fin dalle sue origini», ma oggi «la scienza è consumata sempre più come se fosse un anime o un telefilm, in un milieu intriso di riferimenti facilmente ironici. Douglas Adams. Stephen Hawking. Neil deGrasse Tyson. Alberto Angela. I ritratti di Darwin o Einstein. I peluche dei batteri. Tizio blastalaggente. Plasmando una sottocategoria geek che potremmo chiamare science fandom». Il risultato è il cosiddetto infotainment scientifico, che elimina «la profondità intellettuale, contribuisce alla polarizzazione e all’impoverimento del dibattito scientifico nella società», e finisce persino per favorire, anziché contrastare, la pseudoscienza.

Baudrillard metteva in guardia, nel suo libro, dall’implosione del significato nei media contemporanei. L’informazione, scriveva, «è direttamente distruttiva del senso e del significato», a causa dell’azione di dissoluzione del senso su cui si basano i mass-media. «L’informazione divora il suo stesso contenuto». Ma non ha senso, ci dice ancora Baudrillard, chiedersi se sia la perdita di comunicazione che produce i simulacri, o se siano i simulacri a corto-circuitare ogni possibilità di comunicazione, nel momento in cui sostituiscono la realtà con dei modelli. Si tratta di un processo circolare, quello della simulazione che produce l’iper-reale, «più reale del reale». La scena proiettata milioni di volte sui nostri schermi del secondo aereo che si schianta sulle torri gemelle del World Trade Center, o del crollo dei due grattacieli, finisce per perdere di senso nella sua reiterazione: diventa difficile distinguere la realtà dalla fantasia: una narrazione che nasconde la complessità del reale, la sostituisce trasformandola in un film. Analogamente, la narrazione della scienza sostituisce alla scienza reale un modello semplificato: i paradossi dell’entanglement quantistico possono così essere utilizzati per spiegare il buddismo o la telepatia, non perché il fenomeno dell’entanglement non sia vero, ma perché la sua rappresentazione è diventata così slegata dall’essenza – il segno si è sostituito alla realtà, perdendo completamente di significato – che il simulacro così prodotto può essere utilizzato per qualsiasi fine, producendo simulacri di secondo livello.

La scienza iper-reale

Il sociologo Adam Possamai ha coniato il concetto di hyper-real religions per definire i simulacri di religione emersi dalla contaminazione con la cultura di massa. Un esempio è il Jedismo, la religione ispirata ai Jedi di Star Wars, che fonde elementi cristiani, buddisti, taoisti per imitare una vera religione basata però su un’opera di immaginazione. Lo Jedismo non è una religione fake, una presa in giro: molti dei suoi esponenti credono davvero nell’esistenza della Forza come descritta nei film. Iniziato come una goliardata nel corso del censimento del 2001 in Australia, successivamente molte persone in tutto il mondo hanno dichiarato di appartenere allo Jedismo e a conformare la propria esistenza al “codice Jedi”. Il simulacro si è sostituito al reale. Le religioni iper-reali si sostituiscono gradualmente alle religioni reali: è così, per esempio, per coloro che, pur dichiarandosi cristiani, credono alle teorie esposte da Dan Brown nel suo romanzo Il codice Da Vinci relativamente alla presunta linea di sangue di Gesù e Maria Maddalena, nascosta dalla Chiesa; o per quanti, leggendo Il Tao della fisica di Fritjof Capra, sono convinti che le religioni orientali rivelino aspetti oggi riportati alla luce dalla meccanica quantistica.

Ha senso allora provare a parlare di “scienza iper-reale”, e usare questo concetto per spiegare i fenomeni di cui ho discusso nei primi due paragrafi? Negli ultimi anni i sociologi della scienza hanno coniato il termine “medializzazione” per riferirsi ai rapporti tra mass-media e produzione della conoscenza scientifica. L’importanza giocata dai media nella costante ricerca di supporto pubblico da parte della scienza – che si traduce, soprattutto, in fondi per la ricerca – ha trasformato in modo significativo le dinamiche interne alla comunità scientifica. Il celebre annuncio di Martin Fleischmann e Stanley Pons sulla fusione fredda all’Università di Salt Lake City nel 1989 è un esempio che ha fatto scuola: i due scienziati preferirono bruciare le tappe e non attendere la pubblicazione del loro (peraltro zoppicante) articolo su una rivista scientifica, dove era sottoposto alla canonica procedura della revisione tra pari, ottenendo di conseguenza una clamorosa attenzione mediatica. L’errore di quell’annuncio maldestro fu ripetuto nel 2011 da Antonio Ereditato e dal suo gruppo ai Laboratori Nazionali del Gran Sasso, con la celebre “scoperta”, poi smentita, di neutrini più veloci della luce. Ma al di là degli esempi celebri di gaffe mondiali dovute al desiderio di “spettacolizzare” le scoperte, esempi di medializzazione sono anche i continui annunci della NASA relativi a major discoveries che poi, all’atto pratico, si rivelano di modesta portata, ma riescono a conquistare con questo sistema le prime pagine dei giornali e a convincere il Congresso americano ad allentare i cordoni della borsa.

Tutto questo è ben noto ai sociologi della scienza. Quello che invece non è noto è che, coerentemente con il meccanismo “scoperto” da Baudrillard, non è che al di sotto di questa patina di spettacolarizzazione possiamo ricuperare il vero senso dell’impresa scientifica, la scienza reale; non possiamo, cioè, come invece si augurava Tommaso Tosi nel suo post citato in apertura, tornare ai fondamenti della fisica e liberarci della narrazione: perché, attraverso un procedimento circolare, il simulacro ha sostituito la scienza e quel che ne è emersa è una scienza iper-reale. Pensiamo alla crescente centralità, nell’agenda della NASA e dell’ESA, dell’obiettivo di portare l’Uomo su Marte e realizzarvi insediamenti permanenti: per decenni, Marte è rimasto fuori delle agende delle agenzie spaziali, per tornarvi dopo un analogo ritorno di fiamma da parte della fantascienza, sia letteraria che cinematografica. Elon Musk ha più volte ammesso di aver lanciato SpaceX con l’obiettivo di colonizzare Marte a causa delle sue letture fantascientifiche. La clonazione di animali è, di per sé, un filone di ricerca minoritario nell’ambito genetico e biotecnologico: ma l’eco mondiale della clonazione della pecora Dolly ha permesso di spostare ingenti fondi in questo settore, e ancora pochi mesi fa la notizia della clonazione di due macachi in Cina ha fatto il giro del mondo, sebbene le applicazioni pratiche di questa scoperta siano tutt’altro che chiare. Un esempio ancora più chiarificatore è quello dell’intelligenza artificiale. Al di là degli spettacolari successi del metodo del deep learning nello sviluppo degli algoritmi, l’attenzione mediatica si è concentrata sugli allarmi lanciati da personaggi come Stephen Hawking, Bill Gates, Elon Musk e Nick Bostrom sui rischi di sviluppare intelligenze artificiali più intelligenti dell’essere umano, le cosiddette “superintelligenze”, che potrebbero costituire una minaccia esistenziale per la nostra civiltà. Luciano Floridi, docente di filosofia dell’informazione a Oxford, commentando la bozza di legge sulla “personalità elettronica” presentata al Parlamento europeo, che vorrebbe dotare i robot di una sorta di carta d’identità e applicarvi qualcosa di simile alle leggi della robotica di Isaac Asimov, ha osservato che «se uno legge il documento si vede una vaga passione per quella fantascienza di cui sono un grande amante, ma la sera o il sabato quando si va al cinema, e che non dovrebbe essere usata per fare politica e per gestire gli sviluppi tecnologici». Si tratta di discorsi che in effetti hanno molto a che fare con la fantascienza, e poco con la scienza; eppure hanno attratto ingenti fondi, pubblici e privati, allo scopo di individuare soluzioni per minimizzare i rischi di una versione dell’AI che non sappiamo nemmeno se sia tecnicamente realizzabile, al punto da sopravanzare in importanza le ricerche tradizionali nei settori dell’AI “debole” (quella non autocosciente).

La fisica iper-reale

È la fisica, come si sarà già capito, il settore che è stato più influenzato dall’era della scienza iper-reale. Lo storico della scienza David Kaiser, nel suo fondamentale testo Come gli hippie hanno salvato la fisica (2011), ha portato alla luce il ruolo che la controcultura americana e la New Age hanno giocato nel cambiare l’agenda di ricerca nel settore della meccanica quantistica: dall’approccio “zitto e calcola” che dominò le università americane dal secondo dopoguerra alla fine degli anni Sessanta, in cui la meccanica quantistica fu riportata al suo aspetto operazionale sfrondandolo delle riflessioni filosofiche dei padri fondatori, si passò a una riscoperta dei suoi paradossi, in particolare dell’entanglement, a opera di un gruppo di ricercatori hippie, il Fundamental Fysiks Group dell’Università di Berkeley, che iniziò a studiare il modo in cui la meccanica quantistica potesse spiegare i fenomeni ESP (ossia i fenomeni paranormali), all’epoca di gran moda anche nella stessa comunità scientifica. Fisici di prim’ordine come David Bohm e John Wheeler, che ebbero numerosi contatti con i membri del Fundamental Fysiks Group, si convinsero a impegnarsi nell’approfondimento di concetti oggi di enorme rilevanza nella fisica teorica, come il principio olografico e la teoria dell’informazione (espressa da Wheeler nel programma di ricerca It from bit). Secondo Kaiser, i grandi sviluppi del teletrasporto quantistico basato sul teorema del no-cloning e sull’entanglement sono stati possibili proprio grazie alle ricerche “eterodosse” del Fundamental Fysiks Group. L’enorme successo dei testi scritti dai loro membri, come Il Tao della fisica di Capra, Space-Time and Beyond di Jack Sarfatti (1974) e La danza dei maestri Wu-Li di Gary Zukav (1979), spinse tantissimi giovani a dedicarsi alla fisica e ancor più semplici appassionati ad approfondirne le teorie, naturalmente nella loro versione “iper-reale”.

Oggi è a questo tipo di fisica che pensiamo quando parliamo di fisica: quello raccontato all’interno dei testi di divulgazione scientifica, ma anche quello portato avanti dai fisici teorici di mezzo mondo. Quando, all’Università di Napoli, il fisico teorico Salvatore Capozziello ha sviluppato un modello che, sfruttando le proprietà del grafene, sembra provare la bontà di alcune teorie di gravità modificata alternative al filone mainstream di ricerca della materia oscura, l’ANSA e poi di seguito tutte le testate italiane hanno annunciato che Capozziello aveva realizzato “il primo wormhole per i viaggi nel tempo”. Lo stesso professore ha sfruttato l’imprevista visibilità mediatica per confermare che, in linea teorica, il modello potrebbe anche essere usato per costruire wormhole, per quanto inutilizzabili per i viaggi nel tempo. È così che gli obiettivi di una ricerca vengono più o meno inconsciamente spostati dall’influenza della cultura di massa, in questo caso da teorie da fantascienza rese popolari da un blockbuster come Interstellar. Non serve ricordare che la maggior parte dei fisici non si occupi affatto di questi temi: la fisica iper-reale che tratta di teorie del tutto, supersimmetria, gravità quantistica, multiversi, dimensioni extra e wormhole si è di fatto sostituita alla fisica tradizionale, in seguito a una graduale evoluzione in cui ha pesato tanto il ruolo della divulgazione scientifica quanto lo slittamento della fisica verso soluzioni post-empiriche.

Il problema della scienza iper-reale è che ha reso difficile, per non dire impossibile, distinguere la scienza dalla pseudoscienza. Fatte salve quelle teorie che si basano su asserzioni palesemente contraddette dalla prova dei fatti, come il terrapiattismo o le scie chimiche, quando si abbandona la tradizionale demarcazione tra scienza e pseudoscienza tracciata da Karl Popper con il concetto di falsificazionismo alla base del metodo scientifico tutto diventa più incerto. Prendiamo le congetture avanzate da due scienziati all’interno di altrettanti best-seller: il biocentrismo di Robert Lanza (che per la verità è un medico che si occupa di staminali, ma ha firmato il libro Biocentrismo nel 2009 con l’astronomo Bob Berman) e la teoria del punto Omega di Frank Tipler, fisico teorico che è stato allievo di Wheeler ed è docente di fisica matematica alla Tulane University.

Entrambe si fondano su due fondamenta: l’interpretazione di Wigner-Von Neumann della meccanica quantistica, minoritaria nell’ambito della filosofia della fisica, secondo cui è la coscienza dell’osservatore a produrre quel collasso della funzione d’onda attraverso cui si passa dal reame quantistico meramente probabilistico al reame macroscopico deterministico che percepiamo, e quindi assegna alla vita intelligente un ruolo-chiave nella “costruzione” della realtà; e l’accezione forte del principio antropico, secondo cui i particolari valori delle costanti fondamentali del nostro universo possono essere spiegati postulando un ruolo centrale della vita nella struttura stessa della realtà (l’accezione “debole”, di gran lunga preferita dalla comunità scientifica, sostiene che la nostra stessa esistenza produce un autoselezione dei possibili parametri delle costante fondamentali, in base alla tautologia “se così non fosse, non saremmo qui a parlarne”, e implica pertanto l’esistenza di molteplici universi, ciascuno con parametri diversi). Entrambe le teorie postulano una concezione non-dualistica della realtà, in cui la coscienza ha un ruolo determinante, al punto da dare consistenza ai concetti di tempo e spazio, che non esisterebbero in modo indipendente dall’osservatore. Basandosi sulla teoria dell’informazione, inoltre, i due scienziati sostengono che la coscienza umana è destinata all’immortalità. Per Lanza, ciò avviene perché l’informazione in quanto forma di energia non può mai andare dispersa ma può solo trasformarsi, anche dopo la morte di una persona – di conseguenza la coscienza deve esistere per sempre affinché possa esistere l’universo. Tipler invece, che ha avanzato la sua teoria del punto Omega nel libro La fisica dell’immortalità (1994), si ispira all’esperimento della “scelta ritardata” teorizzato per primo da Wheeler e afferma che in futuro, alla fine dell’universo, emergerà una singolarità, il “Punto Omega”, che sarà in grado di replicare tutta l’informazione esistita nell’universo, compresa la coscienza di tutte le persone vissute in passato, così da poter fungere da osservatore e “creatore” dell’universo, in un processo di retrocausazione. A differenza di Lanza, Tipler si spinge a fare anche delle predizioni testabili, come quella per cui l’universo debba essere chiuso: predizione rivelatasi falsa con la scoperta dell’energia oscura, nel 1998, che sta accelerando l’espansione cosmica; ma successivamente Tipler è corso ai ripari immaginando un meccanismo che potrebbe consentire a una civiltà intelligente, in futuro, di invertire l’espansione cosmica. Si tratta, in questo caso, di una congettura non testabile, ma se si accettano i presupposti della scienza post-empirica il problema non si pone.

Come giudicare queste due teorie? Sono teorie scientifiche o pseudoscientifiche? Nell’era della scienza iper-reale, la domanda non ha senso. Sono piuttosto simulacri di secondo livello, perché si basano su simulacri di teorie scientifiche – la meccanica quantistica e il principio antropico – trasformate dal processo circolare di “interferenza” con la cultura di massa. Sono testi che figurano negli scaffali di divulgazione scientifica a fianco a quelli di altri scienziati; i loro autori occupano cattedre universitarie, e pubblicano i loro articoli su riviste scientifiche. Sono simulacri che stanno gradualmente, inesorabilmente prendendo il posto della realtà. Ma proprio per questo noi “postmoderni” dovremmo cambiare il nostro approccio al problema della demarcazione tra scienza e pseudoscienza – David Kaiser è stato tra i primi a dimostrare che le congetture radicali, “eretiche”, possono, anche se per vie traverse, inseminare la scienza di nuove idee. Questo non significa ovviamente prestare orecchio a tutti gli ingegneri che vogliono dimostrare l’inconsistenza della relatività generale di cui parla Moatti nel suo Alterscience, o ai sostenitori della teoria dell’universo elettrico. Significa, piuttosto, accettare di buon grado che nell’era della scienza iper-reale anche i contributi provenienti dall’immaginario di massa possono risultare utili per aprire nuove piste di ricerca. La fisica potrà anche essere andata fuori strada, come sostiene Sabine Hossenfelder; ma chi siamo noi per dire quale sia la via che porta alla realtà?

Roberto Paura (1986) svolge un dottorato di ricerca in comunicazione della fisica all’Università di Perugia. Giornalista scientifico, ha lavorato per Fanpage e per la Città della Scienza di Napoli, ed è attualmente direttore della rivista Futuri dell’Italian Institute for the Future, redattore per Quaderni d’Altri Tempi e collaboratore per Il Tascabile e Query. Cura inoltre la collana di divulgazione scientifica Megaverso per le Edizioni Cento Autori, in cui è apparso quest’anno il suo libro Universi paralleli. Perché il nostro universo potrebbe non essere l’unico.