Correva l’anno 1929 quando l’astronomo Edwin Hubble, analizzando la luce di galassie lontane dall’osservatorio del monte Wilson in California, si accorse che gli oggetti nel cosmo esibivano un moto comune di recessione gli uni dagli altri. Hubble notò anche che, più esaminava galassie distanti, più la velocità con cui esse tendevano ad allontanarsi aumentava. Questa evidenza, incorporata nella legge che porta il suo nome, costituì la prima prova osservativa dell’espansione dell’universo, gettando le basi per la cosmologia moderna. Nell’arco di circa novanta anni da allora, la comprensione della struttura e dell’evoluzione del cosmo ha subito giganteschi balzi in avanti grazie all’incredibile avanzamento tecnologico, accompagnato a braccetto dalla fantasia e l’ingegno del genere umano nel formulare teorie sempre più complesse e articolate per spiegare la realtà intorno a noi. Un connubio meraviglioso che ci ha permesso di addentrarci fino ai confini del conosciuto, ma che allo stesso tempo ha rivelato un mistero a dir poco sconcertante, forse il più grande problema della fisica moderna.

Alla fine del secolo scorso, Adam Riess, Brian Schmidt e Saul Perlmutter, tre astrofisici appartenenti a due diversi gruppi di ricerca, studiarono le curve di luce emesse da un particolare tipo di supernova, le supernove Ia, accorgendosi di un fatto molto strano: l’universo non solo si espande, ma sta accelerando. C’è qualcosa al suo interno, una misteriosa energia, un’entità che agisce in maniera diametralmente opposta alla gravità e guida questa espansione accelerata. Tale inesplicabile “energia”, ribattezzata dagli scienziati con il simpatico nomignolo di “energia oscura”, viene introdotta nel modello standard della cosmologia tramite l’aggiunta di un termine costante nelle equazioni di campo di Einstein della Relatività generale, considerate il mattone fondamentale alla base del modello. La nuova costante “cosmologica” può essere interpretata come una componente addizionale dell’universo, una sorta di fluido misterioso che costituisce il 70 per cento del contenuto del cosmo, ma la cui natura rimane avvolta nell’ignoto. Una scoperta, questa dell’espansione accelerata, che è valsa ai tre ricercatori sopracitati il premio Nobel per la Fisica nel 2011.

Capire l’origine dell’energia oscura, comprendere se essa sia effettivamente la responsabile dell’accelerazione della trama dell’universo, rappresenta uno degli obiettivi fondamentali nella ricerca scientifica degli ultimi anni. Purtroppo risolvere questo enigma è tutt’altro che semplice: sono necessarie misure estremamente precise della velocità con cui il cosmo si espande per poter identificare la teoria giusta fra le tante proposte come spiegazione della famigerata componente oscura. Di conseguenza, oltre all’esigenza di avere a disposizione un’enorme mole di dati di altissima qualità, è indispensabile affrontare e circoscrivere il peggior incubo di ogni ricercatore che si rispetti: le sistematiche.

Gli errori sistematici rappresentano tutto quell’insieme di problematiche che emergono durante un’analisi, legate ad assunzioni sbagliate nei modelli, difetti negli strumenti o nei software, ma anche e soprattutto a effetti spuri introdotti da fenomeni fisici secondari, difficili da riconoscere ed interpretare. In generale, questi errori possono essere molto piccoli: in tal caso non influiscono in maniera consistente sugli esiti delle ricerche. Un po’ come dire “la Terra vista da lontano è praticamente una sfera”: un’ottima constatazione anche se, guardando nel dettaglio, sappiamo bene che la crosta terrestre è ben lungi dall’essere liscia e uniforme. Tuttavia, nel momento in cui richiediamo un’accuratezza particolarmente elevata nei nostri esperimenti, le sistematiche possono diventare degli avversari temibili. Se non prese in considerazione, possono falsare risultati, produrre conseguenze indesiderate e creare un certo scompiglio tra gli scienziati. Ecco perché, nell’era della cosmologia di precisione, controllare e calibrare gli errori sistematici costituisce una branca fondamentale della ricerca.

Perché le supernove?

Le supernove sono esplosioni di stelle incredibilmente energetiche, con una luminosità che può superare anche la galassia che le ospita. La loro eccezionale brillantezza le rende sorgenti visibili anche a grande distanza e relativamente facili da identificare. Un tipo di supernova molto particolare avviene in un sistema binario composto da una nana bianca e una stella compagna. La nana bianca “succhia” materiale via dalla compagna e tenta di accrescersi. Purtroppo, la piccola ma compatta stellina non può sopravvivere se la sua massa supera un certo limite, chiamato limite di Chandrasekhar, ed esplode, generando quella che viene definita supernova di tipo Ia (si legge “di tipo uno-a”). Poiché la massa alla quale la nana bianca diventa instabile è praticamente sempre la stessa, le supernove Ia mostrano tutte caratteristiche molto simili indipendentemente dal punto dello spazio in cui si trovano, rendendole uno dei metodi migliori per determinare le distanze nell’universo. È stato infatti proprio grazie a loro, a queste “candele standard”, che si è riusciti determinare l’espansione accelerata del cosmo.

Perché le supernove viste attraverso una lente gravitazionale?

Ora un gruppo di ricercatori del Lawrence Berkeley National Laboratory e dell’Institute of Cosmology and Gravitation all’Università di Portsmouth (UK) si è spinto più in là, prendendo in considerazione un altro interessante modo per usare le supernove nella cosmologia: il lensing gravitazionale.

Quando la luce viaggia nell’universo, essa viene deviata dal campo gravitazionale generato da una distribuzione di massa, come una stella una galassia o un ammasso di galassie. Se la gravità è molto intensa, la distorsione del percorso della luce diventa notevole e genera diversi effetti interessanti, come immagini multiple di una stessa sorgente, notevole amplificazione della luminosità e giganteschi archi di luce in cielo di una bellezza incommensurabile; questo insieme di fenomeni va sotto il nome di strong lensing.

Poiché la luce impiega un tempo differente ad attraversare diversi percorsi, eventuali immagini doppie di una singola sorgente si manifestano con un certo lasso temporale le une dalle altre. Il periodo che intercorre tra l’apparizione di un’immagine e la successiva è fortemente legato al modo in cui l’universo si espande. Se poi la sorgente che subisce il fenomeno del lensing è una supernova Ia, completa di tutte le sue utili caratteristiche, ecco che abbiamo ottenuto un eccezionale strumento di misura dell’espansione cosmica.

Purtroppo le supernove Ia sottoposte a strong lensing (glSn) che si conoscono non sono poi così tante. Anzi, per dirla tutta, fino ad oggi ne sono state osservate solamente due. Tuttavia, secondo le aspettative, osservazioni condotte nei prossimi anni con strumenti tipo il Large Synoptic Survey Telescope (Lsst) provvederanno a fornire dati per circa un migliaio di glSn, fornendoci il campione necessario per sviscerare i segreti dell’Universo. È proprio da questa prospettiva che si sviluppa il lavoro condotto da Daniel Goldstein, primo autore di un articolo pubblicato ieri su The Astrophysical Journal, e dai suoi collaboratori.

Attraverso una serie di simulazioni numeriche condotte al National Energy Research Scientific Computing Center, il gruppo di Goldstein ha realizzato e analizzato dettagliate curve di luce sintetiche di supernove Ia affette da strong lensing. Lo scopo? Determinare e controllare l’entità di una tra quelle famose sistematiche di cui parlavamo prima, che potrebbero inficiare i risultati delle future analisi: il fenomeno del microlensing. La presenza delle singole stelle nella galassia che funge da lente genera distorsioni addizionali nel percorso della luce. E questi effetti secondari, in apparenza trascurabili, possono combinarsi cambiando il tempo di arrivo delle immagini, il cui ritardo dovuto alla deflessione è generalmente dell’ordine di un paio di settimane, allungandolo o accorciandolo anche di qualche giorno. L’idea di base di Goldstein e collaboratori riguarda il fatto che, se l’azione del microlensing sulla sorgente fosse la stesso per ogni lunghezza d’onda (ovvero ogni colore) della luce emessa, si potrebbe riuscire a escluderne gli effetti, e ottenere in tal modo misure estremamente precise del tasso di espansione dell’universo.

Lo studio ha rivelato che effettivamente, nelle fasi immediatamente successive alla massima luminosità della supernova, il microlensing sembra agire in maniera acromatica, cioè nello stesso modo per ogni colore. Avere accesso a dati relativi a queste fasi, con la piena operatività del telescopio Lsst nel 2023, garantirebbe la possibilità di ridurre notevolmente le sgradite sistematiche e raggiungere, forse, l’accuratezza necessaria per identificare la causa dell’espansione accelerata dell’universo.

«La scoperta di supernove di tipo Ia lensate [ndr: viste con lenti gravitazionali] ha un importante utilizzo cosmologico. Naturalmente è troppo presto per concludere se esse potranno fornire o meno una misura del rate di espansione dell’universo con una accuratezza competitiva con quella degli altri “probes” cosmologici.Prima bisognerà formare un campione sufficiente di supernove lensate sul quale basare le misure», osserva Massimo Della Valle dell’Inaf di Napoli, al quale ci siamo rivolti per un commento. «L’impresa sarà titanica, vista la bassa frequenza con la quale le supernove lensate vengono osservate, ma fattibile con l’avvento di Lsst. L’altro tema di grande interesse è quello di poter studiare l’evoluzione delle supernove Ia con alto redshift. Ottenere spettri di supernove Ia a redshift maggiore di 1.5 rappresenta a tutt’oggi una sfida di straordinaria difficoltà, che le supernove lensate potrebbero aiutare a vincere. L’osservazione anche di un piccolo numero di supernove Ia ad alto redshift potrebbe infatti rivelare risultati inaspettati e obbligarci a rivedere il concetto di “candela standard”».

Per saperne di più: