Cosmologia

Enciclopedia del Novecento (2004)

Cosmologia

FFrancesco Melchiorri

di Francesco Melchiorri

SOMMARIO: 1. Introduzione. ▭ 2. La transizione della cosmologia dal 'complicato' al 'semplice' (1970-1980). ▭ 3. Dal 'semplice' al 'complicato' (1980-1998). ▭ 4. Ancor più 'complicato' (1998-2002). ▭ 5. Il Medioevo dell'Universo. ▭ Bibliografia.

1. Introduzione.

La cosmologia moderna nasce nel 1924, quando Carl Wilhelm Wirtz, astronomo dell'Osservatorio di Colonia, per primo nota una relazione tra lo spostamento verso il rosso (redshift) delle righe spettrali della luce delle galassie e la luminosità apparente, legata alla distanza delle medesime (v. Wirtz, 1922 e 1924). Cinque anni dopo Edwin Hubble trasformerà questa osservazione in una legge, nota come 'legge di Hubble': inizialmente, sia Wirtz che Hubble erano convinti che esistesse una relazione non lineare tra il redshift, z = (λosslab)/λlab, definito come il rapporto tra la differenza percentuale di lunghezza d'onda della radiazione osservata λoss e quella della riga in studio misurata in laboratorio λlab, e la distanza d, stimata a partire dalla luminosità o dal diametro apparente della galassia. Tuttavia i dati (v. fig. 1) costrinsero Hubble ad accettare una relazione lineare del tipo Hd = cz (detta appunto legge di Hubble, con H nota come costante di Hubble). Né Wirtz, né Hubble interpretavano il redshift z come un effetto Doppler dovuto all'allontanamento delle galassie (in tal caso, in prima approssimazione, cz è la velocità di allontanamento, e la legge assume la forma più nota υ = Hd ): entrambi sono morti con la convinzione che un qualche sconosciuto fenomeno fisico avrebbe potuto spiegare il redshift (v. Lubin e Sandage, 2001). In effetti, mentre la relazione redshift-distanza è stata immediatamente recepita dalla comunità scientifica, l'idea di una espansione generale dell'Universo ha faticato non poco ad affermarsi. Si potrebbe dire che ciò è avvenuto per mancanza di alternative credibili.

La teoria alternativa più spesso proposta (il grande astronomo e fisico Fritz Zwicky ne fu un acceso promotore) fu quella della tired light; in questo caso, però, l'ipotesi che i fotoni perdano energia su grandi distanze urta contro la mancanza di una qualsiasi diffusione dei medesimi, visto che le immagini di galassie ad alto redshift sono tanto nitide quanto quelle a basso redshift. Così, a partire dal 1930 ha acquistato credibilità l'idea di un'espansione generale dell'Universo. Vennero allora suggeriti alcuni test fondamentali per discriminare tra espansione e altre possibilità. Nel 1938 Richard Tolman suggerì di misurare la dipendenza della brillanza superficiale delle galassie ellittiche dal redshift: nel caso di espansione questa quantità dovrebbe diminuire come (1 + z)4. La proposta di Tolman è stata realizzata solo nel 1980, quando Alan Sandage ha portato a termine una serie di misure che hanno mostrato (in presenza di notevoli errori sistematici) un certo accordo tra le osservazioni e l'ipotesi. Risale sempre agli anni quaranta il suggerimento di verificare l'espansione misurando la dilatazione dei tempi dei fenomeni ad alto redshift: le curve di luce di alcune stelle, note come supernovae di tipo Ia, sono ben definite temporalmente, e proprio di questi anni è l'osservazione che le curve di luce delle supernovae ad alto redshift sono 'allargate' rispetto alle curve di quelle più vicine. Visto il carattere qualitativo di questi test, potremmo ripetere che l'ipotesi dell'espansione dell'Universo ha prevalso sulle altre più per il fatto che queste non riuscivano a rendere conto di fatti semplici che per i risultati dei test proposti.

Dunque, a partire dall'individuazione del redshift si può dividere la cosmologia moderna in due fasi: la prima va dal 1924 fino al 1980 circa e potremmo chiamarla 'cosmologia classica'; la seconda, dal 1980 fino ai nostri giorni, si articola in due filoni, il primo dei quali discende dalla precedente cosmologia e ha ricevuto da Jim Peebles la denominazione di 'cosmologia neoclassica', mentre l'altro viene comunemente chiamato 'cosmologia di precisione'. È di quest'ultimo indirizzo che ci occuperemo nel presente articolo; ma prima converrà ricordare brevemente il percorso che ha portato alla sua nascita. Indipendentemente dai dettagli, molto differenti, delle varie cosmologie, esse hanno un obiettivo comune: intendono confrontare i dati osservativi con un modello di Universo il più semplice possibile in modo da ridurre al minimo il numero di parametri cosmologici che lo caratterizzano. Quasi sempre viene utilizzato il modello di Aleksander Aleksandrovič Friedmann derivato dalle equazioni di campo della relatività generale nell'ipotesi di isotropia e omogeneità (isotropia significa invarianza per le rotazioni, omogeneità invarianza per le traslazioni): si ipotizza quindi che l'Universo sia riempito da un fluido omogeneo a varie componenti (radiazione, materia barionica, materia oscura, energia oscura, ecc.) e si confrontano le predizioni del modello per varie epoche con le osservazioni condotte a varie distanze. A partire dal 1980 (per alcuni importanti lavori già dal 1970) a questo fluido vengono aggiunte delle fluttuazioni di densità che dovrebbero portare alla formazione delle strutture attraverso processi di instabilità gravitazionale.

Lo sviluppo della cosmologia classica è stato estremamente lento: pochi sono stati i gruppi di ricerca coinvolti, scarse le osservazioni ed estremamente imprecisi i risultati. Basta ricordare che quelli che all'epoca venivano considerati i parametri cosmologici fondamentali, quali la costante di Hubble e la densità media della materia ed energia, erano valutati con incertezze maggiori del 50%. Non era chiaro se questa grande indeterminazione fosse da attribuire alla sensibilità limitata dei mezzi osservativi o non piuttosto alla validità approssimata dei modelli che si basavano su quei parametri: così non è raro leggere negli articoli del tempo dibattiti sull'isotropia spaziale della costante di Hubble o sul reale significato di una 'densità media', fino al caso estremo di un'ipotetica distribuzione frattale della materia a tutte le scale che renderebbe priva di significato la definizione stessa di densità media. Tutti i lavori di questa epoca sono pervasi dal dubbio, condiviso dagli stessi studiosi, che la cosmologia non sia una vera disciplina sperimentale, venendo meno uno dei cardini del metodo fondato da Galilei, cioè la possibilità di riprodurre in laboratorio il fenomeno in studio e di intervenire modificando le condizioni iniziali: ovviamente, l'Universo è un fenomeno unico e non riproducibile in laboratorio. Così, negli anni cinquanta Herman Bondi (uno dei fondatori della teoria dello stato stazionario) apriva il suo libro Cosmology, un best seller dell'epoca, con l'affermazione che nessuna teoria cosmologica potrà mai essere provata attraverso le osservazioni, e la scelta tra le varie teorie dovrà avvenire piuttosto su basi estetiche di eleganza formale e di semplicità fisica.

A partire grosso modo dal 1980 i test caratteristici della cosmologia classica vengono affrontati con dovizia di nuove tecnologie: lo Space telescope si pone l'obiettivo di misurare la costante di Hubble con una precisione migliore del 10%; gruppi coordinati di telescopi automatizzati catalogano redshift e luminosità di milioni di galassie fornendo, come nel caso della Sloan digital survey, una mappa tridimensionale dell'Universo fino a distanze di centinaia di Megaparsec (il parsec è un'unità di misura astronomica, pari a circa 3,2 anni-luce: un Megaparsec (Mpc) è la distanza che la luce copre in circa 3,2 milioni di anni); sempre per mezzo di telescopi asserviti a calcolatori, alcuni gruppi raccolgono dati su supernovae a grandi redshifts, stabilendo una precisa relazione tra la loro luminosità apparente e la distanza della galassia ospite. Questi e altri test cosmologici, condotti con strumenti avanzati, costituiscono il cuore di quella che abbiamo chiamato cosmologia neoclassica, ma i risultati che essa riesce a conseguire sono ancora soggetti ai dubbi degli anni precedenti: è ormai chiaro che l'Universo non è omogeneo fino a scale di decine e, forse, centinaia di Mpc e la tendenza verso un'omogeneità a scale più grandi è molto probabile ma non del tutto evidente. In queste condizioni restano dei sospetti sulla validità delle interpretazioni dei dati osservativi basate sempre su un modello teorico isotropo e omogeneo. È dunque raccomandabile la massima prudenza, specie quando questi risultati vengono utilizzati nell'ambito della nuova cosmologia di precisione.

Con l'avvento della cosmologia di precisione ci troviamo di fronte a un radicale cambiamento, vuoi per l'abbondanza e (come suggerisce la nuova denominazione) la precisione delle misure, vuoi per l'atteggiamento dei cosmologi, convinti ora della possibilità di comprendere le fasi iniziali dell'Universo e dimentichi dei dubbi precedenti. La cosmologia diviene una branca della fisica e condivide a pieno titolo la dignità di disciplina scientifica. Viene proposto un modello cosmologico standard che, se non è elegante e stabile (cioè abbastanza indipendente dai valori precisi dei parametri) come il modello standard delle particelle elementari, è tuttavia abbastanza robusto e capace di interpretare le osservazioni.

Cosa ha determinato questa autentica rivoluzione scientifica? Potremmo dire che la cosmologia ha cambiato soggetto di studio: mentre lo studio dell'Universo vicino forniva un'immagine complessa e ricca di una varietà impressionante di strutture, rendendo difficile la costruzione di una teoria cosmologica autoconsistente e sollevando dubbi sull'applicabilità al mondo reale di modelli semplici, tra gli anni ottanta e novanta una cospicua serie di osservazioni ha mostrato che l'Universo ha attraversato in passato una fase di assoluta semplicità. Da questo Universo primordiale estremamente lontano (molto più lontano dei quasar) proviene una delle più intense radiazioni elettromagnetiche presenti nel cosmo: la radiazione di fondo cosmico. Scoperta nel 1965 da Arno Penzias e Robert Wilson, essa ci fornisce un'immagine di questa fase primordiale omogenea e isotropa ed è pertanto possibile eseguire su di essa misure di grande precisione e di relativamente facile interpretazione.

Così, mentre a priori le teorie cosmologiche sono aperte a un'infinita varietà di soluzioni e appare problematico indicare le osservazioni che permettono di discriminarle nell'ambito dell'Universo vicino, la straordinaria semplicità dell'Universo durante una fase collocabile temporalmente intorno a un milione di anni dalla sua origine ha trasformato quello che i fisici consideravano un toy model (benché alcuni cosmologi non avessero esitato ad applicarlo all'interpretazione dei pochi dati a disposizione), cioè l'Universo isotropo e omogeneo discusso da Friedmann all'inizio del secolo scorso, nel modello standard della cosmologia di precisione. Fissato il modello è divenuto possibile indicare le osservazioni che avrebbero permesso di misurare i parametri cosmologici relativi.

Si può dire che tra il 1980 e il 1995 si è delineata la nuova cornice entro la quale la cosmologia doveva muoversi. Lo studio della radiazione di fondo cosmico, per quanto interessante e importante, rimane tuttavia limitato a una regione ben definita temporalmente dell'Universo; i fotoni della radiazione di fondo provengono da una 'fotosfera' corrispondente all'epoca durante la quale l'Universo divenne trasparente alla radiazione: essa è localizzata intorno a redshift 1.000, con uno spessore Δz = 100 e viene comunemente chiamata 'superficie di ultimo scattering' o LSS (Last Scattering Surface). Era naturale che a partire dagli anni novanta i cosmologi provassero a estendere la loro analisi al di là e al di qua della LSS, da un lato penetrando nelle fasi iniziali dell'Universo, dall'altro cercando un raccordo con l'Universo vicino e i risultati della cosmologia neoclassica. Questa operazione ha dato luogo a un'ulteriore ramificazione della cosmologia di precisione. I cosmologi che definiremmo più conservatori hanno ritenuto possibile estendere l'indagine fin dove i dati di laboratorio della fisica consentono di predire il comportamento del fluido cosmico. Possiamo con una certa generosità affermare che conosciamo l'equazione di stato della materia fino a circa 100 GeV, energia corrispondente alla transizione di fase elettrodebole studiata da Steven Weinberg e Abdus Salam. Tradotto in termini cosmologici questo limite corrisponde alla temperatura raggiunta dall'Universo intorno a 10-11 secondi dall'inizio e a una densità di circa 1027 g/cm3. Questo è appunto il limite che si pone la Standard Precision Cosmology (SPC). Il maggiore successo della SPC in questa indagine sul passato dell'Universo è rappresentato dalle predizioni della nucleosintesi primordiale. La sintesi degli elementi leggeri è avvenuta a circa 200 secondi dall'inizio, a una densità di circa 10 g/cm3 e una temperatura corrispondente a circa 0,1 MeV: siamo dunque ben all'interno dell'ambito operativo della fisica di laboratorio. Le predizioni si confrontano in modo più che soddisfacente con le abbondanze attuali di 4He, Li, 3He, D, Be, B.

Un altro spettacolare successo della SPC si attendeva dallo studio delle perturbazioni di densità responsabili della formazione delle galassie. Fin dagli anni settanta la scuola sovietica guidata da Jakov Zel′dovič aveva predetto la presenza di oscillazioni di densità nel plasma primordiale e un conseguente spettro di potenza della distribuzione spaziale delle anisotropie del fondo cosmico caratterizzato da un alternarsi di massimi e minimi. Due esperimenti, BOOMERANG e MAXIMA, hanno confermato in pieno le predizioni della SPC per quel che concerne la distribuzione spaziale delle anisotropie sulla LSS, ma hanno mostrato che l'ampiezza delle fluttuazioni è almeno cento volte inferiore a quanto ipotizzato per un Universo la cui materia fosse costituita esclusivamente di neutroni, protoni ed elettroni. A malincuore i cosmologi della SPC hanno dovuto accettare l'esistenza di una nuova forma di materia, debolmente interagente con i fotoni e responsabile della formazione delle strutture: i tentativi di identificare questo nuovo componente del fluido cosmico con una qualche specie non ancora osservata di particella elementare (neutrini massivi, assioni, fotini, ecc.) sono stati molteplici ma è ormai chiaro che solo la rivelazione diretta di queste particelle potrà dare una risposta definitiva al problema.

Intorno al 1995 assistiamo a un autentico ribaltamento di fronte: mentre alcuni fisici delle particelle, resi prudenti dalla mancanza di dati di laboratorio, sostenevano l'opportunità di continuare a trattare il modello di Friedmann come un toy model, valido al più sulla LSS, ed escludevano la possibilità di investigare le fasi iniziali dell'Universo almeno fino a quando non si fossero rese disponibili nuove tecniche osservative capaci di penetrare oltre la LSS (astronomia del neutrino, astronomia delle onde gravitazionali), un gruppo audace e 'iconoclasta' di fisici teorici ha ribaltato il problema e si è chiesto, assumendo la validità del modello di Friedmann, quale nuova fisica sarebbe stata necessaria durante le fasi iniziali per spiegare l'isotropia, l'omogeneità e le piccole anisotropie della LSS. In altre parole non si doveva più partire dalla fisica (e in particolare dalla fisica delle particelle elementari) per illuminare la strada della cosmologia, ma doveva essere quest'ultima a spingersi al di là dei confini posti dall'impossibilità pratica di realizzare acceleratori sufficientemente potenti: l'Universo primordiale diventava l'acceleratore caotico di energia illimitata a disposizione dei cosmologi.

Il problema è affrontato dalla cosiddetta Extended Precision Cosmology (EPC): se limitiamo la validità della teoria del big bang all'evoluzione dell'Universo a partire dal suo stato 'iniziale' di grande isotropia e omogeneità, la EPC studia quei processi fisici che hanno preceduto questo stadio e che alla fine hanno lasciato deboli tracce identificabili in piccole deviazioni dei risultati predetti dal modello base di Friedmann. L'unico meccanismo efficiente fino a oggi proposto per smussare le irregolarità e costringere un qualsivoglia stato iniziale caotico a trasformarsi in un universo isotropo e omogeneo va sotto il nome di inflation. I vari modelli di inflation si differenziano per i dettagli fisici e per la loro localizzazione temporale: ne esistono alcune decine di varianti. È stato detto che la inflation non è una teoria falsificabile, e in effetti essa può essere modificata in modo da riprodurre un vasto numero di Universi; è però suggestivo che tutte le osservazioni siano in accordo con il modello più semplice di inflation.

Sul finire degli anni novanta la cosmologia neoclassica ha portato all'attenzione dei cosmologi un risultato inatteso. Applicando un vecchio test della cosmologia classica (il test redshift-luminosità) alle supernovae di tipo Ia, due gruppi di ricerca, il Supernova Cosmology Group Project (SCP) e lo High Z Supernova Research Team (HZT) hanno mostrato che le supernovae ad alto redshift hanno una luminosità apparente più bassa di quanto predetto dal modello standard sulla base del loro redshift, fornito dalla galassia ospite. Volendo giustificare questo risultato nell'ambito del modello di Friedmann è necessario introdurre un componente aggiuntivo che costringa l'Universo ad accelerare. Anche se questo risultato, facendo parte di quelli derivanti dalla cosmologia classica, deve essere preso con prudenza, ha avuto il merito di riaprire il dibattito sulla costante cosmologica, che fino ad allora era stata posta eguale a zero per comodità, ma sulla cui natura e connessioni con l'energia del punto zero della fisica quantistica regnava un imbarazzante silenzio.

La EPC ha colto l'occasione per esplorare l'eventualità che su grandi scale sia presente un campo scalare (irrilevabile in laboratorio) in conseguenza del quale si verrebbe a esercitare un'azione di repulsione. A questa forma di dark energy è stato dato il nome di 'quintessenza' (v. cap. 4).

Uno sforzo ancora più cospicuo è stato tentato, a partire dal 1999, dalla cosiddetta brane cosmology, che si è posta l'obiettivo di ricondurre l'inflation all'interno di una teoria più generale in grado di risolvere insieme annose questioni del modello standard delle particelle elementari e la sopravvivenza eventuale di una costante cosmologica. Secondo questa teoria, il nostro Universo a 3 + 1 dimensioni è immerso in un 'volume' avente almeno una dimensione in più, costituendo quindi una sorta di membrana (affronteremo in maggior dettaglio queste problematiche nel cap. 2). Possiamo concludere che se il segno della maturità per una disciplina scientifica è rappresentato dal fatto che le osservazioni precedono di poco le interpretazioni teoriche, la cosmologia di precisione si è avvicinata a questa condizione, ma non l'ha ancora pienamente raggiunta.

Infine, affrontiamo il problema del raccordo tra l'Universo semplice degli inizi e la complessità attuale. Abbiamo molti esempi di processi che evolvono dalla semplicità alla complessità (per esempio lo sviluppo di un organismo dall'embrione all'individuo adulto), ma in tutti questi processi esiste una sorta di codice genetico (o di programma) che guida l'evoluzione. Qual è il codice (se c'è) nel caso di un universo che dalla quasi perfetta isotropia e omogeneità ha raggiunto uno stadio di complessità come testimoniato, per esempio, dalla vita sulla Terra? Rispondere a questa domanda significa esplorare quelle che Martin Rees ha definito le dark ages dell'Universo. Attualmente non riusciamo a ricevere segnali da oggetti posti a distanze maggiori dei più lontani quasar, anche se più vicini dell'Universo primordiale dal quale proviene la radiazione di fondo: in termini di redshift non abbiamo informazioni per la regione compresa fra 10 e 1.000. È durante questo periodo che si è realizzata la complessa trasformazione da un semplice Universo alla Friedmann alla straordinaria varietà di strutture dell'Universo attuale, e il suo studio rappresenta il ponte fra cosmologia e astrofisica. Le tecniche osservative proposte aprono un nuovo campo della ricerca astronomica: si tratta di rilevare l'eco Doppler della radiazione di fondo con le nubi ionizzate o neutre (scattering risonante su atomi e molecole) che si muovono nell'Universo tra noi e la LSS.

2. La transizione della cosmologia dal 'complicato' al 'semplice' (1970-1980).

Quando la radiazione di fondo è stata scoperta, nel 1965, i fisici si sono divisi in due partiti: il primo riteneva che questa radiazione poco avesse a che fare con la cosmologia, ma fosse piuttosto di origine astrofisica, cioè il risultato della somma di emissioni da molteplici sorgenti non risolte dagli strumenti. Questo gruppo (piuttosto numeroso) di fisici prevedeva una forte deviazione dallo spettro di corpo nero nella regione millimetrica, dove l'emissione da parte della polvere cosmica avrebbe contribuito con un eccesso di uno o più ordini di grandezza rispetto alla curva del corpo nero a 2,7 Kelvin. L'altro gruppo era pronto a riconoscere la natura cosmologica della radiazione, ma, stante la convinzione che l'Universo primordiale doveva essere piuttosto complicato, anch'esso prevedeva distorsioni dello spettro, sia pure molto più modeste (dell'ordine del 20% o meno). All'epoca, cioè fra gli anni sessanta e ottanta, nessuno ha ipotizzato che le deviazioni dallo spettro di corpo nero potessero essere bassissime, dell'ordine dell'uno su diecimila. Ha avuto perciò grande risonanza un lavoro della scuola sovietica di Zel′dovič e Rašid Sunjaev nel quale si anticipavano distorsioni dello spettro del fondo cosmico dovute a possibili 'iniezioni di energia' durante i processi fisici più violenti che si potessero immaginare (formazione di buchi neri, popolazioni primordiali di stelle massicce, ecc.). Negli anni settanta, le osservazioni nella regione millimetrica condotte dal gruppo del Queen Mary College, da quello di Firenze e da quello di Berkeley hanno mostrato la possibile presenza, rispettivamente, di un difetto dell'ordine del 10%, di nessuna distorsione e di un eccesso dell'ordine del 10-20% (v. fig. 2); sarebbe stato ragionevole mediare questi risultati ed escludere distorsioni, ma i cosmologi hanno immediatamente accettato le osservazioni di Berkeley perché un eccesso era ciò che ragionevolmente si poteva prevedere a causa dei processi fortemente eso-energetici eventualmente occorsi nelle agitate fasi iniziali dell'Universo. Alla fine le misure condotte a bordo del satellite COBE tra il 1990 e 1992 hanno mostrato che lo spettro era effettivamente quello di un corpo nero entro una parte su diecimila. Veniva così confermato il risultato di Firenze al di là di quanto i più ferventi sostenitori della teoria del big bang avessero mai osato proporre. La LSS si trova tutta alla medesima temperatura di circa 2,7 Kelvin e la temperatura delle varie regioni dell'Universo non differisce di più di qualche centesimo di grado. Vale la pena di ricordare che COBE ha confrontato la radiazione di fondo cosmico con una sorgente campione tra le migliori mai realizzate in laboratorio. È sorprendente che ciò nonostante non abbia rilevato alcuna deviazione dallo spettro ideale di corpo nero. L'Universo primordiale è quindi il miglior corpo nero che abbiamo a disposizione nella regione millimetrica di lunghezze d'onda.

A questo primo risultato si è aggiunto ben presto il caso delle anisotropie di dipolo e quadrupolo. Un universo irregolare come quello vicino suggerisce che anche l'Universo primordiale presenti delle 'anomalie'. La scuola sovietica di Zel′dovič ha dedicato particolare attenzione a modelli matematici di Universo non del tutto isotropi, ottenuti, per esempio, ipotizzando che la velocità di espansione non sia la stessa in tutte le direzioni. Se c'è una direzione privilegiata lungo la quale l'espansione è maggiore, ne segue un maggiore raffreddamento della radiazione di fondo lungo quella direzione e ciò determina in cielo una 'anisotropia' detta di quadrupolo (cioè simmetrica su scale di 90°. Si schematizza il fenomeno immaginando di esplorare il cielo lungo un cerchio massimo che contiene la direzione di maggiore espansione: si noterà un aumento di raffreddamento lungo questa direzione e un minor raffreddamento a 90°, che viene espresso in breve come - + - +, che indica un alternarsi di minimi e massimi nella temperatura ogni 90°). Numerosi sono stati i gruppi di ricerca che hanno predetto una anisotropia di quadrupolo dominante su tutte le anisotropie alle altre scale.

Un'altra importante sorgente di anisotropie è di origine cinematica: il moto della Terra rispetto all'Universo lontano può produrre effetti Doppler sulla radiazione, facendola apparire lievemente più energetica (per un corpo nero questo significa trovarsi a una temperatura lievemente maggiore) nella direzione di avvicinamento e più fredda nella direzione opposta. Si parla allora di anisotropia di dipolo (secondo lo schema precedente avremo - 0 +; v. fig. 3). Misure sul moto relativo della nostra Galassia rispetto all'ammasso della Vergine (un raggruppamento di circa 3.000 galassie non molto distante da noi) sembravano mostrare una velocità peculiare della nostra Galassia inferiore ai 200 Km/s: supponendo che l'Universo vicino sia un'immagine non troppo differente di tutto l'Universo, i cosmologi anticipavano una modesta o nulla velocità della nostra Galassia rispetto all'Universo lontano. Il corrispondente effetto Doppler sulla radiazione di fondo si sarebbe manifestato dunque come una anisotropia di dipolo di ampiezza prevista minore di quella di quadrupolo. L'infelice esperimento di Yuma condotto dal gruppo di Princeton negli anni settanta sembrava mostrare proprio questo risultato. Le successive misure dei gruppi di Berkeley, Firenze e Princeton condotte su pallone stratosferico nella prima metà degli anni ottanta hanno al contrario evidenziato un forte dipolo e un basso quadrupolo (v. fig. 4). Da un lato questo risultato costringeva a concludere che l'Universo vicino è ancora più complesso di quanto fino allora stimato: grandi concentrazioni di materia (il cosiddetto Great Attractor) hanno costretto sia la nostra Galassia che le galassie della Vergine ad accelerare fino a raggiungere velocità attuali dell'ordine di 600 km/s. Dall'altro, l'assenza di una anisotropia di quadrupolo mostrava invece che l'Universo primordiale era estremamente isotropo. Quanto fosse radicata la convinzione dei cosmologi a favore di un forte quadrupolo si può desumere dalle parole usate da George Smoot nel suo libro dedicato a COBE, dove il quadrupolo viene chiamato "il santo Graal della cosmologia" (v. Smoot e Davidson, 1993; tr. it., p. 177). COBE ha mostrato che questo santo Graal o non esiste o è estremamente piccolo e rappresenta la coda di uno sviluppo in serie delle anisotropie indotte dalle perturbazioni primordiali a tutte le scale.

Così, agli inizi degli anni novanta l'immagine che si presentava dell'Universo, grazie alle osservazioni dello spettro e delle anisotropie della radiazione di fondo, aveva una forte e sorprendente connotazione: si trattava di un Universo estremamente omogeneo dove le differenze di temperatura fra un luogo e un altro, comunque distanti, non superavano una parte su diecimila. È difficile immaginare un Universo che meglio approssimi il modello isotropo e omogeneo studiato da Friedmann negli anni venti. A questo punto occorre fare una precisazione che apparirà in tutta la sua importanza varie volte nel corso di questo articolo. Il modello di Friedmann fa parte delle soluzioni delle equazioni di campo della relatività generale. Utilizzare questo modello significa dare per scontata la validità della teoria dalla quale esso deriva. Agli inizi degli anni ottanta la relatività generale aveva superato molti test, confinati tutti all'interno del Sistema Solare (deflessione della luce da parte del Sole, ritardo nei segnali elettromagnetici, ecc.): ma l'estrapolazione a livello cosmologico è quanto meno ardita ed è opportuno chiedersi in quale misura le varie osservazioni, oltre a potersi interpretare in termini di relatività generale, ne siano anche un test. Per esempio, l'esistenza di una radiazione di fondo con spettro rigorosamente planckiano non è un test della relatività generale: essa prova soltanto che l'Universo a grande distanza da noi deve avere sufficiente opacità per produrre una radiazione di corpo nero. L'idea che questa radiazione sia stata originata a redshift 1.000 da un Universo caldo e ionizzato si basa sull'assunzione che la temperatura del fondo cosmico scali con il redshift secondo la legge T = 2,73 (1 + z). Questo è vero se la fisica locale convenzionale è valida a livello cosmologico e se lo spazio-tempo è a singola metrica. Quindi la verifica della legge suddetta sarebbe un primo test sulla natura dello spazio-tempo; purtroppo questa verifica è ancora molto incerta. Le altre osservazioni, come la presenza di una anisotropia di dipolo e l'assenza di una di quadrupolo, non sono ovviamente prove della validità della relatività generale. In breve possiamo dire che a questo livello di informazione i cosmologi hanno fatto un atto di fiducia accettando per buona la relatività generale e di conseguenza utilizzando il modello di Friedmann.

Tale modello è individuato da un numero assai limitato di parametri cosmologici: l'espansione dell'Universo è descritta nelle equazioni di Friedmann da un fattore di scala a(t), convenzionalmente posto eguale a 1 oggi, e dal ritmo attuale di espansione, la costante di Hubble H0 = 100 h Km/(sMpc) (le stime più recenti suggeriscono h = 0,7), nonché dalla densità totale di materia ed energia ρ, da una eventuale costante cosmologica Λ, e da una equazione di stato che esprime il legame tra pressione e densità, in genere esemplificata con l'espressione p = wρ, dove w è una costante compresa fra - 1 e + 1 a seconda delle epoche e del tipo di materia ed energia coinvolte e può essere considerata un ulteriore parametro da determinare. Nella maggior parte dei lavori teorici degli anni ottanta e novanta, la costante cosmologica è posta eguale a zero, così come w (non c'è pressione nell'Universo attuale) e l'attenzione si concentra sulla determinazione di H e di ρ che spesso viene normalizzata al valore critico - cioè quello che distingue tra un Universo in eterna espansione e un Universo destinato a ricollassare - e indicata con Ω (Ω 〉1 collasso nel futuro, Ω ≤ 1 espansione illimitata). In breve abbiamo le tre seguenti equazioni:

Nella prima equazione compaiono le densità normalizzate alla densità critica ρcrit = H02/8πG relative, rispettivamente, alla materia (barionica e non barionica) ΩM0, alla radiazione ΩR0, alla costante cosmologica ΩL0 e alla curvatura dello spazio ΩK0. La seconda equazione riguarda il comportamento di ciascuna delle componenti presenti nella prima equazione, essendo il valore di w della terza equazione differente nei vari casi (w = 0 per la materia non relativistica, 1/3 per la materia relativistica e i fotoni, - 1 in presenza della costante cosmologica). Il processo logico per studiare l'evoluzione di un modello di Universo alla Friedmann consiste nel fissare w e ricavare la dipendenza di ρ dal tempo dalla seconda equazione; sostituita questa dipendenza nella prima equazione si ottiene l'andamento del fattore di scala con il tempo.

La fiducia in questo semplice modello veniva rafforzata a metà degli anni ottanta dai successi della nucleosintesi primordiale: appariva possibile spiegare in modo quantitativo e preciso le abbondanze osservate nelle stelle e nel mezzo interstellare degli elementi leggeri, quali H, 4He, 3He (v. fig. 5) attraverso lo studio delle fasi 'calde' dell'Universo. In effetti, questa è ancora oggi la più forte evidenza di un continuo riscaldamento dell'Universo andando indietro nel tempo fino a raggiungere la soglia di circa 1 MeV ad approssimativamente z = 1010. A questo redshift gli effetti della costante cosmologica e della curvatura sono trascurabili nella prima equazione e la velocità di espansione dell'Universo è dominata dalla radiazione, mentre l'abbondanza di materia barionica determina le abbondanze dei vari elementi leggeri. Dal punto di vista della relatività generale questo è un buon test: se noi per esempio rinunciamo a pensare che la luce 'pesa', l'espansione dell'Universo cambia e non si ritrova più l'abbondanza riscontrata per l'elio. Il risultato di questa analisi è di fissare l'abbondanza della materia barionica (parte o tutta ΩM0) nel range 0,006 〈 ΩB0 〈 0,017.

Altrettanto semplice appare la storia dell'Universo primordiale, rappresentata da un lento e progressivo raffreddamento di una massa omogenea ionizzata: quando la temperatura scende sotto una soglia appropriata, i fotoni della radiazione di fondo non hanno più energia sufficiente a mantenere ionizzata la materia, che diviene sostanzialmente neutra, e si propagano liberamente fino a noi; essi portano l'immagine di questa 'soglia', cioè della superficie ancora ionizzata a redshift 1.200, la LSS.

3. Dal 'semplice' al 'complicato' (1980-1998).

Purtroppo la straordinaria somiglianza dell'Universo primordiale con il modello di Friedmann avrebbe ben presto portato a una crisi: quello di Friedmann è infatti un modello geometrico irrealizzabile fisicamente e con equazioni numericamente instabili. Inoltre il modello di Friedmann a due componenti (radiazione e materia barionica) non riesce a formare le galassie e insieme a rispettare i limiti superiori alle anisotropie del fondo posti negli anni ottanta.

Il primo punto è tanto facile da capire quanto difficile da risolvere: ogni processo fisico si può propagare al massimo alla velocità della luce; ne segue che nessun processo fisico può rendere omogeneo un Universo infinito in un tempo finito. Se immaginiamo di osservare il cosmo un attimo dopo l'istante iniziale, avremo che la luce non ha percorso neanche una distanza pari alle dimensioni della singola particella elementare: esiste una origine comune ma scorrelata di tutte le cose.

Non si tratta solo di un problema accademico: la radiazione di fondo ci porta l'immagine della LSS quando l'Universo aveva un'età di circa un milione di anni. Durante questo periodo la luce ha percorso un tragitto relativamente breve rispetto alle dimensioni dell'Universo attuale: noi dunque vediamo la LSS popolata da numerosi 'orizzonti', dell'estensione apparente in cielo di circa un grado, corrispondenti al massimo cammino dei fotoni durante il primo milione di anni di vita dell'Universo primordiale. La materia all'interno di uno qualsivoglia di questi orizzonti non è mai stata in contatto con la materia contenuta in un altro orizzonte, eppure la radiazione di fondo ci dice che la temperatura è la medesima entro una parte su 105. Il problema va sotto il nome di 'paradosso degli orizzonti' (v. fig. 6).

Anche se dimentichiamo il paradosso appena discusso, per il modello di Friedmann resta aperto l'altro problema, quello dell'instabilità delle sue equazioni, che va sotto il nome di fine tuning: se Ω si discosta, sia pure di poco, dall'unità, le equazioni di Friedmann prevedono che il suo valore divenga sempre più diverso dall'unità al passare del tempo. In venti miliardi di anni (tale essendo una stima grossolana dell'età dell'Universo) dovremmo oggi avere Ω = 0, se inizialmente era di poco inferiore all'unità, oppure in caso contrario l'Universo sarebbe già da tempo collassato su se stesso. In breve, è necessario imporre il valore critico Ω = 1 fin dall'inizio e non si capisce chi o cosa abbia determinato questa precisa scelta (è il cosiddetto 'paradosso della metrica piatta', cioè di una metrica euclidea in espansione, dato che questa metrica è la soluzione delle equazioni per Ω = 1).

Per risolvere il paradosso della metrica piatta e il paradosso degli orizzonti sono state proposte tre alternative di base: la prima, legata al cosiddetto 'principio antropico', ipotizza che qualsiasi Universo che non sia isotropo, omogeneo e con Ω = 1 avrebbe un'evoluzione tale da non permettere la formazione di stelle e quindi neanche della vita. L'assenza di osservatori implica che non staremmo qui a discuterne. Le possibili obiezioni di principio a questo modo di ragionare sono ovvie, ma noi ci limiteremo a osservare che non è stato mai stabilito quanto stringenti siano le condizioni poste dal principio antropico: è probabile che ci si possa discostare in modo significativo da esse e avere egualmente un Universo popolato da osservatori.

La seconda ipotesi è che l'apparenza isotropa e omogenea della LSS sia dovuta a processi di scattering della radiazione di fondo intercorsi tra noi e la LSS. Si ipotizza quindi che dopo la ricombinazione a redshift 1.000 abbia avuto luogo un nuovo violento processo di re-ionizzazione che ha creato una cortina di elettroni liberi, i quali hanno offuscato le anisotropie e irregolarità primordiali alla stregua di un vetro smerigliato. Questa ipotesi è venuta meno quando COBE ha mostrato che sullo spettro del fondo cosmico non c'è traccia di interazione con gas ionizzato: in altre parole, tra noi e la LSS ci può essere stato solo l'intervento di una re-ionizzazione parziale e tardiva che non altera le conclusioni generali.

Infine, l'ultima ipotesi è quella oggi accettata dalla comunità dei cosmologi. Essa richiede un audace e spregiudicato uso della geometria: possiamo immaginare che durante una breve fase evolutiva dell'Universo abbia avuto luogo un processo di espansione esponenziale che ha distribuito la materia (in contatto termico) su scale molto più grandi, le quali appaiono oggi separate più di quanto la luce abbia potuto percorrere dall'inizio dei tempi. Un'espansione esponenziale richiede nelle equazioni di Friedmann che Ω rimanga costante o quasi costante durante l'espansione e questo è possibile se attribuiamo il contributo energetico alla geometria (cioè al vuoto, dato che l'energia del vuoto non può per definizione diminuire): è stato così ipotizzato il processo denominato inflation. Anche se i modelli inflattivi sono andati cambiando nel tempo tanto da produrre decine di varianti, l'idea base resta quella di sfruttare un'espansione superluminale dello spazio-tempo per ridistribuire su scale più grandi dell'attuale orizzonte il materiale che era contenuto in un solo orizzonte (cioè era in contatto termico) prima dell'inflation.

Parametri fondamentali dell'inflation sono le modalità del processo (esponenziale, di potenza, ecc), la durata e l'epoca nella quale ha avuto inizio. In ogni caso il risultato finale è di rendere fortemente isotropo e omogeneo il cosmo e di 'stirare' la metrica fino a renderla piatta.

I paradossi del modello di Friedmann, sottolineati già da Robert Dicke negli anni settanta, possono essere considerati limiti della teoria. Non è sorprendente che agli inizi degli anni ottanta i cosmologi più ottimisti fossero orientati a dare scarso rilievo agli aspetti paradossali del modello cosmologico: per esempio, la nucleosintesi primordiale prevede piuttosto bene le abbondanze relative degli elementi leggeri, a patto di limitare la densità della materia barionica a qualche percentuale della densità critica. A fronte delle complicazioni imposte dai modelli inflattivi è sembrato per un certo tempo, intorno agli anni ottanta, che fosse più ragionevole immaginare che per qualche principio fisico ignoto l'Universo si sia orientato verso il modello di Friedmann con una densità di materia corrispondente a quella richiesta dalla nucleosintesi primordiale, cioè di qualche percento della densità critica. Purtroppo, come abbiamo detto agli inizi, un modello di Friedmann a due componenti (radiazione e materia barionica) richiede, per la formazione delle strutture, fluttuazioni della temperatura del fondo cosmico sulla LSS maggiori di una parte su diecimila. Si applica allo scopo lo studio condotto da Evgenii Mihailovič Lifshitz negli anni quaranta su una piccola perturbazione di materia dopo la ricombinazione dell'idrogeno. Essa scala come (1 + z) nel caso più ottimistico: poiché oggi osserviamo le galassie e gli ammassi di galassie, ci aspettiamo sulla LSS fluttuazioni di densità almeno dell'ordine di 1/z e queste inducono fluttuazioni di temperatura di simile ampiezza, cioè tra una parte per mille e una parte per diecimila. Le misure condotte tra il 1980 e il 1985 dai gruppi di Roma e di Princeton hanno posto un limite superiore circa dieci volte più basso alle scale comprese fra dieci minuti d'arco e 90°. Queste misure hanno avuto una rilevante importanza nel convincere i cosmologi ad abbandonare soluzioni semplici. Essi sono stati infatti costretti a complicare il semplice modello di Friedmann aggiungendo due ipotesi: per quanto riguarda la densità di materia, essa deve risultare composta solo in piccola parte (qualche percento) di materia barionica e in massima parte da qualche altra forma di materia non barionica e/o di energia che non prenda parte direttamente al processo di formazione degli elementi e non produca effetti significativi sulla radiazione di fondo, abbassando così il valore delle anisotropie risultanti. Dato che questa nuova forma di materia non è stata ancora oggi osservata in laboratorio, l'ipotesi si basa solo sulla speranza che le idee dei fisici circa l'esistenza di particelle esotiche fuori del modello standard siano corrette. Una volta che si accetti l'idea di una materia oscura aggiuntiva non barionica appare naturale scegliere la sua abbondanza in modo da soddisfare le richieste della inflation, cioè fino a raggiungere una densità pari a quella critica.

Così agli inizi degli anni novanta l'immagine dell'Universo si è andata complicando. Al modello di Friedmann è stata aggiunta l'ipotesi di una fase iniziale inflattiva e si sono ipotizzate tre componenti: radiazione, materia barionica e materia non barionica. Fra le varie alternative avanzate per quest'ultima i cosmologi sono rimasti in bilico tra una scelta precisa (per esempio la cold dark matter, cioè materia non barionica che è non relativistica quando le relative perturbazioni entrano nell'orizzonte) oppure un melange di vari tipi (cold, hot, warm) con diverse percentuali.

Come bonus che deriva dalla scelta della inflation quale teoria di riferimento, i cosmologi sono stati in grado di spiegare la formazione delle strutture a partire da fluttuazioni quantistiche del campo responsabile della inflation, ridistribuite dalla inflation stessa su scale molto più grandi. Queste perturbazioni si propagano come onde sonore nell'Universo primordiale ionizzato e compaiono come fluttuazioni di temperatura sulla LSS, distribuite in modo coerente alle varie scale: un processo magistralmente anticipato da Zel′dovič negli anni settanta e da lui scherzosamente chiamato Sacharov oscillations (all'epoca Sacharov assillava Zel′dovič con le sue alternanti lettere di protesta verso il governo centrale). La temperatura del fondo cosmico osservata sulla LSS presenta una debole dipendenza dalle coordinate celesti Θ, Φ ed è quindi possibile sviluppare in armoniche sferiche queste piccole perturbazioni:

Il valore quadratico medio di ciascuna componente di queste fluttuazioni può essere considerato indipendente dall'indice m, assumendo che statisticamente le fluttuazioni sono egualmente distribuite sui due emisferi. Abbiamo quindi:

I coefficienti 〈 |alm|2 〉 contengono tutta la fisica che ha prodotto le anisotropie sulla LSS. L'andamento di δTl in funzione del multipolo l può essere confrontato con i risultati delle misure di anisotropia a varie scale angolari, tenendo presente che, grosso modo, la scala angolare è Θ = 2π/l.

La più spettacolare conferma di questo nuovo modello cosmologico è venuta sul finire degli anni novanta dagli esperimenti di Princeton, Roma e Berkeley, il primo condotto da terra (in Alaska), gli altri due da pallone stratosferico: sono state osservate le oscillazioni di Sacharov (o quanto meno il primo e forse il secondo picco) nello spettro di potenza delle anisotropie della radiazione di fondo. Da queste misure derivano due risultati importanti: la posizione del primo picco a circa l = 220 corrisponde a quanto atteso per una metrica piatta, cioè ΩK0 = 0. È interessante notare che questa conclusione è stata raggiunta con una precisione del 10% già durante il volo di prova dell'esperimento BOOMERANG North America (v. figg. 7 e 8). Dall'ampiezza del primo picco è stato possibile fornire una stima della densità barionica in accordo con i dati della nucleosintesi primordiale entro le incertezze sperimentali (ulteriori sofisticate analisi dei dati di BOOMERANG hanno nel tempo condotto alcuni autori a parlare di curvatura lievemente positiva o di densità barionica in eccesso rispetto al valore della nucleosintesi: a nostro avviso si tratta di 'sovra intepretazioni' dei dati, che non consentono di spingere l'analisi oltre i ragionevoli dubbi posti dalle incertezze degli effetti sistematici).

4. Ancor più 'complicato' (1998-2002).

All'interpretazione delle osservazioni sulla base del modello di Friedmann si può obiettare una questione generale di principio. Come abbiamo ricordato, le equazioni di Friedmann sono di due tipi: l'equazione di stato, che lega pressione a densità e ci dice di quale fluido è costituito il cosmo, e le equazioni che, a partire dalla distribuzione della materia e dell'energia, forniscono la metrica. Se per una qualche ragione le osservazioni non coincidono con le aspettative teoriche, abbiamo due scelte: abbandonare il modello o, più economicamente, modificare l'equazione di stato. È questa scelta che è stata adottata, per esempio, con l'inflation, la quale discende direttamente dall'aver posto p = - ρ. Se questo procedimento viene ripetuto molte volte, nasce il legittimo dubbio che la strada intrapresa sia solo un escamotage matematico. Purtroppo, a partire dal 1998 si sono andate accumulando prove a favore di un valore della somma della densità della materia barionica e non barionica minore dell'unità e attestantesi intorno al 30%. L'evidenza più forte deriva dallo studio della stabilità dinamica degli ammassi di galassie. Si è poi aggiunto il risultato di due gruppi di ricerca che studiano la relazione distanza-redshift per le supernovae di tipo Ia e che hanno concluso a favore di un'espansione accelerata dell'Universo attuale. Per venire incontro a queste osservazioni, senza dover rianalizzare in modo radicale la cosmologia, occorre modificare ulteriormente le equazioni di Friedmann. Il modo più semplice sarebbe quello di introdurre un termine di energia repulsiva costante, appunto la costante cosmologica, corrispondente in termini di densità di materia al restante 70%. Tuttavia appare improbabile che un termine costante fin dall'inizio dei tempi proprio oggi venga eguagliato (o sia paragonabile) al contenuto in materia barionica e non barionica. Si ricorre quindi all'aggiunta nell'equazione di stato di un non meglio identificato contributo energetico proveniente da un campo di forze scalare; a tale contributo viene dato il nome di 'quintessenza'. Quindi i risultati ottenuti dagli esperimenti di Princeton, Roma e Berkeley restano validi, ma la composizione della materia ed energia nel cosmo appare comprendere quattro termini distinti: radiazione, materia barionica, materia non barionica, dark energy: quest'ultima di natura incerta (v. fig. 9). Nel caso della quintessenza la densità diminuisce nel tempo allo stesso modo di quella della materia ed è possibile introdurre un attrattore matematico che guida l'energia del campo verso il valore della densità di materia, così da risolvere la curiosa coincidenza tra le varie densità attuali. Tuttavia esistono complicazioni: estrapolato linearmente indietro nel tempo fino alla nucleosintesi, il campo disturberebbe la formazione degli elementi, in contrasto con il buon accordo tra teoria standard e osservazioni. In breve, l'andamento temporale della densità di energia deve seguire una traccia complicata per passare le varie epoche critiche della cosmologia (nucleosintesi, formazione delle strutture) senza introdurre cambiamenti sostanziali. Ancora una volta i cosmologi si trovano di fronte a un problema di fine tuning.

Resta poi la domanda su quale sia l'origine di questa forma di energia. Un'alternativa nata nel 1998, e quindi tuttora in pieno sviluppo, è offerta dalla brane cosmology, con la quale si cerca di rispondere a due interrogativi assai diversi: il primo riguarda il vecchio e irrisolto problema del modello standard delle particelle elementari nel quale esiste una differenza di circa 17 ordini di grandezza tra Mted, la scala associata alla transizione elettrodebole, e Mp, associata all'epoca di Planck; questa differenza è responsabile dell'impossibilità di unificare le interazioni gravitazionali con le altre interazioni nel nostro Universo. È anche inspiegabile il 'deserto' di interazioni tra le due scale. Il secondo problema riguarda la relazione tra costante cosmologica ed energia del vuoto: non solo la fisica quantistica, ma anche la fisica classica prevede un'energia del vuoto associata a un'energia del punto zero del campo. Si deve a Wolfgang Pauli un semplice conto, effettuato utilizzando i fotoni, che mostra come l'energia del vuoto risulti tale da determinare una costante cosmologica enorme, corrispondente a un raggio di curvatura dell'Universo di pochi centimetri (Pauli espresse questo risultato dicendo che "il raggio dell'Universo non sarebbe potuto arrivare all'orbita della Luna"). La brane cosmology pretende di risolvere in un sol colpo i due annosi problemi e, insieme, di lasciare una costante cosmologica residua di ampiezza comparabile a quella osservata. Purtroppo ciò avviene (se avviene, ci sono dubbi in proposito) a scapito di una complessità geometrica notevole. Si immagina che il nostro Universo sia immerso in una membrana a p dimensioni, dove le p-4 eccedenti sono 'compattificate', cioè collassate in un volume finito V(p-4). A sua volta la membrana è immersa in un volume a n dimensioni, dove le n-p sono 'compattificate' in un volume finito W(n-p). Possiamo dire che le varianti della brane cosmology giocano sui numeri p e n. Mentre le interazioni note (eccetto la gravità) possono penetrare solo nelle dimensioni della membrana, la gravità, grazie alla sua natura geometrica, penetra nel volume a più dimensioni dell'Universo. Le costanti di accoppiamento scalano come 1/V per le interazioni non gravitazionali e come 1/V 1/W per la gravità. Con una opportuna scelta di n e p è quindi possibile rendere le costanti eguali nel bulk, cioè nell'Universo pluridimensionale. In altre parole, la massa di Planck è tanto maggiore della corrispondente elettrodebole perché il volume a cui si riferisce è molto più grande. Per risolvere il problema dell'energia del vuoto si fa riferimento alla supersimmetria: finché essa è valida, le energie del vuoto dei fermioni e dei bosoni si compensano e si elidono. Purtroppo, però, nel nostro Universo la rottura di supersimmetria avviene almeno al livello della transizione elettrodebole (se non a energie maggiori), per cui occorre che la rottura di supersimmetria avvenga a una scala alla quale corrisponde una bassa energia del vuoto. La scala alla quale la rottura avviene nell'Universo superdimensionale è ridotta dal solito rapporto volumetrico, fissato dalla precedente condizione. Essa risulta dell'ordine di una costante cosmologica simile a quella misurata.

Benché assai promettente, dunque, la brane cosmology deve ancora risolvere molti punti oscuri, il principale dei quali è che le condizioni per ottenere la soluzione del problema gerarchico e la soluzione del problema della costante cosmologica non sembra possano essere le stesse.

5. Il Medioevo dell'Universo.

Abbiamo accennato al problema che ben poco sappiamo su come le proprietà della LSS si propaghino da z = 1.000 fino alle galassie più lontane che riusciamo a vedere, circa a z = 5. L'ipotesi più semplice è che immediatamente dopo il disaccoppiamento con i fotoni la materia barionica sia 'caduta' nelle buche di potenziale gravitazionale causate dalle perturbazioni della materia non barionica, le quali, dopo essere entrate nell'orizzonte durante l'epoca della radiazione, avrebbero continuato a crescere invece di oscillare come è avvenuto ai barioni sotto l'azione della pressione di radiazione. Da questo momento in poi il collasso gravitazionale verso la formazione delle strutture sarebbe guidato dalla CDM, mentre alla materia barionica resterebbe il compito di dissipare il calore che si sviluppa nelle fasi finali del collasso.

Come è possibile osservare questo processo? Disaccoppiata dalla radiazione di fondo cosmico, la materia tende rapidamente a raffreddarsi e fino a quando il collasso gravitazionale non provoca un ulteriore riscaldamento l'emissione da parte di agglomerati di barioni è troppo debole per essere rivelata. L'evoluzione dell'Universo in questa fase procede attraverso un'oscurità assoluta e non è chiaro quando si accende la prima stella: in letteratura sono stati proposti valori tra redshift 300 e redshift 10. L'unica possibilità fino a oggi studiata per esplorare queste epoche è basata su una combinazione dello scattering risonante e dell'effetto Doppler. I fotoni della radiazione di fondo sono soggetti a una diffusione determinata dagli atomi e dalle molecole presenti che è particolarmente efficace in corrispondenza delle righe di assorbimento. La fisica classica, infatti, permette di calcolare la sezione d'urto per lo scattering dei fotoni su elettroni liberi o su molecole in prossimità della risonanza e in quest'ultimo caso la sezione aumenta di molti ordini di grandezza. Di per sé questo scattering non produce alcun segnale rilevabile, essendo la radiazione di fondo isotropa; ma se la nube è in movimento, imprime un effetto Doppler sui fotoni diffusi in corrispondenza del quale si osserva una deviazione dallo spettro di corpo nero. Un analogo effetto è atteso per una nube che collassa, là dove l'effetto Doppler è causato dalle varie sezioni che si muovono a differente velocità. È quindi possibile, almeno in linea di principio, studiare l'intero processo evolutivo delle nubi di materia primordiale. Il segnale differenziale può essere rivelato come un'anisotropia del fondo che è presente solo a certe lunghezze d'onda. Tentativi di rivelare nubi primordiali di LiH sono stati fatti presso il telescopio millimetrico dell'IRAM (Institut de Radioastronomie Millimétrique, frutto di una collaborazione franco-tedesco-spagnola), in Spagna, da gruppi francesi e italiani. Purtroppo la chimica dell'Universo primordiale è incerta e l'abbondanza delle varie molecole è calcolata con errori anche di molti ordini di grandezza. Per questi motivi sono pochi i gruppi che oggi si impegnano in questo settore di ricerca, in attesa che migliorino le tecniche di misura. Vale la pena di notare che questi studi possono riservare notevoli sorprese: ad esempio, se le prime stelle si sono formate ad alto redshift e hanno così arricchito lo spazio di elementi pesanti, allora intorno a redshift 100 la temperatura dell'intero Universo era tale (300 K) da permettere che ovunque si formasse la vita: è quindi possibile che siano i cosmologi a scoprire forme di vita extraterrestre che potrebbero aver popolato il cosmo in un lontano passato.

La mancanza di dati sul periodo di mezzo della storia dell'Universo rende prudenti i cosmologi circa il quadro generale del loro modello standard. I futuri esperimenti su satellite (in particolar modo Planck Surveyor e Herschel) promossi dall'ESA (European Space Agency) contribuiranno certamente a chiarire molti elementi oscuri.

L'autore ringrazia la dott.ssa Bianca Melchiorri Olivo per l'aiuto dato nella realizzazione di questo articolo.

Bibliografia.

Barcelo, C., Visser, M., Living on the edge: cosmology on the boundary of anti-De Sitter space, in "Physics letters B", 2000, CDLXXXII, pp. 183-194.

Bernardis, P. de e altri, A flat Universe from high-resolution maps of the cosmic microwave background radiation, in "Nature", 2000, CDIV, pp. 955-959.

Liddle, A. R., Lyth, D. H., Cosmological inflation and large-scale structure, Cambridge: Cambridge University Press, 2000.

Lubin, L. M., Sandage, A., The Tolman surface brightness test for the reality of the expansion. IV. A measurement of the Tolman signal and the luminosity evolution of early-type galaxies, in "The astronomical journal", 2001, CXXII, 3, pp. 1084-1103.

Mauskopf, P. D. e altri, Measurement of a peak in the cosmic microwave background power spectrum from the North American test flight of BOOMERANG, in "Astrophysical journal", 2000, DXXXVI, 2, pp. L59-L62.

Melchiorri, A., Cosmology rounding the Cape, in Proceedings of the 4th Heidelberg international conference on dark matter in astro- and particle physics, Cape Town, South Africa, 4-9 February 2002 (a cura di H. V. Klapdor-Kleingrothaus e R. D. Viollier), Berlin-Heidelberg: Springer-Verlag, 2002, pp. 101-118.

Melchiorri, A. e altri, A measurement of Omega from the North American test flight of BOOMERANG, in "Astrophsyical journal", 2000, DXXXVI, 2, pp. L63-L66.

Melchiorri, B., Melchiorri, F., The cosmic background radiation, in "La rivista del nuovo cimento", 1994, XVII, 1, monografico.

Narlikar, J. V., Padmanabhan, T., Standard cosmology and alternatives: a critical appraisal, in "Annual review of astronomy and astrophysics", 2001, XXXIX, pp. 211-248.

Smoot, G., Davidson, K., Wrinkles in time, New York: A. Morrow, 1993 (tr. it.: Nelle pieghe del tempo, Milano: Mondadori, 1994).

Straumann, N., On the cosmological constant problems and the astronomical evidence for a homogeneous energy density with negative pressure, relazione presentata al primo Séminaire Poincaré "L'énergie du vide", Paris, 9 mars 2002, codice identificativo: astro-ph/0203330.

Wirtz, C. W., Notiz zur Radialbewegung der Spiralnebel, in "Astronomische Nachrichten", 1922, CCXVI, pp. 451-456.

Wirtz, C. W., De Sitters Kosmologie und die Radialbewegungen der Spiralnebel, in "Astronomische Nachrichten", 1924, CCXXII, pp. 21-28.

TAG

Radiazioni elettromagnetiche

Radiazione di fondo cosmico

Spostamento verso il rosso

Nucleosintesi primordiale

Costanti di accoppiamento