Cosmologia

 

 

 

Cosmologia

 

Questo sito utilizza cookie, anche di terze parti. Se vuoi saperne di più leggi la nostra Cookie Policy. Scorrendo questa pagina o cliccando qualunque suo elemento acconsenti all’uso dei cookie.I testi seguenti sono di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente a studenti , docenti e agli utenti del web i loro testi per sole finalità illustrative didattiche e scientifiche.

 

 

Cosmologia

 

Sommario

 

 

1      Cosmologia: la recessione delle galassie
1.1       La recessione delle galassie: Red-shift e legge di Hubble
1.2       Il red-shift cosmologico
1.3       L’età dell’universo: il tempo di Hubble
2      Cosmologia newtoniana
2.1       La legge oraria dell’espansione cosmica
3      Cosmologia Relativistica
3.1       La curvatura dello spazio-tempo e le geometrie non-euclidee
3.1.1       superfici sferiche e universo ellittico     k > 0
3.1.2       superfici iperboliche e universo iperbolico       k < 0
3.1.3       superfici piane e universo piatto o euclideo      k = 0
3.2       Il fattore di scala e la metrica dell’universo
3.3       La densità di materia-energia e la pressione
3.4       Il paradosso di Olbers
3.5       Problemi irrisolti nelle cosmologie classiche
3.5.1       Problema della piattezza
3.5.2       Problema dell'orizzonte
4      Teorie cosmologiche: Steady State e Big Bang
4.1       La teoria a b g ed il Big Bang
4.2       La teoria dello Steady State o Stato Stazionario
4.2.1       In che universo viviamo?
5      Storia Termica dell'Universo
5.1       Ere Cosmiche
5.1.1       Era di Planck     0  - 10-43 s
5.1.2       Era di Grande Unificazione  10-43 - 10-35 s
5.1.3       Era dell'Inflation 10-35 - 10-32 s
5.1.4       Era Elettrodebole o del Deserto 10-32 - 10-10 s
5.1.5       Era Adronica     10-10 - 10-4 s
5.1.6       Era Leptonica         10-4 - 101 s
5.1.7       Era fotonica    101 - 1011 s
5.1.8       Era della Materia    1011 - 1017 s
6      Moti propri su grande scala
6.1       Il sistema di riferimento cosmico: la radiazione di fondo
6.2       il Grande Attrattore
7      L'origine delle galassie e la materia oscura
7.1       Modelli a dominante barionica
7.2       Modelli a dominante neutrinica
7.3       Le tracce fossili della nascita delle galassie
7.4       La materia oscura
8      Appendice 1
8.1       Distanze in astronomia
Distanze fino a qualche decina di UA (interplanetarie)
8.2       Metodi trigonometrici, Periodi di rivoluzione e Radio-echi
Distanze fino a qualche centinaio di parsec
8.3       Parallassi annue e Parallassi di gruppo
8.4       Le distanze fino a qualche decina di Kiloparsec: Parallassi spettroscopiche e Parallassi dinamiche
Le distanze fino a qualche Megaparsec
8.5       Cefeidi, Regioni H II, Novae, Parallassi nebulari
Le distanze fino a qualche decina di Megaparsec
8.6       Ammassi globulari e Supergiganti estreme
Le distanze fino a qualche centinaio di Megaparsec
8.7       Tully-Fisher e Supernovae
Le distanze fino a qualche migliaio di Megaparsec
8.8       Galassie più luminose, Lenti gravitazionali e Legge di Hubble
9      Appendice 2
9.1       il concetto di distanza nell’universo
10        Appendice 3 - Dati

 

 

Cosmologia: la recessione delle galassie

La cosmologia studia la struttura, l'origine e l'evoluzione dell'universo.
Il fondamento della cosmologia moderna è il cosiddetto principio cosmologico (Milne 1933). Secondo tale principio l'universo deve essere fondamentalmente omogeneo (il suo aspetto non dipende dal luogo di osservazione e quindi possiamo misurare la stessa densità di materia ed energia in qualsiasi suo punto) ed isotropo (il suo aspetto è il medesimo in tutte le direzioni) su grande scala. L'universo deve inoltre essere  soggetto ovunque alle stesse leggi (principio di predicabilità locale), in modo tale che un qualsiasi osservatore, posto in un qualsiasi punto di esso, sia in grado di applicare le medesime leggi della fisica e di giungere agli stessi risultati.

Si tratta, se vogliamo, di un'estensione del principio copernicano secondo il quale la terra non è un luogo privilegiato del nostro sistema solare.
Il principio cosmologico ed il principio di predicabilità locale non sono leggi dimostrabili, ma rappresentano un'esigenza razionale del nostro intelletto, il quale non potrebbe fare oggetto di una conoscenza di tipo scientifico un universo non soggetto ovunque alle medesime leggi di natura e che si manifesti in modo diverso in relazione al luogo particolare di osservazione.

Una diretta conseguenza del principio cosmologico è che l'universo, per rispettare le condizioni di omogeneità ed isotropia, deve essere statico o caratterizzato da un moto (espansione o contrazione) omogeneo. I dati sperimentali raccolti negli anni '20 confermano tale previsione dimostrando che l'universo si trova in uno stato di espansione omogenea. Il termine "omogenea" non si riferisce alla velocità di espansione (che in effetti, come vedremo, diminuisce con il tempo), ma al fatto che l'espansione interessa in modo uniforme l'intero universo (non vi è una porzione che si espande più velocemente di un'altra).

 

La recessione delle galassie: Red-shift e legge di Hubble

Nel 1925 Slipher aveva misurato i red-shift di 45 galassie. Ad eccezione di Andromeda e di poche altre galassie che avevano evidenziato uno spostamento verso il blu, e quindi un moto relativo di avvicinamento, tutte le altre mostravano uno spostamento verso il rosso più o meno marcato.
Nel 1929 Hubble, lavorando sui dati raccolti da Slipher, giunse a definire una relazione che legava la distanza delle galassie all'entità del loro red-shift e quindi, in definitiva, alla loro velocità di allontanamento.
v =  H D

dove v è la velocità di allontanamento in km/s, D è la distanza in megaparsec (Mpc) e H è una costante di proporzionalità, detta costante di Hubble, alla quale si dà oggi (Ho) un valore compreso tra 50 e 100  km/(s Mpc) (chilometri al secondo per megaparsec).
Secondo tale relazione dunque tutte le galassie, ad eccezione di alcune a noi vicine che presentano moti locali (moti propri), manifestano una velocità di allontanamento o recessione che risulta direttamente proporzionale alla loro distanza. Per esemplificare, se assumiamo un valore attuale Ho = 50, una galassia che dista da noi 1 Mpc si allontana a 50 Km/s, una che dista 2 Mpc si allontana a 100 Km/s e così via.
Introducendo il parametro di red-shift 'z' ( dove z = Dl/l = v/c), la relazione diventa

zc = H D

In tal modo la misura del red-shift di ciascuna galassia diventa una misura, oltre che della sua velocità di recessione v, anche della sua distanza D. E' in questo modo che gli astronomi hanno calcolato la distanza degli oggetti celesti più remoti, come radiogalassie e quasar.

Fattore di Hubble
Per tener conto dell'incertezza relativa al valore di Ho e per uniformare la trattazione si usa introdurre un parametro (fattore di Hubble) definito come

e quindi Ho vale   

Poiché il valore di Ho  è compreso tra 50 e 100 è evidente che h può assumere valori compresi tra 0,5 e 1. Così se vogliamo utilizzare la relazione di Hubble per determinare la distanza di oggetti lontani, dovremo scrivere

dove i valori di distanza vengono dati a meno di un fattore h-1. 

Così ad esempio, se abbiamo misurato per una certa galassia un red-shift pari a z = 0,1 possiamo affermare che essa  dista 300 h-1 milioni di parsec. Ciò significa in realtà che tale galassia ha una distanza indeterminata compresa tra 300 (h = 1) e 600 (h = 0,5) Mpc. Sempre più spesso, per evitare fraintendimenti e confusioni, le distanze cosmiche vengono date direttamente come valori di z.

In modo analogo qualsiasi grandezza cosmica che sia in relazione con misure di distanza presenterà valori in cui compare una qualche potenza del fattore h di Hubble. Ad esempio, essendo la luminosità intrinseca proporzionale al quadrato della distanza (), i suoi valori saranno dati a meno di un fattore h-2.

Anche la misura delle masse risente di tale incertezza ed, essendo proporzionale alla distanza, viene data a meno di un fattore h-1. (Le masse si misurano infatti in strutture gravitazionalmente legate ed in equilibrio dinamico, come galassie o ammassi di galassie, in cui la forza gravitazionale è pari alla forza centrifuga . La medesima relazione si ottiene applicando il teorema del viriale che afferma che in un sistema gravitazionalmente legato l’energia gravitazionale è il doppio dell’energia cinetica).

 

Flusso di Hubble e Principio Cosmologico

Anche se apparentemente può sembrare il contrario, la legge di Hubble è perfettamente coerente con il principio cosmologico. Per dimostrarlo prendiamo in considerazione cinque galassie, A, B, C, D, E, poste su di una retta ad intervalli regolari di 1 Mpc. Poniamo ora di trovarci nella galassia B e di osservare il moto delle altre quattro galassie.


1° caso
Se il moto non seguisse la legge di Hubble e tutte e quattro le galassie si allontanassero da B non con una velocità direttamente proporzionale alla loro distanza, ma con la stessa velocità, poniamo 50 km/s, l'osservatore posto in B avrebbe l'impressione di essere al centro di un moto di espansione. Ma l'osservatore posto in C vedrebbe le galassie D  ed E ferme rispetto a lui, la galassia B che si allontana a 50 Km/s e la galassia A che si allontana a 100 Km/s. I risultati dell'osservazione non sono dunque gli stessi se l'osservazione viene compiuta in luoghi diversi dell'universo e l'osservatore posto in C potrebbe per di più dedurre che nell'universo esiste un luogo privilegiato, il centro B da cui tutto si sta allontanando.

2°caso
poniamo ora che il moto di espansione segua la legge di Hubble e che l'espansione avvenga in modo che la velocità delle galassie risulti direttamente proporzionale alla distanza che le divide. E' facile allora verificare che dovunque noi spostiamo il punto di osservazione le misurazioni sul movimento delle galassie esterne danno lo stesso risultato. Tutti gli osservatori avranno l'impressione di essere al centro di un moto di espansione e nessuno potrà individuare un centro effettivo dell'universo, un luogo privilegiato.

 

Il red-shift cosmologico

Possiamo immaginare l'universo come un foglio di gomma che venga stirato uniformemente. Se ad esempio prendiamo tre punti A, B e C posti sulla circonferenza di un cerchio di gomma con A che dista  2 cm da B e 5 cm da C, e poi raddoppiamo in un secondo le dimensioni del cerchio, tutte le distanze al suo interno verranno raddoppiate. Così ora A disterà 4 cm da B e 10 cm da C. L'osservatore posto in A misurerà per B una velocità di allontanamento di 2 cm/s mentre per C una velocità di allontanamento di 5 cm/s, tanto maggiore quanto maggiori sono le distanze che inizialmente li separano.

In realtà il moto di recessione delle galassie non andrebbe considerato come un vero e proprio movimento, infatti ciò che si dilata nell'universo è lo spazio-tempo. Le galassie possono essere ritenute ferme rispetto ad uno spazio tempo in fase di dilatazione.

Questo consente di accettare tra l'altro velocità di recessione, per le galassie più lontane, maggiori di quelle della luce e di interpretare il parametro z di red-shift non più come dovuto ad effetto Doppler, ma connesso alla dilatazione che anche le lunghezze d'onda subiscono quando lo spazio-tempo si espande.

Così se l'universo raddoppia le sue dimensioni anche tutte le lunghezze d'onda della radiazione elettromagnetica vengono raddoppiate. Si parla in questo caso di red-shift cosmologico.

Se ad esempio Re è il raggio dell'universo al momento in cui viene emessa una radiazione di lunghezza d'onda e, la lunghezza d'onda o percepita ora (raggio attuale Ro) soddisfa la seguente relazione

 
Ad esempio:
z = 1 significa che Ro = 2Re e che stiamo percependo una radiazione emessa quando le dimensioni dell'universo erano la metà delle attuali.
z = 2 significa invece che Ro = 3Re e che stiamo percependo una radiazione emessa quando le dimensioni dell'universo erano un terzo delle attuali.

La relazione può infatti essere scritta anche

L'universo presenta ora una dimensione z + 1 volte maggiore di quella che aveva quando è stata emessa la radiazione che ora percepiamo con red-shift z.

In definitiva il red-shift che le galassie presentano a causa dell'espansione dell'universo (red-shift cosmologico) è di natura diversa e va a rigore tenuto distinto dal red-shift Doppler che le galassie (e altri corpi celesti) possono presentare in seguito a movimenti locali rispetto allo spazio (ad esempio per il moto proprio di una galassia all'interno di un ammasso di galassie).

 

L’età dell’universo: il tempo di Hubble

Una volta accettata la legge di Hubble come conseguenza del moto di espansione dell'universo è possibile fare alcune interessanti considerazioni.

   

Se infatti la galassia C che si trova ad 1 Mpc da B si sta allontanando da quest'ultima alla velocità di 50 Km/s, ricordando che v = s/t,  potremmo affermare che al tempo

le due galassie si trovavano unite.
Lo stesso ragionamento può essere fatto anche per la galassia D che si trova a 2 Mpc e che si allontana da B a 100 Km/s. Potremmo affermare che B e D erano unite al tempo

                                                         

Il valore ottenuto è evidentemente lo stesso ed il ragionamento si può fare per qualsiasi coppia di galassie. Possiamo in altre parole affermare che tutte le galassie si trovavano concentrate in un solo punto in un tempo t, calcolabile come rapporto tra distanza e velocità di allontanamento. Ricordando ora che la legge di Hubble è v = HD, è semplice verificare che il rapporto tra D e v risulta pari al reciproco della costante di Hubble e tale valore è una stima dell'età dell'universo o tempo di Hubble

Ricordando che  si ottiene

 

e sapendo che un anno contiene 3,1557 107 s, avremo un'età in anni pari a

Come si può vedere l'età dell'universo è compresa tra 10 (h = 1) e 20 (h = 0,5) miliardi di anni. Piccole variazioni di Ho possono dunque modificare in modo sensibile le nostre stime sull'età dell'universo.
L'età dell'universo calcolata come reciproco della costante di Hubble è un limite superiore. Essa è infatti calcolata nell'ipotesi che H abbia sempre avuto lo stesso valore e che quindi l'universo si sia espanso anche in passato con la stessa velocità con cui si sta espandendo ora. Ciò non è evidentemente accettabile poiché la presenza di materia deve aver frenato l'espansione che in passato deve essere perciò stata più rapida. L'età dell'universo deve quindi essere certamente inferiore a 1/H.
Per poter stimare l'entità di questo effetto frenante è necessario possedere una funzione R(t) che metta in relazione il raggio R dell'universo con il tempo t e che ci descriva in definitiva le caratteristiche cinematiche dell'espansione. Il formalismo matematico che permette di descrivere la dinamica e la cinematica dell'universo è costituito dalle equazioni della relatività generale. E' però notevole che applicando all'universo la teoria newtoniana della gravitazione si giunga, come dimostrarono E.A. Milne e W.H. McCrea nel 1934, a risultati formalmente analoghi, anche se dal significato fisico diverso.

 


Cosmologia newtoniana

Prima del '900 non si era mai tentato di applicare la meccanica newtoniana all'intero universo.
Vi era d'altra parte la ferma convinzione che l'universo fosse infinito e statico. E' infatti facile verificare che se l'universo fosse finito e soggetto ad un'unica forza attrattiva (la forza gravitazionale), su grande scala, questa non potrebbe che provocarne la "caduta" verso il centro e quindi un movimento di contrazione.
Lo stesso Newton aveva portato questo argomento a dimostrazione dell'infinità dell'universo: solo un universo infinito è infatti senza un centro in cui cadere in assenza di forze centrifughe.
Ciononostante è possibile, sotto opportune condizioni semplificatrici, applicare la meccanica newtoniana all'intero universo. Immaginiamo di suddividere l'universo, costituito da un fluido materiale uniformemente distribuito, in una serie di gusci concentrici. Consideriamo ora  una galassia di massa m posta sulla superficie di un guscio di raggio R.

Per una proprietà della forza gravitazionale, già dimostrata dallo stesso Newton, i gusci esterni non esercitano (per ragioni di simmetria) nessuna attrazione netta sul punto di massa  m, il quale "sente" solo la massa M contenuta nel guscio interno, come se essa fosse interamente concentrata nel centro a distanza R.

Il nostro universo newtoniano potrà pertanto ridursi ad una sfera di raggio R, volume V =  e massa M uniformemente distribuita. Secondo la legge di Hubble, la galassia presenterà una velocità di recessione pari a

La sua energia cinetica sarà pari a

e la sua energia potenziale

Per il principio di conservazione dell'energia, l'energia totale (cinetica + potenziale) deve rimanere costante durante l'espansione   

Tale relazione ci permette di individuare 3 casi che producono 3 differenti modelli cosmologici

1°  caso       
L'energia cinetica supera l'energia gravitazionale. La forza gravitazionale non è in grado di fermare l'espansione la quale continuerà indefinitamente. L'universo si dice aperto.

2°  caso       
L'energia gravitazionale eguaglia l'energia cinetica. Ci troviamo in una situazione di perfetto equilibrio. La forza gravitazionale non è in grado di fermare l'espansione. La velocità di espansione continuerà a diminuire, tendendo a zero senza però annullarsi. Anche in questo caso l'universo si dice aperto.

3° caso              
L'energia gravitazionale supera l'energia cinetica. La forza gravitazionale è in grado di fermare l'espansione. L'universo raggiungerà un punto di massima espansione, si fermerà e inizierà a contrarsi. L'universo si dice chiuso.

Possiamo osservare la stretta analogia con un proiettile che viene lanciato dalla terra. Se la sua energia cinetica eguaglia o supera l'energia gravitazionale esso è in grado di sfuggire al campo gravitazionale terrestre percorrendo un'orbita aperta (rispettivamente una parabola o un'iperbole).
Se la sua energia cinetica è inferiore all'energia gravitazionale esso risulta gravitazionalmente legato ed entra in un orbita chiusa intorno alla terra di tipo ellittico.
La velocità minima che il proiettile deve avere per vincere l'attrazione gravitazionale è detta velocità di fuga e si calcola facilmente dalla condizione di eguaglianza tra Ec ed Ep


Non conoscendo la massa totale M ed il raggio R dell'universo non possiamo calcolarne la velocità di fuga. E' comunque possibile convertire l’ultima  relazione in una forma che contenga solo variabili accessibili alla misura: la densità di materia e la costante di Hubble H.
Poiché la densità di materia si calcola come rapporto tra massa e volume, avremo:

Esplicitando la massa M e sostituendo opportunamente si ottiene  avremo

Poiché tale relazione è stata ottenuta partendo dalla dalla condizione di eguaglianza tra Ec ed Ep, il valore della densità che in essa appare è un valore particolare: c è infatti la cosiddetta densità critica, cioè la densità che l'universo avrebbe se la sua energia cinetica  fosse eguale all'energia gravitazionale.
La densità critica ha dunque per l'universo la stessa funzione che la velocità di fuga ha per un proiettile.
Se ora sostituiamo ad H il valore attualmente misurato (Ho) otteniamo il valore attuale della densità critica.

Per un valore di Ho = 100 h km/(s Mpc) la densità critica presenta un valore attuale di 1,879 10-29 h2 g/cm3. (per h = 0,5   c = 4,70 10-30 g/cm3).
Evidentemente non è detto che l'universo si trovi in una situazione di perfetto equilibrio tra energia cinetica ed energia gravitazionale. In tal caso la densità effettiva che noi misureremo sarà diversa dalla densità critica che abbiamo calcolato. In linea di principio potremmo pertanto sapere se l'universo è aperto o chiuso confrontando il valore della densità critica con quello della densità effettiva attuale (o).

In modo del tutto analogo potremo prevedere il destino di un proiettile confrontando la sua velocità effettiva con la velocità di fuga.

Attualmente le misure di densità effettiva danno valori che si aggirano su 1/100 della densità critica. Se ciò fosse vero l'energia cinetica supererebbe l'energia gravitazionale e l'universo sarebbe destinato ad espandersi per l'eternità.
Vi sono comunque diverse obiezioni a questa conclusione.
- In primo luogo il valore della densità critica dipende dal valore misurato di Ho che, come abbiamo già detto presenta un'elevata incertezza ( 50 - 100 km/s Mpc).
- In secondo luogo la densità effettiva che noi misuriamo tiene conto per lo più della materia visibile, quella che emette luce. Potrebbe esistere nell'universo, e la maggior parte degli astronomi ne è convinta, parecchia materia non emittente (materia oscura) che potrebbe contribuire in modo decisivo ad innalzare il valore di o (e a chiudere l'universo, come dicono gli astronomi).

Gli astronomi sono soliti indicare la densità dell'universo tramite il parametro di densità W, pari al rapporto tra la densità effettiva e la densità critica.

Naturalmente W potrà assumere i seguenti valori

                                            W      < 1  Universo aperto in espansione perpetua
W      = 1  Universo  aperto in espansione perpetua (critico)
W      > 1  Universo chiuso destinato a collassare

In una descrizione newtoniana dell'espansione, gli effetti della materia presente nell'universo possono essere descritti anche attraverso l'entità della decelerazione prodotta.
La decelerazione può essere calcolata in modo semplice eguagliando la forza centrifuga (). Si ottiene così

Ma in cosmologia tale decelerazione viene espressa tramite un parametro adimensionale detto parametro di decelerazione q. Per ottenere una quantità adimensionale, tale parametro  viene costruito come rapporto tra l'accelerazione centripeta (gravitazionale) e quella centrifuga

ottenendo


dove, esprimendo al solito la massa M in funzione della densità, e la velocità un funzione della costante di H (grandezze accessibili alla misura) si ottiene

Il parametro di decelerazione è in pratica una misura della velocità con cui il valore di H è diminuito al passare del tempo. Si può dimostrare che esso risulta legato al parametro di densità dalla relazione

Infatti  da  fornisce

 

La legge oraria dell’espansione cosmica

Dall'equazione che fornisce l’energia totale dell’universo () è possibile ottenere una funzione R(t) che leghi il raggio dell'universo al tempo t, in modo tale da poter rappresentare graficamente i 3 modelli espansivi.

Le 3 curve che si ottengono sono riportate nel grafico e poste a confronto con una retta di equazione

 

che possiede come pendenza la velocità di espansione supposta costante (v = HoRo) e che interseca l'asse delle ordinate in corrispondenza del raggio attuale Ro e l'asse delle ascisse al tempo 1/Ho.
Tale retta descrive evidentemente un ipotetico universo in espansione non frenata e quindi senza materia al suo interno.
Le altre 3 curve, rappresentando moti espansivi che in passato sono stati più rapidi, devono necessariamente intersecare l'asse delle ascisse in punti compresi tra 1/Ho ed il presente.

Come si può osservare l'unica curva per la quale è possibile calcolare il punto di intersezione con l'asse del tempo è quella che descrive un universo in cui l'energia cinetica è esattamente uguale all'energia potenziale. In tal caso infatti si assume che la densità dell'universo sia nota e pari alla densità critica ed è perciò possibile calcolare in modo preciso l'effetto frenante della materia sull'espansione. E’ così possibile calcolare sia la legge oraria R(t), che la dipendenza della densità e di H dal tempo [r(t), H(t)].
Si dimostra ad esempio che il valore di H non è in realtà costante, ma è inversamente proporzionale al tempo, secondo la relazione

Infatti in tal caso, essendo , la velocità di espansione dell'universo  è 

ricordando che la velocità è la derivata dello spazio rispetto al tempo , possiamo riscrivere la relazione precedente

che integrata diventa

riordinando si ottiene
  
Al crescere del tempo t il raggio dell'universo è quindi destinato a crescere indefinitamente secondo una legge oraria del tipo
Esprimendo al solito la massa M in funzione della densità di materia otteniamo la relazione che ci descrive come varia  con il tempo

Ricordando poi che in questo modello l'universo possiede esattamente la velocità di fuga e quindi  o = c  ( = 1), possiamo sostituire con il valore della densità critica () trovato in precedenza, ottenendo la dipendenza di H dal tempo

Utilizzando il valore attuale per la costante di Hubble (Ho = 100h) troviamo allora il tempo (to) trascorso dall'inizio dell'espansione ad oggi in un universo in equilibrio dinamico (Ec = Ep)
Ricordando che  si ottiene

In altre parole un universo critico avrà un’età compresa (in funzione del valore di h) tra 6,5 e 13 miliardi di anni.
Un universo chiuso deve avere un'età indefinita inferiore a .
Un universo aperto deve avere un'età indefinita compresa tra .


Cosmologia  Relativistica

Possiamo ora vedere quale relazione esista tra i risultati finora ottenuti e la descrizione relativistica dell'universo. Riordiniamo l’equazione che fornisce l’energia totale ()

poniamo  e, dopo aver espresso ancora una volta la Massa e la Velocità in termini di grandezze misurabili  ( e H), otteniamo una relazione formalmente analoga a quella utilizzata in relatività generale per descrivere l'universo

Il valore di k può variare in funzione delle unità di misura usate, ma non il suo segno. Infatti se

Ep > Ec               k > 0 
Ep = Ec               k = 0  
Ep < Ec               k < 0      

E' allora evidente che la determinazione del segno di k ci permetterebbe di conoscere quale dei tre modelli espansivi deve essere utilizzato per descrivere il nostro universo.
Si noti ora che, essendo R sempre necessariamente positivo, per determinare il segno di k sarà sufficiente calcolare il segno della quantità tra parentesi (misurando e H).

La relazione trovata è, come abbiamo già detto, formalmente identica a quella che descrive lo spazio-tempo nella relatività generale. La differenza sostanziale sta nell'interpretazione fisica di R, k e .

  • Nell'approccio newtoniano R è il raggio dell'universo esprimibile attraverso unità di misura di lunghezza e k è la misura dell'energia totale di una particella materiale, il cui segno ci permette di prevedere se essa è o meno gravitazionalmente legata, mentre è la densità di materia.

 

  • Nell'approccio relativistico R è il fattore di scala, k è l'indice di curvatura dello spazio-tempo e è la densità  della massa-energia.

Prima di approfondire il significato di tali parametri ricordiamo in che modo si è giunti all’inizio del nostro secolo ad applicare la relatività generale all'intero universo.
I primi tentativi di descrivere l'universo tramite gli strumenti della relatività si devono allo stesso Einstein, il quale nel 1917 aveva ottenuto come risultato un universo non in equilibrio, ma in contrazione. Ma come abbiamo già detto la convinzione che l'universo fosse statico era talmente radicata che Einstein decise di introdurre un termine correttivo, la cosiddetta costante cosmologica, con effetti repulsivi, per 'evitare' che l'universo collassasse sotto la spinta della attrazione gravitazionale prodotta dalla materia in esso contenuta. In seguito Einstein parlerà della costante cosmologica come uno dei più grossi abbagli della sua carriera.

Se Einstein avesse applicato le sue equazioni all'universo senza introdurre la costante cosmologica  avrebbe potuto anticipare la scoperta di un universo dinamico, in evoluzione.
Il risultato si deve invece al sovietico Aleksandr Fridman il quale nel 1922 ottenne una soluzione dinamica (non statica) delle equazioni originarie di Einstein (senza la costante cosmologica).

Fridman giunse ad una descrizione che oggi riteniamo corretta della dinamica dell'universo, ma le sue equazioni non ebbero alcuna eco in occidente, fino a quando non vennero riscoperte in modo indipendente nel 1927 da George Lemaître, il quale  suggerì che l'espansione avrebbe prodotto uno spostamento verso il rosso delle righe spettrali osservate, fatto poi confermato sperimentalmente dall'astronomo Hubble nel 1929.
Lemaître è forse maggiormente noto per esser stato il primo ad ipotizzare, in modo del tutto qualitativo, la nascita  dell'universo da un "atomo primigenio" superdenso, dalla cui esplosione avrebbero preso origine tutti gli elementi chimici e la radiazione cosmica. Per questo motivo è spesso ricordato come il "padre" del Big Bang.

Nel 1935 i modelli di Fridman trovarono una definitiva formalizzazione grazie ai lavori di Robertson e Walker. Oggi i modelli cosmologici basati sulle soluzioni di Fridman, Robertson e Walker sono spesso indicati come cosmologie FRW.
Essi corrispondono, anche dal punto di vista formale, ai tre modelli newtoniani ottenuti in precedenza.

Si tratta ora di chiarire come in relatività generale certe grandezze debbano essere interpretate fisicamente in modo diverso rispetto a quanto abbiamo visto nella descrizione newtoniana.

 

La curvatura dello spazio-tempo e le geometrie non-euclidee

Secondo Einstein è possibile sostituire il modello newtoniano in cui la gravità si manifesta come una forza attrattiva, con un modello in cui la gravità viene concepita come una manifestazione della geometria dello spazio. In altre parole la presenza di materia è in grado di curvare lo spazio-tempo (cronòtopo). I corpi quindi, in assenza di forze gravitazionali, obbedendo al principio di inerzia si muovono nello spazio di moto rettilineo uniforme. Ma essendo lo spazio in cui si muovono curvo, essi seguono delle traiettorie non rette, pur continuando tali traiettorie ad essere i percorsi più brevi tra due punti.
Oltre a curvature locali, presenti ad esempio intorno ad una stella o ad un pianeta, è possibile concepire una curvatura complessiva che caratterizza l'intero universo e la cui entità dipende dalla densità effettiva  in esso presente.
Nelle equazioni relativistiche k rappresenta una misura della curvatura dello spazio-tempo ed è detto indice di curvatura.
Se dunque la densità di materia presente nell'universo condiziona la geometria dello spazio curvandolo, in uno spazio curvo la geometria euclidea non può più essere utilizzata.
A ciascuno dei tre modelli di espansione è quindi possibile associare una caratteristica curvatura spazio temporale ed in definitiva una particolare geometria.

Fino agli inizi dell'Ottocento l'unica geometria conosciuta era quella formalizzata da Euclide a partire da cinque postulati, tra cui il 5°, noto anche come postulato "delle parallele".

Nella prima metà dell'Ottocento si fece strada l'idea che altre geometrie fossero possibili, soprattutto ad opera di Gauss, Riemann, Bolyai e Lobacevskij. Già nel '700 il padre gesuita Gerolamo Saccheri, tentando di dimostrare il quinto postulato aveva costruito una geometria fondata sui primi quattro, che violava volutamente il quinto. Egli sperava così di ottenere una costruzione priva di coerenza interna in modo da ottenere una dimostrazione per assurdo del quinto postulato. Ottenne invece una geometria lontana dal senso comune, ma perfettamente coerente.

Fu solo nella prima metà dell'Ottocento che si arrivò ad accettare l'idea che geometrie non-euclidee (così sono dette le geometrie che violano il quinto postulato) potessero essere formalizzate fondandosi puramente sul principio di non contraddizione.

Esistono due tipi fondamentali di geometrie non-euclidee:
- Le prime che affermano che per un punto esterno ad una retta data non passa alcuna parallela (geometria ellittica o sferica- Riemann (1854)).
- Le seconde che affermano che per un punto esterno ad una retta data passano infinite parallele (geometria iperbolica- Lobacevskij (1829) Bolyai (1932)).  

Ma durante la prima metà dell'ottocento la geometria subì una più radicale e generale revisione dei suoi fondamenti.
A Gauss (1827) si deve l'introduzione di un parametro k in grado di misurare la curvatura di una superficie. Mentre a Riemann (1854) si deve probabilmente la più importante generalizzazione del concetto di geometria. Egli dimostrò infatti che la geometria a tre dimensioni può essere considerata come un caso particolare di geometrie che descrivono spazi con un numero qualsivoglia di dimensioni (iperspazi o spazi riemanniani).
A Riemann si deve in un certo senso anche l'introduzione del concetto di metrica.  La metrica in uno spazio a due dimensioni si riduce ad una applicazione del teorema di Pitagora attraverso cui è possibile calcolare la distanza tra due punti di cui sono note le coordinate.

 

La lunghezza del segmento L in un piano cartesiano si ottiene, come è noto, tramite la relazione pitagorica . Riemann generalizzò tale relazione ad uno spazio qualsiasi ad n dimensioni, riuscendo inoltre ad  ottenere una relazione per calcolarne la curvatura.

 

Nella seconda metà dell'800 si accetta dunque  l'idea che spazi curvi a più dimensioni possano essere descritti attraverso geometrie di tipo diverso da quella di Euclide.

La rivoluzione che si consumò in campo geometrico in quegli anni ebbe profonde conseguenze sul modo stesso di concepire il processo di dimostrazione in matematica. Fino ad allora la dimostrazione era intesa come una riduzione all'evidenza, cioè come procedimento logico atto a far discendere la verità di una proposizione da verità indimostrabili ed evidenti di per sé (assiomi e postulati). Nella nuova geometria gli assiomi non sono né evidenti né intuitivi e quindi la dimostrazione diventa in tal caso un procedimento formale di riduzione agli assiomi. Una teoria può dunque dirsi dimostrata ed essere accettata solo in quanto dotata di coerenza interna.

Le geometrie non euclidee rimasero comunque allo stato di  pura speculazione teorica fino a quando la teoria della relatività generale non dimostrò che la materia era in grado di curvare lo spazio tempo quadridimensionale.

Poiché non siamo in grado di concepire e rappresentarci concretamente uno spazio curvo a tre dimensioni (e tanto meno a quattro, se consideriamo anche la dimensione temporale) è conveniente pensare allo spazio come ad una superficie a due dimensioni. In altre parole è possibile rendere evidenti gli spazi curvi lavorando su modelli euclidei a due dimensioni (Beltrami 1868). Tutte le considerazioni che faremo potranno poi essere estese (con un po' di fantasia) ed utilizzate per descrivere lo spazio tridimensionale e  la geometria dell'intero universo .

Quando si lavora su superfici (o spazi) curve le distanze non possono più essere misurate tramite rette, ma tramite linee curve. In una superficie piana la retta rappresenta la distanza più breve tra due punti. In una superficie curva la distanza più breve tra due punti è una linea curva detta geodetica. Le rette sono le geodetiche delle superfici piane.

 

superfici sferiche e  universo ellittico     k > 0

Le superfici sferiche sono superfici a curvatura costante positiva. Le geodetiche di una superficie sferica sono archi di cerchio massimo (un cerchio massimo si ottiene intersecando la superficie con piani passanti per il centro). Non esistono due geodetiche parallele poiché tutte si intersecano in due punti opposti. Tale superficie deve essere dunque descritta tramite una geometria non euclidea (ellittica). Costruendo un triangolo con tre archi di geodetica si può facilmente verificare che la somma degli angoli interni è sempre maggiore di 180°. Muovendosi lungo una geodetica si può ritornare al punto di partenza. L'universo sarebbe caratterizzato da una geometria di questo tipo, naturalmente con tre dimensioni spaziali, se la sua densità effettiva fosse maggiore della sua densità critica. In tal caso l'eccesso di materia produrrebbe una curvatura costante positiva. Un universo caratterizzato da una geometria ellittica è anche un universo chiuso, destinato a fermare la sua espansione e a contrarsi.
In un tale universo un raggio di luce, costretto a seguire le traiettorie più brevi e quindi una geodetica, si ritroverebbe al punto di partenza dopo aver attraversato tutto lo spazio.

superfici iperboliche e universo iperbolico       k < 0

Le superfici iperboliche sono superfici a curvatura costante negativa. Possiamo immaginarle come una superficie "a sella". In queste superfici esistono infinite geodetiche  che passano per un punto esterno ad una geodetica data senza mai intersecarsi con questa. Tale superficie deve essere quindi descritta tramite una geometria non-euclidea (iperbolica). Costruendo un triangolo con tre archi di geodetica si può verificare come la somma degli angoli interni è minore di 180°.
L'universo sarebbe caratterizzato da una geometria di questo tipo, naturalmente con tre dimensioni spaziali, se la sua densità effettiva fosse minore della sua densità critica. Dunque un universo che contiene una quantità talmente bassa di materia da produrre una curvatura costante negativa. Un universo caratterizzato da una geometria iperbolica è anche un universo aperto, destinato ad espandersi per sempre.

 

superfici piane e universo piatto o euclideo      k = 0

Le superfici piane sono superfici a curvatura nulla. In esse vale la geometria euclidea (parabolica). L'universo sarebbe caratterizzato da una geometria di questo tipo, naturalmente con tre dimensioni spaziali, se la sua densità effettiva fosse uguale alla sua densità critica.
Un universo caratterizzato da una geometria euclidea è anch'esso un universo aperto, destinato ad espandersi per sempre.
Se noi fossimo in grado di tracciare un enorme triangolo con dei raggi laser nello spazio e poi ne misurassimo la somma degli angoli interni potremmo capire in che tipo di spazio viviamo (piano, sferico o iperbolico) e di conseguenza quale sarà il destino dell'universo (aperto o chiuso).

 

I termini "ellittica, iperbolica e parabolica" utilizzati per indicare i 3 modelli di universo e le relative geometrie sono legati al fatto che le orbite ellittiche, iperboliche e paraboliche sono (come dimostrò Newton) gli unici tipi di traiettorie possibili di un corpo intorno al sole, a seconda che la sua energia cinetica sia minore, maggiore o uguale alla sua energia potenziale (le circonferenze sono casi particolari di orbite ellittiche).


Velocità di espansione

V > Vf

V = Vf

V < Vf

Densità di materia

ro < rc

ro = rc

ro > rc

Parametro di densità

W < 1

W = 1

W > 1

Parametro di decelerazione

q < 0,5

q = 0,5

q > 0,5

Geometria dello spazio

Iperbolica
(curvatura negativa)

Euclidea
(curvatura nulla)

sferica o ellittica
(curvatura positiva)

Modello di Universo

APERTO

APERTO

CHIUSO

 

Il fattore di scala e la metrica dell’universo

Nella cosmologia relativistica non è possibile parlare di raggio dell'universo. La grandezza R che compare nelle equazioni va interpretata come un fattore di scala.
Un esempio servirà a chiarire.
Immaginiamo un mappamondo sul quale sia rappresentata la superficie terrestre. Ogni luogo è individuato tramite le sue coordinate geografiche (latitudine e longitudine). Supponiamo di essere interessati unicamente alla latitudine, cioè alla distanza angolare di un luogo dall'equatore.
Ad esempio Roma si trova a 42° a nord dell'equatore. Noi sappiamo che 1° di latitudine corrisponde a circa 110 km. Così per calcolare la distanza in km di una città dall'equatore dobbiamo moltiplicare la sua coordinata (latitudine) per un fattore che in questo caso è 110 km/grado.
Roma perciò disterà 42° x 110 km/grado = 4620 km dall'equatore.

Immaginiamo ora che la terra improvvisamente si gonfi uniformemente, raddoppiando il suo diametro. Tutte le distanze tra le diverse località raddoppieranno. Ma le coordinate dei diversi luoghi rimarranno le medesime e noi potremmo continuare ad utilizzare il nostro mappamondo, con l'avvertenza che ora 1° di latitudine non vale più 110 km, ma 220 km.
Roma disterà ora 42° x 220 km/grado = 9.240 km dall'equatore. In altre parole ogni volta che la terra cambia dimensioni, noi possiamo mantenere inalterate le coordinate dei diversi luoghi ed aggiornare il fattore di conversione che chiameremo fattore di scala. Se la terra raddoppia il suo diametro, raddoppiamo anche il fattore di scala, se lo triplica lo triplichiamo e così via.

Per l'universo il ragionamento è analogo. Poiché l'espansione si suppone avvenga radialmente per tutti i punti, sarà sufficiente un'unica coordinata spaziale x che individua la posizione di un punto rispetto all'origine, arbitrariamente fissata.
Tale coordinata rimane costante durante l'espansione. E' una caratteristica del punto (come la latitudine di Roma nell'esempio precedente) e lo accompagna durante il suo moto di recessione radiale. Per questo motivo tale coordinata è detta coordinata comovente o coordinata radiale. La relatività fornisce le relazioni che legano il fattore di scala R al tempo t nei diversi modelli cosmologici. Così per ottenere la distanza effettiva D di un punto è necessario moltiplicare la coordinata per il fattore di scala.

La densità di materia-energia e la pressione

L'ultimo elemento fondamentale che distingue la trattazione newtoniana da quella relativistica consiste nel fatto che nei modelli relativistici anche la radiazione e la pressione sono fonte di gravitazione. La relazione einsteniana di equivalenza massa-energia (E = mc2) ci permette infatti di calcolare una massa-equivalente di energia

Così dividendo sia la densità di energia che la pressione per c2, si ottengono i contributi di ciascuna di esse alla densità di materia (si osservi che densità di energia e pressione sono grandezze omogenee erg/cm3 = dyn/cm2).
Nelle equazioni relativistiche va dunque intesa come una densità totale, ottenuta come somma della densità di materia, della densità di massa equivalente all'energia di radiazione e della densità di massa equivalente all'energia di pressione .

In genere il contributo della pressione alla densità totale è trascurabile e in tutti i modelli si pone p = 0. Più interessanti sono invece risultati alcuni modelli con p < 0 (inflation) di cui parleremo in seguito.

Più importante per la dinamica dei primi istanti di espansione in tutti e tre i modelli risulta invece la distinzione tra densità di materia e densità di massa equivalente alla radiazione. Infatti la densità di materia e la densità di massa equivalente all'energia non diminuiscono allo stesso modo durante l'espansione.
Già sappiamo che la densità di materia è inversamente proporzionale ad R3.
 
La densità di massa-equivalente all'energia decresce invece più rapidamente all'aumentare di R durante l'espansione. Infatti i fotoni subiscono una doppia diluizione con l'espansione.

In primo luogo il loro numero diminuisce, come quello di ogni altra particella, in modo proporzionale all'aumentare del volume. Se il volume raddoppia il numero di fotoni per unità di volume si dimezza e così via. Da questo punto di vista il numero di fotoni per unità di volume è inversamente proporzionale al cubo di R, come avviene per la densità di particelle materiali.

In secondo luogo l'energia di ciascun fotone risulta diminuire in modo proporzionale all'aumento di R. Infatti se immaginiamo che l'universo aumenti le sue dimensioni anche le onde elettromagnetiche in esso contenute subiranno uno stiramento di egual proporzione. Se R raddoppia anche la lunghezza d'onda di tutti i fotoni raddoppia.  Essendo l'energia di  ciascun fotone inversamente proporzionale alla sua lunghezza d'onda
 
se ne deduce che l'energia di ciascun fotone risulta essere inversamente proporzionale ad R.
Se combiniamo i due effetti è facile verificare che la densità di energia deve essere inversamente proporzionale alla quarta potenza di R

La densità dell'energia di radiazione può essere calcolata utilizzando la legge di Stefan-Boltzmann, che afferma che la densità di energia emessa su tutte le frequenza da un corpo alla temperatura T è proporzionale alla quarta potenza della temperatura assoluta, secondo la relazione

Essendo la temperatura attuale dell'universo To = 2,728°K, la relazione fornisce una densità di energia di radiazione di circa 4,2 10-13 erg/cm3. Convertiamo tale valore in densità di massa-equivalente all'energia
21)   
Se confrontiamo tale densità con la densità critica di materia c (nell'ipotesi che l'universo sia euclideo) che è pari a 1,88 10-29 h2 g/cm3 è facile verificare che attualmente l'effetto gravitazionale è prodotto essenzialmente dalla materia e non dalla radiazione, la cui densità è circa 10.000  volte inferiore.

 

Ma se risaliamo nel tempo verso l'istante zero (inizio dell'espansione) troviamo che la densità di radiazione aumenta più rapidamente della densità di materia e vi sarà perciò un tempo (molto vicino all'inizio dell'espansione, 1011 s 3000 anni circa) in cui la densità di radiazione sarà stata maggiore della densità di materia.

Si usa pertanto suddividere la storia dell'espansione in due grandi fasi: era della radiazione (0 - 1011s) ed era della materia.(1011 - 1017s)

Si dimostra che durante la prima fase espansiva, quando la densità di radiazione era prevalente, l'universo ha dovuto subire un effetto frenante superiore a quello subito successivamente durante l'era della materia.

 

Il paradosso di Olbers

Nel 1826 l'astronomo tedesco Heinrich Olbers  riprese e  rese poi celebre una vecchia questione (già enunciata e discussa in precedenza da altri: T. Digges (1576), J. Kepler (1610), E. Halley (1720), J.P. de Cheseaux (1744)) relativa al flusso luminoso proveniente dal cielo notturno. Olbers tentò di calcolare il contributo di tutte le stelle (oggi diremmo di tutte le galassie) alla luminosità del cielo notturno.


Partendo dall'ipotesi che l'universo sia statico, infinito e uniformemente popolato di stelle, Olbers giunse alla paradossale conclusione che il cielo notturno dovrebbe splendere più o meno come la superficie del sole. Nella versione moderna di tale paradosso le stelle vengono sostituite dalle galassie, ma il ragionamento rimane sostanzialmente immutato.
Immaginiamo infatti di suddividere lo spazio cosmico intorno a noi in infiniti gusci sferici concentrici di spessore r. Se  il numero di galassie  per unità di volume è costante e pari a n, il numero di galassie  contenute in ciascuna guscio sarà pari a  . Il numero di stelle (galassie) cresce dunque con il quadrato della distanza r.
Se indichiamo con . D'altra parte le leggi della fotometria ci dimostrano che l'intensità della radiazione percepita (luminosità apparente) è inversamente proporzionale al quadrato della distanza secondo la relazione

Ciò significa che la diminuzione dell'intensità luminosa dovuta all'aumento di distanza viene esattamente compensata dall'aumento del numero di sorgenti luminose che si produce all'aumentare della distanza: la radiazione luminosa che ci proviene da ciascun guscio dovrebbe perciò essere indipendente dalla distanza e pari a

Se dunque sommiamo l'apporto luminoso di infiniti gusci sferici di spessore r otterremo che sulla terra deve giungere un flusso luminoso infinito e siamo dunque costretti a stupirci delle tenebre che caratterizzano le nostre notti. Evidentemente una delle ipotesi dalle quali siamo partiti deve necessariamente essere errata. Nel 1610 Kepler sostenne ad esempio che le tenebre della notte potevano essere utilizzate quale dimostrazione di un universo finito.

Omogeneità - Le osservazioni dimostrano in realtà che le galassie non si distribuiscono uniformemente, ma si addensano in ammassi e superammassi. Tale tendenza all’aggregazione sembra tuttavia affievolirsi man mano che aumentiamo la scala osservativa e l’universo potrebbe apparire omogeneo a scale superiori a quelle dei superammassi (allo stesso modo in cui un solido ci appare perfettamente omogeneo su scala macroscopica, nonostante la materia di cui è costituito sia distribuita in modo non uniforme su scala atomica). Non vi sono comunque prove conclusive della distribuzione omogenea della materia su grande scala ed essa potrebbe mantenere la stessa distribuzione frattale che sembra manifestarsi alla scala degli ammassi e dei superammassi. In tal caso la materia luminosa potrebbe anche addensarsi a macchie, contribuendo in parte alla risoluzione del paradosso.

Universo infinito - Che l'universo sia finito o infinito in realtà non siamo ancora in grado di dirlo, tuttavia dal nostro punto di vista esso risulta essere comunque finito, poiché noi siamo in grado di percepire informazioni luminose provenienti solo da una sua porzione (universo osservabile).
Ciò è conseguenza della relativa giovinezza del nostro universo e della velocità finita della luce. Se infatti l’universo esiste “solo” da un tempo tH, la luce avrà percorso fino ad oggi un distanza ctH ed ogni osservatore, in qualsiasi punto dell’universo si trovi, potrà percepire solo una porzione di universo di raggio ctH (orizzonte dell’osservatore). Come ha suggerito E. Harrison (1965) non dovremmo pertanto sommare l’apporto luminoso di infiniti gusci, ma di un numero finito di gusci fino alla distanza ctH. I gusci più lontani sono infatti attualmente fuori del nostro orizzonte e la loro luce ci perverrà solo in futuro. Nell’ipotesi che l’universo sia euclideo, la sua età è pari a
Universo statico - Oggi possiamo dire con certezza che l’universo non è statico e la sua espansione  produce un red-shift che indebolisce l'intensità luminosa delle galassie (in misura tanto maggiore quanto più elevata è la loro distanza).
Come abbiamo visto il red-shift cosmologico aumenta le lunghezze d’onda di un fattore (z + 1)

ed essendo la lunghezza d’onda inversamente proporzionale all’energia di ciascun fotone , quest’ultima subirà, per effetto dell’espansione, una diminuzione di egual entità

Parimenti, se lo spazio si dilata di un fattore (z + 1), anche l’intervallo di tempo tra la ricezione di un fotone ed il successivo aumenta di un fattore (z + 1) rispetto all’intervallo di tempo che separava l’emissione di due fotoni. La frequenza di arrivo dei fotoni diminuisce cioè di un fattore (z + 1). In definitiva, poiché il flusso luminoso percepito è proporzionale al numero di fotoni ricevuti per unità di tempo, esso subisce una diminuzione, rispetto al flusso emesso, di un fattore (z + 1)2.
Il flusso luminoso percepito diventa pertanto

Per avere un'idea dell'ordine di grandezza del flusso luminoso che caratterizza il cielo notturno possiamo indicativamente assumere i seguenti valori:
 = 2 1043 h-2 erg/s
n = 2 10-2 h3 galassie/Mpc3 = 6,8 10-76 h3 galassie/cm3
Ho = 100 h km s-1 Mpc-1 = 3,24 10-18 h s-1
c = 3 1010 cm/s
Poiché si ritiene che le prime galassie si siano formate circa 100 milioni di anni dopo il Big Bang (T » 30°K  z » 10) e le galassie più vicine presentano z » 0 possiamo utilizzare un valore medio di z = 5
Sostituendo i dati nella relazione precedente otteniamo un flusso di 2 10-6 erg cm-2 s-1, proveniente da tutta la sfera celeste.
Essendo l’angolo solido sotto il quale osserviamo l’intera sfera celeste pari a 4p steradianti (= 41.252,96 gradi quadrati = 5,3464 1011 secondi d’arco quadrati) possiamo calcolare il flusso luminoso per unità di angolo solido (1 secondo d’arco quadrato) che risulta essere pari a 4 10-18 erg cm-2 arcsec-2 s-1
Valore che corrisponde ad una magnitudine pari a 32 per arcsec2, contro una luminosità misurata di circa 27 gradi di magnitudine per arcsec2. Il che dimostrerebbe che il fondo di luminosità del cielo notturno non dipende dalle sorgenti luminose extragalattiche, ma verosimilmente dagli oggetti celesti appartenenti alla nostra galassia.

 

Problemi irrisolti nelle cosmologie classiche

I modelli cosmologici FRW presentano alcune difficoltà che hanno cominciato a trovare soluzione solo con l'introduzione in cosmologia della teoria dell'inflation (vedi oltre).

Problema della piattezza

Il problema della piattezza si può sintetizzare nella seguente domanda: come mai le misure della densità effettiva ci forniscono valori che non si discostano per più di 1/100 da quello della densità critica ( 0,01) e quindi l'universo, anche se non è euclideo (piatto), è comunque molto vicino ad esserlo?
Per poter comprendere il significato di tale domanda è necessario precisare che il valore di W = 1 rappresenta uno stato di equilibrio instabile. Si può infatti dimostrare che se W fosse stato inizialmente 1 avrebbe mantenuto tale valore per sempre, ma se fosse invece stato anche solo di pochissimo diverso da 1, tale differenza avrebbe subito una rapidissima divaricazione con il tempo, in tutti e 3 i modelli cosmologici.

Si può ad esempio calcolare che se oggi = 0,01, all'inizio dell'era della materia esso era uguale ad 1 fino alla 4a cifra decimale,  mentre ad 1 secondo dall'inizio dell'espansione era uguale ad 1 fino alla 15a cifra decimale.

Poiché dunque tutti i modelli cosmologici tendono ad accentuare vistosamente durante l'espansione, qualsiasi pur lieve differenza di dall'unità, ci si può a ragione domandare come mai, visto l'attuale valore di , l'universo abbia iniziato la sua espansione in una condizione così vicina ad una situazione euclidea.

Problema  dell'orizzonte

Nel 1905 Einstein costruì la teoria della relatività speciale sull'assunto, verificato sperimentalmente, che la velocità della luce sia una costante di natura. Il suo valore non varia cioè qualunque sia lo stato di moto dell'osservatore rispetto alla sorgente luminosa e di conseguenza nessun corpo materiale può raggiungere e tanto meno superare la velocità della luce.

Ciò ha dei riflessi importanti sui processi di causalità, in quanto nessuna interazione di tipo causale tra due oggetti può trasmettersi istantaneamente e l'intervallo di tempo minimo tra la causa ed il suo effetto è strettamente connesso allo spazio che li separa ed alla velocità della luce c.

In un determinato istante t, ogni punto dell'universo può quindi vedere (ed essere visto) e produrre interazioni di causa-effetto solo con oggetti che si trovino compresi all'interno di una superficie sferica di raggio ct, centrata nel punto. Tale superficie rappresenta una sorta di orizzonte causale del punto considerato. Un oggetto che si trovi fuori da tale orizzonte non avrà mai interagito in passato col punto considerato in quanto la distanza che li separa è superiore a quella percorribile dalla luce nel tempo t fino a quel momento trascorso. Due punti che si trovino l'uno al di fuori dell'orizzonte causale dell'altro si dicono causalmente non connessi.

I modelli cosmologici classici presentano molte porzioni di universo causalmente non connesse.
Il problema dell'orizzonte si racchiude quindi nella seguente domanda. Come è possibile che 2 punti dell'universo che non sono mai stati legati da relazioni di causa ed effetto si trovino in condizioni termiche perfettamente identiche?
E' come se l'universo fosse attualmente suddiviso in numerose porzioni, ciascuna racchiusa nel proprio orizzonte causale (una superficie sferica di raggio cto) che non hanno in passato mai comunicato tra loro.


Il problema è proprio di tutti i modelli cosmologici classici, nei quali la distanza-orizzonte (cioè il percorso ct eseguito fino all momento t da un raggio luminoso) in ogni istante di espansione è costantemente minore rispetto al raggio dell'universo.
Supponiamo ad esempio che l'universo sia euclideo e che la sua età sia quindi  ).

Calcoliamo ad esempio le dimensioni che l'universo attualmente osservabile (1028 cm) doveva avere all'inizio dell'era della materia (1011 s). Essendo la legge oraria dell'espansione del tipo  potremo scrivere

se ora poniamo t1 = 1011 s possiamo calcolare le corrispondenti dimensioni dell'universo R1

corrispondente ad una sfera di circa 1071 cm3. In quell'istante la luce poteva aver percorso solo
,
corrispondente ad una sfera di volume 1065 cm3.             
Al tempo 1011 s l'universo attualmente osservabile era quindi frammentato in circa 1 milione di regioni (1071/1065 = 106) racchiuse nel proprio orizzonte causale, ciascuna con dimensioni 100 volte (1023/1021) inferiori della porzione di universo considerato.

 

 

 


Teorie cosmologiche: Steady State  e Big Bang

Nel 1948 apparvero due lavori chiave per la cosmologia. Entrambi imperniati su di un universo in espansione, uno presentava un teoria cosmologica di tipo stazionario (steady state), l'altro di tipo evolutivo (Big Bang). Per oltre 15 anni i cosmologi non ebbero a disposizione evidenze sperimentali sufficienti a suffragare l'una o l'altra ipotesi teorica.

 

La teoria a b g ed il Big Bang

Gamow, con la collaborazione di Alpher ed Herman, suggerì che se l'universo si stava  espandendo verso il futuro bisognava ritenere che, risalendo nel passato, si sarebbe dovuto trovare un universo via via più contratto. Ipotizzando inoltre che l'universo sia un sistema isolato che non può scambiare né energia né materia con l'ambiente esterno, una sua dilatazione dovrebbe necessariamente avvenire a spese della sua energia interna (espansione adiabatica) e quindi portare ad un raffreddamento, mentre una contrazione dovrebbe associarsi ad un aumento di temperatura. Così se al tempo t tutta la materia dell'universo si trovava concentrata in un sol punto, allora bisognava ritenere che l'universo avesse avuto origine da una singolarità a densità e temperatura infinita, dalla cui esplosione si sarebbero formati tutti gli elementi chimici osservati.
Gamow utilizzò i modelli di nucleosintesi proposti a suo tempo da Bethe, per calcolare le quantità dei diversi elementi chimici che si sarebbero dovuti formare durante le prime fasi della grande esplosione iniziale, finché la temperatura era ancora sufficientemente elevata da permettere la fusione termonucleare.
Gamow previde inoltre che l'universo doveva comportarsi come un gigantesco corpo nero in fase di raffreddamento a causa dell'espansione. Calcolò inoltre che l'universo attuale doveva avere una temperatura residua di circa 3°K (2,728 ±0,004 °K secondo le più recenti rilevazioni del satellite COBE – COsmic Background Explorer), il cosiddetto fondo a 3K, responsabile di uno spettro continuo con una lunghezza di massima emissione situata nel campo delle microonde (lmax = 0.11 cm). Una specie di radiazione fossile, che avrebbe dovuto permeare in modo uniforme tutto l'universo (radiazione isotropa di fondo).

 

La teoria dello Steady State o Stato Stazionario

Bondi, Hoyle e Gold proposero quasi contemporaneamente un modello stazionario, in espansione, ma senza inizio né fine. La materia che si espandeva doveva cioè essere sostituita continuamente da nuova materia che si sarebbe prodotta al ritmo di 1 particella/anno per ogni 10 km3 di universo, in modo tale da mantenere la densità di materia costante nel tempo.
La teoria dello stato stazionario, che peraltro non dava alcuna giustificazione del meccanismo di produzione di materia, si fondava sul cosiddetto principio cosmologico perfetto, il quale affermava che l'universo oltre ad essere omogeneo ed isotropo nello spazio doveva risultare uniforme anche nel tempo.
Secondo il modello dello Steady State infine, gli elementi chimici si sarebbero formati esclusivamente grazie alla nucleosintesi stellare.
In quegli anni il valore della costante di Hubble era stato erroneamente calcolato in 500 Km/s Mpc, poiché il metodo delle Cefeidi che serviva per tarare le distanze delle galassie non era ancora perfettamente a punto. Così l'età dell'universo veniva calcolata in soli 2 miliardi di anni. Troppo poco se paragonato all'età della terra. Si trattava di un punto a favore dei sostenitori della teoria dello Steady State, che ironizzavano sulla teoria di Gamow chiamandola scherzosamente teoria del Big Bang (del grande botto). Gamow trovò peraltro molto appropriato il termine, tanto che oggi è addirittura entrato nell'uso comune.
Il metodo delle Cefeidi venne per la prima volta corretto da Baade nel 1950. In questo modo il valore di H diminuì e l'età dell'universo aumentò sino a diventare compatibile con l'età della terra.
Il modello di Gamow divenne in questo modo nuovamente competitivo, ma la sua definitiva affermazione si ebbe nel 1964, quando, casualmente, Penzias e Wilson, due fisici dei Bell Telephone Laboratories, scoprirono il fondo a 3K.
Mentre mettevano a punto un'antenna si trovarono a percepire un 'rumore' di fondo che non riuscirono ad eliminare. Il disturbo non proveniva da qualche direzione particolare, poiché veniva ricevuto identico comunque fosse orientata l'antenna. I due fisici arrivarono addirittura a pensare che si trattasse di alcuni escrementi di uccelli depositatisi sull'antenna.
Quando Penzias e Wilson sentirono parlare di una ricerca che i due astrofisici Dicke e Peebles, della vicina Princeton University, stavano per condurre per rivelare l'eventuale presenza della radiazione isotropa di fondo, si resero conto di averla già trovata.

La teoria del big bang ricevette ulteriori conferme dal calcolo delle abbondanze relative degli elementi, in particolare del deuterio e dell'elio.
Infatti, mentre l'originaria teoria a b g ipotizzava che tutti gli elementi si fossero formati durante i primi istanti del big bang, fornendo in tal modo risultati non sempre compatibili con le abbondanze effettivamente osservate nell'universo, calcoli successivi dimostrarono come inizialmente si poterono formare solo gli elementi più leggeri (deuterio e alcuni isotopi dell'elio, del litio e del berillio), mentre gli elementi più pesanti si produssero successivamente durante la nucleosintesi stellare.
Gli attuali calcoli sulla nucleosintesi primordiale forniscono dati in ottimo accordo con le abbondanze osservate e rappresentano una delle migliori conferme della validità del modello del Big Bang.
Ulteriori conferme del Big Bang arrivano dall'osservazione di un aumento nel numero di radiosorgenti per unità di volume all'aumentare della distanza. In altre parole l'universo a grandi distanze risulta essere più denso di materia che alle piccole distanze. Poiché le regioni più distanti nello spazio lo sono anche nel tempo, ciò significa che l'universo era un tempo più denso e quindi più contratto di quanto non lo sia attualmente. Oggi gli astronomi sono praticamente unanimi nell'accettare la teoria del Big Bang.

 

In che universo viviamo?

Rispondere a questa domanda non è cosa facile, poiché tutte le osservazioni effettuate in questo senso dagli astronomi hanno dato finora risultati incerti e non conclusivi. Scoprire quale sia la geometria dell'universo e quindi il suo destino significa infatti fondamentalmente confrontare la sua densità effettiva con la densità critica. Ma, da una parte, la densità critica non presenta  un valore certo, in quanto si calcola in funzione di H (avevamo d'altra parte già visto che la curvatura dello spazio, il segno di k, dipende dai valori di e H).
E tutto ciò che gli astrofisici sono in grado di affermare con un certo grado di sicurezza è che H non dovrebbe assumere valori molto al di fuori dell'intervallo 50 -100 km/s Mpc. Infatti per valori esterni a tale intervallo tutte le galassie diverrebbero o molto più vicine o molto più distanti di quanto attualmente calcolato, e perciò anche la loro luminosità intrinseca varierebbe di conseguenza. Esse presenterebbero quindi mediamente una luminosità molto diversa da quella della nostra galassia e delle galassie a noi limitrofe e ciò in contraddizione con il principio cosmologico.
In secondo luogo la misura diretta della densità effettiva (ro) attraverso una valutazione quantitativa della materia emittente (stelle, galassie, nebulose etc) non sembra in grado di fornirci dati attendibili sulla quantità di materia effettivamente presente nell'universo. Essa ha infatti  dato a tutt'oggi valori da 10 a 100 volte inferiori alla densità critica, senza che ciò possa essere interpretato come una conferma di un modello di universo in espansione perpetua. Gli astronomi sono infatti certi che esista una quantità molto elevata di materia non luminosa, detta materia oscura (o anche massa mancante) che potrebbe contribuire a 'chiudere' l'universo.

 

Densità di materia
Per valutare la densità di materia presente nell’universo si cerca di determinare il rapporto Massa/luminosità (espresso in genere in unità solari M) per i diversi oggetti cosmici. Poiché la massa è conosciuta a meno di un fattore h-1 e la luminosità a meno di un fattore h-2, il rapporto M/L  per un qualsiasi oggetto cosmico verrà dato a meno di un fattore h.
Le misure effettuate sulla massa luminosa di molte galassie indicano un rapporto medio M/L  dell'ordine di 25h (unità M/Mpc3.
Otteniamo quindi un limite inferiore per la densità di materia dell'universo (nell'ipotesi che sia presente solo materia luminosa), pari a
/Mpc3
Trasformando le masse solari in grammi e i Mpc3 in cm3 si ottiene

Essendo la densità critica pari a

Il parametro di densità presenta pertanto un limite inferiore pari a

In altre parole la materia luminosa rappresenta circa il 2 % della materia necessaria per chiudere l'universo.

 


Storia Termica dell'Universo

La teoria del Big Bang è fondamentalmente una descrizione termodinamica dell'espansione cosmica.
Il parametro fondamentale che controlla i processi fisici (interazioni tra materia e radiazione) durante i primissimi istanti dell'universo è infatti la temperatura.

Ricordando che la densità di energia della radiazione è inversamente proporzionale alla quarta potenza del raggio  (), è facile allora convincersi che la funzione che lega la temperatura alle dimensioni dell'universo è del tipo

In altre parole ogni volta che l'universo raddoppia le sue dimensioni, la sua temperatura si dimezza. Risalendo verso l'istante zero, la temperatura deve dunque aumentare proporzionalmente alla diminuzione di dimensioni del cosmo.
La temperatura determina il tipo di particelle che si formano dall'energia liberata durante le collisioni.
Affinché una particella di massa m si formi assieme alla sua antiparticella è infatti necessario che la temperatura superi un valore di soglia calcolabile eguagliando l'energia cinetica media con il doppio dell'energia della massa a riposo della particella (l'antiparticella ha infatti massa eguale)
 kT = 2mc2
Quindi quando la temperatura scende al di sot­to­ del valore critico:
Tc =      10 37 m

la particella di massa m cessa di essere creata da fotoni sufficientemente energetici. Tutte le coppie di particelle e antiparticelle create subiscono un processo di annichilazione, ridando fotoni, tranne un piccolo eccesso di particelle che rimane "congelato" a formare la materia dell'universo.

Per esempio, sostituendo ad m la massa di un protone (o un neutrone), pari a circa 1,67 10-24 g si ottiene una temperatura di circa 1013 oK. Dunque al di sopra di tale temperatura si formano protoni e antiprotoni da fotoni sufficientemente energetici, al di sotto la produzione si arresta e continua solo il processo di annichilazione.
Tali soglie vengono verificate, fin dove è possibile, negli esperimenti con acceleratori ad alta energia.
Dato che la temperatura dell'universo aumenta  risalendo nel tempo verso l'istante zero, possiamo immaginare che vengano via via raggiunte tutte le soglie termiche per la produzione di particelle di massa via via maggiore.
In tal modo i primi istanti dell'universo sono stati suddivisi in una successione di ere, ciascuna separata dalla precedente da una soglia termica che individua particolari eventi cosmici.

Durante la loro produzione le particelle risultano in equilibrio con la radiazione fotonica. In altre parole essendo l'universo in equilibrio termodinamico anche durante l'espansione tutta l'energia disponibile si suddivide equamente tra particelle materiali e fotoni (principio di equipartizione dell'energia). L'equilibrio termodinamico dell'universo è consentito dal fatto che in queste prime fasi il ritmo delle interazioni materia/radiazione è notevolmente più elevato del ritmo di espansione dell'universo stesso.

Nelle sue prime fasi l'universo è costituito quindi da un plasma in cui materia e radiazione sono indissolubilmente unite ed in equilibrio reciproco. I fisici descrivono tale condizione affermando che esiste un  accoppiamento materia-radiazione.
Gli elettroni hanno un ruolo determinante nel mantenere l'accoppiamento materia-radiazione che sta alla base dell'equilibrio termodinamico. essi infatti assorbono ed emettono facilmente fotoni e contemporaneamente sono in grado di trasferire ed accettare energia cinetica dagli adroni urtandoli.

Ad ogni temperatura è associabile un'energia caratteristica il cui valore è calcolabile con la relazione
E =  kT
Ad esempio alla temperatura di soglia del protone (circa 1013 °K) corrisponde un'energia caratteristica di 1,5 10-3 erg. Tali soglie energetiche vengono usualmente misurate in eV (l'elettronvolt è l'energia acquistata da un elettrone quando viene accelerato dalla differenza di potenziale di 1volt).
Tenendo presente che 1erg = 6,2415 1011 eV, la soglia energetica per i protoni sarà di circa 109 eV.

Ciascuna temperatura viene raggiunta ad un tempo cosmico (in secondi) il cui valore può essere calcolato approssimativamente tramite la relazione

Ricordando che .  Eguagliando i secondi membri di tali relazioni si ottiene infine la relazione cercata, che lega il tempo alla temperatura della radiazione.

 

Ere Cosmiche

 

Era di Planck      0  - 10-43 s

   Finora i fisici sono riusciti a descrivere i primi istanti di vita dell'universo risalendo fino al tempo 10-43 s (tempo di Planck). A tempi inferiori gli effetti gravitazionali si intrecciano a tal punto con gli effetti quantistici da rendere necessaria una teoria unificata della gravità quantistica per ora non ancora disponibile.
Sostituendo il tempo di Planck nella  troviamo che la temperatura dell'universo è dell'ordine di 1031-1032 °K (1027-1028 eV), temperatura oltre la quale si ritiene che tutte le 4 forze fondamentali di natura siano unificate in un'unica 'superforza' che agisce indifferentemente su tutte le particelle.
L'unica teoria che attualmente si avventura nell'era di Planck  è la teoria delle supercorde o teoria del tutto (Theory of Everything -TOE). Tale teoria descrive tutte le particelle come corde di dimensioni infinitesime (10-33 cm). Ogni modo di vibrazione di tali corde determina l'energia e quindi la massa della particella.

 

Era di Grande Unificazione  10-43 - 10-35 s

L'universo emerge dal tempo di Planck costituito da un gas di particelle quantistiche formate da lepto-quark e dai vettori intermedi della forza di Grande Unificazione (bosoni X). I gravitoni, se esistono, si sono già separati ed agiscono in modo autonomo.
L'enorme energia che caratterizza tale gas permette alle particelle quantistiche di convertirsi liberamente le une nelle altre. In altre parole, a parte l'interazione gravitazionale, che si è già separata al tempo di Planck, le rimanenti tre interazioni (elettromagnetica, forte e debole) sono ancora unificate e i bosoni che le mediano sono in realtà indistinguibili l'uno dall'altro. L'unione della forza elettromagnetica, debole e forte in un'unica interazione viene oggi descritta da una serie di modelli della fisica delle particelle noti come teorie di Grande Unificazione o GUT.

- Al tempo cosmico 10-35 s si separa l'interazione forte (si formano i gluoni) che comincia ad agire sui quark (i quali a loro volta si distinguono ora dai leptoni), senza peraltro riuscire a legarli ancora in modo permanente per formare gli adroni.
Le teorie di Grande Unificazione prevedono che durante tale separazione si producano dei "difetti" nello spazio-tempo.
E' una situazione analoga a quella che si produce quando un liquido cristallizza (transizione di fase o passaggio di stato) e regioni diverse del sistema iniziano a solidificare in modo autonomo, con diversa e casuale orientazione degli assi cristallografici. Quando tali regioni si incontrano, si producono dei difetti localizzati nei punti di confine. Nelle teorie di grandunificazione esistono difetti puntiformi, che corrispondono ai monopòli magnetici (strutture associate a poli magnetici isolati) , lineari (stringhe o corde cosmiche) e superficiali (pareti di Bloch o pareti di dominio).
Ci si attende che tali difetti siano stabili ed estremamente massicci (si può ad esempio calcolare che  un monopolo magnetico assuma massa pari a 1016 volte quella del protone).
Inoltre i calcoli prevedono un numero talmente grande di tali difetti che la loro massa sarebbe ora preponderante su quella di qualsiasi altro oggetto conosciuto. Tali strutture non sono state finora mai rivelate.

Un'altra previsione teorica di grande interesse riguarda l'attuale asimmetria cosmica che si rileva tra materia ed antimateria. Secondo le GUT  infatti si deve formare un lieve eccesso di Quark rispetto agli Antiquark e di Leptoni rispetto agli Antileptoni.
In questo modo quando nelle fasi successive materia ed antimateria si annichiliscono formando fotoni, il piccolo eccesso di materia formatosi in questo momento sarà in grado di sopravvivere e formerà la materia prima per stelle e galassie. La teoria non è in grado di calcolare in modo preciso quanta materia è in grado di sopravvivere, ma ci fornisce una stima del rapporto tra  numero di fotoni (che si formano dall'annichilazione) e numero di particelle di materia, pari a .

Il valore previsto teoricamente per tale rapporto, detto anche entropia specifica dell'universo (h), trova buone conferme sperimentali nelle attuali misurazioni.

Il numero di protoni per unità di volume può essere stimato dividendo la densità effettiva () per la massa del protone (mp = 1,6726 10-24 g)

Nell'ipotesi di un universo euclideo ( = 1), con  c = 1,88 10-29 h2, la relazione ci permette di calcolare una densità adronica di 1,1 10-5 h2 protoni/cm3 (circa dieci protoni per metro cubo di universo).

Il numero di fotoni per unità di volume può essere ottenuto dalla relazione di Planck  , dividendo per l'energia = h posseduta da ciascun fotone e integrando poi su tutte le frequenze. Si ottiene per la densità fotonica la relazione

per T = To = 2,728 °K  si calcolano circa 412 fotoni/cm3.

L'entropia specifica dell'universo in tal modo stimata risulta pertanto  412 / 1,1 10-5 h2 = 3,7 107 h-2  (107 - 108) in buon accordo con il valore teorico.
In altre parole si stima che attualmente nell'universo vi siano circa 100 milioni di fotoni per adrone.

L'entropia specifica dell'universo è un parametro estremamente critico per l'esistenza dell'universo come noi lo conosciamo.
Si dimostra infatti che è sufficiente variare in misura minima il valore del rapporto per cambiare in modo radicale l'evoluzione e la struttura dell'universo.
Se infatti il numero di fotoni fosse stato inizialmente inferiore, la pressione di radiazione da essi esercitata non sarebbe stata in grado di tenere separati i barioni urtandoli di continuo. I barioni si sarebbero perciò combinati molto precocemente e con maggior efficienza formando rapidamente nuclei di elementi chimici pesanti a scapito di quelli più leggeri.
L'universo sarebbe oggi praticamente privo di idrogeno e di elio, e quindi di stelle, formato da enormi massi di elementi pesanti alla deriva nello spazio.

Con un numero di fotoni eccessivo l'universo sarebbe invece formato praticamente di solo idrogeno. Ma quel che più conta l'eccesso di fotoni avrebbe impedito alle perturbazioni gravitazionali della materia di crescere, disperdendole continuamente. Le galassie non si sarebbero potute formare ed oggi l'universo sarebbe costituito ancora di una distesa omogenea di idrogeno.

 

Era dell'Inflation 10-35 - 10-32 s

La teoria dell'inflation, formulata nella sua forma originaria da A. Guth nel 1980, ha il pregio, come afferma lo stesso Guth, di trasformare qualsiasi universo (o quasi) in quello attualmente osservabile, risolvendo in tal modo parecchi problemi che affliggono i modelli cosmologici classici.
Guth dimostrò che quando la temperatura raggiunge valori intorno a 1027 °K (1023 eV) l'universo potrebbe essersi trovato in una condizione metastabile, denominata di falso-vuoto.

Il falso vuoto ha alcune particolarità fisiche di notevole interesse cosmologico. La sua densità di energia rimane costante durante l'espansione. Inoltre presenta una pressione negativa non trascurabile e tale che la densità totale risulta anch'essa negativa
In una situazione di tal genere, in cui la densità di energia del falso vuoto è prevalente e negativa, essa viene ad avere un effetto repulsivo antigravitazionale ed agisce pertanto in modo analogo alla costante cosmologica, il parametro introdotto (e poi sconfessato) da Einstein per giustificare l'esistenza di un universo statico.

Ma mentre la costante cosmologica agiva in un universo statico, in un universo già in espansione come il nostro questa specie di nuova costante cosmologica avrebbe l'effetto di aumentare a dismisura la velocità, producendo in definitiva un'espansione esponenziale o inflazione.
La legge oraria dell’espansione è , dove
Ro = raggio attuale dell’universo
Hi = costante di Hubble durante l’inflation

Il modello prevede che nell'intervallo di tempo compreso tra 10-35 e  10-32 secondi l'universo aumenti le proprie dimensioni almeno di un fattore 1040.

Infatti, calcolando il rapporto tra le dimensioni dell’universo al tempo t2 = 10-32 s e le dimensioni dell’universo al tempo t1 = 10-35 s si ottiene (Hi è calcolabile per via teorica e vale » 1034 s-1)

Tra le diverse questioni lasciate in sospeso dai modelli cosmologici classici, l'inflation dà risposta al problema della piattezza, al problema dell'orizzonte e al problema dei monopoli magnetici.
Il problema dell'orizzonte e della piattezza non rappresentano in realtà una contraddizione vera e propria dei modelli classici. E' infatti sufficiente assumere l'uniformità e = 1 come condizione iniziale dell'universo e l'universo si evolverà uniformemente ed in modo euclideo.
Naturalmente un modello che debba accontentarsi di assumere alcune condizioni come date, senza riuscire a darne spiegazione, risulta meno soddisfacente di uno che possa giustificare l'esistenza di tutte le caratteristiche cosmiche osservate.

- Per ciò che riguarda il problema della piattezza l'immensa regione di spazio che oggi noi chiamiamo universo corrisponderebbe ad una porzione estremamente piccola di uno spazio-tempo dilatato enormemente dall'espansione inflativa.
Tale spazio ci appare piano allo stesso modo in cui sembra piana la terra vista in una sua piccola porzione superficiale. In tal modo noi siamo costretti ad osservare uno spazio piatto indipendentemente dalla curvatura che poteva inizialmente possedere l'universo.
Il problema si è ora per certi versi addirittura capovolto, nel senso che se l'inflation prevede che W sia pari ad 1, dobbiamo in qualche modo cercare di giustificare perché noi in realtà misuriamo valori inferiori. E' il cosiddetto problema della massa mancante, che potrebbe comunque trovare soluzione tramite il gran numero di particelle esotiche la cui esistenza è prevista dalle GUT e dalle teorie supersimmetriche (neutrini, gravitini, fotini, assioni etc.).

- Per ciò che riguarda il problema dell'orizzonte l'universo che entra nella fase inflativa sarebbe enormemente più piccolo di quanto precedentemente previsto (circa di un fattore 1040).
In precedenza avevamo visto che le dimensioni previste dai modelli cosmologici classici per la porzione di universo attualmente osservabile, riferite al tempo 1011 s (inizio era materia) era circa 100 volte superiore della distanza-orizzonte riferita al medesimo istante.
Se ora accettiamo che le dimensioni dell'universo preinflativo siano 1040 volte inferiori a quanto precedentemente calcolato, la porzione di universo attualmente osservabile avrebbe avuto, in periodi precedenti a 10-35 s, dimensioni di gran lunga inferiori all'orizzonte. E' possibile calcolare che in questa situazione la distanza orizzonte era circa 1015 volte superiore delle dimensioni raggiunte allora dalla porzione di universo oggi osservabile.
L'universo preinflativo sarebbe stato perciò sufficientemente piccolo da permettere alla luce di viaggiare da un capo all'altro più volte, risolvendo il problema dell'orizzonte. Infatti tutti gli eventi compresi nell'universo osservabile e attualmente non connessi, lo erano prima dell'inflation, poiché compressi in una regione sufficientemente piccola.
Durante l'era di Grande Unificazione l'universo, percorso innumerevoli volte dalla radiazione, ha subito quindi un processo di omogeneizzazione che giustifica l'aspetto altamente uniforme che presentano ancor oggi regioni tra loro molto distanti. E' questo il motivo per il quale l'era GUT viene a volte indicata come era della omogeneizzazione.

 

- Anche il problema dei monopoli magnetici ed in generale di tutte le strutture massicce (corde cosmiche, pareti di dominio) che secondo le teorie di Grande Unificazione si sarebbero dovute formare in quantità tale da essere oggi facilmente osservabili viene risolto in modo estremamente semplice dall'inflation. Infatti l'aumento di un fattore 1050 delle dimensioni cosmiche produce una diluizione formidabile su tali strutture, al punto da rendere la loro densità (numero per unità di volume) talmente piccola da essere compatibile con le osservazioni.


Era Elettrodebole  o del Deserto 10-32 - 10-10 s

L'interazione elettrodebole rimane unificata fino al tempo cosmico 10-10 s.
Alla fine dell'era i bosoni deboli che trasportano la forza debole (W e Zo) iniziano a separarsi dai fotoni, acquisendo massa. Se confrontiamo l'intervallo di temperature (e quindi di energia) che caratterizza questa era con quello delle altre ere, possiamo notare come sia estremamente ampio. Poiché in questo lasso di tempo non accade nulla di particolarmente rilevante molti fisici parlano di deserto di gauge (i modelli matematici che descrivono le interazioni sono teorie di gauge - leggi 'gheidg').

 

Era Adronica     10-10 - 10-4 s

Al tempo cosmico 10-10 s i gluoni colorati iniziano a legare permanentemente i quark formando gli adroni di massa maggiore (adronizzazione).
Si formano adroni ed antiandroni, con un leggero eccesso dei primi sui secondi come previsto dalle GUT.
Gli adroni più pesanti non sono stabili (oggi li creiamo artificialmente negli acceleratori) e man mano che la temperatura diminuisce decadono negli adroni più leggeri.
Al tempo cosmico 10-6 s iniziano a formarsi  gli adroni più leggeri e stabili (protoni e neutroni).

Al tempo cosmico 10-4 s viene raggiunta la soglia dei protoni e termina l'era adronica.
Durante l'era adronica i fotoni erano in equilibrio termodinamico con gli adroni e la velocità di produzione era pari alla velocità di annichilazione.
Al termine dell'era adronica la produzione cessa, mentre continua l'annichilazione con formazione di fotoni.

 

Era Leptonica          10-4 - 101 s

Sotto la soglia termica dei protoni (1013 oK) i fotoni possiedono ancora energia sufficiente per creare coppie leptone/antileptone (naturalmente le coppie leptone/antileptone si formavano anche in precedenza).
Il gas quantistico è ora formato da una miscela di fotoni, tauoni, muoni, elettroni con i rispettivi neutrini (e le rispettive antiparticelle) ed una piccola quantità di protoni e neutroni (inizialmente in egual numero), residuo dell'era precedente.
Man mano che la temperatura scende i leptoni più pesanti (tauoni e muoni) decadono nel leptone più leggero (l'elettrone). I neutrini tauonici e muonici invece si conservano e dovrebbero essere presenti ancor oggi in numero enorme nell'universo (qualche centinaio/cm3).
Durante l'era leptonica è previsto il disaccoppiamento dei neutrini dal fluido cosmico. Il momento del disaccoppiamento dei neutrini non è determinato in modo preciso poiché dipende dal tipo di interazioni che i neutrini producono con le altre particelle, non ancora completamente chiarito.

- Circa 10 s dopo il big bang, i fotoni non hanno più energia sufficiente per produrre coppie elettrone/positrone. Elettroni e positroni si annichilano producendo fotoni in numero enorme. Termina l'era leptonica ed inizia l'era fotonica.

 

Era fotonica     101 - 1011 s

Il piccolo numero di elettroni che sopravvive è pari al numero di protoni sopravvissuto nell'era adronica (nell'ipotesi che la carica elettrica totale dell'universo, una grandezza che si conserva, fosse inizialmente nulla).

Durante i primi minuti dell'era fotonica si situa il periodo della nucleosintesi, durante il quale protoni e neutroni trovano le condizioni per fondersi formando in prevalenza He, tracce di Deuterio, Litio e Berillio.
Sopra i 1010 °K (tempo cosmico 10 s) protoni e neutroni sono mantenuti in equilibrio termodinamico dall'interazione debole, attraverso processi di decadimento del tipo

Le reazioni di interconversione tra protoni e neutroni diminuiscono drasticamente sotto i 1010 °K sia perché l'interazione debole diventa meno efficace a tali temperature (la velocità delle reazioni diventano minori della velocità di espansione) sia perché gli elettroni e i positroni necessari per tali reazioni si sono annichiliti nell'era precedente.

Da questo momento in poi l'unico processo che interessa l'equilibrio protoni/neutroni è il decadimento beta che fa decadere i neutroni isolati.

I neutroni isolati non sono infatti stabili e decadono in un tempo medio di circa 16 minuti (103 s). Il loro tempo di dimezzamento è di circa 11 minuti.

Il decadimento radioattivo presenta sempre una cinetica di primo ordine. Manifestano una cinetica di primo ordine quelle reazioni in cui la velocità è direttamente proporzionale alla concentrazione di un solo reagente, secondo una legge del tipo v = k[A]. Nel caso del decadimento radioattivo la velocità di decadimento è direttamente proporzionale al numero di N di atomi presenti v = lN. è la costante di velocità specifica che prende qui il nome di costante di decadimento radioattivo. misura la velocità di reazione unitaria (del singolo atomo in questo caso) e rappresenta pertanto la probabilità che un atomo decada nell'unità di tempo.
Più spesso viene utilizzata la relazione di velocità integrata che mette in funzione la concentrazione con il tempo di reazione t. Essendo infatti la velocità istantanea pari alla derivata della concentrazione rispetto al tempo

dove il segno meno è dovuto al fatto che in tal caso la velocità si esprime in funzione del numero di atomi N, decrescente col tempo, potremo scrivere

e riordinando

Integrando entrambi i membri si ha infine


Se ora indichiamo con
No = il numero iniziale di atomi al tempo t = 0
Nt = il numero di atomi residui al tempo t

La costante di integrazione si fissa ponendo l’istante iniziale pari a zero. Per t = 0 si ha quindi  
Il numero di atomi residui al tempo t sarà dunque


o, passando alla relazione esponenziale,

Per i processi di decadimento radioattivo si calcola generalmente il tempo di dimezzamento, cioè il tempo necessario affinchè il numero iniziale No di atomi si riduca ad una quantità Nt = No/2. Si avrà pertanto




Il reciproco di rappresenta la vita media di un atomo

Se infatti la probabilità che un atomo decada nell’unità di tempo è di 1/100, ciò significa che mediamente decade 1 atomo ogni 100 secondi. Possiamo allora affermare che mediamente ogni atomo sopravvive 100 secondi prima di decadere.
Osservando infine che

è possibile esprimere la vita media di un atomo radioattivo in funzione del suo tempo di dimezzamento

In realtà i neutroni riescono a salvarsi dalla completa distruzione perché dopo 3-4 minuti (102 s) l'universo raggiunge una temperatura di 109 °K, sufficientemente bassa perché il deuterio che si forma dalla fusione di un protone con un neutrone sia stabile e non venga subito distrutto (come avviene a temperature più elevate) dall'urto con particelle troppo energetiche.

Sulla base della velocità di decadimento dei neutroni è possibile stimare che durante il periodo di nucleosintesi  il rapporto neutroni/protoni doveva essere pari a  1/7.

Esistono dunque 2 neutroni ogni 14 protoni. Questi si salvano dalla completa distruzione formando deuterio e poi, molto rapidamente, elio. Poiché un nucleo di elio è formato da 2 protoni e da due neutroni, per ogni nucleo di elio che si forma rimangono altri 12 protoni (nuclei di idrogeno).
Si calcola dunque che il rapporto He/H che si forma deve essere 1/12 in numero e, poiché l'elio pesa praticamente 4 volte un atomo di idrogeno, 4/12 = 1/3 = 25/75 in peso (per ogni 100 g di materia vi sono 25 g di He e 75 g di H).

Attraverso considerazioni analoghe si può prevedere che debba alla fine sopravvivere 1 atomo di deuterio ogni 104-105 atomi di idrogeno. Quando dopo qualche minuto la temperatura scende  sotto  i  5 108 °K la nucleosintesi termina senza che si siano potuti formare elementi più pesanti degli isotopi dell'Idrogeno, dell'Elio, del Litio e del Berillio .

In generale le quantità dei diversi elementi leggeri formatisi durante la nucleosintesi, calcolati per via teorica, trovano buone conferme nelle misure odierne delle abbondanze degli elementi chimici nell'universo e costituiscono pertanto una delle migliori conferme sperimentali del modello del Big Bang.

Le abbondanze relative calcolate dipendono in realtà dal rapporto fotoni/adroni. I valori dati in precedenza sono stati calcolati per un rapporto fotoni/adroni pari a 109. Ad esempio se il rapporto fotoni/adroni scende da 109 a 107 l'Elio varia da un 25% ad un 29% in peso, mentre il deuterio diminuisce drasticamente sotto il valore di 1 atomo di deuterio ogni 1012 atomi di idrogeno (come abbiamo già detto in precedenza un minor numero di fotoni rende molto più efficienti le reazioni di fusione nucleare che trasformano deuterio in elio).

L’abbondanza di deuterio risulta essere la più sensibile alla variazione del rapporto fotoni/adroni e per questo motivo la misuro del deuterio cosmico è ritenuta di grande interesse come indicatore del rapporto fotoni/adroni nell'universo.
Poiché finora tutte le misure effettuate sull'abbondanza cosmica del deuterio hanno fornito valori intorno ad 1 atomo di deuterio per 104-105 atomi di idrogeno, gli astrofisici sono propensi a ritenere che il valore corretto del rapporto fotoni adroni debba essere proprio 109.
Tale valore pone inoltre anche un limite ben preciso alla quantità di materia barionica che oggi deve trovarsi nell’universo. Poiché infatti la densità fotonica attuale è misurabile con ottima approssimazione (412 fotoni/cm3), i barioni devono essere 109 volte meno numerosi, pari a circa 4 10-7 per cm3. Moltiplicando per la massa di un protone (1,67 10-24 g) otteniamo la densità barionica, espressa in grammi, compatibile con l'abbondanza misurata di Deuterio, pari a 6,9 10-31 g/cm3.

L'era fotonica termina assieme all'era della radiazione, convenzionalmente quando la densità di materia eguaglia e supera la densità di massa equivalente all'energia di radiazione al tempo cosmico 1011 s.

Deve dunque essere )


dividendo membro a membro  e ricordando che Poiché , si ottiene

Poiché la densità attuale di materia ( o = 1,88 10-29 h2 per  = 1) e la densità di massa equivalente alla radiazione (4,65 10-34 g/cm3) si possono misurare ed abbiamo già visto che il loro rapporto vale circa 104, se ne può dedurre che l'era della radiazione è terminata quando anche si ottiene un tempo dell'ordine di 1011 s.

 

Era della Materia    1011 - 1017 s

Quando la temperatura dell'universo scende a circa 103 oK (3-5000 oK)  il plasma di particelle che formava l'universo è sufficientemente freddo da poter dar vita ad un gas di atomi neutri. In precedenza i fotoni erano sufficientemente energetici da ionizzare immediatamente qualsiasi atomo neutro si formasse. Gli elettroni ed i nuclei si legano definitivamente attraverso un processo detto di ricombinazione
Possiamo calcolare che ciò dovrebbe avvenire intorno a 1013 s (circa 300.000 anni)

Gli elettroni perdono inoltre in tal modo la loro funzione di mantenere l'equilibrio termodinamico tra fotoni e materia. I fotoni si sganciano definitivamente dalla materia con la quale fino a quel momento scambiavano continuamente energia grazie alla mediazione degli elettroni. La separazione tra materia e radiazione è detta disaccoppiamento .
Durante il disaccoppiamento la materia libera i fotoni che d'ora in poi condurranno vita autonoma. Si usa descrivere il fenomeno dicendo che la materia diviene trasparente alla radiazione.
L'universo che fino a quel momento sarebbe apparso ad un ipotetico osservatore completamente privo di luce, si accende con un flash rossastro. Si libera in tal modo la radiazione di fondo che oggi noi misuriamo ad una temperatura di 2,728 oK  (con un’incertezza dello 0,03%  che corrisponde a un DT = 0,008 °K e quindi a 2,728  ± 0,004°K).

Dovendo essere  avremo che

Se ne deduce che il fondo a 3K si è formato quando l'universo aveva dimensioni mille volte inferiori alle attuali e presenta quindi z = 1000. Tale valore di red-shift costituisce quindi una specie di fotosfera cosmica dalla quale si è generata la radiazione di corpo nero che permea l’universo e rappresenta in definitiva una sorta di orizzonte ottico (o meglio elettromagnetico),  oltre il quale non possiamo fisicamente andare. Non possiamo cioè sperare di osservare radiazione proveniente da oggetti con z >1000 poiché ciò significherebbe osservare fotoni che non si erano ancora disaccoppiati.

Le fluttuazioni casuali di densità presenti in seno alla materia, non più disturbate ed annullate dai fotoni, sono ora libere di crescere sotto l'effetto della loro stessa gravità. Ma per quanto il processo avvenga rapidamente i calcoli mostrano che non vi è tempo sufficiente per arrivare da queste alla formazione delle galassie. Si tratta di un problema ancora irrisolto all'interno del modello del big bang.


Moti propri su grande scala

L’idea di un universo in espansione rappresentò negli anni ’30 un mutamento fondamentale nel modo di concepire l’universo, un cambio di paradigma per molti versi paragonabile alla rivoluzione copernicana. In modo analogo a quanto avvenne per l’ipotesi geocentrica, infatti, anche l’idea di un universo stazionario rimase fortemente radicata nella comunità scintifica fino ad un profondo cambio di prospettiva.
Ma la correlazione tra red-shift e distanza, che rappresenta la base osservativa su cui si fonda l’ipotesi di un universo in espansione, non è perfetta, soprattutto per le galassie più vicine. Se osserviamo un grafico V vs D (Velocità contro Distanza), troviamo che le galassie non si allineano perfettamente, ma presentano una certa dispersione intorno alla retta di regressione. Naturalmente ciò può essere una conseguenza dell’oggettiva difficoltà di misurare con precisione le distanze, ma può anche essere dovuto all’effettiva diversità di velocità delle galassie rispetto al valore atteso sulla base della semplice recessione cosmica, a causa del sovrapporsi di moti propri. In altre parole le galassie potrebbero non essere ferme rispetto allo spazio-tempo in espansione. L’eventuale presenza di rilevanti moti propri nelle galassie e nelle strutture di ordine superiore (ammassi e superammassi) sarebbe verosimilmente imputabile agli effetti gravitazionali  esercitati da grandi addensamenti di materia e permetterebbe quindi di valutare la distribuzione e la densità di materia su grande scala.
Si riteneva comunque che dovesse trattarsi di moti caratterizzati da modeste velocità se paragonate alla velocità di recessione. A.R. Sandage argomentava a questo proposito che, qualora moti propri con velocità di qualche centinaio di km/s in direzioni casuali fossero stati comuni, molte galassie vicine sarebbero affette da blu-shift.

 

Il sistema di riferimento cosmico: la radiazione di fondo

Lo studio delle velocità peculiari su grande scala iniziò solo negli anni ’70. Uno dei problemi fondamentali da risolvere era quello di individuare un opportuno sistema di riferimento che potesse essere considerato fermo rispetto allo spazio tempo, al quale riferire eventuali moti propri. Nel 1975 Vera C. Rubin, Norbert Thonnard e Kent Ford trovarono che la nostra galassia è animata da un moto proprio di circa 500 km/s, misurato rispetto ad un sistema di riferimento costituito da galassie lontane.

La Rubin aveva individuato sull’intera sfera celeste un campione di galassie a spirale particolari, di cui si riteneva nota e costante la luminosità intrinseca. Selezionando tra queste solo le galassie che presentavano la stessa luminosità apparente, si otteneva un insieme di oggetti i quali dovevano evidentemente trovarsi tutti alla medesima distanza. (circa un centinaio di megaparsec). A questo punto una qualsiasi differenza nei red-shift tra galassie situate in posizione opposta sulla sfera celeste poteva essere interpretato come conseguenza di un movimento reale della nostra galassia in quella direzione.

Naturalmente il metodo utilizzato dalla Rubin per costruire un sistema di riferimento cosmico rispetto al quale misurare un eventuale moto proprio della nostra galassia è molto delicato e si presta ad errori  che possono falsare pesantemente il risultato. Ma nel 1977 venne inaspettatamente trovato un sistema di riferimento molto più affidabile: la radiazione cosmica di fondo.
Studiando la distribuzione del fondo a 3 K venne infatti rilevata una lieve disomogeneità, detta anisotropia di dipolo. In altre parole si trovò che il fondo a 3 K risulta più caldo di circa 3/1000 di grado nella direzione delle costellazioni  Leone/Idra (blu-shift) e più freddo di una egual valore in direzione opposta (red-shift). Ciò può essere interpretato come un movimento assoluto della Terra rispetto allo spazio (il fondo a 3K fungerebbe in questo caso come un riferimento assoluto, una specie di neo-etere) verso un punto approssimativamente situato tra la costellazione del Leone e quella dell’Idra (a = 11h; d = -10°) con velocità di circa 330 km/s.

La variazione di temperatura DT = 0,003 °K, rapportata alla temperatura di 2,728 °K, fornisce una variazione relativa pari a DT/T = 0,0011. Tale variazione è, in valore assoluto, identica alla variazione relativa delle lunghezze d’onda misurate Dl/l = z (ricordiamo che per la legge di Wien la lunghezza d’onda di massima emissione di un corpo nero è inversamente proporzionale alla temperatura assoluta). La velocità del nostro sole rispetto alla radiazione di fondo risulta pertanto v = zc = 330 km/s.

Se teniamo però conto del moto della Terra intorno al Sole alla velocità di circa 30 km/s, possiamo facilmente calcolare la velocità dell’intero sistema solare rispetto alla radiazione di fondo. In modo analogo tenendo conto del movimento del Sole intorno al centro galattico (250 km/s) e della Galassia rispetto al centro di massa del Gruppo Locale (40 km/s verso la galassia di Andromeda), è possibile dedurre la velocità di quest’ultimo rispetto alla radiazione di fondo che risulta essere di circa 630 km/s (sempre in direzione Leone/Idra.

 

il Grande Attrattore

Una volta evidenziata l’esistenza di un movimento assoluto del Gruppo Locale attraverso lo spazio, il passo successivo era quello di individuare la causa di tale moto. Nel 1982 Aaronson, Huchra, Mould, Schechter e Tully, cercarono di verificare se fosse possibile giustificare almeno una parte del moto del Gruppo Locale con l’attrazione gravitazionale prodotta su di esso dall’ammasso di Galassie in Vergine. L’ammasso della Vergine è la componente maggiore, più vicina (circa 10 h-1 Mpc) e più massiccia del Superammasso Locale (superammasso al quale appartiene anche il Gruppo Locale), del quale è posta in posizione centrale.

In pratica si misura la distanza delle galassie nella direzione del centro del Superammasso Locale in modo indipendente dal loro redshift (non utilizzando cioè la relazione di Hubble, ma metodi alternativi, come la relazione di Tully-Fisher). Sulla base delle distanze così trovate si calcola la velocità di recessione che tali galassie dovrebbero presentare applicando la relazione di Hubble. Tale velocità viene infine confrontata con la velocità misurata in funzione dei loro redshifts (v = zc), naturalmente depurata del moto proprio del Gruppo Locale (o meglio della sua componente nella direzione del centro del Superammasso Locale). Sottraendo i due valori così trovati, il termine residuo rappresenta il moto proprio della galassia nella direzione del centro del Superammasso Locale.

Aaronson e collaboratori trovarono dunque che l’eccesso di massa presente al centro del Superammasso Locale sta frenando l’espansione cosmica. Le galassie poste tra noi ed il centro del Superammasso Locale presentano infatti una velocità di espansione maggiore di quella teorica, mentre quelle più distanti presentano una velocità di recessione inferiore a quella teorica. Le variazioni rispetto alla velocità di espansione teorica (che si avrebbe se le galassie fossero ferme rispetto allo spazio-tempo) si producono per il sovrapporsi di un moto proprio che le galassie presentano in direzione del centro del Superammasso Locale. Si ritiene che a tale moto di caduta verso il centro del Superammasso Locale partecipi anche il Gruppo Locale ad una velocità di circa 220 km/s. Tale moto d’altra parte avviene in una direzione che forma un angolo di circa 45° rispetto alla direzione del moto assoluto verso il punto in Idra/Leone.

Poiché dunque tale componente è in grado di giustificare solo in parte il moto proprio trovato per il Gruppo Locale è necessario ipotizzare che l’intero Superammasso Locale si stia muovendo di moto proprio, attratto da una qualche altra concentrazione di massa.
Ora, se si sottrae vettorialmente la velocità di 220 km/s in direzione del centro del Superammasso Locale alla velocità assolutà di 630 km/s del Gruppo Locale rispetto alla radiazione di fondo, si ottiene un vettore di circa 500 km/s che punta approssimativamente in direzione dell’ammasso in Idra/Centauro, il secondo per distanza dalla nostra galassia (circa 20 h-1 Mpc). Era pertanto naturale ipotizzare che tale ammasso fosse responsabile della seconda componente di velocità, necessaria per giustificare completamente il moto assoluto in direzione Idra/Leone.  L’unico problema era che per generare le velocità calcolate, l’ammasso in Idra/Centauro doveva possedere una massa circa 10 volte superiore a quella del SuperammassoLocale e comunque molto maggiore di quella desumibile dalla sua luminosità.
Tale ipotesi fu comunque sottoposta a verifica nel 1986 da David Burstein, Roger Davies, Sandra M.Faber, Donald Lynden-Bell, Roberto Terlevich, Gary A.Wegner e Alan Dressler, scherzosamente soprannominati dai colleghi “i sette samurai”.  Dopo aver applicato alle galassie poste in direzione Idra/Centauro metodi analoghi a quelli utilizzati da Aaronson ed aver determinato quanta parte del loro red-shift era dovuto all’espansione cosmica e quanta ai moti propri, i sette astronomi constatarono che in realtà anche l’ammasso in Idra/Centauro si stava muovendo nella stessa direzione del Superammasso Locale con una  velocità addirittura superiore. Nella stessa direzione si muove anche il Superammasso in Pavone, che si trova alla stessa distanza da noi dell’ammasso in Idra/Centauro, ma spostato di circa 50° sulla sfera celeste. Il moto del Superammasso Locale è quindi condiviso da altri superammassi che sembrano attirati da un’enorme concentrazione di massa, battezzata “Grande Attrattore”, che sembra situata oltre l’ammasso in Idra/Centauro in una direzione compresa tra la costellazione del Centauro e quella della Croce del Sud., verso un punto della sfera celeste la cui osservazione è resa ardua dalla presenza dei gas e delle polveri del disco galattico. Nonostante il Grande Attrattore non sia ancora stato direttamente osservato, si ritiene che esso sia situato ad una distanza di circa 40 h-1 Mpc. In corrispondenza a questa distanza infatti i moti propri delle galassie sembrano annullarsi, mentre per distanze superiori si presentano in senso opposto. Se costruiamo un diagramma di Hubble in direzione del grande attrattore troviamo che le galassie più vicine presentano sistematicamente Velocità superiori a quelle attese in relazione alla distanza e sulla semplice base del moto di espansione cosmica, mentre le galassie più distanti presentano velocità sistematicamente inferiori a quella di recessione. Il punto di flesso si presenta per una velocità di 4000 km/s, in corrispondenza della quale i moti propri sembrano annullarsi. A tale velocità corrisponde una distanza di 40 h-1 Mpc. Per produrre una simile attrazione gravitazionale ad una tale distanza sarebbe necessaria una massa circa 20 volte superiore a quella del Superammasso Locale, dell’ordine di 1016 -1017 masse solari. L’esistenza di tale enorme concentrazione di materia rimane pertanto un punto sul quale non vi è ancora accordo unanime. Tuttavia la coerenza dei moti propri di un numero enorme di galassie che ci circondano, rimane un fatto sorprendente e per larga parte assolutamente imprevedibile. E paradossalmente dunque il fatto di non osservare galassie affette da blu-shift, non rappresenta, come riteneva Sandage, una conferma della rarità e della modestia dei moti propri su larga scala, ma esattamente il contrario.

 

Per calcolare la velocità dell’ammasso della Vergine è necessario comporre vettorialmente le velocità. Essendo  ed in definitiva

 

 

 

 

 

 


L'origine delle galassie e la materia oscura

Oggi il problema del costituirsi delle grandi strutture gravitazionali (galassie, ammassi e superammassi) a partire dal plasma di particelle primordiali è tornato prepotentemente all'attenzione degli astrofisici. Si ritiene che le galassie si siano formate tra 100 milioni ed un miliardo di anni dal Big Bang, ma le modalità dei processi di aggregazione gravitazionale è a tutt’oggi oggetto di accesa discussione.

Attualmente la maggior parte dei modelli ipotizza che si siano formate per prime le strutture gravitazionali su piccola scala (galassie) e che, solo in seguito, queste si siano organizzate su scale via via superiori (ammassi e superammassi). Tale schema generale è detto “a salire” (bottom-up) ed è stato introdotto per la prima volta da Peebles alla fine degli anni ’60.

Lo schema opposto, in cui si formano prima le strutture gravitazionali più grandi (superammassi) che poi si frammentano su scale via via inferiori, è detto “a scendere” (top-down). Proposto inizialmente da Zel’dovich (modello a frittelle, con i superammassi che collassano a formare pancake) oggi riscuote poco successo.

 

Modelli a dominante barionica

I primi modelli si affidavano a fluttuazioni nella materia barionica le quali, raggiunta una certa densità, erano in grado di collassare gravitazionalmente.
Attualmente i modelli a sola componente barionica sono stati abbandonati, essenzialmente perché  hanno tutti il difetto di iniziare troppo tardi, dopo che la materia si è disaccoppiata con la radiazione. Prima che ciò avvenisse i fotoni, interagendo continuamente con la materia, dissipavano qualsiasi fluttuazione di densità barionica. Il plasma di protoni, neutroni ed elettroni di cui era costituito l'universo primordiale veniva infatti mantenuto omogeneo dalle interazioni con i fotoni che impedivano la crescita delle fluttuazioni di densità.
Così le perturbazioni primordiali rimasero per così dire congelate in seno alla materia ordinaria fino al momento del disaccoppiamento, senza aver poi il tempo di trasformarsi nelle strutture gravitazionali osservate.
I cosmologi cominciarono quindi a pensare che l'unico modo per ovviare a questi inconvenienti fosse ipotizzare l'esistenza di un qualche tipo di materia in grado di produrre fluttuazioni di densità molto precocemente nella storia dell'universo. Tale materia avrebbe dovuto evidentemente possedere la caratteristica di interagire con la radiazione in modo meno intenso di quanto non facciano i barioni, in modo da disaccoppiarsi in tempi precedenti.

 

Modelli a dominante neutrinica

I primi candidati a rappresentare tale materia sono stati i neutrini.
Essendo insensibili alla radiazione elettromagnetica ed interagendo solo debolmente con la materia le fluttuazioni di densità interne ai neutrini poterono dunque prodursi in tempi anteriori a quanto previsto per le fluttuazioni barioniche.
Naturalmente i modelli a dominante neutrinica prevedono che quando i barioni si disaccoppiarono dalla radiazione poterono essere attirati gravitazionalmente dagli addensamenti neutrinici.
Le simulazioni al computer effettuate su modelli a dominante neutrinica dimostrarono però che tali modelli producevano universi in cui la materia tendeva ad aggregarsi  in modo eccessivo a livello dei superammassi, lasciando lo spazio eccessivamente vuoto di materia alle scale minori, in modo assolutamente difforme rispetto a quanto osservato. I modelli a dominante neutrinica non erano ad esempio assolutamente in grado di giustificare il formarsi delle galassie sferoidali nane che si andavano scoprendo su piccole scale.
Modelli a materia oscura fredda
Quel che sembrava necessario era un tipo di materia che diventasse non relativistica (o come si definisce normalmente "fredda") ancora prima dei neutrini.
Si iniziò dunque a parlare di "materia oscura fredda", in contrapposizione alla "materia oscura calda", i cui prototipi erano naturalmente i neutrini relativistici.
Finora le prove di simulazione al computer fondate su universi dominati da materia oscura fredda offrono una buona approssimazione con i dati osservativi alle diverse scale.
Il problema fondamentale dei modelli a materia oscura fredda è che sono fondati  su particelle la cui esistenza è puramente teorica. Vi sono diversi tipi di particelle teoriche che presentano caratteristiche che le rendono adatte a rivestire il ruolo di materia oscura fredda. Ricordiamo gli assioni e i monopoli magnetici.
Alcune di queste particelle, come il monopolo, sono presi in considerazione perché oltre ad interagire debolmente con la materia diventano "fredde" e quindi lente molto precocemente perché possiedono masse piuttosto elevate. Questo tipo di particelle è oggi accomunato dalla sigla WIMP "weakly interactive massive particles" (particelle massive debolmente interagenti).

 

Le tracce fossili della nascita delle galassie

Legato alla formazione delle grandi strutture gravitazionali vi è infine un ultimo problema che sembra aver trovato soluzione solo recentemente.
Secondo i cosmologi infatti le fluttuazioni di densità nella materia primordiale devono aver lasciato qualche 'segno' sulla radiazione di fondo.

Nelle regioni in cui la materia iniziava ad addensarsi l'effetto gravitazionale avrebbe dovuto 'strappare' energia ai fotoni (red-shift gravitazionale) e la radiazione di fondo dovrebbe apparire in tali regioni relativamente fredda. Questa struttura a 'macchie termiche' dovrebbe essere inoltre sopravvissuta fino ai giorni nostri, divenendo una specie di fossile dei primi aggregati gravitazionali in via di formazione.
Ma fino a qualche anno fa il fondo a microonde appariva straordinariamente omogeneo, mettendo in qualche modo in discussione lo stesso modello cosmologico del Big Bang.
Solo nel 1992 i dati provenienti dal satellite COBE (Cosmic Background Explorer), lanciato verso la fine del 1989 dalla NASA, sembrano confermare l'esistenza di fluttuazioni di temperatura nel fondo a 3K pari a circa 30 milionesimi di kelvin. Trattandosi di valori al limite della sensibilità strumentale del COBE i dati sono tuttora oggetto di controverse interpretazioni.

 

La  materia oscura

L'esigenza di giustificare la formazione degli addensamenti gravitazionali primordiali al di fuori delle fluttuazioni barioniche è un elemento a favore della probabile esistenza di materia oscura non barionica.
Vi sono comunque diverse altre considerazioni che portano a ritenere che la materia barionica visibile non contribuisca che per una frazione minima alla massa totale dell'universo.

Storicamente il primo a postulare l'esistenza di una materia non luminosa, in seguito chiamata "materia oscura", fu Zwicky nel 1933. Analizzando le velocità reciproche delle singole galassie appartenenti all'ammasso in Coma (Chioma di Berenice), scoprì che le galassie si muovevano troppo velocemente per restare gravitazionalmente legate. In altre parole, se l'unica massa presente fosse stata quella calcolata sulla base della quantità di luce emessa dalle galassie, queste si sarebbero dovute separare già da molto tempo. L'unica spiegazione possibile secondo Zwicky era ipotizzare l'esistenza di una materia non luminosa e quindi non visibile, in grado di trattenere gravitazionalmente le galassie.
I dati più significativi e meglio documentati sull'esistenza della materia oscura ci vengono però dallo studio della velocità di rotazione delle galassie a spirale.
La materia luminosa in una galassia a spirale è concentrata in gran parte nel nucleo e va poi rarefacendosi man mano che ci spostiamo verso la periferia. In tali condizioni le galassie dovrebbero comportarsi come un sistema kepleriano, in modo del tutto analogo a quanto fa il sole con i suoi pianeti. Così la velocità degli oggetti galattici periferici (stelle, ammassi stellari, nebulose etc) dovrebbero decrescere all'aumentare della distanza dal nucleo galattico, secondo quanto previsto dalla terza legge di Keplero. In realtà si osservano velocità periferiche praticamente indipendenti dalla distanza dal centro. Il dato può essere facilmente spiegato se si ammette l'esistenza di una materia non luminosa la cui densità invece di decrescere rapidamente all'aumentare del raggio si riduce più lentamente in tutte le direzioni, formando un immenso alone sferico che si estende molto oltre i confini visibili della galassia.

Sostituendo nella terza di Keplero la velocità V al periodo di rivoluzione si ottiene

Se ipotizziamo che la maggior parte della massa sia concentrata nelle regioni centrali (molto luminose), possiamo allora ritenere che al crescere del raggio il secondo membro di tale relazione rimanga costante.

Al crescere del raggio la velocità di rivoluzione intorno al nucleo galattico dovrebbe pertanto decrescere drasticamente. I dati sulle velocità di rivoluzione di oggetti esterni all'orbita solare (nubi di CO, galassie satelliti, ammassi globulari) dimostrano invece che la velocità di rivoluzione rimane praticamente costante (pari a quella del sole) fino ad una distanza circa 10 volte superiore rispetto a quella che separa il sole dal centro galattico.

E' dunque evidente che affinché V (e quindi anche V2) rimanga costante al crescere del raggio R, è necessario che rimanga costante anche il rapporto M/R.

Ciò significa che la massa non può più essere considerata costante, ma il suo valore cresce proporzionalmente con il raggio (M R). Ciascun guscio sferico di spessore dR che si aggiunge ai precedenti, man mano che ci allontaniamo dal centro galattico deve contenere quindi la stessa massa. Inoltre, Poiché il volume di tale guscio cresce secondo il cubo del raggio, la densità della materia in ciascun guscio deve diminuire secondo il quadrato del raggio ( R-2).

La conseguenza di tale distribuzione di materia non emittente (o troppo debolmente emittente) è che in un raggio circa 10 volte superiore alla distanza sole - centro galattico deve essere contenuta 10 volte la materia contenuta nella porzione interna all'orbita solare.

La presenza di aloni di materia oscura è stata confermata dall'analisi delle curve di rotazione di altre galassie e dalla stima del rapporto M/L  per strutture gravitazionalmente legate come coppie di galassie, gruppi ed ammassi. L'applicazione del teorema del viriale a tali strutture sembra indicare che il rapporto M/L  tenda a crescere man mano che analizziamo strutture a scale più grandi.  Il suo valore passa infatti da 100-200h per coppie di galassie, a 200-300h per gruppi, fino a 300-400h per gli ammassi galattici. Il valore sembra poi stabilizzarsi a scale superiori (supercluster).

Se dunque accettiamo prudenzialmente un rapporto M/L  dell'ordine di 300h troviamo che la materia presente nell'universo rappresenta circa il 20 % di quella necessaria per chiuderlo (1400h).

 

 

Recentemente alcune osservazioni effettuate dal satellite Rosat (Röntgen Satellite), lanciato dalla NASA nel 1990, sembrerebbero confermare in modo eclatante l'esistenza della materia oscura. I suoi strumenti sensibili alla radiazione infrarossa hanno individuato una gigantesca nube di gas caldo, posta tra tre galassie a circa 150 milioni di anni luce. Poiché una nube così calda non può essere in alcun modo trattenuta gravitazionalmente dalla massa visibile delle tre galassie, essa sarebbe evaporata già da molto tempo se non fosse tenuta insieme dall'influenza gravitazionale di una quantità enorme di materia oscura .

 

E' stato così possibile stabilire che la materia oscura in grado di esercitare effetti gravitazionali misurabili sulle galassie e sugli ammassi di galassie dovrebbe essere circa 20 volte più abbondante della materia luminosa.
Tenendo presente che la materia luminosa rappresenta, secondo le stime odierne circa l'1% della massa necessaria per chiudere l'universo, se si prende in considerazione anche l'apporto della materia oscura si raggiunge un valore del parametro di densità W pari a circa 0,2.

La materia oscura rilevata tramite i suoi effetti gravitazionali  non dovrebbe comunque essere presente sotto forma di gas diffuso, poiché in questo caso si dovrebbero percepire evidenti effetti di assorbimento sulla luce che ci proviene dagli oggetti lontani, in misura tanto maggiore quanto più sono distanti.
Si ritiene invece che tale materia oscura possa essere presente sotto forma di pianeti delle dimensioni di giove, stelle morte (nane nere e buchi neri) ed altri corpi collassati costituiti da materia troppo debolmente emittente per essere osservata.

Abbiamo già visto che questo ed altri problemi connessi al modello standard del big bang  sono stati in parte risolti con l'introduzione del modello inflazionario. Ma il modello inflazionario prevede che oggi W sia proprio pari ad 1.
Finora siamo dunque  riusciti a portare il parametro di densità a valori intorno a 0,2 (materia luminosa + materia oscura che manifesta effetti gravitazionali). Attualmente vi è la convinzione diffusa che il rimanente 0,8 che manca all'appello per chiudere l'universo (per portare ad 1) debba essere costituito da materia non barionica (materia esotica).

 

 

Il ragionamento nelle sue linee essenziali è il seguente:

1)  l'inflation dimostra che  deve essere uguale ad 1 e che quindi la densità effettiva deve essere uguale alla densità critica

2)  L'abbondanza di He e deuterio attualmente osservata  risulta compatibile solo con un rapporto fotoni/barioni pari  a circa 109.

3) Poiché la densità fotonica attuale è misurabile con ottima approssimazione (412 fotoni/cm3), possiamo agevolmente ricavare da essa la densità barionica corrispondente a 109.
Essa risulta pari a circa 4 10-7 barioni/cm3.
Moltiplicando per la massa di un protone (1,67 10-24 g) otteniamo la densità barionica, espressa in grammi, compatibile con l'abbondanza misurata di He e Deuterio, pari a 6,9 10-31 g/cm3.

4) Tale valore risulta essere da 1 (per h = 0,5) a 2 (per h = 1) ordini di grandezza inferiore della densità critica (c = 1,88 10-29 h2 g/cm3)

5) Se ne dovrebbe quindi dedurre che la massa mancante debba essere costituita da materia non barionica.


Appendice 1

 

Distanze in astronomia

 

Tra le grandezze relative ai corpi celesti le distanze sono sicuramente le più difficili da misurare.
Possiamo suddividere i metodi di misura in primari (o diretti) e secondari (o indiretti).
I metodi primari sono quelli che permettono una misurazione diretta della distanza, in genere utilizzando procedure di tipo geometrico o cinematico, e che consentono una successiva taratura dei metodi secondari che su di essi si appoggiano.

Metodi primari

 

Distanze fino a qualche decina di UA (interplanetarie)

Metodi trigonometrici, Periodi di rivoluzione e Radio-echi

 

Metodi trigonometrici: Parallassi diurne e Massima elongazione
Il termine parallasse indica lo spostamento apparente di due punti situati a distanza diversa dall'osservatore quando quest'ultimo si sposta lungo una retta trasversale alla linea di osservazione.
La distanza tra i due punti di osservazione è detta base parallattica. Lo spostamento parallattico sarà tanto più evidente quanto maggiore è la base parallattica e/o quanto più vicino è l'oggetto all'osservatore. L'angolo compreso tra le due visuali è detto angolo parallattico o parallasse.

Per ottenere uno spostamento parallattico di un corpo appartenente al nostro sistema planetario (pianeta, satellite, asteroide etc) rispetto allo sfondo delle stelle fisse è necessaria una base parallattica sufficientemente estesa, ad esempio il diametro terrestre.  Per utilizzare il diametro terrestre come base parallattica è sufficiente eseguire 2 osservazioni a distanza di circa 12 ore, aspettando che la terra compia mezzo giro intorno al suo asse. La metà dell'angolo compreso tra le due visuali è detto parallasse diurna (o orizzontale).
In pratica si registra la posizione del pianeta P al momento in cui sorge e in cui tramonta (quando cioè si trova all’orizzonte), determinando in tal modo l’angolo 2a.

si determina quindi la distanza in funzione del raggio terrestre R. Infatti per le regole della trigonometria deve essere  .
Ad esempio sapendo che la parallasse media della luna è di circa 0,95°, si trova per essa una distanza pari a circa 60 raggi terrestri

Per corpi celesti che orbitano intorno al sole su orbite interne a quella terrestre è possibile determinare la massima distanza angolare (elongazione massima) del corpo rispetto al sole. Quando infatti osserviamo un pianeta interno (Mercurio, Venere) alla sua massima elongazione, la visuale è tangente all’orbita del pianeta e quindi perpendicolare alla direzione Pianeta-Sole.  In queste condizioni, per le regole della trigonometria,  il rapporto tra la distanza Pianeta-Sole (DP) e la distanza Terra-Sole (DT) deve essere pari al seno dell’elongazione massima emax.

Così, ad esempio, sapendo che l’elongazione massima di Venere è circa 46,5°, possiamo determinare la sua distanza dal sole in Unità astronomiche come

Periodi di rivoluzione (Terza legge di Keplero)
La terza legge di Keplero afferma che il quadrato del periodo di rivoluzione di un pianeta è direttamente proporzionali al cubo della sua distanza media (semiasse maggiore a dell’orbita ellittica) dal sole.

Ovviamente la legge vale per qualsiasi corpo celeste in orbita intorno al sole (ad esempio una cometa). Poichè tutti i corpi celesti in orbita intorno al nostro sole possiedono una massa trascurabile rispetto alla massa solare, possiamo scrivere . Se poi misuriamo il semiasse maggiore a dell’orbita in UA, il periodo P in anni terrestri e le masse in unità solari, la relazione diventa

La misura del tempo di rivoluzione (in anni) di un corpo celeste intorno al sole ci permette dunque di calcolare la sua distanza media dal sole in unità astronomiche. Ad esempio, sapendo che Giove impiega 11,86 anni terrestri a compiere una rivoluzione intorno al sole possiamo determinare la sua distanza che risulta essere pari a

Radio-Echi
E’ possibile determinare la distanza di un corpo celeste inviando sulla sua superficie un fascio di onde elettromagnetiche e misurando il tempo necessario affinché queste vengano riflesse e ritornino sulla terra. Essendo c la velocità della luce e 2t il tempo di andata e ritorno la distanza sarà pari a d = ct.
In realtà, poiché la terra si muove intorno al sole durante il periodo di misurazione, la formula per il calcolo della distanza dovrà tenerne conto e sarà pertanto più complessa.
Affinché la radiazione non venga diffusa e quindi si disperda è necessario utilizzare una lunghezza d’onda più grande delle asperità presenti sulla superficie riflettente. Per i pianeti si usano lunghezze d’onda dell’ordine del metro.

 

Distanze fino a qualche centinaio di parsec

Parallassi annue e Parallassi di gruppo

Parallassi annue
Eseguendo due osservazioni di una stella relativamente vicina a distanza di 6 mesi, è possibile individuare una sua oscillazione rispetto allo sfondo delle stelle fisse.  In 12 mesi le stelle più vicine sembrano infatti percorrere un ellisse sullo sfondo delle stelle più lontane (fisse). Tale ellisse non è altro che la proiezione dell'orbita della terra sulla sfera celeste. L'angolo 2 sotto il quale noi osserviamo l'asse maggiore di tale ellisse apparente è lo stesso sotto cui un osservatore posto sulla stella osserverebbe l'asse maggiore dell'orbita terrestre. La metà di tale angolo, pari ad , è detto parallasse annua della stella. Tale angolo permette la misura della distanza d della stella (o del pianeta in caso di parallasse diurna). Ricordando infatti che in un triangolo rettangolo il rapporto tra le misure dei cateti è pari alla tangente dell'angolo opposto al primo cateto, potremo scrivere:

Naturalmente lo spostamento apparente e il conseguente valore della parallasse risulterà tanto maggiore quanto più la stella è vicina alla terra, mentre diminuirà, al punto da non essere più misurabile per stelle molto distanti. Quando la parallasse annua di una stella è di 1" (1/3600 di grado), la relazione precedente fornisce una distanza di

Una stella dista quindi 1 parsec dalla terra quando misuriamo per essa un angolo di parallasse di 1 secondo di grado (1"). Nessuna stella, per quanto vicina, presenta una parallasse superiore al secondo di grado. La stella più vicina, Proxima Centauri (cielo australe), presenta una parallasse di 0,76" e quindi dista da noi 3,26/0,76 = 4,3 al.

Le prime determinazioni di una parallasse stellare annua si devono a Struve (1822 - Aquilae 0,181") e a  Bessel (1837 - 31 Cygni 0,314"). Attualmente i nostri strumenti non ci permettono di apprezzare angoli inferiori al centesimo di secondo ed è quindi impossibile determinare la parallasse di stelle la cui distanza sia superiore a 100 parsec (circa 300 al).

 

Parallassi di gruppo (o di ammasso)
Alcuni gruppi di stelle, gravitazionalmente legate all’interno della nostra galassia, si muovono sulla volta celeste in modo praticamente solidale, presentando quasi il medesimo moto proprio (m in arcsec/anno). Gli esempi più importanti si trovano tra gli ammassi aperti (gli ammassi delle Jadi e delle Pleiadi nel Toro).
Per questi gruppi di stelle è a volte possibile individuare anche il punto della sfera celeste (apice del moto) verso il quale sembrano convergere le singole stelle. Il movimento delle stelle sulla sfera celeste è rappresentato dalla velocità tangenziale (Vt), proiezione della velocità spaziale della stella (Vs) in direzione perpendicolare alla visuale e tangente alla sfera celeste.

Mentre i vettori Vs sono tutti praticamente paralleli tra di loro (tutte le stelle di un gruppo si stanno muovendo insieme nello spazio), è facile verificare che i vettori Vt, essendo tangenti ad un cerchio massimo, devono convergere verso un punto comune (i cerchi massimi si intersecano sempre), detto appunto apice del moto.

Si può dimostrare che l’angolo a compreso tra la visuale Terra-Ammasso e la direzione Terra-Apice è pari all’angolo compreso tra il vettore Velocità spaziale (Vs) ed il vettore Velocità radiale (Vr). Essendo poi , possiamo scrivere

e ricordando che la velocità radiale è legata al red-shift dalla relazione , si avrà

D’altra parte la velocità tangenziale è legata al moto proprio, dalla relazione che lega la velocità lineare alla velocità angolare (V = w R)

il coefficiente 4,74  è necessario per convertire l’unità di misura del moto proprio da arcsec/anno in rad/s e la distanza d da parsec in km, in modo che la velocità trasversale venga data in km/s.

dove, 206.265 è il numero di secondi di grado contenuti in un radiante (ed anche il numero di unità astronomiche contenute in un parsec) e 31.557.600 è il numero di secondi di tempo contenuti in un anno giuliano di 365,25 giorni. In definitiva si avrà

Eguagliando i due secondi membri ed esplicitando la distanza (espressa in parsec) avremo infine

Il metodo delle parallassi di gruppo permette di stimare distanze fino a qualche centinaio di parsec.

 

Metodi secondari

L’intervallo di distanza tra i 0,5 kpc (limite delle misurazioni dirette) e i 50 Mpc (limite al di sotto del quale la relazione di Hubble risulta poco affidabile) viene coperto da tutta una serie di metodi secondari che si basano in gran parte su indicatori di distanza.

Indicatori di distanza
Gli indicatori di distanza sono oggetti celesti di luminosità intrinseca L (o magnitudine assoluta M) nota. Vengono anche chiamati candele campione o candele standard.
Le parallassi ottenute tramite indicatori si dividono in due classi in relazione al criterio di calibrazione della funzione di luminosità: parallassi spettroscopiche e parallassi fotometriche. Con le prime si ricava la magnitudine in funzione delle caratteristiche dello spettro, con le seconde si riconosce per certe sue caratteristiche un oggetto celeste di luminosità nota o calcolabile (stelle variabili, novae, supernovae, ammassi globulari, regioni H II etc)
Una volta individuato un indicatore di distanza è sufficiente misurarne la luminosità apparente l (o la magnitudine apparente m) perché sia calcolabile la distanza tramite le note relazioni fotometriche. Ricordando infatti che si avrà


Tenendo presente che attualmente i nostri strumenti sono in grado di percepire oggetti fino ad un limite di luminosità m » 20, è possibile calcolare la massima distanza (in pc) entro la quale un indicatore di magnitudine M può essere individuato e quindi utilizzato, applicando la

 

Le distanze fino a qualche decina di Kiloparsec: Parallassi spettroscopiche e Parallassi dinamiche

Parallassi spettroscopiche
Il metodo si basa sulla possibilità di riconoscere il tipo spettrale di una stella e la classe di luminosità alla quale appartiene. In genere, noto il tipo spettrale, si risale alla luminosità misurando la larghezza delle righe di assorbimento (sistema MK).

Si è potuto notare che a parità di tipo spettrale le stelle presentano le righe di assorbimento del loro spettro più o meno allargate. Si ritiene che il fenomeno sia dovuto alla diversa pressione esercitata dal plasma che costituisce la stella. Maggiori sono le dimensioni stellari, più il plasma è rarefatto (la sua pressione è bassa) e più le righe spettrali si restringono.Una minor larghezza delle righe spettrali è dunque indice di maggiori dimensioni stellari e quindi, a parità di temperatura, di maggiore luminosità.

 

Parallassi dinamiche
Ad un sistema doppio visuale è possibile applicare la terza legge di Keplero

la quale, se misuriamo il semiasse maggiore a dell’orbita in UA, il periodo P in anni terrestri e le masse in unità solari, diventa

Se p è l’angolo (in secondi d’arco) sotto il quale vediamo il semiasse maggiore dell’orbita del sistema doppio, allora la sua distanza d in parsec si ottiene come

Poiché il periodo di rivoluzione è facilmente determinabile, il metodo può essere utilizzato solo se è possibile assegnare le masse alle due componenti stellari. Si tenga comunque presente che le stelle non presentano un intervallo di masse molto esteso. Inoltre, essendo la somma delle masse sotto radice cubica, un errore nell’assegnazione delle masse non incide in modo sostanziale sul risultato. Se le masse sono completamente sconosciute è possibile, al fine di stimare grossolanamente la distanza,  utilizzare un valore medio che per i sistemi doppi di stelle è .

 

Le distanze fino a qualche Megaparsec

 

Cefeidi, Regioni H II, Novae, Parallassi nebulari

Le Cefeidi
Sono stati i primi indicatori di distanza, introdotti in astronomia all’inizio del ‘900. Si tratta di stelle variabili in cui il periodo di variabilità è correlato alla magnitudine assoluta. Tra le diverse classi di Cefeidi si possono ricordare le Cefeidi classiche, le RR Lyrae e le W Virginis, che presentano le seguenti relazioni (con P in giorni)


Classiche                                     W Virginis                        RR Lyrae
Essendo il periodo massimo di una cefeide intorno ai 50 gg, la loro magnitudine massima risulta essere pari a circa -6. Esse possono essere pertanto utilizzate come indicatori fino a distanze dell’ordine dei 106 pc.

Le regioni H II
Quando nei bracci delle galassie a spirale si formano stelle molto calde (associazioni O-B), la regione gassosa circostante viene eccitata con formazione di una nebulosa in emissione (regione H II) la cui dimensione (Raggio di Strömgren) e luminosità dipendono dal tipo spettrale (e quindi dalla temperatura) della stella eccitante. Una volta individuato il tipo spettrale della stella eccitante è quindi possibile risalire alle caratteristiche della regione H II. Tali regioni possono essere utilizzate come indicatori di distanza sia utilizzando i valori di magnitudine assoluta, sia utilizzando i valori della loro estensione radiale (misurando la loro dimensione angolare apparente e risalendo alla loro distanza tramite le note relazioni trigonometriche)

Tipo spettrale

Magnitudine visuale

Temperatura Efficace

Raggio di Strömgren
(pc)

O5

-5,6

48.000

108

O6

-5,5

40.000

74

O7

-5,4

35.000

56

O8

-5,2

33.500

51

O9

-4,8

32.000

34

   O9.5

-4,6

31.000

29

B0

-4,4

30.000

23

   B0.5

-4,2

26.200

12

Le Novae
Le novae sono esplosioni stellari che si producono in sistemi doppi. Nel giro di 2-3 giorni la loro luminosità iniziale aumenta fino ad un massimo per poi ritornare lentamente al minimo. La magnitudine assoluta massima raggiunta da una nova può essere stimata ricorrendo alla seguente relazione
M = -11,75 + 2,5 log t
Dove t è il tempo in giorni che la nova impiega a diminuire di 3 gradi la sua magnitudine massima.
Mediamente t » 50 gg e la magnitudine assoluta media di una nova al massimo vale intorno a -7,5. 

 

Parallassi nebulari
Novae e supernovae generano degli involucri gassosi in rapida espansione radiale i quali, essendo eccitati dall’esplosione stellare che li ha generati, producono uno spettro in emissione.
Poiché una parte del gas in espansione si avvicina ed una parte si allontana rispetto all’osservatore ciascuna riga subisce contemporaneamente un red ed un blu-shift che la allarga. L’entità dell’allargamento delle righe permette ovviamente di calcolare la velocità v di espansione dell’involucro. Dopo un tempo t l’involucro gassoso presenterà un raggio R = vt (nell’ipotesi che la velocità sia rimasta costante). Se l’involucro gassoso viene visto dalla terra sotto un angolo 2a, la distanza d sarà pari a

Le distanze fino a qualche decina di Megaparsec

 

Ammassi globulari e Supergiganti estreme

L’ammasso globulare più luminoso di una galassia
Gli ammassi globulari di una galassia presentano una magnitudine assoluta media intorno a -7, con valori massimi intorno a -10. Ipotizzando quindi che l’ammasso globulare più luminoso di una galassia presenti magnitudine assoluta -10, possiamo stimarne la distanza
Le distanze raggiungibili in questo modo sono dell’ordine dei 107 pc

La stella più luminosa di una galassia
Le stelle più luminose che conosciamo, sono le cosiddette Ipergiganti o supergiganti estreme, appartenenti alla classe di luminosità 0 (zero), tutte con magnitudine intorno a -9, indipendentemente dal tipo spettrale. Ipotizzando che la stella più brillante di una galassia sia una ipergigante se ne può stimare la distanza.

Le distanze fino a qualche centinaio di Megaparsec

 

Tully-Fisher e Supernovae

Relazione di Tully-Fisher: la larghezza della riga di 21 cm
Nel 1977 Tully e Fisher hanno dimostrato che esiste una relazione tra la magnitudine assoluta di una galassia a spirale e la velocità di rotazione della galassia, determinata misurando la larghezza della riga a 21 cm dell’idrogeno neutro che popola le sue spire.
L   = 180 V4
Con V in Km/s ed L   in unità di luminosità solare L .
La base fisica di tale relazione riposa sul fatto che la luminosità di una galassia è proporzionale da una parte al numero di stelle che la compone e quindi alla sua massa (L µ M) e dall’altra alle dimensioni della galassia e quindi all’entità della sua superficie emittente (L µ R2).
Essendo la galassia un sistema rotante in equilibrio dinamico possiamo eguagliare forza centrifuga e forza centripeta

ed esplicitare la massa, ottenendo così la nota relazione del viriale

che, espressa in masse solari, diventa

dove M = 2 1033 g

Assumendo ora per le galassie a spirali un rapporto M/L costante e pari a (in unità solari), sostituendo si ottiene

Si assuma infine come brillanza superficiale media di una galassia il valore ) per il raggio medio al quadrato (R = 50.000 al). In tal modo la relazione tra luminosità assoluta e raggio può essere scritta

che, sostituita nella relazione precedente, fornisce

e in definitiva

Si noti come, se V è in Km/s, sia necessario introdurre un coefficiente 105 per trasformare la velocità in cm/s e renderla così omogenea con le altre grandezze. Avremo perciò

Per trasformare la luminosità assoluta in magnitudine assoluta, scriviamo la relazione di Pogson

dove
MG =Magnitudine assoluta della galassia
MS = Magnitudine assoluta del sole = 4,8
LG = Luminosità assoluta della galassia in unità solari
L = Luminosità assoluta del sole in unità solari = 1

da cui

e quindi

In definitiva la magnitudine assoluta della galassia viene ad essere legata alla sua velocità di rotazione. Quest’ultima può essere stimata misurando l’allargamento della riga a 21 cm dell’idrogeno neutro. Infatti la radiazione proveniente dal lato della galassia che si allontana è affetta da un red-shift, mentre la radiazione proveniente dal lato della galassia che si avvicina presenta un blu-shift. Il risultato è che tutte le righe spettrali risultano contemporaneamente spostate di un’egual percentuale sia verso destra che verso sinistra e quindi allargate in misura tanto maggiore quanto maggiore è la velocità di rotazione della galassia.
I moderni telescopi sono in grado di misurare la larghezza della riga di 21 cm fino a circa 100 Mpc.

Le supernovae
Le supernovae sono esplosioni stellari di enorme potenza. Si dividono in supernovae di tipo I (suddivise in Ia e Ib) e tipo II. Le supernove di tipo II e di tipo Ib presentano una magnitudine assoluta al massimo intorno a -18, mentre le supernove di tipo Ia raggiungono al massimo i -20.
Con queste candele standard si raggiungono distanze dell’ordine dei 108 -109 pc.

 

Le distanze fino a qualche migliaio di Megaparsec

Galassie più luminose, Lenti gravitazionali e Legge di Hubble

 

Si tenga presente che attualmente la porzione di universo osservabile (distanza-orizzonte) ha proprio questo ordine di grandezza che, per un universo euclideo, vale

dove h è un fattore di incertezza sul valore della costante di Hubble

La galassia più luminosa di una ammasso di galassie
Si è statisticamente rilevato che le galassie più luminose di un ammasso di galassie sono in genere delle ellittiche giganti con magnitudine assoluta intorno a -23. Le distanze stimate in questo modo sono dell’ordine di 109 pc

Le lenti gravitazionali
La relatività generale prevede che la radiazione elettromagnetica venga deflessa passando accanto ad una forte concentrazione di massa. In questo modo la luce proveniente da oggetti molto distanti (quasar ad esempio), può essere deflessa da un oggetto massiccio (ad esempio una galassia o un ammasso di galassie) interposto sulla nostra linea di vista e concentrata verso di noi con un meccanismo analogo a quello di una lente. L’effetto “lente gravitazionale” è già stato osservato sotto forma di immagini multiple di quasar lontani.

Se l’oggetto interposto G non è perfettamente allineato (condizione d’altra parte maggiormente probabile) si formano due immagini (Q1 e Q2) del quasar Q disposte sulla sfera celeste in modo non simmetrico (a1 ¹ a2) rispetto a G. Ciò comporta che i raggi luminosi che formano le due immagini sdoppiate compiono un percorso di lunghezza diversa (d1 >  d2) per giungere sino a noi.
La relatività generale permette di calcolare la differenza di percorso in termini relativi ().
Supponiamo ad esempio di trovare che d1 risulta essere di un miliardesimo più lungo di d2   e di osservare un aumento di luminosità nell’immagine Q2 che si ripeta identico dopo 3 anni nell’immagine Q1. Possiamo allora dedurre che la differenza di percorso (d1 - d2) deve essere pari a 3 anni-luce. Essendo poi la differenza tra i due tragitti molto piccola possiamo porre d » d1 » d2 e scrivere pertanto

e quindi

trovando così che la distanza d del quasar è di 3 miliardi di anni-luce.

 

 

Legge di Hubble
Nel 1929 Hubble giunse a definire una relazione che legava la distanza delle galassie all'entità del loro red-shift z e quindi, essendo z = v/c, alla loro velocità di allontanamento.
v =  H D

dove v è la velocità di allontanamento in km/s, D è la distanza in megaparsec (Mpc) e H è una costante di proporzionalità, detta costante di Hubble, alla quale si dà oggi (Ho) un valore compreso tra 50 e 100  km s-1 Mpc-1 (chilometri al secondo per megaparsec).
Introducendo il parametro di red-shift 'z' ( dove z = Dl/l = v/c), la relazione diventa

zc = H D

In tal modo la misura del red-shift di ciascuna galassia diventa una misura, oltre che della sua velocità di recessione v, anche della sua distanza D. E' in questo modo che gli astronomi hanno calcolato la distanza degli oggetti celesti più remoti, come radiogalassie e quasar.
Per tener conto dell'incertezza relativa al valore di Ho e per uniformare la trattazione si usa introdurre un parametro (fattore di Hubble) definito come

e quindi Ho vale   

Poichè il valore di Ho  è compreso tra 50 e 100 è evidente che h può assumere valori compresi tra 0,5 e 1. Così se vogliamo utilizzare la relazione di Hubble per determinare la distanza di oggetti lontani, dovremo scrivere

dove i valori di distanza vengono dati a meno di un fattore h-1. 

La relazione di Hubble è poco affidabile per distanze inferiori ai 50 Mpc, in quanto al di sotto di questo limite i movimenti locali (velocità peculiari » 103 km/s) sono dello stesso ordine di grandezza del moto di recessione. Per distanze inferiori a 50 Mpc la velocità di recessione è infatti v < 5000h km/s.


 

Appendice 2

il concetto di distanza nell’universo

 

La relazione di Hubble  fornisce dei valori di distanza del cui significato è necessario discutere.
Red-shift Doppler e Red-shift cosmologico
In primo luogo tale relazione è stata ottenuta interpretando il red-shift come dovuto ad effetto Doppler ed utilizzando per la determinazione di z un approccio classico

Come è noto, qualora la velocità di recessione sia molto elevata (velocità relativistiche con z > 0,01), è necessario utilizzare la relazione relativistica

con la quale la relazione di Hubble diventa

Ma attualmente i red-shift delle galassie sono più propriamente interpretati come dovuti all’espansione dell’universo. Così se l'universo raddoppia le sue dimensioni, non solo tutte le distanze tra corpi celesti, ma anche tutte le lunghezze d'onda della radiazione elettromagnetica vengono raddoppiate. Si parla in questo caso di red-shift cosmologico.


 
Se ad esempio Re è il raggio dell'universo al momento in cui viene emessa una radiazione di lunghezza d'onda e, la lunghezza d'onda o percepita ora (raggio attuale Ro) soddisfa la seguente relazione
 

 

Si può allora dimostrare che, in un universo euclideo in cui la somma dell’energia cinetica e dell’energia potenziale è zero. il rapporto tra la velocità attuale di recessione dell’oggetto osservato e la velocità della luce è legato a z dalla

mediante la quale la relazione di Hubble diventa

Le tre relazioni così trovate forniscono valori di distanza accettabilmente vicini per z piccoli, ma progressivamente divergenti per z grandi.
Confrontiamo ad esempio i valori generati con z = 0,05 e z = 5.

Per z = 0,05  
  
    

Per z = 5  

    

Si noti come nel caso di una interpretazione cosmologica del red-shift vengano accettate velocità di recessione dei corpi celesti superiori alla velocità della luce. Nel caso appena riportato, ad esempio, per un valore di z = 5 si ottiene una velocità pari a

Tale risultato non viene considerato in contraddizione con i principi della relatività speciale, in quanto il moto di recessione delle galassie non avviene attraverso lo spazio, ma con lo spazio. In altre parole la velocità di recessione che noi misuriamo non rappresenta lo spazio percorso da un oggetto nell’unità di tempo, ma una variazione della distanza da percorrere nell’unità di tempo. E’ lo spazio interposto tra gli oggetti celesti che si dilata, mentre questi rimangono fermi rispetto ad esso. E nella teoria della relatività non esiste alcuna limitazione teorica alla velocità con cui lo spazio-tempo può dilatarsi.

Distanza attuale e Distanza di emissione
In un universo in espansione in cui la radiazione elettromagnetica viaggia ad un velocità finita e costante (c » 300.000 km/s) il termine distanza non ha un significato univoco.
La luce che percepiamo in questo momento, proveniente da un oggetto celeste lontano, è partita quando l’oggetto emittente era più vicino a noi di quanto non sia ora. Possiamo pertanto distinguere una distanza attuale Do (la distanza che l’oggetto possiede al momento in cui percepiamo la sua luce) ed una distanza di emissione De (la distanza che l’oggetto possedeva al momento in cui ha emesso la luce che ora percepiamo).
Il valore di queste distanze dipende ovviamente dal ritmo con cui l’universo si è espanso e si sta espandendo. In un universo euclideo l’equazione che descrive il moto di espansione è del tipo

dove t è il tempo di espansione ed R, spesso detto Raggio dell’universo, è più propriamente un fattore di scala. Il valore della costante di Hubble H è legato al tempo (in effetti H è impropriamente definita una costante)  dalla

Se dunque accettiamo una interpretazione cosmologica del red-shift allora, essendo  e quindi

Che ci permette di calcolare la distanza  De di un oggetto celeste  di cui conosciamo il red-shift z, al tempo te di emissione.
Ad esempio per un oggetto con z = 5 per il quale avevamo calcolato una distanza attuale pari a , si può determinare una distanza al tempo di emissione (z + 1) = (5 + 1) = 6 volte inferiore

 

Distanza percorsa dalla luce
La radiazione luminosa deve aver percorso un cammino intermedio Dg tra la distanza di emissione e la distanza attuale, poiché il suo percorso è andato progressivamente allungandosi, a causa dell’espansione dell’universo, dal valore iniziale De al valore finale Do.
La distanza effettivamente percorsa dal raggio luminoso per giungere sino a noi si ottiene moltiplicando la velocità della luce per il tempo impiegato a raggiungerci dal momento di emissione al momento di ricezione (to-te), dove

Ricaviamoci ora il valore della costante di Hubble al momento di emissione (He) in funzione del suo valore attuale (Ho).
essendo allora
 
essendo inoltre  allora

Possiamo allora calcolare il tempo di emissione in funzione di z

e la distanza effettivamente percorsa dalla luce sarà pertanto
 

Ad esempio per un oggetto con z = 5 per il quale avevamo calcolato in precedenza una distanza attuale pari a , si può determinare una distanza percorsa dalla luce pari a

 

Confronto tra Distanza attuale (Do) e Distanza di emissione (De)
Le attuali teorie cosmologiche dimostrano che la radiazione elettromagnetica si è separata dalla materia (disaccoppiamento) ed ha iniziato a propagarsi in modo autonomo e percepibile quando l’universo aveva delle dimensioni circa 1000 volte inferiori a quelle attuali. Come conseguenza di ciò possiamo scrivere

In altre parole non è possibile registrare radiazione con z > 1.000.
Il valore di z più elevato finora registrato si aggira intorno a 5 ed è facile verificare che all’aumentare del valore di z aumenta progressivamente la distanza che attualmente ci separa dal corpo emittente.

Non possiamo però fare la stessa affermazione per la distanza di emissione, la quale cresce fino a raggiungere un massimo per z = 1,25  per poi decrescere  progressivamente.

Il valore si determina ponendo uguale a zero la derivata prima della funzione che lega la distanza di emissione a z

e risolvendo rispetto a z.

Per z = 1,25 la distanza di emissione assume dunque un valore massimo pari a

Se ora calcoliamo la velocità ve posseduta dall’oggetto emittente al momento dell’emissione te

possiamo osservare come

per z = 1,25     ve = c                          per z > 1,25     ve > c                          per z < 1,25     ve < c

 

z

z   Doppler

 z     Cosmologico

D
Classico
( h-1 Mpc)

D
Relativistico
( h-1 Mpc)

Do  
attuale
( h-1 Mpc)

Dg
percorsa
( h-1 Mpc)

De
originaria
( h-1 Mpc)

0

0

0

0

0

0

0,001

3

2,998

2,998

2,996

2,995

0,01

30

29,85

29,78

29,63

29,48

0,1

300

285

279

266

254

1

3000

1800

1757

1293

879

1,25

3750

2010

2000

1407

889

1,5

4500

2172

2205

1494

882

2

6000

2400

2536

1615

845

3

9000

2647

3000

1750

750

4

12000

2769

3317

1821

663

5

15000

2838

3551

1864

592

10

30000

2951

4191

1945

381

100

3 105

2999

5403

1998

53

1000

3 106

2999,9

5810

1999,9

5,8

¥

¥

3000

6000

2000

0

 

 

z

Doppler

Cosmologico

 

v/c
classico

v/c
relativistico

vo/c

ve/c

0

0

0

0

0

0,001

0,001

0,001

0,001

0,001

0,01

0,01

0,01

0,01

0,01

0,1

0,1

0,095

0,093

0,097

1

1

0,6

0,59

0,83

1,25

1,25

0,67

2/3

1

1,5

1,5

0,72

0,74

1,2

2

2

0,8

0,85

1,5

3

3

0,88

1

2

4

4

0,92

1,1

2,5

5

5

0,95

1,2

2,9

10

10

0,98

1,4

4,6

100

100

0,9998

1,8

18

1000

1000

0,999998

1,9

61

¥

¥

1

2

¥

 

La distanza di emissione presenta dunque un valore massimo (per z = 1,25), quando l’oggetto emittente si stava muovendo alla velocità della luce. Gli oggetti con velocità maggiore o minore della velocità della luce possedevano al tempo di emissione distanze progressivamente inferiori a . La massima distanza teoricamente raggiungibile (orizzonte) assume valori diversi in relazione al criterio di calcolo. È di 3000 h-1 Mpc se interpretiamo il red-shift come dovuto ad effetto Doppler, mentre in caso di red-shift cosmologico è di 6000 h-1 Mpc, ma la corrispondente distanza percorsa dalla luce (orizzonte cosmologico osservabile) è di 2000 h-1 Mpc.



Appendice 3 - Dati

 

1 joule  =  107 erg =  0,23900574 cal = 6,241506363 1018 eV
1 N = 105 dyn = 0,10197162 kg
1 C = 2,99792458 109 ues
1 anno tropico = 31.556.926 s (365d 5h 48m 46s)
1 anno sidereo = 31.558.150 s (365d 6h 9m 10s)
1 giorno siderale = 86.164 s (23h 56m 4s)
1 Unità Astronomica (UA) = 1,49597870 1013 cm = 1,49597870 1011 m = 1,49597870 108 km
1 anno luce (al) = 9,4605284 1017 cm = 9,4605284 1015 m = 9,4605284 1012 km
1 parsec (pc) = 3,0856776 1018 cm = 3,2616334 al
1 parsec cubico (pc3) = 2,938 1055 cm3 = 3,470 101 al3
1 megaparsec (Mpc) = 103 kiloparsec (kpc) = 106 parsec
1 megaparsec cubico (Mpc3) = 2,938 1073 cm3 = 3,470 1019 al3

Costante di Hubble (Ho) = 100 h km s-1 Mpc-1 = 3,24 10-18 h s-1
Tempo di Hubble  (Età massima dell’Universo) = 1/ Ho = 3,1 1017 h-1 s = 1010 h-1 anni
Età Universo euclideo = 2/(3 Ho) = 2,1 1017 h-1 s = 6,5 1010 h-1 anni
Orizzonte Universo euclideo (Raggio osservabile) = 2c/(3 Ho) = 2000 h-1 Mpc = 6,17 1027 h-1 cm
Luminosità media delle Galassie (
Densità numerica media delle galassie = 2 10-2 h3 Mpc-3 = 6,8 10-76 h3 cm-3
Radiazione isotropa di fondo = 2,728 ± 0,004 °K
Densità critica (rc) =1,879 10-29 h2 g cm-3 » 1,1 10-5 h2 barioni cm-3 = 11 h2 barioni m-3
Densità radiazione (rg) = 4,19 10-13 erg cm-3 = 4,66 10-34 g cm-3 = 412 fotoni cm-3
Entropia specifica Universo euclideo (h =  rg /rc = rapporto fotoni/barioni) = 3,68 107 h-2

Massa solare (M) = 1,9891 1033 g
Luminosità solare intrinseca (L) = 3,847 1033 erg/s  = 3.847 1026 watt (3.86 1028 lumen = 3.06 1027 candele)
Costante solare = 1,962 cal cm-2 min-1 = 1,368 106 erg cm-2 s-1 = 1,368 103 watt/m2  (1,37 105 lux )
Diametro solare (fotosfera) (D) = 1,392 106 km = 1,392 109 m = 1,392 1011 cm
Raggio solare (fotosfera) (R) = 6,96 105 km = 6,96 108 m = 6,96 1010 cm
Superficie solare (fotosfera) = 6,087 1012 km2 = 6,087 1018 m2 = 6,087 1022 cm2 
Potenza unitaria solare = 6.32 1010 erg cm-2 s-1 = 6.32 107 watt/m2 (5,04 108 nit)
Temperatura solare efficace (di corpo nero) T = 5778 °K
Emissione ottica del sole = 40%
Magnitudine solare assoluta =  visuale 4,789  -  bolometrica 4,734
Magnitudine solare apparente =  visuale -26,784  /  bolometrica -26,838 
Luminosità corrisp. a M = 0 (fuori atm.) visuale 3,171 1030 lumen = 2,523 1029 candele / bolom. 3,015 1035 erg/s
Luminosità corrisp. a m = 0 (fuori atm.)   visuale 2,65 10-6 lumen/m2 (lux) / bolometrica 2,52 10-5 erg/(s cm2)

Massa Terra = 5,975 1027 g
Massa Terra = 5,974 1027 g (valore derivato dal sistema di costanti astronomiche IAU(76)
Raggio terrestre equatoriale (a) = 6.378.388 m (Ellissoide internazionale o di Hayford)
Raggio terrestre polare (b) = 6.356.912 m (Ellissoide internazionale o di Hayford)
schiacciamento polare o ellissoidicità [(a-b)/a] = 1/298,0
Raggio di una sfera avente la stessa superficie della Terra = 6.371.228 m
Raggio di una sfera avente lo stesso volume della Terra = 6.371.221 m
Raggio terrestre equatoriale (a) = 6.378.137 m (valore raccomandato dall'Unione internazionale geofisica e geodesia)
Raggio terrestre equatoriale (a) = 6.356.140  5 m (Ellissoide astrogeodetico)
schiacciamento polare o ellissoidicità [(a-b)/a] = 1/298,257
Precessione generale anno 2000 =  - 50,291” per anno giuliano (365,25 giorni solari medi)
Distanza media Terra-Luna (da centro a centro) 3,844 108 m
Rapporto massa Luna/Terra  0,01230002

 

Fonte: http://rodomontano.altervista.org/downloads/Cosmologia.zip
sito web: http://rodomontano.altervista.org/

Autore del testo: non indicato nel documento di origine

 

Cosmologia

 

 

Visita la nostra pagina principale

 

Cosmologia

 

Termini d' uso e privacy

 

 

 

Cosmologia