Scarica file

annuncio pubblicitario
RECENSIONI ........................................................................................................................................................ 2
Michela Fontana MASSE E FORZE ...................................................................................................................... 5
L'UNO E IL TUTTO .............................................................................................................................................. 6
di Mariangela Ferrara del gruppo Mizar ............................................................................................................... 6
All'inizio d'un mondo-nuovo .................................................................................................................................. 9
Una novella ateologico-scientifica intorno alla Teoria delle
Superstringhe .......................................................................................................................................................... 9
Le corde di Witten ............................................................................................................................................... 10
Fisica e Macrocosmo: Cosmologia ...................................................................................................................... 10
INTRODUZIONE ........................................................................................................................................... 10
Alla ricerca di Dio ............................................................................................................................................ 18
Tratto dall'intervista "Riflessioni sulla cosmologia contemporanea" – ........................................................... 19
Paul Davies ....................................................................................................................................................... 19
Scienza e tecnica........................................................................................................................................... 19
BREVE CORSO DI ASTROFISICA ................................................................................................................... 20
Parte 1: le osservazioni cruciali ........................................................................................................................ 20
Il redshift delle galassie ............................................................................................................................... 20
......................................................................................................................................................................... 24
La distribuzione delle galassie ..................................................................................................................... 24
La radiazione cosmica di fondo .................................................................................................................... 25
L'abbondanza degli elementi leggeri ............................................................................................................ 26
Parte 2: rappresentazione ed evoluzione dell'Universo .................................................................................... 26
......................................................................................................................................................................... 26
Diagrammi spazio-temporali ........................................................................................................................ 26
......................................................................................................................................................................... 28
Distanza o distanze? ......................................................................................................................................... 28
Relazioni tra le distanze.................................................................................................................................... 29
......................................................................................................................................................................... 30
Il fattore di scala a(t)......................................................................................................................................... 30
......................................................................................................................................................................... 30
L'evoluzione dell'Universo ............................................................................................................................... 30
Parte 3: gli aspetti problematici ........................................................................................................................ 31
......................................................................................................................................................................... 31
La curvatura spaziale ................................................................................................................................... 31
......................................................................................................................................................................... 33
Il problema della piattezza e dell'età ........................................................................................................... 33
......................................................................................................................................................................... 34
La manipolazione dei diagrammi spazio-temporali ..................................................................................... 34
......................................................................................................................................................................... 39
Il problema dell'orizzonte ............................................................................................................................ 39
Parte 4: l'inflazione ........................................................................................................................................... 40
......................................................................................................................................................................... 42
Dettagli: le strutture su vasta scala e l'anisotropia ........................................................................................... 42
L' ABC delle distanze astronomiche .................................................................................................................... 45
A. la parallasse trigonometrica ......................................................................................................................... 45
......................................................................................................................................................................... 46
B. la parallasse di gruppo ................................................................................................................................. 46
......................................................................................................................................................................... 47
C. La parallasse secolare .................................................................................................................................. 47
......................................................................................................................................................................... 48
D. la parallasse statistica................................................................................................................................... 48
......................................................................................................................................................................... 48
1
E. distanza cinematica ...................................................................................................................................... 48
......................................................................................................................................................................... 49
F. la parallasse del diametro apparente............................................................................................................. 49
......................................................................................................................................................................... 49
G. distanza dell'eco luminosa ........................................................................................................................... 49
......................................................................................................................................................................... 50
H. stelle binarie visuali e spettroscopiche ........................................................................................................ 50
......................................................................................................................................................................... 50
I. il metodo di Baade-Wesselink ...................................................................................................................... 50
......................................................................................................................................................................... 50
J. binarie ad eclisse spettroscopiche ................................................................................................................. 50
K. metodo della fotosfera in espansione........................................................................................................... 51
......................................................................................................................................................................... 51
L. l'aggiustamento della sequenza principale ................................................................................................... 51
......................................................................................................................................................................... 51
M. la parallasse spettroscopica ......................................................................................................................... 51
......................................................................................................................................................................... 52
N. distanze delle RR lyrae ................................................................................................................................ 52
......................................................................................................................................................................... 52
O. distanze delle cefeidi ................................................................................................................................... 52
......................................................................................................................................................................... 53
P. la funzione di luminosità delle nebulose planetarie ..................................................................................... 53
......................................................................................................................................................................... 53
Q. le stelle più brillanti ..................................................................................................................................... 53
......................................................................................................................................................................... 53
R. i diametri delle più vaste regioni H II ......................................................................................................... 53
......................................................................................................................................................................... 54
S. le fluttuazioni della luminosità superficiale ................................................................................................. 54
......................................................................................................................................................................... 54
T. le supernovae di tipo Ia ............................................................................................................................... 54
......................................................................................................................................................................... 54
U. la relazione di Tully-Fisher.......................................................................................................................... 54
......................................................................................................................................................................... 55
V. la relazione di Faber-Jackson ...................................................................................................................... 55
......................................................................................................................................................................... 55
W. la galassia più luminosa degli ammassi ...................................................................................................... 55
......................................................................................................................................................................... 55
X. il ritardo temporale nelle lenti gravitazionali .............................................................................................. 55
......................................................................................................................................................................... 56
Y. l'effetto Sunyaev-Zeldovich......................................................................................................................... 56
Z. la legge di Hubble ........................................................................................................................................ 57
L'età dell'Universo ................................................................................................................................................ 57
......................................................................................................................................................................... 57
L'età degli elementi chimici ............................................................................................................................. 57
..................................................................................................................................................................... 59
La datazione radioattiva di stelle antiche ..................................................................................................... 59
......................................................................................................................................................................... 59
L'età dei più antichi ammassi stellari ............................................................................................................... 59
......................................................................................................................................................................... 59
L'età delle più antiche nane bianche ................................................................................................................. 59
RECENSIONI
2
Leon M. Lederman e David N. Schramm
DAI QUARK AL COSMO
1991 Zanichelli
dalla quarta pagina di copertina:
Dai quark al cosmo è il racconto "in diretta" di un'avvincente impresa scientifica, a cui si stanno dedicando numerosi
ricercatori in ogni parte del mondo: il tentativo di costruire una teoria unitaria dei fenomeni fisici, collegando cosmologia e
fisica delle particelle, l'immensa scala dell'universo e quella incredibilmente piccola dei leptoni e dei quark.
Il racconto inizia il 17 aprile 1987 con la prima registrazione di una collisione protone-antiprotone al fermilab,
l'acceleratore di particelle di Chicago. A partire da questo episodio, i due autori descrivono lo sviluppo delle attuali
concezioni dello spazio, del tempo, della materia e delle forze fondamentali; con un tono narrativo che si mantiene
sempre avvincente e chiaro, ci parlano del Modello Standard della fisica delle particelle e della teoria del Big Bang, della
supersimmetria, della "teoria del Tutto" (TOE), della supergravità.
Il libro si conclude con una rassegna degli strumenti che si stanno approntando per la fisica degli anni Novanta, come il
Superconducting Supercollider (SCC), capace di simulare le condizioni dell'Universo pochi trilionesimi di secondo dopo il
Big Bang, e i nuovi telescopi e osservatori spaziali.
Gordon Kane
IL GIARDINO DELLE PARTICELLE
1997 Longanesi & C.
dalla quarta pagina di copertina:
Sebbene l'idea secondo cui gli "oggetti" intorno a noi - le case, gli alberi, gli animali e persino l'arcobaleno - sono
composti da particelle piccolissime sia molto antica, essa ha dovuto passare al vaglio di innumerevoli scienziati (da
Newton a Rutherford, da Boltzmann a Feynman) per raggiungere quel grado di "concretezza" che le attribuiamo oggi. La
semplice nozione di atomo dell'inizio del nostro secolo - quella di un sistema solare in miniatura formato da un nucleo
centrale circondato da elettroni orbitanti - è stata infatti ormai soppiantata da un quadro assai più variegato e complesso,
e le varie decine di particelle oggi note compongono quello che alcuni hanno chiamato uno "zoo" e che l'autore di questo
libro, usando un'altra metafora, ha preferito chiamare un "giardino". Di questo giardino, che è l'universo, le particelle sono
in un certo senso i semi, dai quali cresce la diversità di tutto ciò che ci circonda.
In questo saggio, Gordon Kane c'illustra anzitutto come gli scienziati siano giunti a comprendere le leggi sottese all'intero
universo: dalle affermazioni dei filosofi greci, secondo i quali doveva esistere un elemento primario costitutivo della
materia, fino alle scoperte di Newton, Maxwell, Einstein, Heisenberg. Poi, grazie a un affascinante tour dei maggiori
laboratori di fisica nel mondo, l'autore ci mostra come gli enormi acceleratori e collisori odierni siano in grado di "vedere"
cose milioni di milioni di volte più piccole di quelle osservabili attraverso i primi microscopi, quattrocento anni or sono.
Così, grazie alla comprensione del funzionamento dei macchinari utilizzati per "vedere" i quark e i leptoni, riusciamo a
capire meglio gli esperimenti che hanno condotto gli scienziati a formulare la cosiddetta "teoria standard", cioè la teoria
matematica completa che descrive come funzionano tutte le cose, dalle particelle alle stelle, cominciando dagli elettroni a
dai quark. Il punto d'arrivo della ricerca scientifica, quindi? Niente affatto, ci rivela Kane, spiegandoci come la "teoria
standard" si estenda di giorno in giorno, incorporando le ricerche più avanzate sulla supersimmetria, sulla materia oscura
e sulle superstringhe, e spingendosi sino a far intravedere una possibile - ed esaltante - "teoria del tutto".
Forte di una pluriennale esperienza nell'insegnamento della fisica a studenti non specializzati, Gordon Kane ci guida con
sicurezza e disinvoltura in un campo tanto ostico quanto affascinante: grazie al suo libro, destinato a diventare un piccolo
classico sull'argomento, il mondo delle particelle non sarà più, per noi, un giardino proibito.
Leon Lederman e Dick Teresi
LA PARTICELLA DI DIO
1996 Mondadori
dalla quarta pagina di copertina:
Nel V secolo a.C. Democrito di Abdera ipotizzò che la materia sia costituita da particelle invisibili e indivisibili, alle quali
attribuì il nome di "atomi". Partendo da tale intuizione, il premio Nobel per la fisica Leon Lederman, in un'epoca in cui
dagli ambienti scientifici quasi ogni giorno giunge l'annuncio di scoperte riguardo alla struttura della materia, ripercorre
l'affascinante storia di ricerche, esperimenti e studi svolti dall'uomo per rispondere all'antichissima e ardua domanda: "Di
che cosa è fatto il mondo?". Secolo dopo secolo, egli ci permette di cogliere lo sforzo comune dell'umanità nel tentativo di
individuare e descrivere l'atomo teorizzato da Democrito, uno sforzo coronato da successi sempre parziali, provvisori,
inevitabilmente limitati, a fronte dei continui progressi scientifici e tecnologici. Galileo, Newton, Faradey, Rutherford,
Einstein sono soltanto alcuni dei numerosi protagonisti di tale appassionante avventura, presentati come veri e propri
detective alla ricerca di indizi che svelino il segreto ultimo dell'universo.
Illustrando ogni tappa di questo viaggio in prosa chiara e accattivante, non di rado venata da un originale umorismo.
Lederman ci conduce fino all'ultimo cinquantennio, in cui lo studio del mondo subatomico ha conosciuto uno sviluppo
straordinario grazie alla creazione della più complessa apparecchiatura sperimentale mai realizzata. l'acceleratore di
particelle. L'autore ce ne spiega il funzionamento in modo estremamente semplice, con la metafora di un affilatissimo
coltello che seziona la materia fino a separarne gli elementi costitutivi (leptoni, mesoni, quark, ecc.). E, infine, immagina la
possibilità di metterne a punto un nuovo, potentissimo modello in grado di fornirci la risposta definitiva sull'argomento, di
farci scoprire appunto la "particella di Dio".
Gerard 't Hooft
IL MONDO SUBATOMICO - alla ricerca delle particelle fondamentali
1999 Editori Riuniti
dalla quarta pagina di copertina:
Gerard 't Hooft, fisico teorico di punta, presenta in modo chiaro e affascinante uno degli ambiti di ricerca più creativi nella
3
fisica del Novecento: quello che, soprattutto a partire dagli anni sessanta, ha esplorato a fondo la struttura fondamentale
della materia, alla ricerca degli elementi ultimi, dei costituenti indivisibili. E' una storia che coinvolge aspetti della ricerca
scientifica contemporanea, dalla riflessione teorica sull'origine dell'universo alle spettacolari sperimentazioni della fisica
delle alte energie.
Nella prima parte del libro 't Hooft ricostruisce le modalità con cui si è giunti a elaborare il cosiddetto Modello Standard
della fisica, la teoria che descrive il mondo subatomico. La seconda parte illustra le ipotesi teoriche più attuali e più ardite
circa la struttura della materia, dello spazio e del tempo.
Paul Davies
LE FORZE DELLA NATURA
1990 Bollati Boringhieri
dalla quarta pagina di copertina:
Vero "cavallo di razza" della divulgazione scientifica, Paul Davies è uno dei rari fisici che sanno farsi seguire dal lettore
comune anche quando affrontano argomenti difficili. ne è una prova il presente volume, una delle migliori illustrazioni
disponibili del microcosmo atomico e dell'incredibile fauna che lo abita: non solo la familiare triade protone-elettroneneutrone, ma le ben più intriganti realtà che vanno sotto il nome di "colore", "incanto", "stranezza".
Negli ultimi anni la ricerca fondamentale ha fatto passi da gigante, si da far pensare prossima una descrizione unificata di
tutte le forze della natura, sostituite da un'unica "superforza", e l'avvento di una "supersimmetria" capace di unire forza e
materia. Progressi promettenti si sono avuti nel campo delle teorie di grande unificazione, ma forse la spinta decisiva è
stata data dalla scoperta delle particelle W e Z, i bosoni intermedi portatori della cosiddetta interazione debole.
Anche di questi nuovi sviluppi rende conto il libro di Davies, che ha dunque tutto per interessare un pubblico vario,
compresi i lettori di formazione scientifica, ma non addentro alla materia, desiderosi di curiosare "nell'orto del vicino".
Paul Davies
SUPERFORZA - verso una teoria unificata dell'universo
1986 Mondadori
dalla quarta pagina di copertina:
Sta oggi per realizzarsi un sogno antico dell'uomo: costruire una teoria che gli consenta di unificare lo scibile, di
ricondurre la sconcertante molteplicità dei fenomeni che lo circondano a un'unica legge fisico-matematica. Una legge che
comprenda l'infinitamente grande, ma anche l'infinitamente piccolo: le stelle, le galassie, gli spazi immensi, e la
popolazione sterminata di particelle di cui i grandi acceleratori di tutto il mondo annunciano sempre più spesso la
scoperta - bosoni, fermioni, quark, antiquark, particelle W, particelle Z...
La soluzione viene intravista, oggi, dai fisici, nell'unificazione delle quattro forze che producono tutti gli eventi della natura
- gravità, elettromagnetismo, interazione nucleare forte e debole - in una singola superforza, amalgama di materia,
spazio-tempo ed energia: una struttura integrata e armoniosa, che confermerebbe le simmetrie profonde della materia
rivelate dall'analisi matematica.
In questo libro Paul Davies racconta la storia affascinante di questa ricerca, dalle ipotesi di Einstein alle scoperte di
Rubbia alle prospettive attuali. E' un viaggio avventuroso nel cuore di un universo a undici dimensioni, nato
spontaneamente dal nulla eppure "prodotto della legge, più che del caso": un mondo dominato da una logica molto
diversa da quella del senso comune, una logica surreale che richiama alla mente il Paese delle Meraviglie di Alice.
Brian Greene
L'UNIVERSO ELEGANTE - supertringhe, dimensioni nascoste e la ricerca della teoria ultima
1999 Einaudi
dalla quarta pagina di copertina:
La teoria delle superstringhe è come una grande rete che avvolge molte delle scoperte fondamentali della fisica; è una
teoria che unifica le leggi del grande e del piccolo, leggi che governano i più ampi spazi del cosmo e i più piccolo brandelli
di materia. Dunque, è una teoria a cui ci si può accostare in vari modi. Ho scelto di concentrarmi sui progressi nella nostra
concezione dello spazio e del tempo. Mi sembra una linea evolutiva molto stringente, che apre vaste e interessanti
prospettive su nuovi concetti. Einstein ci ha mostrato che lo spazio e il tempo si comportano in modi sorprendenti e
controintuitivi; oggi le ricerche più avanzate hanno integrato le sue idee nell'ambito di un universo quantistico, dotato di
molte dimensioni nascoste nella trama del cosmo - dimensioni dalla geometria riccamente intricata che possono celare la
risposta alle domande più profonde mai poste. Alcuni di questi concetti sono complessi, ma possono essere intesi grazie
ad analogie prese dal mondo quotidiano; quando li si comprende appieno, ci offrono una prospettiva sorprendente e
rivoluzionaria da cui guardare l'universo.
Robert P. Crease e Charles C. Mann
ALLA RICERCA DELL'UNO
1987 Mondadori
dalla quarta pagina di copertina:
Un'opera unica, irripetibile: Alla ricerca dell'uno oltreché un capolavoro di divulgazione scientifica, è un trascinante viaggio
nel cuore della fisica del nostro secolo raccontato dai suoi grandi protagonisti: una storia non di protoni ma di persone,
individui geniali.
Ecco giganteggiare, all'inizio, la figura di Einstein, l'ultimo pensatore solitario, il primo a intuire le relazioni che legano
insieme tutti i fenomeni dell'universo. ecco poi il sorgere della teoria quantistica, la scoperta dei quark, l'entusiasmante
proposta della teoria della "forza elettrodebole" di Weinberg e Salam, la sua clamorosa conferma sperimentale compiuta
da Carlo Rubbia al CERN di Ginevra nel 1983. E infine ecco che appaiono le Nuove Teorie Unificate - dalla Superforza
alle Supercorde - che propongono una spiegazione globale del cosmo, della sua nascita come del suo destino...
4
Michela Fontana MASSE E FORZE
Poter descrivere la complessità dell'universo in cui viviamo con una semplice teoria, la "Teoria del tutto", è
il sogno di ogni scienziato. Ma per arrivare a farlo è indispensabile un passo intermedio: riuscire a
descrivere, in un'unica trattazione matematica, tutte le quattro forze fondamentali esistenti in natura. A
questa meta ambiziosa - l'unificazione - stanno lavorando ricercatori in tutto il mondo, alle prese con
alcune delle più astratte e raffinate teorie fisiche e matematiche mai elaborate dall'uomo, che hanno nomi
suggestivi e difficili (come superstringhe, supersimmetrie, supergravi- tà...) e che puntano a penetrare i
più riposti segreti del mondo delle particelle subatomiche. "Se riusciremo a trovare una risposta", ha detto
il famoso scienziato inglese Stephen Hawking, "decreteremo il trionfo definitivo della ragione umana,
giacché allora conosceremmo la mente di Dio". Via via che le nostre conoscenze della natura e del cosmo
si sono approfondite e nuovi esperimenti hanno permesso di esplorare in dettaglio le nascoste proprietà
della materia, la comprensione delle quattro forze, o interazioni, fondamentali, che sono alla base dei
processi fisici, chimici e biologici è divenuta più chiara. Le quattro forze di base La forza gravitazionale,
che si esercita tra tutti i corpi dotati di massa, è la più familiare poiché viene avvertita attraverso il nostro
peso corporeo; è la causa della caduta dei corpi sulla Terra, e del movimento dei pianeti intorno al Sole.
All'interazione elettromagnetica, che si esercita tra particelle cariche, si devono l'elettricità, le onde radio e
l'attrazione che consente agli elettroni di carica negativa di orbitare attorno al nucleo dell'atomo, che ha
una carica positiva. Nel mondo di dimensioni infinitesimali in cui vivono le particelle elementari, sono
attive due altre interazioni senza le quali l'universo come noi lo conosciamo non potrebbe esistere: la
forza "forte" e quella "debole". La prima è quella che tiene uniti protoni e neutroni (a loro volta formati da
quark) a formare il nucleo dell'atomo. La forza "debole" invece (centomila volte meno intensa di quella
forte), si esercita tra particelle chiamate leptoni (come l'elettrone e il neutrino), ed è la causa della
disintegrazione degli atomi radioattivi e di alcune delle reazioni nucleari che avvengono all'interno del
Sole. Questa disparità di interazioni non esisteva, secondo gli scienziati, poco dopo il Big Bang, quando
l'universo era estremamente caldo e denso, ma le forze si sono andate via via separando mentre il cosmo
si raffreddava e prendeva le sembianze che oggi conosciamo. A riprova dell'enorme difficoltà di riunire in
un'unica trattazione quello che ci appare diverso nel mondo percepibile, vi è il fatto che anche il grande
Albert Einstein provò, per buona parte della sua vita, a unificare la forza gravitazionale e quella
elettromagnetica senza ottenere alcun risultato. La scoperta dei bosoni Da allora il più importante
successo è consistito nella creazione della "teoria unitaria delle forze elettromagnetiche e deboli",
realizzata da Sheldon Glashow, Steve Weinberg e Abdus Salam, vincitori del premio Nobel nel 1979. La
loro teoria prevedeva l'esistenza di particelle mediatrici della forza elettrodebole, i bosoni vettori intermedi
(le particelle W+, W- e Z0) che sono stati successivamente scoperti al Cern di Ginevra (il Laboratorio
europeo per la fisica delle particelle, il più prestigioso al mondo), dall'équipe guidata da Carlo Rubbia,
vincitore del premio Nobel nel 1984. Insieme ai bosoni, le altre particelle che mediano l'azione delle forze
(azione che, nella fisica moderna, è sempre vista come uno scambio di particelle tra i corpi che
interagiscono), sono i fotoni per la forza elettromagnetica, i gluoni per quella forte, e gli ipotetici gravitoni
per quella gravitazionale. Il passo successivo è stato la formulazione delle cosiddette "teorie di grande
unificazione", che trattano insieme la forza forte e la forza elettrodebole, ma non tengono conto
dell'interazione gravitazionale. Secondo queste ultime teorie, nei primi anni di vita dell'Universo sarebbe
dovuta esistere una "superforza" mediata da una superparticella chiamata "X". Un'ipotesi che è
impossibile verificare, allo stato attuale delle conoscenze, come spiega Nicola Cabibbo, fisico teorico e
presidente dell'Enea, l'Ente per le nuove tecnologie, l'energia e l'ambiente. "Risultati recenti ottenuti con
gli esperimenti effettuati nel Lep, la macchina acceleratrice attualmente in funzione al Cern, hanno
permesso di capire che queste ipotetiche particelle sarebbero estremamente pesanti, circa un milione di
miliardi di volte la massa del protone. Per trovarle, sarebbero necessari acceleratori che arrivano a
energie così enormi da essere del tutto irrealizzabili". Il fatto è che, secondo la famosa formula di Einstein,
E=mc2 , che esprime l'equivalenza di massa ed energia, più elevata è la massa di una particella che si
vuole produrre all'interno di un acceleratore, più elevata deve essere l'energia. Uno scambio di ruoli Ma
non è questo il solo limite delle "teorie di grande unificazione", che sono per il momento considerate
abbastanza insoddisfacenti. Più promettenti sono invece ritenute le teorie "supersimmetriche" (chiamate
"SuSy", da supersymmetry), che riuniscono in una stessa famiglia i due grandi gruppi di particelle
precedentemente considerati diversi fra loro: i bosoni, cioè i mediatori delle interazioni (fotone, gluone,
gravitone, e le particelle W e Z), e i fermioni, le particelle che compongono l'atomo, come elettroni e
quark. Queste particelle potrebbero trasformarsi le une nelle altre, scambiandosi i ruoli. Ciò implica, per le
stesse complesse simmetrie matematico-fisiche, che ogni particella conosciuta abbia un compagno, il
cosiddetto "partner supersimmetrico", che si chiama squark per il quark, fotino per il fotone, Wino per il W
e così via. Un modo per verificare la validità della costruzione teorica è dunque quello di "catturare" le
5
particelle supersimmetriche. E i fisici sono sicuri di riuscire a farlo presto con la nuova macchina
acceleratrice Lhc che entrerà in funzione al Cern. "Dal momento che la loro massa potrebbe non essere
troppo alta", conferma Cabibbo, "dovrebbero essere accessibili ai nostri rivelatori. Individuarle è uno dei
grandi temi della ricerca odierna". La "supergravità" Grazie alla supersimmetria può diventare più facile
trattare anche la forza gravitazionale, che è la più difficile da unificare, e ha sempre dato ai fisici molti
grattacapi. "La forza di gravità ci sembra intensa, ma all'interno dell'atomo è molto debole, miliardesimi di
miliardesimi di miliardesimi di miliardesimi di volte (il numero preciso è 10 seguito da trentasette zeri)
meno forte della forza elettromagnetica e quindi è irrilevante per le particelle subatomiche", dice Cabibbo.
Per arrivare alla possibilità di trattare l'interazione gravitazionale insieme alle altre una nuova teoria, detta
della "supergravità", è stata formulata nel 1976 dal fisico italiano Sergio Ferrara (che lavora al Cern)
insieme a Daniel Freedman e Peter van Nieuwenhuizen (che hanno insieme vinto nel 1993 il prestigioso
premio Dirac). Si tratta di un ampliamento della teoria della gravitazione (la relatività generale) di
Einstein. Basata sulle teorie supersimmetriche, introduce accanto al mediatore della forza gravitazionale, il
gravitone, il suo partner supersimmetrico, chiamato gravitino. Commenta Ferrara: "Lo schema teorico
porta automaticamente a trattare la gravità insieme alle altre interazioni, ma ci sono ancora al suo interno
molti problemi aperti che vanno affrontati". Ed ecco che entra in gioco una delle costruzioni matematiche
forse più affascinanti e complesse della fisica contemporanea, la "teoria delle superstringhe", la migliore
candidata, secondo i suoi sostenitori, per arrivare all'unificazione sognata. Spazio a dieci dimensioni
Formulata nel 1984 da Michael Green e John Schwarz (vincitori del premio Dirac nel 1989), questa teoria
suggestiva vale in un mondo molto particolare dove le quattro dimensioni dello spazio-tempo in cui
viviamo (tre per lo spazio e una per il tempo) diventerebbero addirittura dieci. Inoltre le particelle
elementari non sarebbero più paragonabili a punti ma diventerebbero delle stringhe vibranti come corde
musicali. E sarebbero piccolissime, contenute in uno spazio di molti miliardi di volte più piccolo del nucleo
atomico: tanto più piccole di un atomo di idrogeno, quanto un atomo di idrogeno lo è rispetto all'intero
sistema solare. Ma quando si ritorna a distanze maggiori le stringhe ridiventerebbero
puntiformi e le dimensioni dello spazio tornerebbero a essere quattro. "Si pensa che le sei
dimensioni in più, presenti a distanze così piccole, si "arrotolino" e quindi scompaiano a mano
a mano che si ritorna verso le dimensioni del mondo in cui viviamo", commenta Ferrara. Tra
scienza e fantascienza Fantascienza? Forse, ma l'immaginazione scientifica dei fisici teorici,
nel tentativo di dominare i sottili meccanismi del mondo subatomico, sembra non avere limiti.
Tant'è vero che, da un po' di tempo, si sta facendo strada un'altra teoria ancora più
fantascientifica, chiamata "M", secondo la quale le particelle non sarebbero simili a stringhe
monodimensionali bensì a membrane bidimensionali che fluttuerebbero in uno spazio a undici dimensioni.
Vi stanno lavorando alcuni grandi scienziati, tra cui lo stesso Ferrara e il famoso fisico Ed Witten
dell'Institute for Advanced Study di Princeton (dove lavorò per molti anni, fino alla fine della vita, lo stesso
Einstein). Come si vede, la strada verso l'unificazione e la comprensione dei mattoni elementari della
materia, nonostante gli sforzi di alcune delle menti più brillanti della fisica teorica, è lastricata di difficoltà.
"Anche se sono stati fatti progressi, c'è ancora molto lavoro da fare", conclude Cabibbo. "Sarà il principale
argomento di ricerca per il prossimo secolo".
L'UNO E IL TUTTO
di Mariangela Ferrara del gruppo Mizar
Comprendere i segreti della natura, dell’universo, della coscienza è la mèta che si è posta ogni serio
ricercatore in tutte le epoche storiche, tentando, attraverso studi e analisi sempre più approfondite, di
penetrare i misteri del mondo in cui viviamo, di rendere comprensibili i fenomeni di cui siamo
testimoni, nella speranza di “conoscere il pensiero stesso di Dio”.
Con quest’obiettivo e per questo scopo, Einstein, già famoso per aver pubblicato la teoria della relatività
(1905) dedicò gli ultimi anni della sua vita all’infruttuosa ricerca di una teoria unificata e completa in
grado di dare una spiegazione ad ogni cosa, ma i tempi non erano ancora maturi, si sapeva ben poco sulle
forze nucleari, ed inoltre Einstein si rifiutava, a torto, poiché smentito dalle successive ac-quisizioni
teorico-scientifiche, di credere nella realtà della meccanica quantistica e nel principio di indeterminazione
(Heisenberg, 1927). Celebre, a questo proposito, è la sua frase “Dio non gioca a dadi con l’universo”.
Ancora oggi relatività generale e meccanica quantistica, pur rappre-sentando i due pilastri fondamentali
della fisica, hanno campi d’indagine differenti.
La relatività generale trova la sua applicazione solo nell’infinitamente grande, la meccanica quantistica
solo nell’infinitamente piccolo. Le due grandi teorie della fisica del XX secolo, perciò, non possono essere
6
giuste entrambe, sono incompatibili fra loro. Questo significa che ci rivolgiamo di volta in
volta alla relatività generale oppure alla meccanica quantistica.
La speranza resta quella di trovare una teoria unificata, coerente e completa che
includa tutte le teorie parziali che descrivono invece solo un ambito limitato di fenomeni.
La difficoltà principale nel trovare la grande teoria unificata è data dal fatto che la
relatività generale è una teoria classica, ossia non incorpora il principio di
indeterminazione, tuttavia sembra che tale principio costituisca un tratto fondamentale
dell’universo in cui viviamo; una teoria unificata, per poter raggiungere il
proprio obiettivo, deve quindi necessariamente incorporare questo principio.
Il grande astrofisico S. Hawking, nel suo libro “La teoria del tutto” sostiene
che “un primo passo da compiere nella ricerca è quello di combinare la relatività
generale con il principio di indeterminazione, ciò può portare a conseguenze
notevoli come l’idea che i buchi neri non siano così neri, che l’universo sia
racchiuso in se stesso e privo di confine, che lo spazio vuoto sia in realtà pieno
di particelle e antiparticelle virtuali”.
La teoria unificata che la fisica cerca, tenta di riunire le grandi forze della natura per arrivare a
comprendere la meraviglia del creato e la semplicità delle leggi su cui è fondato, per svelare il
funzionamento dell’universo e per poterlo contemplare attoniti in tutta la sua bellezza ed eleganza.
Anche l’uomo fa parte di questo scenario, egli non è solo spettatore passivo di un meccanismo che sta al
di fuori di lui. Egli fa parte integrante del tutto, forse non è soltanto mèro osservatore degli eventi e della
realtà del cosmo.
La visione meccanicistica dell’universo è stata profondamente minata proprio dal principio di
indeterminazione che, secondo l’interpretazione di alcuni ricercatori, dimostrerebbe che l’osser-vatore
condiziona l’osservato ponendo l’uomo e più precisamente la coscienza dell’uomo stesso in una posizione
interattiva rispetto al tutto.
La ricerca della “grande teoria unificata” mira alla descrizione di tutte e quattro le forze fondamentali
(nucleare forte, nucleare debole, elettromagnetica e gravitazionale) e di tutta la materia nell’ambito di un
unico quadro concettuale onnicomprensivo, attraverso formule ed equazioni sempre più complesse, ma
può tenere anche conto di ciò che è definito “principio antropico” enunciato per la prima volta negli anni
'50 da R.H. Dicke ed elaborato nel 1986 da J.D. Barrow e da F.J. Tipler e, secondo il quale “la spiegazione
del perché l’universo ha le proprietà che osserviamo sta nel fatto che, qualora queste proprietà fossero
differenti, è probabile che la vita non sarebbe emersa e, di conseguenza, noi esseri umani non saremmo
qui ad osservare tali differenze. La peculiarità che contraddistingue la combinazione di forze e particelle
del nostro universo è quella di permettere il formarsi della vita. L’esistenza della vita, della vita
intelligente in particolare, è un presupposto necessario per potersi domandare perché il nostro universo ha
le proprietà che ha”. In altre parole le cose nel nostro universo sono come sono perché se fossero diverse
noi non saremmo qui ad osservarle. L’essere umano è parte della natura, della terra, dell’universo e come
tale rispetta i ritmi biologici e cosmologici propri del suo ambiente. Egli partecipa anche alle misteriose
sincronie della natura: nel cervello milioni di neuroni agiscono in modo coordinato per regolare il respiro,
mentre un metronomo naturale dà il ritmo al cuore; il corpo umano è come un’orchestra i cui musicisti
sono le singole cellule che seguono il ritmo regolato dal loro DNA. Non soltanto nel corpo umano ma in
tutti i fenomeni naturali le sincronie sembrano avere un regista o un coreografo. Sono significativi in tal
senso i comportamenti di alcune specie di piante o di animali, eccone alcuni esempi: in Cina, dopo mezzo
secolo di fioriture casuali, i bambù di una stessa specie fioriscono tutti nello stesso periodo, le farfalle
monarca ogni anno partono in massa dal Canada dirette al Nuovo Messico, i polipi della barriera corallina
australiana in una notte di luna piena di agosto su un fronte di duemila chilometri liberano simultaneamente una nuvola di miliardi di uova.
Per non parlare delle straordinarie coreografie di nuoto sincronizzato di alcuni pesci che si dispongono in
banchi dalle forme più bizzarre, o delle formazioni complesse che assumono gli stormi mostrando la
capacità di volare e di muoversi all’unisono coordinati da un regista invisibile.
Anche gli elettroni in un superconduttore si muovono in sincronia, permettendo all’elettricità di fluire
senza incontrare resistenza. Sembra esserci un impercettibile legame che unisce tutte le sincronie
esistenti. “Molti organismi si comportano come oscillatori accoppiati cioè sistemi composti da molti
7
elementi legati da una grandezza il cui valore in una unità del sistema
influenzerebbe tutte le altre.”
Il matematico Steven Strogatz, docente di matematica applicata alla Cornel
University e al Massachussetts Insitute of Tecnology, dopo venti anni di studi,
sostiene questa tesi; i risultati ottenuti dimostrano perciò che l’uno, non solo
è parte del tutto ma ne condiziona il funzionamento globale in un
interscambio di informazioni dando luogo alle manifestazioni osservabili. Il
matematico si spinge ad affermare, altresì, che alcuni comportamenti umani
stranamente ritmici potrebbero essere spiegati dallo studio e dall’applicazione di questa nuova disciplina
divenuta nota con il nome di “ scienza dell’ordine spontaneo”.
Le mode o i movimenti di pensiero sarebbero guidati dalle stesse leggi che regolano alcune sincronie
naturali.Si Potrebbe anche azzardare l’ipotesi, quindi, che il sorgere repentino e quasi contemporaneo di
varie culture storiche o di molteplici abilità umane, i tratti culturali e religiosi comuni alle civiltà superiori
dell’antichità, potreb-bero scaturire dalle connessioni individuate dall’interpretazione della “scienza
dell’ordine spontaneo”.
Alla luce di questa nuova chiave di lettura degli eventi della natura, si può tentare di estendere il
concetto dell’unione e dell’interazione della parte con il tutto anche a livelli più profondi. Non solo la
materia, sia organica che inorganica, risponde-rebbe alle sincronie naturali, ma anche l’inconscio e di
conseguenza il pensiero, la mente e taluni comporta-menti, sarebbero soggetti a tale osmosi, creando
incredibili sinergie.
Gli esseri umani sarebbero liberi nelle loro scelte ma collegati gli uni agli altri molto più di quanto si
creda, impegnati nella danza individuale della vita ma ignari delle invisibili sincronie.
Sapendo che la coscienza emerge proprio a causa delle complesse connessioni neurali che hanno sede
nella corteccia cerebrale,si potrebbe stabilire un’analogia e giungere ad identificare l’universo con un
grande organismo vivo e pulsante, un corpo fisico, ma anche una meta-mente di cui le capacità cerebrali
rappresente-rebbero i neuroni.
Infatti, come in un corpo ogni cellula contribuisce e partecipa al funzio-namento dell’organismo, così, sia
nell’universo (infinitamente grande) che nell’atomo (infinitamente piccolo), ogni parte interagisce con il
tutto. Purtroppo, tranne le incoraggianti previsioni fornite dalla teoria delle Superstringhe, secondo la
quale la trama microscopica dell’universo è un intricato labirinto a più dimensioni in cui stringhe
unidimensionali vibrano senza posa dando il ritmo alle leggi naturali, a causa dell’assenza di una teoria
unificata, non possediamo ancora le equazioni adeguate e compatibili per entrambe le realtà. Forse, però,
se ci si spingesse a considerare il Cosmo non solo come materia ma anche come spirito,inteso come
essenza nascosta delle cose,soffio animatore del reale e insieme delle attività mentali, tenendo presente
che gli elementi atomici si comportano sia come particelle sia come onde, si giustificherebbero anche le
fluttuazioni quantistiche, le onde di probabilità e l’indeterminismo tipico dell’infini-tamente piccolo, poiché,
così come la materia a grande scala risponde a leggi fisiche definite e prevedibili, la psiche presenta
invece caratteristiche inde-finite ed imprevedibili.
In quest’ottica la ricerca della grande teoria unificata, riservata allo specifico campo della fisica,
potrebbe essere ampliata ad ulteriori territori d’inda-gine e curare l’aspetto interdisci-plinare, ponendo
l’attenzione anche alla biologia, all’etologia, alla neurofisiologia, alla psicologia etc.
La scienza dell’ordine spontaneo ci ha suggerito un nuovo percorso da seguire ed un nuovo approccio
alla spiegazione degli eventi della natura, attraverso l’attendibile ipotesi di correlazioni e collegamenti non
solo fisici ma anche psichici.
Il principio di indeterminazione ci ha fornito un indizio facendoci com-prendere che non esistono
proprietà dell’universo a livello microscopico che si possono determinare
con precisione e che l’osservatore interagisce con l’osservato.
Sulla base di tali presupposti che rappresentano le ultime frontiere della
ricerca scientifica, si può dedurre che l’uomo è una parte del tutto al quale
partecipa e, come tale, quindi, probabilmente influenza le interazioni tra le
particelle elementari, gli scambi molecolari e cellulari, l’inconscio collettivo,
8
già ipotizzato da Jung.
Per ora, nell’attesa di nuovi risultati sperimentali e di un più completo quadro teorico, possiamo solo
accontentarci della certezza che nell’unico universo che osserviamo, tentiamo di comprendere e nel quale
ci è consentito di vivere, determiniamo, attraverso le scelte che operiamo, il nostro destino e la nostra
storia.
Bibliografia:
La teoria del tutto, Origine e destino dell’universo di S. Hawking, Rizzoli
Sincronia di S. Strogatz, Rizzoli
All'inizio d'un mondo-nuovo
Una novella ateologico-scientifica intorno alla Teoria delle
Superstringhe
Domandarono a Dio se già avesse concepito il mondo e, se sì, in qual modo l'avrebbe creato.
Dio disse di aver pensato a tutti i modi possibili per dar origine alle cose, agli animali e agli uomini pensanti. Ma le aveva
scartate tutte. Infatti il modo di creare le pietre, le piante e gli animali poteva anche essere pensato e generato, ma per
quanto riguardava gli uomini, in particolare per quel loro pensiero non c'era nulla da fare. Occorreva un inizio speciale
che prendesse insieme il tutto, che oltrepassasse le cose, le piante, gli animali, poi ancora oltre, un tutto differente e
nuovo, che forse non avrebbe mai potuto esistere. A meno che ... Ci pensò e ripensò, più e più volte, standosene fuori
del tempo; gli capitò persino d'entrarci nel mezzo. Ma ne era dovuto uscire in tutta fretta con uno sforzo non da poco,
per non rimanerne impigliato e vivo d'una vita non ancora possibile e vera. Non ne poteva proprio più. Come escogitare
un'energia che desse conto d'un'attività - quella del pensare - che nulla aveva a che fare con quella del cosmo costituito
da miliardi di anni di sola materia, energia non consapevole? Come dar conto di qualcosa di assolutamente differente da
ciò che già si vede, che appare consolidato lì fuori, che i sensi così facilmente recepiscono?
Come pensare a qualcosa che assomigliasse a quel suo pensiero e che persino lo trascendesse? .. Come precedere se
medesimo? Si fermò di colpo. Ma sì: ecco lo spiraglio!
Come precedere il mio stesso pensare? Come pensare qualcosa che mi antecede?
Come concepire un universo che manca persino di questo mio fondamentale credere che qualcosa sia posto lì fuori ed
esso sia vero ed io con esso, oppure il contrario?
Come inventare un tempo che s'inveri antecedendo se stesso insieme con colui che lo ha inventato?
Aveva trovato qualcosa da cui avrebbe potuto anche procedere. Che cosa? S'interrogava. Ma non riusciva ancora a
progettare un alcunché. Ci pensò ancora una volta e poi per milioni e milioni di anni, in un tempo nuovo che tuttavia
ancora non era stato generato in modo evidente e consapevole.
Non veniva però per nulla a capo dell'idea appena abbozzata: non riusciva a trattenerla, ad elaborarla, renderla reale.
Qualcosa che anteceda. Che sia oltre me. Al di là di Dio. Che cosa? Qualcosa che non c'è. Ma sì ... ecco qualcosa che non
c'è!
Qualcosa che manca. Ma allora anch'io non sono quel che sono e quel che penso. Nulla è così com'è. Non esiste
neppure la cosa cui credere, quell'idea che desidero emanare: nulla m'impersona.
Si fermò di botto: tutto l'universo che aveva immaginato e che ancora non era, anch'esso si era fermato di colpo in un
punto, con l'aprirsi d'un varco. Una mancanza. La mancanza di Dio. La mancanza dell'Essere. Il venir meno del Creatore.
Una vibrazione che, invece che uscire da qualcuno o da qualcosa, rientrasse. Ma in che cosa sarebbe rientrata? "In
niente", fu la risposta che subito ritornò su se stessa, ricollocandosi in una nuova più feconda disposizione senza
sollecitare alcun'altra soluzione.
Una potentissima vibrazione di nulla. Un fortissimo richiamo al mancare. Un'eco profondissima di ritorno incominciò ad
emergere. Un suono al negativo; un'assenza immane, un nulla che ondeggiava, una mancanza che si mostrava ... Dio era
scomparso. In sua vece una vibrazione che non ne occupava né il posto né la maestà. Un silenzio che subentrava a se
stesso. Un segno, un suono, un andirivieni di luci e assenze che transitavano sotto la pelle del mondo giammai creato.
Era la vibrazione del niente. Un'antivibrazione, come fu chiamata dopo un tempo che era trascorso quasi all'infinito. Di
più: un'antiantivibrazione come un suono che suona all'inverso costituendo una soglia sottostante al piano dell'ascolto
consueto. Si fanno simultaneamente evidenti pacchetti d'una luce speciale che subito si dissolvono privati della loro
medesima primigenia illuminazione: ma questa già è incrementata all'infinito d'un mancare nel mezzo similmente a una
vibrazione che cessa, s'investe di nulla e si situa oscillando al-negativo.
9
Da quel momento le creature, a poco a poco, nel giro di milioni e milioni di anni, si videro crescere, evolvere e uscire
dalle antiche tane, dalle loro inveterate abitudini, e incominciare a pensare un pensiero sottile, come se da un cervello, da
una formidabile neocorteccia s'iniziasse ad emanare la descrizione chiara e l'esistenza - per un lato evidenti e nouminose,
ma per un altro in gran parte ancora oscure - d'un universo assai complesso che andava ricercando in ogni sua piega e ad
ogni istante quella pulsazione di nulla assente, il solco d'una scintilla che in parte - o forse del tutto - esso aveva perduto,
avendola tralasciata fin dal suo principiare; oppure - è un'ipotesi recente - si trattava d'un pensiero, un'entità davvero
pregevole, una condizione dell'esistente che ancora non sapeva - o forse non voleva - né pensare né accettare nel
profondo del cuore ed entro le cavità abissali del suo capo un universo già pronto a fare a meno di sé e di chi l'aveva
creato.
Le corde di Witten
Nel 1984 Edward Witten concepì una nuova teoria fisica il cui principio risiede nel concetto di "corda".
Secondo questa teoria la "materia" sarebbe costituita da un insieme di vibrazioni presenti nella parte più intima
della struttura atomica .
Se fosse possibile osservare le particelle elementari, come elettroni e quark, con un ingrandimento centomila
miliardi di volte maggiore di quello che è consentito dalle attuali tecnologie, ci accorgeremmo che queste non si
presentano come palline ma come linee o anelli sottilissimi o, appunto, come corde vibranti; per avere un'idea delle
loro dimensioni basti pensare che un atomo, paragonato a una di queste corde, sarebbe grande quanto un sistema
stellare!
In questa teoria le caratteristiche delle particelle, compresi gravitoni, fotoni, bosoni e gluoni sarebbero l'effetto del
modo con il quale queste minuscole stringhe possono vibrare, proprio come vibrano le corde di uno strumento
musicale. Ciò che le vibrazioni producono, però, non sono note musicali, bensì particelle distinte a seconda delle
frequenze di vibrazione. Le interazioni tra le varie particelle si presentano così come una sorta di fusione e scissione
di corde.
I ricercatori hanno costruito ben cinque diverse teorie sulle superstringhe che dovrebbero essere forme diverse di
un'unica legge in grado di riassumerle tutte, una legge che dovrebbe essere formulata in dieci dimensioni spaziali e
una temporale e che dovrebbe essere in grado di unificare la teoria della relatività generale e quella quantistica.
Non sappiamo se questa complicata teoria potrà mai essere espressa da formule matematiche, ma l'intuizione
appare straordinaria per procedere nella ricerca della struttura del cosmo.
Fisica e Macrocosmo: Cosmologia
INTRODUZIONE
[1]
La cosmologia moderna nasce negli anni ’20 del secolo scorso come una delle prime
applicazioni della Relatività Generale per lo studio delle proprietà del cosmo su larga scala. [2]
Se l’astrofisica tradizionale studiava oggetti celesti singoli (e.g. stelle) o aggregati di tali
oggetti su piccola scala (e.g., ammassi stellari, galassie), che caratterizzano solo le proprietà
locali del cosmo, con una strumentazione più sofisticata è stato possibile sondare distanze più
profonde, e quindi scale più estese [3]. Più in generale, volendo descrivere le proprietà globali
del cosmo, volendone dare cioè una descrizione in toto, indicheremo col termine “universo” il
primo oggetto di indagine della cosmologia. Non potendo ricevere segnali da distanze maggiori di
c x [età dell’universo], le proprietà globali si configureranno al più come proprietà medie della
regione di universo visibile. Tali proprietà medie, oltre a rivestire un interesse scientifico
intrinseco, definiscono la cornice in cui inquadrare lo studio della formazione e dell’evoluzione
degli oggetti su scale più piccole, cioè stelle e galassie. In definitiva, l’oggetto di indagine della
cosmologia sono gli ammassi di galassie, i superammassi di galassie, le strutture su larga scala,
fino alla caratterizzazione delle proprietà medie dell’universo visibile [4].

I numeri entro parentesi quadre [#] fanno riferimento alle diapositive del file [nome].ppt  della Lezione II.
10
Principio Cosmologico.
Nel linguaggio della Relatività Generale, il primo obiettivo della cosmologia si traduce nella
descrizione della geometria dello spazio-tempo su larga scala, o meglio nella descrizione della
geometria media dell’universo visibile.
[5] [isotropia] Nel 1969 Arno Penzias e Robert Wilson scoprono una radiazione isotropa di
fondo, cioè proveniente da tutte le direzioni con la stessa intensità e non riconducibile ad alcun
fenomeno astrofisico peculiare (i.e., emissione da un oggetto) ma caratterizzante l’aspetto
dell’universo su larga scala, cioè su distanze profonde (“cosmologiche”), e quindi nelle sue prime
fasi di vita. Essendo concentrata nella banda delle microonde, la si chiama Cosmic Microwave
Background (CMB). Lo spettro è quello che tecnicamente si dice “di corpo nero”, un corpo caldo
in equilibrio termodinamico che emette radiazione elettromagnetica in tutte le direzioni
indistintamente.
Lo spettro che si presenta all’antenna di Penzias e Wilson descrive il miglior corpo nero che sia
mai stato osservato in natura, e ciò significa: la radiazione di origine cosmologica descrive un
sistema, l’universo, in eccezionale equilibrio termodinamico al momento dell’emissione di quella
radiazione e straordinariamente isotropo. In altri termini la geometria su larga scala, cioè la
geometria media dell’universo, è caratterizzata da un elevato grado di isotropia.
[6] [omogeneità] Muoviamo ora da una “dichiarazione di umiltà”, recuperando il principio
copernicano: non c’è ragione di di pensare che noi (= la nostra galassia) occupiamo una posizione
privilegiata. Più in generale, ogni punto è geometricamente equivalente (questa la definizione di
‘omogeneità’). Meglio ancora: tutti gli osservatori - definiti come quelli che esperimentano il
moto “medio” di espansione osservato da Hubble a parte il proprio moto peculiare - sono
equivalenti. Quindi tutti osserveranno lo stesso spettro della radiazione di fondo a microonde,
cioè tutti osserveranno l’isotropia su larga scala. Quindi tutte le singole posizioni sono, su larga
scala, equivalenti. In altri termini la geometria media dell’universo è caratterizzata da
omogeneità. Le osservazioni confermano questa conclusione: vedi e.g. catalogo Lick e APM survey
(ottico), Texas survey (radio).
[7] Siamo così giunti al Principio Cosmologico: su larga scala l’universo è omogeneo e isotropo.
Esso definisce la geometria media dell’universo visibile, o, rozzamente, la sua “forma” media. Un
teorema di geometria differenziale garantisce poi che uno spazio omogeneo e isotropo possa
essere descritto da tre sole geometrie (tre “forme”), discriminate dal parametro di curvatura
(k); sono quelle che in uno spazio 2D descriverebbero la superficie si una sfera, di un piano o di
un paraboloide iperbolico (la “sella”). Si parla allora di universo chiuso (k > 0), aperto (k < 0) o
piatto (k = 0).
[dinamica] Si dimostra inoltre che la “forma” deve mantenersi sempre uguale a se stessa; e’
ragionevole però chiedersi se sia ammessa una dinamica, in altri termini se le distanze tra gli
oggetti distribuiti su larga scala debbano restare fisse o possano variare nel tempo (un’immagine
infantile che può aiutare: un pallone resta sempre sferico se lo si gonfia). [8] Come già
accennato, attraverso misure di magnitudine apparente e redshift, nel 1929 Edwin Hubble rileva
un allontanamento delle galassie più distanti, secondo una legge di proporzionalità tra velocità di
allontanamento e distanza dell’oggetto osservato. Data la provenienza del segnale dalle distanze
più profonde, interpreta i suoi risultati come evidenza dell’espansione dell’universo: è messa in
luce la natura dinamica della geometria dello spazio-tempo su larga scala.
11
Il progresso tecnologico ha permesso di constatare che la legge di Hubble e’ di fatto una legge
approssimata: potendo osservare oggetti di cui sia nota la luminosità intrinseca a distanze più
profonde (nella fattispecie, supernovae di tipo IA), si riscontra una legge quadratica, deviazione
dalla legge lineare trovata da Hubble. Se quest’ultima descrive un universo oggi in espansione
(con velocità per unità di lunghezza data da H0), la legge quadratica aggiunge l’informazione che
tale espansione è oggi accelerata (con “accelerazione”–q0). È una prova, questa, di come il
migliora-mento della sensibilità e risoluzione degli strumenti abbia mostrato una natura più ricca
e complessa dell’oggetto di studio.
Relatività Generale.
Il sistema che vogliamo descrivere, l’universo, e’ dominato dalle interazioni gravitazionali: sulle scale in gioco
(distanze > 1Mpc) le interazioni deboli e forti non giocano ovviamente alcun ruolo, quelle elettromagnetiche
possono avere degli effetti ma assolutamente marginali in prima approssimazione. La teoria della gravitazione
più completa a disposizione è la teoria della Relatività Generale: essa dovrà rendere conto della geometria dello
spazio e della sua dinamica nel tempo compatibilmente con le grandezze osservabili. Nella fattispecie, dovrà
fornire delle equazioni che mettano in relazione le proprietà dello spazio-tempo sulle distanze cosmologiche a
valori medi di grandezze osservabili.
Le osservazioni di Hubble sono state cronologicamente la prima spinta all’interesse per la
cosmologia, che all’inizio era semplicemente oggetto di speculazioni matemati-che come
applicazione della teoria della Relatività Generale. Il modo di procedere di quella fase è tipico
della ricerca in fisica teorica, merita un’occhiata!
L’idea fondamentale della Relatività Generale è descritta da equazioni (“equazioni di Einstein”)
che mettono in relazione le proprietà geometriche dello spazio-tempo alla distribuzione di
materia-energia, determinandone così l’evoluzione in modo reciproco. Sono costruite in modo da
restituire la legge di gravitazione di Newton, le cui predizioni sono eccezionalmente corrette
sulle distanze del sistema solare; come novità, soffrono di patologie predicendo l’esistenza di
regioni singolari con densità di energia infinita (buchi neri e big bang), e prevedono fenomeni
astrofisici non possibili nella vecchia teoria newtoniana (lenti gravitazionali e onde
gravitazionali). - vedi Lezione 3 @ Macrocosmo.
[simmetrie] Come tutte le equazioni, anche quelle di Einstein si semplificano notevolmente (e
magari si possono addirittura risolvere!) se si fa qualche ipotesi opportuna e diventano più
facilmente interpretabili da un punto di vista fisico. In termini più corretti, si semplificano se si
assume qualche simmetria (così come, ad esempio, il moto lungo un cerchio è più semplice da
descrivere di un moto caotico). Consideriamo in particolare la cosmologia d’inizio ‘900: mossi
soprattutto da un interesse matematico per le soluzioni delle equazioni di Einstein, anche se
debolmente garantiti dall’evidenza osservativa, possiamo valutare come si presentano le
equazioni di Einstein facendo l’ipotesi che lo spazio-tempo da queste descritto sia invariante
sotto la simmetria per traslazioni, cioè omogeneo, o invariante sotto la simmetria per rotazioni,
cioè isotropo, o omogeneo e isotropo, o altro. In questo modo sono stati studiati numerosi
modelli e per ciascuno di essi sono state calcolate le conseguenti proprietà fisiche osservabili
(ed es. numero di oggetti per unità di volume).
12
Torniamo a oggi. La simmetria per rotazioni e la simmetria per traslazioni, cioè isotropia e omogeneità, ora
hanno dignità fisica sulle scale cosmologiche perché provate da osservazioni, tanto da aver meritato
l’appellativo di Principio Cosmologico. Di conseguenza le equazioni di Einstein si semplificano lecitamente in
una forma più leggibile: resta così definito il “Modello Cosmologico Standard”, il punto di partenza per
costruire dei modelli ragionevoli del cosmo su larga scala.
[10] Equazioni di Friedmann.
Le equazioni di Einstein scritte sulla base del Principio Cosmologico furono formulate da
Friedmann nel 1922. Esse descrivono (il quadrato della) velocità – H nelle equazioni- e
accelerazione dell’universo, riconducibili alle grandezze osservabili magnitudine e redshift,
come effetto della densità media di energia e della pressione media di tutte le sue componenti:
radiazione, materia barionica (protoni, neutroni, atomi di idrogeno, ecc.; MACHO), materia non
barionica (materia oscura: vedi Lezione 3 @ Macrocosmo), neutrini, ecc. Matematicamente sono
delle equazioni differenziali, cioè equazioni la cui soluzione è una funzione: con la geometria in
gioco la soluzione è il “fattore di scala” a(t), che definisce le distanze degli oggetti da noi come
da qualunque altro osservatore (per il principio copernicano!), dunque l’estensione delle strutture
sulle scale cosmologiche e quindi, rozzamente, il “raggio” dell’universo visibile. Fissati i parametri
cosmologici e H a un dato istante, il fattore di scala a(t) assume una forma ben definita come
funzione del tempo t (un esempio: per il “modello Standard Cold Dark Matter”, SCDM, in grado
di spiegare le osservazioni compiute fino ad una decina di anni fa nell’ipotesi di universo piatto,
si ricava a(t) = [costante] t2/3). Tutte le grandezze osservabili che descrivono la cinematica e la
dinamica dell’universo sono funzioni del fattore di scala, o equivalentemente (composizione di
funzioni!) del redshift z:* risulta infatti (1 + z) = 1/a – relazione che permette un diretto legame
tra una grandezza osservabile, la lunghezza d’onda, e la grandezza caratterizzante la geometria
dello spazio-tempo. Secondo la relazione 1/a = (1+z) resta fissata allora la dipendenza spaziotemporale delle grandezze osservabili: ad esempio tempo e redshift, t=t(z), densità di energia
media e il redshift, =(z), temperatura media e reshift, T = T(z), numero di oggetti e redshift,
N = N(z). Dalla misura un osservabile e del corrispondente redshift si possono inferire i valori
dei parametri cosmologici coinvolti: in questo modo si testa il modello confrondandone le
previsioni con previsioni di altra natura. Un esempio: il modello SCDM prevede che l’età
dell’universo sia inferiore a quella degli oggetti più vecchi in esso contenuti, gli ammassi globulari
- stimata per altra via - il che è evidentemente assurdo. Un modello più corretto dovrà ovviare a
questo difetto.
Quali le principali conseguenze delle soluzioni delle equazioni di Friedmann? [11]
1. Big Bang. Matematicamente le equazioni differenziali richiedono che siano definite
delle condizioni iniziali, cioè che il valore iniziale della funzione incognita (e delle sue
derivate…) sia preassegnato. Nel caso delle equazioni di Friedmann, per convenienza, cioè per
*
Il redshift è definito dal rapporto (oss - em) /em , dove è oss la lunghezza d’onda della radiazione
elettromagnetica emessa dalla sorgente luminosa misurata dall’osservatore (noi) e em quella misurata nel sistema di
riferimento solidale con la sorgente, in moto rispetto all’osservatore. Data la natura relativistica del segnale
(fotoni!), l’effetto doppler così manifestato non distingue tra moto dell’osservatore o della sorgente: è rilevante
solo il moto relativo dei due.
13
riuscire a risolverle, si usa porre a(0) = 0: significa dire che all’istante iniziale t = 0 il “raggio
dell’universo” è nullo. Ciò sembra dire che procedendo all’indietro nel tempo tutta la materiaenergia fosse concentrata in un punto geometrico e che ad un certo istante (t = 0) il tutto ha
cominciato a prendere forma: il Big Bang. Ovviamente questa è un’approssimazione di comodo,
utile solo a poter definire una soluzione, cioè un modello, la cui validità va limitata a
descrivere il comportamento dell’universo a tempi successivi (t > 0) e dunque su regioni
spazialmente estese, cioè di interesse fisico e non geometrico (il punto geometrico è
fisicamente irrilevante). Il Big Bang è dunque solo l’effetto dell’estrapolazione di un risultato
della relatività generale in situazioni dove questa teoria non è più valida. Einstein stesso
scrisse: “La teoria è basata sulla separazione dei concetti di campo gravitazionale e materia.
Nonostante questa possa essere una valida approssimazione per campi deboli, può
presumibilmente essere abbastanza inadeguata per densità di materia molto alte. Non si può
pertanto assumere la validità delle equazioni per densità di energia molto alte ed è solo
possibile che in una teoria unificata non ci debbano essere tali singolarità” [“The Principle of
Relatività”, Methuen, London, 1950]. In tali regimi la fisica teorica moderna usa appellarsi
alla Gravità Quantistica o alla Teoria delle Superstringhe, tanto lontane da una formulazione
definitiva quanto matematicamente stimolanti (e ricordiamo che interessi esclusivamente
matematici stimolarono le prime soluzioni delle equazioni di Einstein!).
2.
Geometria 3D. Come visto prima, solo tre geometrie sono compatibili con uno spazio
omogeneo e isotropo. Per ciascuna di esse sono univocamente definiti lunghezza di un
segmento e angolo tra due rette in termini del fattore di scala a(t); l’estensione di un
oggetto, ad es. un ammasso di galassie, o l’angolo sotteso da due oggetti, ad es. individuato
dalla traiettoria della luce emessa da due quasar distanti, dipende dalla geometria media e
quindi, attraverso le equazioni di Friedmann, dalla distribuzione di energia media
dell’universo, cioè dai parametri cosmologici. La corrispondenza biunivoca tra geometria
dell’universo e contenuto di materia-energia è manifesta riscrivendo le equazioni di
Friedmann in termini della densità critica cr, definita come valore della densità  in
corrispondenza del quale la geometria spaziale è piatta (k = 0), cioè quella euclidea. Scrivendo
 = cr, la prima equazione di Friedmann diventa
1 =  - kc2 / (H2 a2):
risulta allora k = 0 se e solo se  = 1, k = +1 se e solo e  > 0 e k = -1 se e solo se  < 0.
Osservazione: da questa equazione che si deduce che il segno di k resta costante nel tempo.
3. CMB. [12] Si è già parlato della radiazione cosmica di fondo (CMB) interessati alle
informazioni sulla geometria che da essa si possono dedurre. Consideriamo ora la sua origine
fisica un po’ più in dettaglio, alla luce della storia termica dell’universo. Si può immaginare che
nei primi istanti di vita l’universo fosse costituito da una miscela di materia (protoni,
elettroni, ecc.) e radiazione elettromagnetica in equilibrio termodinamico sotto forma di
“plasma” – uno stato che sappiamo ben descrivere con le leggi dell’elettromagnetismo e della
fluidodinamica. Come osservato da Hubble nel 1929, l’universo è in espansione; per effetto
dell’espansio-ne ad un certo istante la radiazione elettromagnetica e la materia non
interagisco-no più come durante l’iniziale fase di plasma (tecnicamente, si disaccoppiano).
14
Quella radiazione, a questo punto libera di propagarsi, da allora giunge alle nostre antenne
praticamente senza più interagire con la materia, mantenendo l’impronta delle condizioni di
equilibrio in cui si trovava l’universo nell’istante in cui si è disaccoppiata: deve essere
caratterizzata cioè da uno spettro di corpo nero corrispondente alla temperatura di
disaccoppiamento (~ 3000 K). Le equazioni di Friedmann devono predevere come il valore di
quella temperatura varia con il redshift, come effetto dell’espansione adiabatica
dell’universo: il valore predetto per z = 0, cioè misurato oggi, è proprio quello osservato,
2.728 ± 0.002K!
Verso la complessità.
Sulla base dei grafici z e z-T, è possibile distinguere delle fasi nella storia evolutiva
dell’universo. Una di particolare interesse l’abbiamo appena reincontrata, riguarda l’”istante”
dell’emissione della radiazione cosmica di fondo a microonde; l’elevato grado di isotropia di
questa radiazione si è dimostrato di fondamentale importanza per la geometria su larga scala.
Ma la radiazione del CMB è realmente isotropa? Eventuali anisotropie cosa segnalerebbero?
Consideriamo due aspetti di rilievo in cosmologia: lo studio delle anisotropie della radiazione
cosmica di fondo (1) quale attuale strumento per la misura ad elevata precisione di alcuni
parametri cosmologici e (2) in quanto punto di partenza del processo fisico che domina almeno il
90% del tempo di vita dell’universo, la formazione e l’evoluzione delle strutture cosmiche, da
galassie ad ammassi e superammassi di galassie fino alle strutture su larga scala.
Anisotropie del CMB.
[anisotropia di dipolo] Una differenza di temperatura dal valor medio di una parte su mille è
rilevata in due regioni opposte sulla sfera celeste, vale a dire separate da un angolo di 180°. Non
è di origine cosmologica, ma va imputata all’effetto Doppler dovuto al moto peculiare della
nostra galassia: la radiazione cosmica di fondo proveniente dalla regione verso cui ci muoviamo (il
Grande Attrattore) appare “più blu”, quella proveniente dalla regione da cui ci allontaniamo
appare viceversa “più rossa”, come se l’universo fosse più caldo in una direzione e meno in quella
opposta. Un “osservatore cosmologico” a riposo sarebbe quello che non osserva tale anisotropia.
[anisotropie d’ordine superiore] Lo strumento DMR, montato sul satellite COBE che per la prima
volta rileva lo spettro di corpo nero della radiazione cosmica di fondo con eccezionale
precisione, misura delle differenze di temperatura dal valore medio pari ad una parte su 105.
Tali deviazioni dall’isotropia risultavano su una scala angolare di circa 7°, limite dovuto al potere
risolutivo dello strumento: ciò lascia intendere che strumenti sensibili a scale angolari inferiori
possano scoprire un aspetto ancora più articolato. Il più recente risultato in questa direzione è
stato raggiunto dal satellite WMAP, che ha ottenuto delle immagini straordinariamente
dettagliate; immagini ancor più dettagliate saranno ottenute dal satellite PLANCK, il cui lancio è
programmato per il 2007. Molte delle informazioni codificate nelle anisotropie di temperatura
su piccola scala sono di origine cosmologica, ad esempio la curvatura media dell’universo e i
parametri di densità  di materia oscura e materia barionica. Questo segnale se ne
sovrappongono altri di origine non cosmologica, ad esempio dovuti all’emissione di galassie vicine
o della polvere del mezzo intergalattico: lo spettro complessivo è uno strumento per studiare
anche questi processi astrofisici.
[12] [missione Boomerang] Dati eccezionalmente precisi sulle anisotropie della radiazione
cosmica di fondo sono stati ottenuti dalla missione Boomerang, un telescopio montato su un
15
pallone aerostatico fatto volare al Polo Sud nel 1998. Il telescopio ha osservato solo una regione
di cielo, ciononostante le informazioni dedotte sono state molto accurate. Il risultato più
rilevante è stato la misura della curvatura dell’universo inferita dalla separazione angolare media
dei picchi di intensità corrispondenti alle regioni più calde (10K oltre la temperatura media di
2.7K). Con un errore sperimentale di circa il 5% quei dati risultano compatibili con un modello di
universo piatto, la geometria spaziale media è cioè quella euclidea. Questo effetto è in totale
accordo con l’ipotesi dell’inflazione primordiale, una fase di espansione accelerata in cui sarebbe
incorso l’universo nei primi istanti di vita, teorizzata per risolvere alcuni problemi del Modello
Cosmologico Standard.
[14] Formazione delle strutture cosmiche: ammassi di galassie, superammassi di
galassie, strutture su larga scala. Dopo l’oscura e affascinante fase iniziale dominio della
Gravità Quantistica, e la successiva inflazione, raffreddandosi l’universo si assesta in uno stato
più familiare, nel quale dominano le interazioni forti, deboli ed elettromagnetiche descritte dal
Modello Standard delle Particelle Elementari. Si formano prima i quark, che condensano poi in
adroni (essenzialmente protoni e neutroni), che a loro volta si fondono in nuclei di atomi leggeri
(nucleosintesi primordiale). Sulla base della consolidata teoria che descrive questi processi, è
possibile predire l’abbondanza degli elementi leggeri così formati: misure su scale cosmologiche
delle abbondanze di idrogeno, elio, litio, ecc., neutri e ionizzati, sono in accordo con le stime
teoriche, confermando la previsione del raffreddamento dell’universo in virtù della sua
espansione così come descritta dal Modello Cosmologico Standard.
[15] La materia così formata, in equilibrio con la radiazione elettromagnetica, è ancora
distribuita sostanzialmente in modo omogeneo e isotropo. La debole anisotropia della
distribuzione di materia, che è quella letta nelle anisotropie della radiazione cosmica di fondo di
ordine 10-5, è tuttavia in grado di accendere il meccanismo di collasso gravitazionale: se le
fluttuazioni di materia sono sufficientemente vicine, in virtù della loro massa possono vincere il
moto di espansione reciproco e dar luogo alla formazione delle strutture cosmiche. Si entra così
nella fase in cui dominano le interazioni gravitazionali. [regime lineare e non-lineare] [16] Da
principio sono molto deboli: fintanto che le fluttuazioni della densità di materia sono piccole
rispetto al valore medio, le relazioni matematiche che descrivono il processo di collasso possono
essere semplificate notevolmente, fornendo una soluzione analitica. Quando le concentrazioni di
materia sono elevate, una trattazione analitica non è più sufficiente: si rende necessario l’uso
del calcolo numerico per ottenere soluzioni “esatte”. In qualche modo si può pensare a questo
approccio come ad un laboratorio: variando tutti i parametri liberi, si realizzano configurazioni
da confrontare con quelle reali osservate con i telescopi, chiamando in causa solo equazioni che
descrivono processi ben noti (F = ma = -GMm r/r3 !).
La natura della materia su cui agiscono le forze gravitazionali definisce la storia di formazione
delle strutture cosmiche. Ad esempio, scenari in cui ci sia solo materia oscura “calda” (la cui
massa è molto piccola, e.g. 1eV/c2), prevedono la formazione prima di strutture su larga scala, a
cui seguirebbe per frammentazione la formazione di strutture su scale più piccole (galassie e
ammassi di galassie): il quadro così dipinto è però poco compatibile con le osservazioni. Scenari
con solo materia oscura “fredda” (cioè non relativistica) prevedono invece prima la formazione di
piccole strutture, poi di quelle su scale maggiori: anche così non si ottengono risultati in pieno
accordo con le osservazioni.
[17] Il modello che descrive meglio quanto effettivamente osservato si avvicina a quest’ultimo,
16
che deve però essere modificato con il coinvolgimento di una costante cosmologica () – a questo
livello è solo un parametro geometricamente compatibile con le equazioni di Einstein, ma negli
ultimi anni sta attirando molta attenzione per effetti direttamente misurati e per
l’inquadramento in teorie fondamentali che si propongono di estendere il Modello Standard delle
Particelle Elementari.
Questi modelli (CDM) prevedono una storia di formazione delle strutture di tipo gerarchico:
prima si sarebbero formate le strutture di piccola massa, le galassie, successivamente strutture
più massive, ammassi e superammassi di galassie. Le prime galassie osservabili, sedi di processi
astrofisici ad alta energia (quasar, in sigla QSO), risulterebbero osservabili a valori di redshift
z  6: è quanto effettivamente osservato di recente dal telescopio spaziale Hubble! Questo
modello di formazione risulta compatibile con le osservazioni. – vedi anche [20-21-22-23-24-25]
[18] ICM. Finora ci siamo concentrati sulle sorgenti luminose. È ovvio, tuttavia, che la maggior
parte dello spazio è occupata da regioni vuote, o più correttamente regioni in cui la densità di
materia è inferiore al valor medio; la loro evoluzione è regolata dalle stesse leggi che descrivono
la dinamica degli oggetti collassati. Queste appaiono buie nella banda dello spettro visibile:
osservandole invece nell’infrarosso o nella banda X, manifestano una natura ben più ricca.
Su distanze cosmologiche, risultano di interesse le regioni tra gli ammassi di galassie (Intra
Cluster Medium, ICM). Sono regioni estremamente calde, sedi di interazioni elettromagnetiche
e processi d’urto tra elettroni e atomi pesanti ionizzati: il risultato è uno spettro caratteristico,
dalla cui forma è possibile dedurre la temperatura di quelle regioni e la densità media di
elettroni e ioni pesanti in esse contenuti. Lo studio di simulazioni e il confronto con i dati
osservativi costituiscono lo strumento per l’indagine di queste strutture e il ruolo giocato
contemporaneamente
dalla
fluidodinamica
e
dall’elettrodinamica
(collettivamente
magnetoidrodinamica, un ramo della fisica dei plasmi). – vedi anche [21]
[26-27] Un altro strumento di indagine del mezzo inter cluster, nella fattispecie la distribuzione
dell’elemento più abbondante sulle scale cosmologiche, l’idrogeno, è lo studio degli spettri dei
quasar più distanti (circa z > 3). La radiazione da questi emessa attraversa lo spazio fino a
raggiungere i nostri telescopi – spostata verso lunghezze d’onda maggiori per effetto
dell’espansione dell’universo. Nell’attraversa-mento di regioni con idrogeno neutro, viene
assorbita la componente di questa radiazione in grado di portare l’idrogeno neutro dallo stato
fondamentale al primo stato eccitato, cioè i fotoni con lunghezza d’onda pari a 1216Å. La lettura
dello spettro di assorbimento permette una mappatura della distribuzione dell’idrogeno lungo la
linea di vista: dalla posizione della riga di assorbimento si deduce il valore del redshift della
regione assorbente, cioè la sua distanza da noi; dall’ampiezza della riga di assorbimento si risale
invece alla densità di idrogeno di quella regione. [28] Confrontando gli spettri di assorbimento di
due o più quasar angolarmente vicini è poi possibile una mappatura bi- o tri-dimensionale della
distribuzione dell’idrogeno neutro. Ancora una volta, le simulazioni numeriche costituiscono il
“laboratorio” per esplorare questi sistemi. E si ricordi: l’astronomia non è una scienza galileiana!
[19] Epilogo.
Si conclude così questa rapida e sicuramente non esaustiva panoramica u quell’affascinante ramo
delle scienze fisiche e astronomiche che passa sotto il nome di cosmologia: lo strumento con cui
raccontare la storia dell’universo dai primi istanti di vita fino ad oggi, in un quadro che vede
coinvolti relatività generale, fisica delle particelle elementari, elettrodinamica e fluidodinamica,
che lascia spazio all’introduzione di nuove teorie e nuova fisica, che fa uso dei più raffinati
17
strumenti della statistica e del calcolo numerico e che stimola il progresso tecnologico per
l’esplorazione del cosmo. Tutto ciò dovrebbe almeno suscitare curiosità e stimolare
l’immaginazione. E forse aveva ragione Einstein: “Imagination is more important than knowledge”.
Paul
davies
Alla ricerca di Dio
I teologi affermano che l'universo ha molti tratti "contingenti". Intendono dire che
presenta dei fenomeni che devono essere spiegati con il richiamo a qualcosa d'altro, con
delle cause esterne all'universo. Certamente l'esistenza degli esseri umani, come quasi
tutto ciò che possiamo osservare nell'universo, è, in questo senso, contingente.
Dunque, ci deve essere stato un atto di intellegenza che ha selezionato l'enorme varietà
di universi possibili. Deve essere stato, in qualche modo, "scelto" un universo, o una
gamma ristretta di universi. Non é illecito ritenere che questa selezione si situi al di fuori
o al di là del dominio della fisica, nello spazio della metafisica. Così da un punto di vista
religioso si può dire che questa selezione è stata fatta da Dio. Molti scienziati non amano
questa spiegazione ed affermano che dobbiamo ricercare un meccanismo di selezione
del tutto interno all'universo.
I cosmologi di oggi, però, si richiamano alla cosiddetta "fisica dei quanti" e con essa
cercano di rendere ragionevole l'idea teologica di una creazione dal nulla dell'universo.
La fisica dei quanti si basa sul cosiddetto "principio di indeterminazione" di W.
Heisenberg. Questo principio ci dice che tutto ciò che può essere misurato o osservato è
soggetto a fluttuazioni spontanee: possono accadere, cioé, cambiamenti improvvisi
senza ragione alcuna. Possiamo osservare in laboratorio come il fenomeno dei quanti
faccia accadere delle cose senza ragione apparente. Ad esempio, il decadimento di un
nucleo radioattivo è qualcosa che accadrà in un certo momento particolare senza ragioni
apparenti. Noi non possiamo dire in anticipo perché o quando il nucleo decadrà, perché
ciò accade in un momento piuttosto che in un altro. In altre parole, per la fisica dei
quanti c'è una imprevedibilità inerente alla natura. Diviene così possibile per la prima
volta concepire un universo che nasce per una sorta di fluttuazione quantistica: la sua
origine è un evento senza causa.
Nella fisica pre-quantistica non era concesso avere degli eventi senza cause. Tutto ciò
che avveniva nell'universo doveva avere una causa antecedente ben definita, mentre
nella fisica quantistica è possibile che si producano degli eventi senza una causa
antecedente ben definita. Se questo evento è la nascita dell'universo, esso non
costituisce più per noi un problema: l'universo semplicemente nasce venendo fuori dal
nulla.
Dobbiamo ricordarci che già molti secoli or sono Sant'Agostino diceva che il mondo é
nato con il tempo e non nel tempo. E' degno di nota che la moderna immagine
18
cosmologica riprenda questo punto di vista. Oggi sappiamo che spazio e tempo sono
parte dell'universo fisico e sono nati con esso. Vorrei esprimere la cosa in questi termini:
prima di Einstein si era portati a pensare allo spazio e al tempo come ad un'arena in cui
si rappresentava il grande dramma della natura. Noi sapppiamo ora che spazio e tempo
appartengono in effetti al "cast" di questo dramma: essi stessi partecipano al dramma,
sono attori nel grande dramma della natura che si svolge di fronte a noi.
Non si può davvero parlare della nascita della materia senza parlare della nascita dello
spazio e del tempo. L'idea della nascita del tempo é molto originale. Essa comporta una
conseguenza: domande del tipo "Cosa accadde prima del "big bang"?", oppure "Che
cosa ha causato il "big bang"?", risultano prive di significato, perché non c'era un
"prima", non c'era una causa antecedente come la intende la fisica tradizionale.
Inoltre, se spazio e tempo sono elementi dell'universo, possono essere allungati e
accorciati perfino in laboratorio. Possiamo manipolare spazio e tempo allo stesso modo
in cui possiamo manipolare la materia. Se essi sono parte, per usare un termine
religioso, della "creazione", allora devono esser stati creati. Io personalmente non credo
che ci sia modo di dare un senso al mondo senza supporre che spazio e tempo, nel "big
bang", siano stati creati con la materia e l'energia originarie.
Tratto dall'intervista "Riflessioni sulla cosmologia contemporanea" –
Venezia, Università Ca' Foscari, sabato 16 dicembre 1989
19
Aforismi
Paul Davies
Scienza e tecnica
Documenti correlati
DOMANDA
Professor Davies, condivide la distinzione fra scienza e uso della scienza?
DAVIES
Sicuramente. Penso che, spesso, si tenda ad equiparare scienza e tecnologia. La mia
carriera è stata contrassegnata dal tentativo di comprendere la scienza come un mezzo
per svelare i segreti della natura. Il mio fine è sempre stato capire come funziona il
mondo e qual è il suo significato. E credo sia questo un uso molto nobile della scienza.
Ma vi esiste anche la scienza come fondamento della tecnologia. Come ho già avuto
modo di spiegare, non credo che possiamo fare a meno della tecnologia. La tecnologia
non è intrinsecamente buona o cattiva, è buona o cattiva a seconda dell’uso che ne
vien fatto. Molti cercano di giustificare il fatto di fare scienza in base ai suoi risultati
tecnologici. Secondo me la scienza è veramente un’impresa più profonda. Essa è per
sua natura fondamentalmente culturale. E’ da porre accanto alle arti, ed è qualcosa che
vale la pena di fare per se stessa. Ma ovviamente la scienza è costosa, deve pagare un
prezzo per il proprio sviluppo e lo fa attraverso i suoi prodotti tecnologici. Ma è nell’era
della tecnologia e non in quella della scienza come tale che si nascondono i pericoli. La
scienza è semplicemente un nobile cammino verso la conoscenza. Invece, la scienza, in
quanto strumento di creazione della tecnologia, è pericolosa: per questo dobbiamo non
già arrestarci, ma essere consapevoli dei suoi pericoli e creare le istituzioni e la
regolamentazione adatta per esser sicuri che essa non sfugga mai al controllo.Credo sia
finita ormai da molto tempo l’epoca in cui gli scienziati potevano permettersi di dire
semplicemente che era colpa dei politici. Una volta fatta una scoperta scientifica è
inevitabile che prima o poi qualcuno voglia sfruttarla. Il problema è che non possiamo
sapere in anticipo quale filone della ricerca probabilmente si dimostrerà pericoloso e
quale invece benefico. Ora io non credo che possiamo tornare sui nostri passi. Coloro
che vedono nella scienza puramente qualcosa di funesto e che vorrebbero in qualche
modo tornare all’epoca medioevale, alla società pre-tecnologica, sono in grave errore,
sono fuori strada. Ormai è troppo tardi, non possiamo fare a meno della scienza,
dipendiamo dalla scienza e dalla tecnologia in talmente tanti modi per la nostra
esistenza che siamo costretti ad accettarla, nel bene e nel male. Io credo sia giunto il
momento quindi per gli scienziati stessi di comportarsi, se mi è concesso esprimermi in
questi termini, come poliziotti rispetto alle proprie scoperte. Non disponiamo ancora di
istituzioni che svolgano questo compito, anche se se ne intravede l’inizio, ad esempio
nell’area della biotecnologia, nel modo in cui gli scienziati si autodisciplinano al fine di
non creare mostri che verrebbero poi abbandonati, finendo al di là di ogni controllo e
minacciando le nostre vite. Spero che questa idea degli scienziati che si assumono la
responsabilità per il loro lavoro si diffonda anche in altri campi. Ma in definitiva,
naturalmente la società nel suo insieme deve accettare che se si vogliono trarre
benefici dalla scienza, si deve anche imparare a convivere con i suoi pericoli.
20
BREVE CORSO DI ASTROFISICA
Parte 1: le osservazioni cruciali
Fino a qualche centinaio di anni fa, il sistema solare e l'Universo erano equivalenti nella mente degli uomini
dotti, dunque la scoperta che la Terra non è il centro del sistema solare fu un passo decisivo nello sviluppo della
cosmologia. Inoltre all'inizio del XX secolo Shapley stabilì che il sistema solare si trovava lontano dal centro
della Via Lattea. Dunque negli anni '20, la situazione scientifica e culturale era matura per le osservazioni
cruciali che avrebbero portato al modello del Big Bang.
Il redshift delle galassie
Nel 1929 Hubble annunciò che il redshift delle galassie era proporzionale alla loro distanza. Il redshift di una
galassia è un indice della sua velocità radiale, e può essere determinato utilizzando uno spettrografo per
misurare lo spostamento Doppler. Il grafico seguente mostra i dati di Hubble del 1929:
La pendenza della retta che interpola queste misure è ora nota come costante di Hubble H0. Dato che sia i
kilometri che i Megaparsec sono unità di distanza, l'unità di misura di H0 è 1/tempo, ed il fattore di conversione
è dato da
1/H0 = (978 miliardi di anni)/(H0 in km/s/Mpc)
Per questo motivo, il valore di 464 km/s/Mpc ottenuto da Hubble era equivalente a circa 2 miliardi di anni. Dal
momento che tale valore dovrebbe approssimare l'età dell'Universo, e noi sappiamo (era noto anche nel 1929)
che l'età della Terra supera i 2 miliardi di anni, il valore di H0 trovato da Hubble portò ad un generale
scetticismo nei confronti dei modelli cosmologici, e fornì una motivazione a favore del modello stazionario.
Tuttavia, pubblicazioni successive misero in luce alcuni errori: Hubble aveva confuso due tipi diversi di
variabili Cefeidi usate per calibrare le distanze, inoltre aveva considerato come stelle molto luminose regioni
HII in galassie lontane. La correzione di questi errori portò ad un ridimensionamento verso il basso del valore
della costante di Hubble. Attualmente ci sono principalmente due gruppi scientifici che utilizzano le Cefeidi per
determinare H0: l'HST Distance Scale Key Project team (Freedman, Kennicutt, Mould et al) che ha ottenuto il
valore di 68÷78 km/s/Mpc, mentre il gruppo di Sandage, che usa anche osservazioni del telescopio spaziale per
21
calibrare supernovae di tipo Ia, ha ottenuto il valore di 57 ± 4 km/s/Mpc.
Altri metodi per determinare la scala di distanza includono il ritardo temporale nelle immagini multiple delle
lenti gravitazionali e l'effetto Sunyaev-Zeldovich negli ammassi distanti: entrambi sono indipendenti dalla
calibrazione delle Cefeidi e forniscono valori consistenti con la media dei due gruppi che usano HST: 65 ± 8
km/s/Mpc.
Con questo valore di H0, l'età approssimativa dell'Universo 1/H0 è di 15 miliardi di anni.
I dati di Hubble del 1929 erano, dal nostro punto di vista, abbastanza scadenti. Infatti le singole galassie hanno
velocità peculiari di diverse centinaia di km/s, e i dati di Hubble arrivavano solo a 1.200 km/s. Ciò ha indotto
alcuni a proporre una legge quadratica redshift-distanza, ma i dati illustrati di seguito sulle supernovae di tipo Ia
da Riess, Press and Kirshner (1996)
si estendono oltre 30.000 km/s e forniscono una spettacolare conferma della legge di Hubble,
La retta interpolante in questo grafico ha una pendenza di 65 km/s/Mpc.
Come già detto, noi misuriamo la velocità radiale delle galassie usando lo spostamento Doppler. Dato che
praticamente tutte le galassie si allontanano e dunque mostrano uno spostamento verso il rosso delle righe
spettrali, molto spesso si usa l'espressione redshift. Il redshift z è definito in modo che:
dove lambda è la lunghezza d'onda della riga o della caratteristica dello spettro di un oggetto celeste.
Sappiamo dalla relatività che il redshift è dato da
dunque, ricaviamo v = cz + termini di ordine superiore
Il pedice "0" in H0 (pronunciato "acca zero") indica il valore attuale di una quantità variabile nel tempo. Dal
momento che 1/H0 è approssimativamente l'età dell'Universo, il valore di H dipende dal tempo. Un'altra
22
quantità con il pedice zero è t0, l'età dell'Universo.
La legge lineare redshift-distanza trovata da Hubble è compatibile con la visione copernicana dell'Universo: la
nostra collocazione non è speciale. Innanzitutto nota che la velocità di allontanamento è una quantità
simmetrica: se A vede B allontanarsi, allora B vede A allontanarsi, come illustra questo disegno:
basato su uno schizzo di Bob Kirshner. Poi considera il seguente diagramma spazio-temporale che mostra
numerose galassie vicine che si allontanano da noi. Il diagramma sopra è rappresentato dal nostro punto di vista
costituito dalla galassia A (la linea d'universo blu) in basso dal punto di vista della galassia B (la linea
d'universo verde)
I diagrammi sono identici, tranne per il fatto che i nomi delle galassie sono diversi. Invece, la legge quadratica
v(sq) = D2 quando si cambia il punto di vista, si trasforma in una legge anisotropa non quadratica, come
mostrato di seguito
Per questo motivo, se ammettessimo una relazione quadratica tra velocità e distanza, allora un osservatore in
un'altra galassia scoprirebbe una legge di tipo diverso - per di più tale legge cambierebbe al variare della
direzione. Dunque B misurerebbe velocità radiali molto più alte nella direzione "piu" rispetto alla direzione
"meno". Questo effetto consentirebbe di identificare il "centro dell'Universo" trovando il punto dal quale la
relazione redshift-distanza appare la stessa in ogni direzione. Dato che effettivamente noi verifichiamo che è
così, o tale relazione è lineare, oppure ci troviamo proprio nel centro dell'Universo, e ciò è decisamente antiCopernicano.
La legge di Hubble genera una espansione omologa che non cambia la forma degli oggetti, mentre invece altre
possibili relazioni velocità-distanza producono distorsioni durante l'espansione.
23
La legge di Hubble definisce pertanto un sistema di riferimento privilegiato per tutti i punti dell'Universo. Un
osservatore in moto con velocità molto maggiore del flusso di Hubble potrebbe misurare dei blueshift in avanti
e dei redshift all'indietro, invece che i soliti redshift proporzionali alla distanza in tutte le direzioni. Per questo
motivo noi possiamo misurare il nostro moto relativamente al flusso di Hubble, che è anche il nostro moto
relativo all'Universo visibile. Un osservatore comovente è a riposo in questo speciale sistema di
riferimento. Il nostro sistema solare non è proprio comovente: abbiamo una velocità di 370 km/s relativa
all'Universo visibile. Inoltre il Gruppo Locale di galassie, che include la Via Lattea, sembra muoversi alla
velocità di 600 km/s relativamente all'Universo visibile.
La distribuzione delle galassie
Hubble ha anche misurato il numero di galassie in diverse direzioni e con diverse luminosità. Egli trovò
approssimativamente lo stesso numero di deboli galassie in ogni direzione, anche se c'era un evidente eccesso
di galassie luminose nell'emisfero boreale celeste. Quando una distribuzione è la stessa per ogni direzione, si
dice isotropa. E quando Hubble cercò galassie con un flusso luminoso più intenso di F/4 egli trovò
approssimativamente 8 volte il numero di galassie rilevato quando cercava quelle con flusso più intenso di F.
Dato che un flusso luminoso 4 volte più piccolo implica una distanza doppia, e quindi un volume 8 volte
maggiore, ciò indica che l'Universo è omogeneo (ha densità uniforme) su larga scala.
La figura qui sopra a sinistra mostra un pattern omogeneo ma non isotropo e a destra uno isotropo ma non
omogeneo. Se una figura è isotropa da più di un punto (due, se sferica), allora deve essere anche omogenea.
Ovviamente l'Universo non è completamente isotropo ed omogeneo, poiché contiene regioni dense come la
Terra. Ma può esserlo in senso statistico, come questo campo simulato di galassie (24 kb), il quale è omogeneo
ed isotropo, una volta trascurati i dettagli fini. Peacock e Dodds (1994, MNRAS, 267, 1020) hanno indagato le
fluttuazioni di densità relative nell'Universo vicino in funzione del raggio di un filtro passa-basso, e hanno
ricavato questo grafico:
24
Dunque per regioni più estese di 100 Mpc l'Universo è omogeneo entro qualche punto percentuale. Le Redshift
survey di regioni estremamente ampie confermano questa tendenza verso l'omogeneità su larga scala.
La radiazione cosmica di fondo
La visione di un Universo omogeneo e isotropo ha ricevuto una notevolissima conferma dopo l'annuncio di
Penzias e Wilson della scoperta di una radiazione cosmica di fondo (Cosmic Microwave Background
abbreviata altrove come CMB) nel 1965. Essi, lavorando ad una antenna per microonde, osservarono un
eccesso di flusso alla lunghezza d'onda di 7.5 cm equivalente ad una radiazione di corpo nero con una
temperatura di 3.7 ± 1 gradi Kelvin. Numerosi gruppi scientifici hanno misurato l'intensità della CMB a diverse
lunghezze d'onda. Attualmente le migliori informazioni sullo spettro della CMB provengono dallo strumento
FIRAS a bordo del satellite COBE, e sono illustrate di seguito
La variabile sull'asse x è il numero d'onda ovvero 1/[lunghezza d'onda in cm]. La variabile sull'asse y è la
potenza per unità di area per unità di frequenza per unità di angolo solido in in MegaJansky per steradiante. 1
Jansky è 10-26 Watt per metro quadrato per Hertz. Le barre d'errore sono state amplificate di un fattore 400 in
25
modo da risultare visibili, ma i punti sono consistenti con la radiazione emessa da un corpo nero con
temperatura di To = 2.725 K.
La temperatura della CMB è quasi la stessa in tutto il cielo. La figura a sinistra mostra una mappa della
temperatura in una scala tale che un punto a 0 K è bianco, a 4 K è nero. Al centro la stessa figura con la
componente isotropa rimossa ed il contrasto aumentato di 400 volte. Si evidenzia la componente di dipolo
dovuta al moto del sistema solare rispetto al flusso di Hubble e l'emissione del piano galattico. A destra la
stessa figura, rimossa la componente dipolare e l'emissione galattica, contrasto aumentato di 6667 volte: ora
sono visibili le fluttuazioni della CMB
Dunque il cielo visto per mezzo delle microonde è estremamente isotropo. Queste osservazioni sono combinate
nel Principio Cosmologico: l'Universo è omogeneo ed isotropo.
L'abbondanza degli elementi leggeri
Un'altra prova a favore del Big Bang è l'abbondanza degli elementi leggeri, come l'idrogeno, il deuterio, l'elio e
il litio. Man mano che l'Universo si espande, i fotoni della CMB perdono energia per effetto del redshift e la
CMB diviene più fredda. Ciò implica che la temperatura della CMB era molto più elevata in passato. Quando
l'Universo aveva solo alcuni minuti, la temperatura era abbastanza elevata da produrre gli elementi leggeri. La
teoria della nucleosintesi del Big Bang predice che circa 1/4 della massa dell'Universo dovrebbe essere
costituita da elio, e ciò è effettivamente quanto si osserva. L'abbondanza del deuterio è in proporzione inversa
con la densità di nucleoni nell'Universo, e il valore dell'abbondanza misurata di deuterio suggerisce che
nell'Universo c'è un solo nucleone ogni 4÷7 metri cubi di spazio.
Parte 2: rappresentazione ed evoluzione dell'Universo
Affermare che l'Universo è omogeneo significa che ogni proprietà misurabile è la stessa ovunque. Ciò non è
vero su scala ridotta, ma è una eccellente approssimazione qualora si faccia una media su regioni molto vaste.
Dato che anche l'età dell'Universo è una quantità misurabile, l'omogeneità dell'Universo deve essere definita per
una superficie con tempo proprio costante dal Big Bang. Tuttavia la relatività ristretta ci insegna che il tempo
proprio misurato da un osservatore dipende dalla sua velocità, dunque dobbiamo specificare che la variabile
temporale t nella legge di Hubble è il tempo proprio dal Big Bang per osservatori comoventi.
A patto che le variabili in gioco siano interpretate correttamente, la legge di Hubble (v = HD) è vera per ogni
valore di D, anche per quelli che implicano v>c. Si deve però prestare molta attenzione a come si intendono la
distanza e la velocità.
La distanza D nella legge di Hubble deve essere definita in modo tale che se A e B sono due galassie lontane
che noi vediamo nella stessa direzione, e A e B non sono troppo distanti tra loro, allora la differenza delle
distanze da noi, D(A)-D(B), è la distanza che A misurerebbe da B.
Questa misura però dev'essere fatta "ora", dunque A deve misurare la distanza da B allo stesso tempo proprio
dal Big Bang che misuriamo noi. Per questo motivo, allo scopo di determinare la distanza D per una galassia
26
remota Z, noi dobbiamo individuare una catena di galassie ABC...XYZ lungo il cammino per Z, con ciascun
elemento della catena abbastanza prossimo ai suoi vicini, e poi fare in modo che ciascuna galassia della catena
misuri la distanza dalla successiva al tempo to dal Big Bang. La distanza di Z, D(da noi a Z), è la somma di tutti
questi sotto-intervalli:
D(da noi a Z) = D(da noi ad A) + D(da A a B) + ... D(da X a Y) + D(da Y a Z)
La velocità nella legge di Hubble è semplicemente la derivata della distanza D rispetto al tempo ed è
approssimata dall'espressione v = cz per piccoli redshift ma devia significativamente per valori elevati di z.
Diagrammi spazio-temporali
Il tempo e la distanza usati nella legge di Hubble non sono come la x e la t usati nella relatività ristretta, e ciò
purtroppo a volte determina confusione. Il diagramma spazio-temporale di seguito illustra un modello
cosmologico di universo vuoto (ovvero con densità molto prossima a zero) usando la D e la t della legge di
Hubble rispettivamente come ascissa e ordinata.
Le linee d'universo degli osservatori comoventi sono decorate con piccoli triangolini che rappresentano il cono
di luce del futuro. La curva rossa a forma di pera è il cono di luce del nostro passato. Nota che la curva rossa ha
in ogni punto la stessa inclinazione dei piccoli coni di luce.
In questo spazio di variabili, velocità superiori a c sono certamente possibili, e dal momento che gli universi
aperti sono spazialmente infiniti, esse sono attualmente riscontrabili. Tuttavia non c'è contraddizione con il
principio della relatività ristretta, che impedisce agli oggetti massivi di raggiungere e superare la velocità della
luce. Infatti se rappresentiamo lo stesso spazio-tempo nelle coordinate relativistiche x e t (rispettivamente in
ascissa e in ordinata) otteniamo:
27
Le iperboli grigie rappresentano le superfici con tempo proprio costante dal Big Bang (il vertice in basso).
Quando noi le schiacciamo per produrre il precedente diagramma spazio-temporale, le linee d'universo delle
galassie si appiattiscono, dando velocità v = dD/dt che possono essere maggiori di c. Ma nelle coordinate della
relatività ristretta le velocità sono sempre inferiori a c. Possiamo anche vedere che il cono di luce del nostro
passato incrocia la linea d'universo di molte galassie remote alla distanza relativistica x = c*to/2. Ma la distanza
D in base alla legge di Hubble, che viene misurata ora, di queste galassie distanti è infinita (in questo modello
cosmologico).
Distanza o distanze?
Mentre la legge di Hubble è in linea di principio misurabile, la necessità di avere degli aiutanti lungo la catena
di galassie, fino a quella lontana di cui vogliamo misurare la distanza, la rende piuttosto impraticabile :)
Si possono allora definire altre distanze molto più facili da misurare.
Una di esse è la distanza DA data dalla dimensione angolare, la quale è definita da
e dunque
dove con R intendiamo l'estensione trasversale di un oggetto e "theta" è l'angolo (espresso in
radianti) che l'oggetto sottende sulla volta celeste. Il problema principale per la sua determinazione è che gli
oggetti celesti, pensa ad esempio ad una galassia, non hanno confini netti, ma sfumano gradualmente nello
spazio. Nel modello di universo "vuoto", la x della relatività speciale è uguale alla distanza data dalla
dimensione angolare, x = DA.
Un altro importante indicatore di distanza è il flusso luminoso ricevuto da un oggetto, che definisce dunque la
distanza di luminosità attraverso
Il flusso si misura mediante un fotometro, mentre la luminosità L deve essere in qualche modo nota a priori.
28
Gli oggetti celesti dei quali si conosce la luminosità sono detti candele standard. Fra le candele più importanti
annoveriamo le stelle variabili Cefeidi, che presentano una stretta relazione tra periodo e luminosità, e le
supernovae di tipo Ia, che hanno la stessa luminosità di picco durante l'esplosione.
Una quarta distanza è quella basata sul tempo di volo della luce: DT = c*(to-tem). Chi dice che la più grande
distanza visibile è c*to sta proprio usando questa accezione. Tuttavia la grandezza DT non è molto utile perché è
difficile conoscere tem, ovvero l'età dell'Universo nell'istante di emissione della luce che ora stiamo ricevendo.
Ed infine, il redshift è un importantissimo indicatore di distanza, dal momento che gli astronomi lo possono
msurare facilmente, invece la dimensione o la luminosità necessarie per calcolare DA o DL sono sempre
abbastanza difficili da stimare.
Relazioni tra le distanze
La curva che mette in relazione un indicatore di distanza rispetto agli altri dipende dal modello cosmologico
adottato. Il grafico del redshift in funzione della distanza per le supernovae di tipo Ia mostrato precedentemente
è realmente un diagramma di cz in funzione di DL, dal momento che i flussi luminosi sono stati utilizzati per
determinare la distanza delle supernovae. Questi dati chiaramente escludono i modelli che non predicono una
relazione lineare tra cz e DL, per piccoli cz. L'estensione di queste osservazioni alle supernovae remote hanno
iniziato a rivelarci qualcosa sulla curvatura del grafico di cz in funzione di DL.
L'accordo perfetto tra la CMB e la radiazione di corpo nero ci sonsente di determinare la relazione tra DA e DL
(ovvero tra la distanza data dall'estensione angolare e quella data dal flusso luminoso).
Dato che la CMB si è prodotta a grandissima distanza ma appare ancora come un corpo nero, un corpo nero
distante deve continuare ad assomigliare ad un corpo nero (anche se la temperatura cambia per effetto
dell'espansione). La luminosità del corpo nero è
L = 4*pi*R2*sigma*Tem4
dove R è il raggio, Tem è la temperatura del corpo nero emittente, sigma è la costante di Stephan-Boltzmann.
Vista al redshift z, la temperatura osservata sarà
Tobs = Tem/(1+z)
ed il flusso luminoso sarà
F = theta2*sigma*Tobs4
dove il raggio angolare è legato a quello fisico da
theta = R/DA
Combinando queste equazioni abbiamo
DL2 = L/(4*pi*F)
= (4*pi*R2*sigma*Tem4)/(4*pi*theta2*sigma*Tobs4)
= DA2*(1+z)4
ovvero
DL = DA*(1+z)2
I modelli che non prevedono questa relazione tra DA e DL, come ad esempio il modello cronometrico o quello
della luce affaticata, sono esclusi in base alle proprietà della CMB.
Ecco un calcolatore Javascript che riceve in input H0, OmegaM, la costante cosmologica lambda normalizzata,
29
il redshift z e fornisce in output tutte queste distanze.
Il fattore di scala a(t)
Dato che in base alla legge di Hubble (v=HD) la velocità, ovvero dD/dt, è strettamente proporzionale a D, la
distanza tra ciascuna coppia di osservatori comoventi cresce di un fattore
durante lo stesso intervallo
di tempo dt. Ciò significa che noi possiamo esprimere la distanza da ogni osservatore comovente come
DG(t) = a(t) * DG(to)
dove DG(to) è la distanza dalla galassia G ora, mentre a(t) è il fattore di scala universale che si applica a tutti gli
oggetti comoventi. Dalla sua stessa definizione vediamo che a(to) = 1.
L'evoluzione dell'Universo
Possiamo calcolare la dinamica dell'Universo considerando un oggetto la cui distanza è R = D(t) = a(t) Do.
Questa distanza e la velocità corrispondente dD/dt sono misurate rispetto a noi che siamo al centro del sistema
di riferimento (la galassia rossa). L'accelerazione gravitazionale dovuta alla sfera di materia di raggio D(t) è
Rho(t) è la densità di materia che dipende solo dal tempo poiché l'Universo è omogeneo. La massa contenuta
entro D(t) è indipendente dal tempo per il fatto che la materia all'interno ha una velocità di espansione più bassa
(e dunque non esce dalla sfera) mentre la materia all'esterno ha velocità di espansione maggiore (e dunque
rimane all'esterno).
30
Ricordando il teorema di Gauss, l'effetto gravitazionale della materia all'esterno della sfera non conta,
l'accelerazione gravitazionale all'interno della sfera è zero, e tutta la materia dell'Universo la cui distanza da noi
è superiore a D(t) può essere schematizzata con gusci concentrici. Con una massa interna a D(t) costante che
produce una accelerazione sul bordo, il problema si riduce a quello di un oggetto puntiforme (la galassia blu)
che si muove radialmente in un campo gravitazionale. Se la velocità è inferiore alla velocità di fuga, allora
l'espansione si fermerà ed il tutto tornerà a collassare.
Se la velocità eguaglia la velocità di fuga abbiamo il caso critico. In quest'ultimo caso abbiamo:
v = H*D = v(esc) = sqrt(2*G*M/D)
H2*D2 = 2*(4*pi/3)*rho*D2 ovvero
Per rho uguale o inferiore alla densità critica rho(crit), l'Universo si espanderà per sempre, mentre per rho
maggiore di rho(crit), l'Universo terminerà la sua espansione e ricollasserà. Il valore di rho(crit) per Ho = 65
km/s/Mpc è 8E-30 = 8*10-30 g/cm³ o 5 protoni per metro cubo o anche 1.2E11 = 1.2*1011 masse solari per
MegaParsec cubico. Quest'ultimo valore può essere paragonato al valore osservato di 1.1E8 = 1.1*108
luminosità solari per Mpc3. Se la densità è ovunque prossima al valore critico, gran parte della materia deve
essere troppo poco luminosa per essere osservata.
Le stime attuali suggeriscono che la densità di materia è compresa tra 0.3 e 1 volte la densità critica, e ciò
richiede che la maggior parte della materia nell'Universo sia oscura.
Parte 3: gli aspetti problematici
La curvatura spaziale
Una importante conseguenza della relatività generale è che la curvatura dello spazio dipende dal rapporto tra la
densità rho e la densità critica rho(crit). Possiamo chiamare questo rapporto Omega = rho/rho(crit).
Per Omega < 1, l'Universo ha curvatura negativa, ovvero una geometria iperbolica.
Per Omega = 1, l'Universo è piatto, ovvero è descritto dalla geometria euclidea.
Per Omega > 1, l'Universo ha curvatura positiva ovvero una geometria sferica.
Abbiamo già visto che il caso di universo vuoto, che possiede una geometria iperbolica, infatti in questo
modello le istantanee di tempo cosmico nelle coordinate della relatività speciale erano iperboloidi.
31
La figura qui sopra mostra i tre tipi di curvatura, e a fianco l'evoluzione dei corrispondenti fattori di scala a(t).
L'età dell'Universo dipende da Omega0 e anche da H0. Per Omega=1, il caso di densità critica, il fattore di scala
è
e l'età dell'Universo è
to = (2/3)/H0
mentre nel caso di universo vuoto, Omega=0, è
a(t) = t/to
con
to = 1/H0
Se Omega0 > 1 l'età dell'Universo è anche minore di (2/3)/H0.
32
La figura qui sopra mostra il fattore di scala in funzione del tempo misurato dal presente, per H0 = 65 km/s/Mpc
e per Omega0 = 0 (verde), Omega0 = 1 (nero), e Omega0 = 2(rosso). L'età dell'Universo è rispettivamente di 15,
10 e 8.6 miliardi di anni. Il ricollasso del modello con Omega0 = 2 avviene quando l'Universo è 11 volte più
vecchio di quanto non sia ora, e dato che tutte le osservazioni indicano che Omega0 < 2, abbiamo almeno 80
miliardi di anni prima di un Big Crunch.
Il valore di H0*to è una quantità adimensionale che deve valere 1 se l'Universo è praticamente vuoto, e 2/3 se
l'Universo ha densità pari al valore critico. Assumendo H0 = 65 ± 8 e to = 14.6 ± 1.7 miliardi di anni, troviamo
che H0*to = 0.97 ± 0.17. A prima vista ciò favorisce il modello di Universo vuoto, ma un errore di 2 deviazioni
standard verso il basso ci porterebbe al caso di densità critica.
Dato che sia l'età degli ammassi globulari utilizzata sopra, che il valore di H0 dipendono dalla scala di distanza
allo stesso modo, un errore in quest'ultima potrebbe ripercuotersi in modo significativo sul prodotto H0*to. In
effetti, misurazioni recenti dal satellite HIPPARCOS suggeriscono che la scala di distanza delle Cefeidi deve
essere aumentata del 10%, e anche l'età degli ammassi globulari dev'essere ridotta del 20%. Se assumiamo H0 =
60 ± 7 e to = 11.7 ± 1.4 miliardi di anni, troviamo che H0*to = 0.72 ± 0.12 che è perfettamente consistente con
un Universo di densità critica.
Per questi motivi è meglio ritardare le conclusioni a quando si saranno ottenuti dati più precisi.
Il problema della piattezza e dell'età
Se Omega0 > 1, l'Universo rallenterà progressivamente la sua espansione fino a fermarsi, e dunque Omega
diverrà infinito. Se invece Omega0 < 1, l'Universo si espanderà per sempre e, dato che la densità diminuisce più
in fretta della densità critica, Omega diminuirà sempre più. Per queste ragioni Omega = 1 è un punto di
equilibrio instabile, ed è notevole che Omega al momento sembri molto prossimo a 1.
33
La figura qui sopra mostra l'evoluzione di a(t) per tre modelli cosmologici con tre diverse densità al tempo di 1
ns dopo il Big Bang. La curva nera rappresenta il caso a densità critica rho = 447,225,917,218,507,401,284,016
g/cm³. Aggiungendo solo 1 a questi 447 sestilioni fa sì che il Big Crunch debba accadere proprio ora! Invece
portando via 1 otteniamo un modello con un Omega troppo basso che non si accorda con le osservazioni.
Per questo motivo diciamo che la densità 1 ns dopo il Big Bang è "quella giusta" con una accuratezza maggiore
di una parte su 447 sestilioni. Per non parlare di istanti precedenti, in cui l'accuratezza è maggiore di una parte
su 1059! Dato che, se la densità nelle fasi iniziali è leggermente maggiore, l'Universo ricollassa quasi subito,
questo è chiamato il problema dell'età. Inoltre, siccome l'Universo con densità critica ha geometria euclidea,
questo aspetto enigmatico è anche chiamato il problema della piattezza.
Qualunque sia il meccanismo che ha portato la densità al valore esattamente uguale a quella critica, funziona
estremamente bene, e sarebbe davvero strano se Omega0 fosse prossima a 1 ma non esattamente uguale a 1.
La manipolazione dei diagrammi spazio-temporali
Il modello a densità critica è mostrato nel diagramma spazio-temporale di seguito.
34
Nota che le linee d'universo delle galassie ora sono curve a causa della forza di gravità, che fa sì che
l'espansione sia rallentata. In effetti, ciascuna linea d'universo è k volte a(t) con k costante e uguale a (t/to)2/3 per
questo modello in cui Omega0 = 1. La curva rossa a forma di pera è il cono di luce del nostro passato. Questo
diagramma è disegnato per il nostro punto di vista, ma dato che l'Universo è omogeneo, lo stesso diagramma
tracciato per ogni galassia sarebbe identico.
35
La figura qui sopra mostra il diagramma spazio-temporale come se fosse disegnato sul lato di un mazzo di
carte. Quello di seguito rappresenta il mazzo di carte spinto lateralmente in modo da metterci nel sistema di
riferimento di A.
36
Nota che questa non è una trasformazione di Lorentz, inoltre le coordinate non sono quelle della relatività
ristretta. La trasformazione galileiana che potrebbe essere realizzata spingendo lateralmente il mazzo di carte
richiede che il bordo del mazzo rimanga rettilineo, e in ogni caso la trasformazione di Lorentz non può essere
raffigurata in questo modo perché non esiste un tempo assoluto. Tuttavia nei modelli cosmologici noi abbiamo
effettivamente un tempo cosmico, che è il tempo proprio dal Big Bang misurato da osservatori comoventi,
pertanto questa rappresentazione "del mazzo di carte" è valida.
La presenza della gravità in questo modello comporta uno spazio-tempo curvo che non può essere rappresentato
senza deformazioni su uno spazio-tempo piatto. Se ciascun sistema di coordinate è una rappresentazione
deformata dell'Universo, allora noi possiamo riferirci ad un conveniente sistema di coordinate, e tenere traccia
della deformazione alterando la forma dei coni di luce.
Ad esempio, spesso è conveniente "scorporare" l'espansione dell'Universo, il seguente diagramma spaziotemporale mostra il risultato della divisione della coordinata spaziale per a(t). Ora le linee d'universo delle
galassie sono tutte verticali.
La divisione ha espanso il nostro cono di luce del passato a tal punto che dobbiamo ridisegnarlo per mostrarlo
tutto:
Se ora noi "stiriamo" l'asse del tempo nei dintorni del Big Bang, otteniamo il diagramma spazio-temporale che
ha i coni di luce del passato con i bordi rettilinei:
37
Questo genere di diagramma spazio-temporale è chiamato "conforme", e mentre da un lato è fortemente
distorto, dall'altro rende semplice vedere dove va a finire la luce, e dunque ci consente una analisi immediata
dei rapporti di causalità. La trasformazione che abbiamo effettuato è analoga alla trasformazione dalla vista
laterale della Terra (a sinistra) alla proiezione di Mercatore (a destra).
Nota che una rotta in direzione costante verso Sud-Est è una linea retta sulla mappa di Mercatore, dunque
questa proiezione è analoga al diagramma spazio-temporale conforme, che mantiene rettilineo il bordo dei coni
di luce del passato.
Ricorda anche che lo spazio-tempo caratterizzato da Omega0 = 1 ha estensione infinita, quindi il diagramma
spazio-temporale conforme può proseguire ben oltre il nostro cono di luce del passato, come illustrato qui sotto.
Si possono utilizzare altri sistemi di coordinate. Se consideriamo la coordinata spaziale come l'angolo in un
38
diagramma polare, il cambio del punto di vista sarà molto facile: è sufficiente una rotazione.
Il diagramma qui sopra è relativo ad un modello di Universo con Omega0 = 2 (che in effetti è sferico) ed è
disegnato in questo modo con a(t) usata come coordinata radiale.
Il problema dell'orizzonte
Il diagramma spazio-temporale conforme è un valido strumento per descrivere le osservazioni dell'anisotropia
della CMB. L'Universo era opaco prima che i protoni e gli elettroni si combinassero per formare atomi di
idrogeno, ciò avvenne quando la temperatura scese al di sotto di 3000 K ad un redshift di 1+z = 1000.
Dopo questa fase, i fotoni della CMB hanno viaggiato liberamente nell'Universo trasparente che possiamo
vedere oggi. Per questo motivo la temperatura della CMB in un dato punto del cielo è stata determinata dal
tempo in cui si sono formati gli atomi di idrogeno. Dal momento che le lunghezze d'onda della CMB scalano
allo stesso modo delle distanze intergalattiche durante l'espansione dell'Universo, sappiamo che a(t) doveva
essere 0.001 al tempo della ricombinazione. Per il modello Omega0 = 1 ciò implica che t/t0 = 0.00003 e dunque
per t0 = 10 miliardi di anni il tempo è di circa 300.000 anni dopo il Big Bang. Questa è una frazione così piccola
dell'età corrente dell'Universo che lo "stiramento" dell'asse temporale quando si produce il diagramma spaziotemporale conforme è molto utile per ingrandire questa parte della storia dell'Universo.
39
Il diagramma comforme qui sopra ha esagerato questa zona molto di più, assumendo che il redshift della
ricombinazione sia 1+z = 144, che corrisponde alla linea orizzontale blu. Le regioni in giallo sono i coni di luce
del passato di due eventi di ricombinazione nel nostro cono di luce del passato. Ogni evento che influenza la
temperatura della CMB a sinistra deve essere confinato nel triangolo giallo di sinistra. Ogni evento che
influenza la temperatura della CMB nella parte destra deve trovarsi nel triangolo giallo di destra. Queste regioni
non hanno eventi in comune, ma le due temperature sono uguali a meno di una parte su 100.000. Come è
possibile? In cosmologia questo è noto come problema dell'orizzonte.
Parte 4: l'inflazione
Lo "scenario inflazionario", sviluppato da Guth, Starobinsky e Linde, offre una soluzione al problema della
piattezza, della vecchiaia e dell'orizzonte invocando una densità di energia del vuoto. Noi normalmente siamo
portati a pensare che il vuoto sia privo di massa, e possiamo determinare che la densità del vuoto è attualmente
meno di 1E-30 g/cm³. Ma nella teoria quantistica dei campi, il vuoto è considerato brulicante di particelle
virtuali:
40
Il diagramma spazio-temporale qui sopra mostra coppie virtuali di particelle e anti-particelle che si formano dal
nulla e tornano nel nulla mediante un processo di annichilazione. Per particelle di massa m, ci si attende la
presenza di circa una particella virtuale in ogni volumetto di lato pari alla lunghezza d'onda Compton della
particella, h/mc, dove h è la costante di Planck.
Per questo motivo la densità attesa del vuoto è rho = m4*c3/h3 che è piuttosto grande. Per le particelle
elementari più massive normalmente considerate, la massa di Planck M (definita da 2*pi*G*M2 = h*c), questa
densità è 2E91 g/cm³. Per questo motivo la densità di energia del vuoto è almeno 121 ordini di grandezza più
piccola di quanto indica il calcolo quantistico grossolano, dunque dev'essere all'opera un meccanismo di
soppressione molto efficace.
Se attualmente rimane un piccolo residuo di questa densità di energia del vuoto, esso produce una "costante
cosmologica" che è uno dei meccanismi proposti per ricomporre il disaccordo tra l'età dell'Universo nel
modello con Omega0 = 1, t0 = (2/3)/H0 = 10 miliardi di anni, e l'età apparente dei più antichi ammassi globulari,
16 ± 4 miliardi di anni. La densità di energia del vuoto può fare questo perché produce una "anti-gravità" che
accelera l'espansione dell'Universo anziché rallentarla, e ciò aumenta t0 per una data H0.
Lo scenario inflazionario propone che l'energia del vuoto fosse molto elevata durante un breve periodo all'inizio
della storia dell'Universo. Quando l'Universo è dominato da questa densità di energia del vuoto, il fattore di
scala cresce esponenzialmente, a(t) = exp(H(to-t)). La costante di Hubble è realmente costante durante questa
fase, per cui non serve lo "zero". Se la fase inflazionaria dura a sufficienza, la funzione esponenziale cresce
enormemente. Ciò fa si che a(t) sia molto elevato, e con esso il raggio di curvatura dell'Universo. Il seguente
diagramma mostra il nostro orizzonte sovrapposto ad una sfera di raggio molto ampio (in alto), e ad una sfera di
raggio più piccolo (in basso). Dato che noi possiamo vedere al massimo il nostro orizzonte, per il modello
inflazionario l'Universo visibile deve risultare praticamente piatto.
41
Questo risolve il problema della piattezza e della vecchiaia, a patto che la crescita esponenziale durante l'epoca
inflazionaria continui per almeno 100 raddoppiamenti. L'inflazione risolve anche il problema dell'orizzonte,
perché il cono di luce del futuro di un evento che accade prima dell'epoca inflazionaria viene espanso in una
vasta regione dalla crescita inflattiva.
Questo diagramma spazio-temporale mostra l'epoca inflattiva colorata di verde, e il cono di luce del futuro di
due eventi, in rosso. L'evento primordiale ha un cono di luce del futuro che copre una vasta area, che può
facilmente comprendere tutto il nostro orizzonte. Per questo motivo noi possiamo spiegare perché la
42
temperatura del fondo di microonde è così uniforme in tutto il cielo.
Dettagli: le strutture su vasta scala e l'anisotropia
E' chiaro che l'Universo non è veramente omogeneo, dal momento che contiene regioni dense come le galassie
e i pianeti. Queste regioni dense dovrebbero avere qualche relazione con la temperatura del fondo di microonde.
Sachs e Wolfe (1967, ApJ, 147, 73) hanno derivato l'effetto delle perturbazioni del potenziale gravitazionale
sulla CMB. Il potenziale gravitazionale, phi = -GM/r, sarà negativo negli ammassi densi, e positivo in regioni
meno dense. I fotoni perdono energia quando risalgono le pareti del potenziale gravitazionale degli ammassi:
Il diagramma spazio-temporale conforme qui sopra mostra gli ammassi come barre grigie verticali, l'epoca
prima della ricombinazione è la regione tratteggiata, ed il potenziale gravitazionale è la curva phi(x) codificata
a colori. Laddove il cono di luce del nostro passato interseca la superficie di ricombinazione, vediamo una
temperatura perturbata della quantità
Sachs e Wolfe hanno predetto fluttuazioni di temperatura dT/T ampie circa l'1% rispetto alla media, ma ora noi
sappiamo che l'Universo è molto più omogeneo di quanto Sachs e Wolfe pensavano. Per questo motivo gli
osservatori hanno lavorato per anni per raggiungere sensibilità così alte da distinguere chiaramente le differenze
di temperatura nel cielo. La prima differenza rivelata è stata l'anisotropia di dipolo da Conklin nel 1969:
La mappa qui sopra è stata realizzata dal satellite COBE ed è molto meglio della rilevazione di Conklin a 2
deviazioni standard. La zona rossa del cielo è più calda rispetto alla media di un fattore (v/c)*To, mentre la zona
blu è più fredda della stessa quantità, la velocità dedotta è v = 370 km/s. Questo è il modo in cui noi possiamo
misurare la velocità del sistema solare relativamente all'Universo visibile. Ci sono voluti ancora 23 anni prima
che le anisotropie previste da Sachs e Wolfe fossero rivelate dal team di Smoot nel 1992. L'ampiezza era di una
parte su 100.000 invece che una parte su 100:
43
La mappa qui sopra mostra l'anisotropia cosmica (sovrapposta al rumore del rivelatore) dopo che l'anisotropia
di dipolo e la radiazione emessa dalla Via Lattea sono state rimosse. L'anisotropia in questa mappa ha un valore
RMS di 30 microK, e se lo esprimiamo in forma di potenziale gravitazionale, usando i risultati di Sachs e
Wolfe, e se il potenziale viene espresso come quota assumendo una accelerazione di gravità costante ed uguale
a quella terrestre, otteniamo una quota pari al doppio della distanza tra la Terra ed il Sole. Dunque le "montagne
e le valli" dell'Universo sono abbastanza ampie.
Il modello inflazionario predice un certo pattern statistico nella anisotropia. Le fluttuazioni quantistiche
normalmente influenzano regioni di spazio estremamente piccole, ma la vastissima espansione esponenziale
durante la fase inflattiva le rende osservabili.
Il diagramma spazio-temporale qui sopra mostra i coni di luce del futuro di eventi relativi a fluttuazioni
quantistiche. La sommità di questo diagramma è in realtà il volume che interseca il cono di luce del nostro
passato, producendo la porzione visibile del cielo. Infatti i coni di luce del futuro diventano cerchi nel cielo.
Eventi che accadono precocemente nella fase inflattiva producono cerchi ampi, come mostrato nella mappa a
destra in basso. Eventi più tardivi producono cerchi più piccoli, come mostra la mappa di mezzo, ma dato che
sono più numerosi, la copertura del cielo è la stessa di prima. Eventi ancora più tardivi producono cerchi ancora
più piccoli che però danno la stessa copertura totale.
44
Il pattern formato sommando tutti gli effetti di eventi che si sono prodotti in tutte le fasi è noto come "equal
power on all scales" (la stessa potenza per tutte le scale), ed è in accordo con i dati di COBE.
Avendo scoperto che il pattern di anisotropia osservato è in accordo con l'inflazione, possiamo anche chiederci
se l'ampiezza di queste fluttuazioni dà luogo a forze abbastanza ampie da produrre gli ammassi di galassie
osservabili.
Il diagramma spazio-temporale conforme qui sopra mostra la funzione potenziale phi(x) al tempo della
ricombinazione, determinata dai dati dT di COBE. Le righe nere rappresentano le linee d'universo delle galassie
che sono perturbate dalle forze gravitazionali prodotte dal gradiente del potenziale. La materia si allontana
scendendo dai picchi del potenziale (i punti rossi nella mappa di COBE), producendo vuoti nella attuale
distribuzione delle galassie, mentre le valli del potenziale (i punti blu) sono le zone dove si formano gli
ammassi di galassie.
COBE non era in grado di rilevare punti corrispondenti agli ammassi o ai super-ammassi di galassie, ma se
utilizziamo la legge "equal power on all scales" per estrapolare i dati di COBE a scale più piccole, troviamo che
le forze gravitazionali sono adeguate a produrre il grado di compattazione che si osserva, ma solo se non ci
sono altre forze che si oppongono.
Se tutta la materia nell'Universo è costituita dai "soliti" elementi chimici, allora c'è stata una forza molto
efficace che si opponeva prima della ricombinazione, poiché gli elettroni liberi che ora stanno legati negli atomi
erano molto efficaci nel diffondere i fotoni della radiazione cosmica di fondo. Dobbiamo per questo concludere
che gran parte della materia nell'Universo è "materia oscura" che non emette, assorbe o diffonde la luce. Questa
strana conclusione sarà fortemente rafforzata dai dati sull'anisotropia su scale angolari molto più piccole, che
saranno forniti dal satellite Microwave Anisotropy Probe (MAP) nel 2000.
L' ABC delle distanze astronomiche
45
A. la parallasse trigonometrica
Questo metodo è lo standard di riferimento per le distanze astronomiche. E' basato sulla misura di due angoli e
del lato compreso di un triangolo formato da 1) la stella, 2) la Terra in un punto della sua orbita, e 3) la Terra
sei mesi dopo, nel punto opposto dell'orbita.
La parte superiore di questo disegno mostra la Terra in due momenti differenti, ed il triangolo formato tra una
stella vicina e queste due posizioni della Terra. In basso vediamo due immagini di questa stella proiettata su
uno sfondo costituito da stelle molto più lontane, riprese dai due lati dell'orbita terrestre. Se tu incroci gli occhi
fino a sovrapporre le due immagini, potrai vedere la stella staccarsi dallo sfondo, come nei disegni 3-D.
La parallasse di una stella è metà dell'angolo al vertice (alla stella) nel disegno in alto. Per questo la parallasse
è l'angolo alla stella nel triangolo Terra-Sole-stella. Dato che questo angolo è sempre piccolissimo, il seno e la
tangente della parallasse praticamente coincidono con la parallasse stessa misurata in radianti. Per questo la
distanza di una stella è
D[in m] = [Distanza Terra-Sole in m]/[parallasse in radianti]
Gli astronomi di solito affermano che la distanza Terra-Sole è di 1 unità astronomica (au), dove 1 au = 1.5E11
m, e misurano questi angoli piccolissimi in secondi d'arco. Ricordando che in un radiante ci stanno 648.000
secondi d'arco, con queste unità di misura l'unità di distanza è [648000/pi] au = 3.085678E16 m = 1 parsec.
Una stella con la parallasse di un secondo d'arco dista 1 parsec, ovvero 3.26 anni-luce. Nessuna stella mostra
una parallasse così ampia. Proxima Centauri ha una parallasse di 0.76".
La prima misura della parallasse stellare fu effettuata sulla stella 61 Cygni da Friedrich Wilhelm Bessel (17841846) nel 1838. Bessel è noto anche per le funzioni besseliane usate in fisica matematica.
B. la parallasse di gruppo
Non sono molte le stelle così vicine da evidenziare una parallasse misurabile. Tuttavia, quando le stelle sono
riunite in ammassi stabili, la cui estensione non sta cambiando (ad esempio le Pleiadi), allora il moto apparente
delle stelle nell'ammasso può essere impiegato per calcolarne la distanza.
46
La parte superiore del disegno mostra il moto nello spazio di un ammasso di stelle. Nota che i vettori velocità
sono paralleli, perché stiamo asumento che l'ammasso non si stia espandendo né contraendo. Quando però
consideriamo il moto di queste stelle proiettato sulla volta celeste, le vediamo convergere a causa di un effetto
di prospettiva. L'angolo al punto di convergenza è theta. Se l'ammasso si sta muovendo verso di noi, allora il
punto di convergenza si trova dietro l'ammasso, ma ce n'è un altro nel punto opposto del cielo, e possiamo usare
quest'ultimo. Da questi spostamenti delle stelle nel cielo, noti come moti propri per il fatto che si tratta di
proprietà delle singole stelle, noi misuriamo theta e la sua velocità di variazione, d(theta)/dt. Abbiamo bisogno
anche della velocità radiale VR dell'ammasso, che possiamo determinare con uno spettrografo misurando lo
spostamento Doppler. La velocità trasversale, VT, (il moto laterale) dell'ammasso può essere trovato usando
VT/VR = tan(theta). La distanza dell'ammasso è dunque
D[in m] = VT[in m/sec]/[d(theta)/dt]
D[in pc] = (VR/4.74 km/sec)*tan(theta)/{d(theta)/dt[in "/yr]}
La strana costante 4.74 km/sec deriva da 1 au/anno. Dato che possiamo usare un intervallo temporale di un
secolo per misurare d(theta)/dt, sono possibili misure precise della distanza di ammassi vicini. Questo metodo è
stato applicato all'ammasso delle Iadi producendo un risultato di 45.53 ± 2.64 pc. La media delle parallassi
trigonometriche per i singoli membri delle Iadi fornisce 46.34 ± 0.27 pc (Perryman et al.).
C. La parallasse secolare
Si può usare un altro metodo per misurare la distanza di un insieme di stelle, scelte in modo che siano tutte alla
stessa distanza dalla Terra.
47
Il disegno qui sopra mostra un tale insieme di stelle, ma con due possibili velocità medie. Le stelle di colore
verde mostrano una distanza media più piccola delle stelle di colore rosso. Dato che il moto medio del sistema
solare rispetto alle stelle vicine è di 20 km/sec, allora queste stelle mostreranno un moto comune, come se
fuggissero dal punto verso il quale il sistema solare si sta dirigendo. Questo punto è noto col nome di apice. Sia
theta l'angolo all'apice. Allora il moto proprio d(theta)/dt avrà una componente media proporzionale a
sin(theta), mostrato dalle linee nel grafico di d(theta)/dt in funzione di sin(theta). Sia mu la pendenza di questa
linea. Allora la distanza media delle stelle è
D[in m] = V(sole)[in m/sec]/(mu [in radianti/sec])
D[in pc] = 4.16/(mu [in "/anno])
dove la strana costante 4.16 è il moto solare in au/anno.
D. la parallasse statistica
Quando per le stelle si ha il valore della velocità radiale, allora la dispersione nei loro moti propri può essere
usata per determinare la distanza media:
(dispersione in VR)[in m/sec]
D[in m] = ---------------------------------------(dispersione in d(theta)/dt)[in radians/sec]
E. distanza cinematica
La struttura della rotazione differenziale della nostra galassia puù essere impiegata per determinare la distanza
di una sorgente qualora sia nota la sua velocità radiale.
F. la parallasse del diametro apparente
48
La distanza di un oggetto in espansione come ad esempio un resto di supernova (es. quella di Tycho) può essere
determinata misurando:
1. il tasso di espansione angolare d(theta)/dt usando immagini riprese a distanza di molti anni, e
2. la velocità radiale di espansione, VR, usando lo spostamento Doppler delle righe spettrali emesse dalla
parte anteriore e posteriore del guscio in espansione. Quando uno spettrografo viene puntato al centro di
un resto di supernova, si vede lo sdoppiamento di una data riga spettrale, infatti si stanno sovrapponendo
l'emissione dalla parte frontale del guscio, spostata verso il blu, e quella dalla parte posteriore in
allontanamento, spostata verso il rosso
La distanza si calcola dunque come
D = VR/d(theta)/dt
con theta in radianti
Questo metodo è soggetto ad errori sistematici qualora la velocità del materiale dietro l'onda d'urto sia inferiore
alla velocità della stessa onda d'urto. Questo è proprio il caso dei resti di supernova in fase adiabatica, per i
quali VR = 0.75 V(urto), e dunque la distanza calcolata può essere sottostimata del 25%.
G. distanza dell'eco luminosa
L'anello centrale ellittico attorno alla supernova SN1987A sembra dovuto ad un
anello circolare inclinato sul piano visuale (vedi figura a fianco tratta dalla
rivista l'Astronomia) emesso molto tempo prima dell'esplosione della stella.
Quando il fronte della radiazione ultravioletta emessa dalla supernova colpì
l'anello, accese le righe spettrali caratteristiche dell'emissione ultravioletta che
sono state registrate dal satellite International Ultraviolet Explorer (IUE). Il
satellite registrò chiaramente il tempo t1 relativo all'arrivo della radiazione
emessa dalla parte vicina dell'anello, ed il tempo t2, relativo alla parte lontana.
Se t0 è il tempo in cui la supernova si è accesa, allora i tempi extra dovuti al
cammino della luce dalle parti vicine e lontane dell'anello sono:
t1 - t0 = R(1 - sin(i))/c
t2 - t0 = R(1 + sin(i))/c
clicca sull'immagine per
ingrandire
dove R è il raggio dell'anello in m. Per questo
R = c(t1-t0 + t2-t0)/2
Quando HST venne messo in orbita, riprese subito la SN 1987A vide l'anello e ne misurò il raggio angolare
theta. Il rapporto fornisce la distanza:
D = R/theta
con theta in radianti
Applicato alla piccola nube di Magellano usando la SN 1987A si ottiene D = 47 ± 1 kpc. (Gould 1995, ApJ,
452, 189) questo metodo è fondamentelmente il metodo di espansione applicato al guscio in espansione della
radiazione emessa dalla supernova che si allontana alla velocità della luce. Può anche essere applicato ad altre
geometrie note.
H. stelle binarie visuali e spettroscopiche
Se un'orbita binaria viene osservata sia visualmente che spettroscopicamente, allora sono note sia la dimensione
49
angolare dell'orbita che quella fisica. Il loro rapporto fornisce la distanza.
I seguenti metodi impiegano la luminosità superficiale delle stelle. La seguente immagine mostra come la
luminosità superficiale delle stelle dipenda dal loro colore:
I colori corrispondono approssimativamente alle temperature di 5000, 6000 and 7000 K. I cambiamenti di
colore sono esigui, ma la luminosità superficiale cambia notevolmente: in realtà per rendere visibile la stella
fredda ho dovuto dimezzare il cambiamento della luminosità superficiale. Misurando il rapporto tra il flusso
luminoso nel blu e quello nel giallo-verde, gli astronomi misurano l'indice di colore B-V della stella. Questa
misura del rapporto tra il flusso nel blu e nel visibile può essere usata per stimare la luminosità superficiale SB
della stella. Dato che si ha anche la misura del flusso luminoso, il raggio angolare theta della stella è noto
dall'espressione theta = sqrt[Flux/(pi*SB)]. Se inoltre è possibile trovare il raggio fisico R, la distanza si ricava
dalla D = R/theta (come sempre, theta è espresso in radianti).
I. il metodo di Baade-Wesselink
Il metodo di Baade-Wesselink si applica alle stelle pulsanti. Usando le curve del colore e del flusso luminoso, si
può trovare il rapporto dei raggi in tempi differenti:
sqrt[Flusso(t2)/SB(Colore(t2)]
R(t2)/R(t1) = --------------------------sqrt[Flusso(t1)/SB(Colore(t1)]
Poi gli spettri della stella durante il suo periodo di pulsazione sono usati per trovare la sua velocità radiale Vr(t).
Sapendo quanto velocemente si sta muovendo la superficie della stella, si trova R(t2)-R(t1) sommando la
quantità velocità*tempo durante l'intervallo di tempo tra t1 e t2. Se poi è noto sia il rapporto dei raggi
R(t2)/R(t1) dai flussi e dai colori, sia la differenza nei raggi R(t2)-R(t1) dalla spettroscopia, allora si hanno
semplicemente due equazioni in due incognite ed è facile risolvere per i raggi. Con il raggio e l'angolo, la
distanza si trova usando l'espressione D = R/theta.
J. binarie ad eclisse spettroscopiche
In una binaria spettroscopica doppiamente allineata (cioè dove si assiste sia al minimo principale che a quello
secondario), il semiasse dell'orbita proiettato sulla volta celeste a*sin(i) viene ricavato dall'escursione della
velocità radiale durante il periodo. In una binaria ad eclisse, i raggi relativi delle stelle R1/a e R2/a e
l'inclinazione del piano orbitale i vengono ricavati analizzando la forma delle curve di luce dell'eclisse.
Utilizzando i flussi luminosi osservati e l'indice di colore per ricavare la luminosità superficiale, si può stimare
il raggio angolare delle stelle. R1 si ricava da i, a*sin(i) e R1/a; e con theta1 si puòricavare la distanza.
50
K. metodo della fotosfera in espansione
Il metodo di Baade-Wesselink può essere applicato ad una stella in espansione: le variazioni del raggio non
devono essere periodiche. E' stato applicato a supernovae di tipo II, che sono stelle massicce con un guscio
ricco di idrogeno che esplode quando il loro nucleo collassa per formare stelle di neutroni. Il metodo può essere
applicato anche alle supernovae di tipo Ia, ma questi oggetti non mostrano le righe dell'idrogeno nei loro spettri.
Dato che la relazione luminosità superficiale in funzione dell'indice di colore è calibrata utilizzando stelle
normali, ricche di idrogeno, il metodo della fotosfera in espansione è normalmente impiegato per le supernovae
ricche di idrogeno, quelle di tipo II. La supernova di tipo II SN1987A nella grande nube di Magellano è stata
usata per calibrare questo indicatore di distanza.
I metodi seguenti impiegano il diagramma H-R, che fornisce la luminosità in funzione della temperatura.
Quando sono noti la luminosità ed il flusso luminoso di un oggetto, la distanza può essere ricavata mediante
D = sqrt[L/(4*pi*F)]
L. l'aggiustamento della sequenza principale
Quando tra la fine del 19° e l'inizio del 20° secolo si ottennero le distanze delle stelle vicine con il metodo della
parallasse trigonometrica, divenne possibile studiare la luminosità intrinseca di queste stelle. Einar Hertzsprung
e Henry Norris Russell realizzarono indipendentemente lo stesso diagramma (oggi chiamato in loro onore H-R)
della luminosità in funzione della temperatura. La maggior parte delle stelle cadeva su una singola traccia, nota
col nome di sequenza principale. A volte la magnitudine assoluta è usata al posto della luminosità, e al posto
della temperatura si usa l'indice di colore.
Quando si studia un ammasso di stelle, le magnitudini apparenti ed i colori delle stelle formano una traccia
parallela alla sequenza principale, e scegliendo opportunamente la distanza, le magnitudini apparenti si
convertono in magnitudini assolute e si cerca così di sovrapporre la traccia dell'ammasso alla sequenza
principale standard.
M. la parallasse spettroscopica
Quando si osserva accuratamente lo spettro di una stella, è possibile determinare due parametri della stella così
come le abbondanze nell'atmosfera stellare. Il primo di questi parametri è la temperatura superficiale della
stella, che detemrina il tipo spettrale nell'insieme OBAFGKM, dal più caldo al più freddo. Le stelle calde di
tipo O mostrano le righe dell'elio ionizzato, le stelle di classe B mostrano le righe dell'elio neutro, quelle di
classe A hanno intense righe dell'idrogeno, le stelle delle classi F e G hanno numerose righe dei metalli, e le più
fredde stelle di classe K e M hanno addirittura bande molecolari. Le classi spettrali sono ulteriormente
suddivise mediante una cifra, ad esempio il Sole appartiene alla classe G2.
Il secondo parametro che può essere determinato è la gravità superficiale della stella. Più elevata è la gravità,
maggiore è la pressione nell'atmosfera, e maggiori pressioni producono un allargamento delle righe spettrali e
riduce anche il grado di ionizzazione dell'atmosfera. La gravità superficiale è denotata dalla classe di luminosità
espressa da un numero romano da I a V essendo I la gravità più bassa e V quella più alta (ad eccezione della
51
classe VI che è vista raramente e delle nane bianche che hanno una classificazione separata). Le stelle con
elevata gravità superficiale (di classe V) sono chiamate nane mentre le stelle con gravità media (classe III) sono
chiamate giganti e le stelle con gravità bassa (di classe I) sono chiamate supergiganti. La possibilità di sfruttare
la gravità superficiale per determinare la luminosità di una stella dipende da tre relazioni:
L = 4*pi*sigma*T4*R2
L = A*Mb
g = G*M/R2
Mass-luminosity law with b = 3-4
Ricavata la temperatura a partire dalla classe spettrale, e la gravità superficiale dalla classe di luminosità, queste
equazioni possono essere usate per trovare massa e luminosità. Se è nota la luminosità e si misura il flusso
luminoso, la distanza deriva dalla legge dell'inverso del quadrato.
Un avvertimento riguardo a questo metodo: funziona solamente per stelle normali, e ciascun oggetto singolo
potrebbe non essere normale. Main sequence fitting in un ammasso è molto più affidabile dal momento che in
un grande numero di stelle è facile trovare quelle normali.
I metodi seguenti sfruttano le proprietà delle stelle pulsanti:
N. distanze delle RR lyrae
Le variabili di tipo RR Lyrae sono stelle pulsanti come le Cefeidi, ma hanno una massa molto più ridotta ed un
periodo molto breve (meno di un giorno). Esse vengono individuate negli ammassi globulari, e sembrano avere
tutte la stessa magnitudine assoluto, che al minimo si situa attorno a 0.6.
O. distanze delle cefeidi
Le variabili cefeidi sono stelle pulsanti che prendono il nome dal più brillante membro di questa classe di stelle:
la delta Cephei. Queste stelle pulsano perché le regioni di idrogeno ed elio ionizzati si trovano vicino alla
superficie della stella. questo fatto fiss aapprossimativamente la temperatura della stella variabile, e produce
una fascia di instabilità nel diagramma H-R.
Il diagramma qui sopra mostra la stella man mano che si ingrandisce e diventa più fredda, e poi si
rimpicciolisce e diventa più calda. Le cefeidi sono più brillanti quando sono più calde, vicino al minimo del
raggio. Dato che tutte le cefeidi hanno la stessa temperatura, il raggio determina la loro luminosità. Un grande
oggetto pulsante naturalmente ha un periodo di oscllazione più grande di un oggetto più piccolo. Per questo
motivo nel caso delle cefeidi esiste una relazione periodo-luminosità. Se due cefeidi hanno periodo che
differisce di un fattore 2, allora la loro luminosità della cefeide con periodo maggiore è 2.5 volte maggiore di
quella con periodo più breve.
Dal momento che è facile misurare il periodo di una stella variabile, le cefeidi sono indicatori straordinari della
52
distanza delle galassie. Inoltre queste stelle sono intrinsecamente molto luminose e dunque visibili da grande
distanza: se ne individuano persino nella galassia M100 dell'ammasso della Vergine. L'unico problema è la
calibrazione della relazione periodo-luminosità, che deve essere fatta indirettamente usando le cefeidi nella
grande nube di Magellano e negli ammassi le cui distanza sono ottenute fittando la sequenza principale. Inoltre
si deve fare attenzione al fatto che la calibrazione potrebbe dipendere dall'abbondanza di metalli nelle stelle,
che è molto minore nella LMC rispetto alle galassie spirali luminose come M100.
I metodi seguenti sfruttano le proprietà (reali o supposte) di classi di oggetti nelle galassie e pertanto devono
essere calibrati:
P. la funzione di luminosità delle nebulose planetarie
Le nebulose planetarie sono stelle che hanno attraversato le fasi di gigante rossa e gigante asintotica e hanno
eiettato i loro gusci residui di idrogeno, che ora formano una nebulosa ionizzata che circonda una stella centrale
molto calda e piccola. Esse emettono gran parte della radiazione nella riga a 501 nm dell'ossigeno doppiamente
ionizzato [O III] il che le rende facili da individuare. Le nebulose planetarie più brillanti sembrano avere la
stessa luminosità in molte galassie lontane, a tal punto che i loro flussi luminosi possono essere usati come
indicatori di distanza. Questo metodo è correlato con il metodo della fluttuazione della luminosità superficiale,
che è sensibile alle stelle del ramo asintotico delle giganti prima che esse eiettino i loro gusci.
Q. le stelle più brillanti
Quando una galassia è molto vicina, si possono addirittura distinguere le singole stelle. La luminosità di queste
stelle può essere impiegata per stimare la distanza della galassia ospite. Spesso si usa l'assunzione che ci sia un
limite superiore fisso alla luminosità delle stelle, ma questa ipotesi appare poco fondata. Nondimeno, se si
studia una vasta popolazione di stelle luminose, è possibile dare una ragionevole stima della distanza.
R. i diametri delle più vaste regioni H II
Le stelle molto calde e luminose ionizzano l'idrogeno circostante, producendo una regione H II, come ad
esempio la nebulosa di Orione. Il diametro delle più vaste regioni H II nelle galassie lontane è stato assunto
come "regolo standard" che può essere usato per determinare le distanze. Questa tuttavia, appare una
assunzione poco fondata.
53
S. le fluttuazioni della luminosità superficiale
Quando una galassia è troppo distante per consentirci di rilevare le sue
singole stelle, si può ancora stimarne la distanza usando le fluttuazioni
statistiche del numero di stelle in un pixel. Una galassia vicina potrebbe
avere 100 stelle che si proiettano in ciascun pixel dell'immagine mentre
una galassia più lontana potrebbe averne un numero maggiore, ad esempio
1000. La galassia vicina potrebbe avere fluttuazioni di ±10% della
luminosità superficiale (1/sqrt(N)), mentre la galassia più lontana potrebbe
avere fluttuazioni del 3%. L'illustrazione a fianco (clicca per ingrandire)
mostra una galassia nana vicina, una galassia nana gigante ed una gigante
ad una distanza tale che il flusso totale sia uguale a quello della nana
vicina. Nota che la galassia gigante lontana ha un'immagine molto più
morbida rispetto a quella della nana vicina.
clicca sull'immagine per
ingrandire
T. le supernovae di tipo Ia
Le supernovae di tipo Ia sono esplosioni di nane bianche che si trovano in un sistema binario. Il materiale
sottratto alla stella compagna accresce la massa della nana bianca fino al limite di stabilità, noto come limite di
Chandrasekhar. A quel punto la nana bianca collassa, ma la compressione innesca la combustione esplosiva del
carbonio che porta alla totale distruzione della stella. La produzione di luce deriva principalmente dall'energia
prodotta dal decadimento radioattivo di nickel e cobalto prodotti nell'esplosione. La luminosità di picco è
correlata col tempo di decadimento della curva di luce. quando si applica questa correzione, la luminosità
relativa di una supernova di tipo Ia può essere determinata con un errore del 20%. Alcune supernovae Ia sono
esplose in galassie abbastanza vicine alla nostra da permettere al telescopio spaziale Hubble di determinarne la
distanza assoluta e la luminosità assoluta usando le variabili cefeidi, consentendo una delle migliori
determinazioni della costante di Hubble.
I metodi seguenti sfruttano le proprietà globali delle galassie e pertanto devono essere calibrati:
U. la relazione di Tully-Fisher
La velocità di rotazione di una galassia spirale è un indicatore della sua massa, e dunque della sua luminosità.
La relazione è approssimativamente
Il pedice 20 significa che è la differenza di velocità riscontrata sulla riga a 21 cm dell'idrogeno neutro al 20%
della potenza di picco.
Dato che la velocità di rotazione di una galassia spirale può essere misurata con uno spettrografo ottico o con
un radiotelescopio, la luminosità può essere determinata. La distanza si ottiene combinando tale luminosità con
il flusso luminoso osservato. Il seguente disegno mostra due galassie: una spirale gigante ed una nana, ma
quella nana è più vicina alla Terra e dunque sottende lo stesso angolo nel cielo e ha la stessa luminosità
apparente.
54
La galassia più lontana per effetto della sua maggiore massa, ha una velocità di rotazione maggiore, per cui la
differenza tra gli spettri del lato in avvicinamento e in allontanamento sarà maggiore. Da qui si possono
calcolare le distanze relative.
V. la relazione di Faber-Jackson
La dispersione della velocità delle stelle sigma(v) in una galassia ellittica è un indicatore della sua massa e
dunque della sua luminosità. La relazione è approssimativamente:
Dato che la dispersione di velocità di una galassia ellittica può essere misurata con uno spettrografo ottico, la
luminosità può essere determinata. La distanza si ottiene combinando tale luminosità con il flusso luminoso
osservato.
W. la galassia più luminosa degli ammassi
Come candela standard si è usata anche la galassia più luminosa di un ammasso di galassie. Questo assunto
risente delle stesse difficoltà che affliggono i metodi delle stelle più luminose e delle più grandi regioni H II:
ammassi particolarmente ricchi probabilmente avranno esemplari di galassie molto luminose anche se queste
galassie sono rare, mentre ammassi meno ricchi probabilmente non annovereranno questi membri.
I metodi seguenti hanno il vantaggio di non richiedere calibrazione:
X. il ritardo temporale nelle lenti gravitazionali
Quando un quasar viene visto attraverso una lente gravitazionale, si vedono repliche della sua immagine, come
mostrato nel seguente disegno:
55
I percorsi della luce dal quasar fino a noi per formare le diverse immagini, hanno lunghezze diverse che
differiscono approssimativamente di D*[cos(theta1)-cos(theta2)] dove theta è l'angolo di deflessione e D è la
distanza del quasar. Dal momento che i quasar sono sorgenti variabili nel tempo, noi possiamo risalire alla
differenza nella lunghezza del percorso ottico, cercando correlazioni spostate nel tempo della variabilità delle
imagini multiple Alla fine del 1996, questo ritardo temporale è stato misurato in 2 quasar: l'originale doppio
QSO 0957+061, che ha fornito un risultato di Ho = [63 ± 12] km/sec/Mpc, e PG1115+080, che ha fornito Ho =
42 km/sec/Mpc, ma da una ulteriore analisi degli stessi dati risulta Ho = [60 +/- 17] km/sec/Mpc.
Y. l'effetto Sunyaev-Zeldovich
Il gas caldo negli ammassi di galassie distorce lo spettro della radiazione cosmica di fondo osservata attraverso
l'ammasso. Il seguente disegno illustra il processo. Gli elettroni caldi nell'ammasso di galassie diffondono una
piccola frazione dei fotoni della CMB e li sostituisce con fotoni di energia leggermente più alta. Questo
processo è noto come effetto Compton inverso.
La quantità misurabile è la differenza tra la CMB vista attraverso l'ammasso e quella immutata vista in un'altra
direzione. In verità solo l'1% circa dei fotoni che passano attraverso l'ammasso vengono diffusi dalle regioni di
gas caldo ionizzato, e questi fotoni acquistano in media il 2% della loro energia. Ciò produce una scarsità di
fotoni a bassa energia di circa 0.01*0.02 = 0.0002 ovvero dello 0.02%, che dà luogo ad una diminuzione della
temperatura di luminosità di circa 500 microK guardando verso l'ammasso. A frequenze più elevate (maggiori
di circa 218 GHz) l'ammasso appare più luminoso rispetto allo sfondo. Questo effetto è proporzionale a (1) la
densità di elettroni, (2) lo spessore dell'ammasso lungo la nostra linea di vista, e (3) la temperatura degli
elettroni. Il parametro che combina questi fattori è chiamato parametro y di Kompaneets, con y = tau*(kT/mc2).
Tau è la profondità ottica della frazione di fotoni diffusi, mentre (kT/mc2) è la temperatura dell'elettrone in
unità della massa a riposo dell'elettrone.
L'emissione di raggi X, IX, dal gas caldo dell'ammasso è proporzionale a (1) il quadrato della densità di
elettroni, (2) lo spessore dell'ammasso lungo la nostra linea di vista, e (3) dipende dalla temperatura degli
56
elettroni e dalla frequenza dei raggi X. Come risultato, il rapporto
y2/IX = CONST * (Spessore lungo la linea di vista) * f(T)
Se assumiamo che lo spessore lungo la nostra linea di vista coincide con il diametro dell'ammasso, possiamo
utilizzare il diametro angolare osservato per trovarne la distanza.
Questa tecnica è molto complicata, e anni di duro lavoro da parte dei pionieri come Mark Birkinshaw hanno
prodotto solamente qulche misura di distanza, e valori di Ho che tendevano ad essere un po' bassi. Lavori
recenti con radio interferometri strettamente ammassati, operanti a 30 GHz hanno fornito misurazioni precise
della diminuzione di luminosità radio per 18 ammassi, ma solo 3 di essi hanno adeguati valori per l'emissione di
raggi X.
Si veda anche questo sito con la descrizione accurata del metodo e dei suoi fondamenti.
Ed infine:
Z. la legge di Hubble
Lo spostamento Doppler fornisce il redshift di un oggetto remoto che è il mostro miglior indicatore di distanza,
a patto che si conosca con precisione la costante di Hubble.
L'età dell'Universo
Ci sono almeno tre modi per stimare l'età dell'Universo. Qui descriveremo:
- l'età degli elementi chimici
- l'età dei più antichi ammassi stellari
- l'età delle più antiche nane bianche
L'età degli elementi chimici
L'età degli elementi chimici può essere stimata per mezzo del decadimento radioattivo determinando l'età di una
mistura di atomi. Le età meglio definite che si possono stimare con questo metodo sono le età di solidificazione
delle rocce. Quando una roccia solidifica, gli elementi chimici spesso si separano in differenti granuli cristallini.
Ad esempio, il sodio ed il calcio sono elementi comuni, ma i loro comportamenti chimici sono abbastanza
diversi, e così nelle rocce si trovano in genere separati in granuli distinti. Il rubidio e lo stronzio sono gli
elementi più pesanti che si comportano chimicamente come il sodio ed il calcio, per questo motivo si trovano in
granuli diversi. Tuttavia il Rb-87 decade in Sr-87 con una semi-vita di 47 miliardi di anni. C'è inoltre un isotopo
dello stronzio, lo Sr-86, che non è prodotto da alcun decadimento raidoattivo. L'isotopo Sr-87 è chiamato
radiogenico, perché come detto prima, si produce in seguito al decadimento di un altro elemento, mentre lo Sr86 non è radiogenico. Per questi motivi lo Sr-86 viene sfruttato per determinare quale frazione dello Sr-87 è
stata prodotta per decadimento radioattivo.
Si fa questo disegnando il grafico del rapporto Sr-87/Sr-86 in funzione del rapporto Rb-87/Sr-86. Quando una
roccia si è appena formata, i diversi granuli hanno una vasta gamma di rapporti Rb-87/Sr-86, ma in tutti i
granuli il rapporto Sr-87/Sr-86 è lo stesso poiché i processi chimici che differenziano i granuli non possono
separare gli isotopi. Dopo che la roccia è rimasta solida per diversi miliardi di anni, una frazione di Rb-87 sarà
57
decaduta in Sr-87. Allora il rapporto
Sr-87/Sr-86 sarà più elevato nei
granuli con un elevato rapporto Rb87/Sr-86. Fai un'interpolazione
lineare di
Sr-87/Sr-86 = a + b*(Rb87/Sr-86)
e dunque il coefficiente angolare è
dato da
b = 2x - 1
con x inteso come numero di semivite in cui la roccia è rimasta allo
stato solido. Leggiti la isochrone
FAQ del newsgroup talk.origins per
maggiori informazioni sulla datazione radioattiva.
Applicata alle rocce della superficie terrestre, il metodo fornisce per quelle più antiche il valore di circa 3.8
miliardi di anni. Se applicato alle meteoriti, le più vecchie hanno 4.56 miliardi di anni. questa età molto ben
determinata è l'età del sistema solare. Leggiti la age of the Earth FAQ del newsgroup talk.origins per maggiori
informazioni sullìetà del sistema solare.
Applicato a sistemi misti ed in evoluzione, come ad esempio il gas nella Via Lattea, non è possibile raggiungere
una elevata precisione. Un grosso problema è che non vi è separazione in granuli di cristalli diversi, per cui si
devono usare i valori assoluti dei rapporti tra gli isotopi anziché le pendenze delle interpolazioni lineari. Ciò
richiede che si conosca con precisione la quantità iniziale di ciascun isotopo, per cui è necessario un modello
accurato della produzione degli elementi.
Una coppia di isotopi comunemente utilizzati è renio e osmio: in particolare il Re-187 che decade in Os-187
con semi-vita di circa 40 miliardi di anni. A quanto pare circa il 15% del Re-187 è decaduto, per cui si deduce
un'età di 8-11 miliardi di anni. Ma questa è solo l'età media di formazione dei materiali presenti nel sistema
solare. Negli ultimi 4.56 miliardi di anni non si è prodotto ulteriore renio né osmio. Per utilizzare con
cognizione di causa questo dato in vista della determinazione dell'età dell'Universo, occorre avere un modello
di quando gli elementi sono stati costituiti. Se tutti gli elementi chimici si fossero prodotti subito dopo il Big
Bang, allora l'età dell'Universo sarebbe semplicemente to = 8-11 miliardi di anni. Ma se gli elementi sono
prodotti continuamente ad un tasso costante, allora l'età media dei materiali nel sistema solare è
(to + tSS)/2 = 8-11 miliardi di anni
che possiamo risolvere per l'età dell'Universo, ottenendo
to = 11.5-17.5 miliardi di anni
La datazione radioattiva di stelle antiche
Una pubblicazione molto interessante di Cowan et al. (1997, ApJ, 480, 246) discute l'abbondanza del torio
nell'alone di una stella antica. Di solito non è possibile misurare l'abbondanza degli isotopi radioattivi nelle altre
stelle perché le righe spettrali sono troppo deboli. Ma nella stella CS 22892-052 le righe del torio possono
essere individuate perché quelle del ferro sono molto deboli e non le confondono. Il rapporto tra Th/Eu
(europio) in questa stella è 0.219 paragonato al valore attuale di 0.369 nel nostro sistema solare. Il torio decade
con una semi-vita di 14.05 miliardi di anni, dunque il sistema solare si è formato con un rapporto Th/Eu =
24.6/14.05*0.369 = 0.463. Se CS 22892-052 si è formata con lo stesso rapporto Th/Eu ha dunque 15.2 ± 3.5
58
miliardi di anni. In realtà l'età è un poco più alta perché una certa quantità di torio ora nel sistema solare
dev'essere decaduta prima della formazione del Sole, e questa correzione dipende dalla storia della
nucleosintesi nella Via Lattea. In ogni caso, si tratta di una interessante misura dell'età delle stelle più vecchie
indipendente dai metodi che sfruttano il diagramma H-R.
Una pubblicazione successiva di Cowan et al. (1999, ApJ, 521, 194) fornisce 15.6 ± 4.6 miliardi di anni per
l'età basata su due stelle: CS 22892-052 e HD 115444.
L'età dei più antichi ammassi stellari
Nella fase in cui le stelle bruciano idrogeno in elio nei loro nuclei, esse giacciono su una singola traccia nel
diagramma luminosità-temperatura noto come diagramma H-R dal nome dei suoi inventori, Hertzsprung and
Russell. Questa traccia è nota col nome di sequenza principale, dato che vi si trova la maggior parte delle stelle.
Dal momento che la luminosità di una stella varia come M3 o M4, il tempo di vita di una stella appartenente alla
sequenza principale varia come t=const*M/L=k/L0.7. Per questo, misurando la luminosità della stella più
luminosa della sequenza principale, si ottiene un limite superiore dell'età dell'ammasso:
Age < k/L(MS_max)0.7
Questo è un limite superiore dato che l'assenza di stelle più luminose di quella osservata L(MS_max) potrebbe
essere dovuta al fatto che non si sono formate stelle nell'intervallo di massa appropriato. tuttavia, per ammassi
con centinaia di membri, questo buco nella distribuzione delle masse è improbabile, per cui l'età è proprio
k/L(MS_max)0.7. Chaboyer, Demarque, Kernan and Krauss (1996, Science, 271, 957) hanno applicato questa
tecnica agli ammassi globulari ed hanno trovato che l'età dell'Universo è maggiore di 12.07 miliardi di anni con
una confidenza del 95%. Chaboyer (1997) ha fornito una stima migliore: 14.6 ± 1.7 miliardi di anni per l'età
degli ammassi globulari. Tuttavia risultati recenti del satellite Hipparcos mostrano che gli ammassi globulari
sono più lontani di quanto si pensava, per cui le stelle sono in realtà più luminose. Gratton et al. forniscono età
comprese tra 8.5 e 13.3 miliardi di anni, con 12.1 come valore più probabile, mentre Reid fornisce età comprese
tra 11 e 13 miliardi di anni, e Chaboyer et al. danno 11.5 ± 1.3 miliardi di anni come età media degli ammassi
globulari.
L'età delle più antiche nane bianche
Una nana bianca è una stella massiccia come il Sole ma con un raggio come quello della Terra. La densità
media è dunque milioni di volte quella dell'acqua. Le nane bianche si formano al centro delle giganti rosse, ma
non sono visibili finché non si dirada nello spazio tutto il guscio di gas che le avvolge. Quando ciò avviene la
radiazione ultravioletta dalla caldissima stella centrale ionizza il gas e produce una nebulosa planetaria. Il
guscio della stella continua ad allontanarsi fino a rendersi praticamente invisibile, e lascia solo il nucleo
caldissimo che ora si chiama nana bianca. Le nane bianche non producono più energia per mezzo di reazioni
nucleari, per cui vanno spegnendosi lentamente fino a diventare corpi freddi. Le nane bianche più antiche
saranno le più fredde e dunque le più deboli. Cercando deboli nane bianche, si può stimare il tempo di
raffreddamento delle più antiche nane bianche. Oswalt, Smith, Wood e Hintzen (1996, Nature, 382, 692) hanno
compiuto questo studio ottenendo un'età di 9.5+1.1-0.8 miliardi di anni per il disco della Via Lattea. Essi
stimano che l'età dell'Universo sia almeno di 2 miliardi di anni più alta, dunque to > 11.5 miliardi di anni.
59
Scarica