Leon M. Lederman e David N. Schramm
DAI QUARK AL COSMO
1991 Zanichelli
dalla quarta pagina di copertina:
Dai quark al cosmo è il racconto "in diretta" di un'avvincente impresa scientifica, a cui si
stanno dedicando numerosi ricercatori in ogni parte del mondo: il tentativo di costruire una
teoria unitaria dei fenomeni fisici, collegando cosmologia e fisica delle particelle, l'immensa
scala dell'universo e quella incredibilmente piccola dei leptoni e dei quark.
Il racconto inizia il 17 aprile 1987 con la prima registrazione di una collisione protoneantiprotone al fermilab, l'acceleratore di particelle di Chicago. A partire da questo episodio, i
due autori descrivono lo sviluppo delle attuali concezioni dello spazio, del tempo, della
materia e delle forze fondamentali; con un tono narrativo che si mantiene sempre avvincente
e chiaro, ci parlano del Modello Standard della fisica delle particelle e della teoria del Big
Bang, della supersimmetria, della "teoria del Tutto" (TOE), della supergravità.
Il libro si conclude con una rassegna degli strumenti che si stanno approntando per la fisica
degli anni Novanta, come il Superconducting Supercollider (SCC), capace di simulare le
condizioni dell'Universo pochi trilionesimi di secondo dopo il Big Bang, e i nuovi telescopi e
osservatori spaziali.
Gordon Kane
IL GIARDINO DELLE PARTICELLE
1997 Longanesi & C.
dalla quarta pagina di copertina:
Sebbene l'idea secondo cui gli "oggetti" intorno a noi - le case, gli alberi, gli animali e persino
l'arcobaleno - sono composti da particelle piccolissime sia molto antica, essa ha dovuto
passare al vaglio di innumerevoli scienziati (da Newton a Rutherford, da Boltzmann a
Feynman) per raggiungere quel grado di "concretezza" che le attribuiamo oggi. La semplice
nozione di atomo dell'inizio del nostro secolo - quella di un sistema solare in miniatura
formato da un nucleo centrale circondato da elettroni orbitanti - è stata infatti ormai
soppiantata da un quadro assai più variegato e complesso, e le varie decine di particelle
oggi note compongono quello che alcuni hanno chiamato uno "zoo" e che l'autore di questo
libro, usando un'altra metafora, ha preferito chiamare un "giardino". Di questo giardino, che è
l'universo, le particelle sono in un certo senso i semi, dai quali cresce la diversità di tutto ciò
che ci circonda.
In questo saggio, Gordon Kane c'illustra anzitutto come gli scienziati siano giunti a
comprendere le leggi sottese all'intero universo: dalle affermazioni dei filosofi greci, secondo
i quali doveva esistere un elemento primario costitutivo della materia, fino alle scoperte di
Newton, Maxwell, Einstein, Heisenberg. Poi, grazie a un affascinante tour dei maggiori
laboratori di fisica nel mondo, l'autore ci mostra come gli enormi acceleratori e collisori
odierni siano in grado di "vedere" cose milioni di milioni di volte più piccole di quelle
osservabili attraverso i primi microscopi, quattrocento anni or sono. Così, grazie alla
comprensione del funzionamento dei macchinari utilizzati per "vedere" i quark e i leptoni,
riusciamo a capire meglio gli esperimenti che hanno condotto gli scienziati a formulare la
cosiddetta "teoria standard", cioè la teoria matematica completa che descrive come
funzionano tutte le cose, dalle particelle alle stelle, cominciando dagli elettroni a dai quark. Il
punto d'arrivo della ricerca scientifica, quindi? Niente affatto, ci rivela Kane, spiegandoci
come la "teoria standard" si estenda di giorno in giorno, incorporando le ricerche più
avanzate sulla supersimmetria, sulla materia oscura e sulle superstringhe, e spingendosi
sino a far intravedere una possibile - ed esaltante - "teoria del tutto".
Forte di una pluriennale esperienza nell'insegnamento della fisica a studenti non
specializzati, Gordon Kane ci guida con sicurezza e disinvoltura in un campo tanto ostico
quanto affascinante: grazie al suo libro, destinato a diventare un piccolo classico
sull'argomento, il mondo delle particelle non sarà più, per noi, un giardino proibito.
Leon Lederman e Dick Teresi
LA PARTICELLA DI DIO
1996 Mondadori
dalla quarta pagina di copertina:
Nel V secolo a.C. Democrito di Abdera ipotizzò che la materia sia costituita da particelle
invisibili e indivisibili, alle quali attribuì il nome di "atomi". Partendo da tale intuizione, il
premio Nobel per la fisica Leon Lederman, in un'epoca in cui dagli ambienti scientifici quasi
ogni giorno giunge l'annuncio di scoperte riguardo alla struttura della materia, ripercorre
l'affascinante storia di ricerche, esperimenti e studi svolti dall'uomo per rispondere
all'antichissima e ardua domanda: "Di che cosa è fatto il mondo?". Secolo dopo secolo, egli
ci permette di cogliere lo sforzo comune dell'umanità nel tentativo di individuare e descrivere
l'atomo teorizzato da Democrito, uno sforzo coronato da successi sempre parziali, provvisori,
inevitabilmente limitati, a fronte dei continui progressi scientifici e tecnologici. Galileo,
Newton, Faradey, Rutherford, Einstein sono soltanto alcuni dei numerosi protagonisti di tale
appassionante avventura, presentati come veri e propri detective alla ricerca di indizi che
svelino il segreto ultimo dell'universo.
Illustrando ogni tappa di questo viaggio in prosa chiara e accattivante, non di rado venata da
un originale umorismo. Lederman ci conduce fino all'ultimo cinquantennio, in cui lo studio del
mondo subatomico ha conosciuto uno sviluppo straordinario grazie alla creazione della più
complessa apparecchiatura sperimentale mai realizzata. l'acceleratore di particelle. L'autore
ce ne spiega il funzionamento in modo estremamente semplice, con la metafora di un
affilatissimo coltello che seziona la materia fino a separarne gli elementi costitutivi (leptoni,
mesoni, quark, ecc.). E, infine, immagina la possibilità di metterne a punto un nuovo,
potentissimo modello in grado di fornirci la risposta definitiva sull'argomento, di farci scoprire
appunto la "particella di Dio".
Gerard 't Hooft
IL MONDO SUBATOMICO - alla ricerca delle particelle fondamentali
1999 Editori Riuniti
dalla quarta pagina di copertina:
Gerard 't Hooft, fisico teorico di punta, presenta in modo chiaro e affascinante uno degli
ambiti di ricerca più creativi nella fisica del Novecento: quello che, soprattutto a partire dagli
anni sessanta, ha esplorato a fondo la struttura fondamentale della materia, alla ricerca degli
elementi ultimi, dei costituenti indivisibili. E' una storia che coinvolge aspetti della ricerca
scientifica contemporanea, dalla riflessione teorica sull'origine dell'universo alle spettacolari
sperimentazioni della fisica delle alte energie.
Nella prima parte del libro 't Hooft ricostruisce le modalità con cui si è giunti a elaborare il
cosiddetto Modello Standard della fisica, la teoria che descrive il mondo subatomico. La
seconda parte illustra le ipotesi teoriche più attuali e più ardite circa la struttura della materia,
dello spazio e del tempo.
Paul Davies
LE FORZE DELLA NATURA
1990 Bollati Boringhieri
dalla quarta pagina di copertina:
Vero "cavallo di razza" della divulgazione scientifica, Paul Davies è uno dei rari fisici che
sanno farsi seguire dal lettore comune anche quando affrontano argomenti difficili. ne è una
prova il presente volume, una delle migliori illustrazioni disponibili del microcosmo atomico e
dell'incredibile fauna che lo abita: non solo la familiare triade protone-elettrone-neutrone, ma
le ben più intriganti realtà che vanno sotto il nome di "colore", "incanto", "stranezza".
Negli ultimi anni la ricerca fondamentale ha fatto passi da gigante, si da far pensare
prossima una descrizione unificata di tutte le forze della natura, sostituite da un'unica
"superforza", e l'avvento di una "supersimmetria" capace di unire forza e materia. Progressi
promettenti si sono avuti nel campo delle teorie di grande unificazione, ma forse la spinta
decisiva è stata data dalla scoperta delle particelle W e Z, i bosoni intermedi portatori della
cosiddetta interazione debole.
Anche di questi nuovi sviluppi rende conto il libro di Davies, che ha dunque tutto per
interessare un pubblico vario, compresi i lettori di formazione scientifica, ma non addentro
alla materia, desiderosi di curiosare "nell'orto del vicino".
Paul Davies
SUPERFORZA - verso una teoria unificata dell'universo
1986 Mondadori
dalla quarta pagina di copertina:
Sta oggi per realizzarsi un sogno antico dell'uomo: costruire una teoria che gli consenta di
unificare lo scibile, di ricondurre la sconcertante molteplicità dei fenomeni che lo circondano
a un'unica legge fisico-matematica. Una legge che comprenda l'infinitamente grande, ma
anche l'infinitamente piccolo: le stelle, le galassie, gli spazi immensi, e la popolazione
sterminata di particelle di cui i grandi acceleratori di tutto il mondo annunciano sempre più
spesso la scoperta - bosoni, fermioni, quark, antiquark, particelle W, particelle Z...
La soluzione viene intravista, oggi, dai fisici, nell'unificazione delle quattro forze che
producono tutti gli eventi della natura - gravità, elettromagnetismo, interazione nucleare forte
e debole - in una singola superforza, amalgama di materia, spazio-tempo ed energia: una
struttura integrata e armoniosa, che confermerebbe le simmetrie profonde della materia
rivelate dall'analisi matematica.
In questo libro Paul Davies racconta la storia affascinante di questa ricerca, dalle ipotesi di
Einstein alle scoperte di Rubbia alle prospettive attuali. E' un viaggio avventuroso nel cuore
di un universo a undici dimensioni, nato spontaneamente dal nulla eppure "prodotto della
legge, più che del caso": un mondo dominato da una logica molto diversa da quella del
senso comune, una logica surreale che richiama alla mente il Paese delle Meraviglie di
Alice.
Brian Greene
L'UNIVERSO ELEGANTE - supertringhe, dimensioni nascoste e la ricerca della teoria
ultima
1999 Einaudi
dalla quarta pagina di copertina:
La teoria delle superstringhe è come una grande rete che avvolge molte delle scoperte
fondamentali della fisica; è una teoria che unifica le leggi del grande e del piccolo, leggi che
governano i più ampi spazi del cosmo e i più piccolo brandelli di materia. Dunque, è una
teoria a cui ci si può accostare in vari modi. Ho scelto di concentrarmi sui progressi nella
nostra concezione dello spazio e del tempo. Mi sembra una linea evolutiva molto stringente,
che apre vaste e interessanti prospettive su nuovi concetti. Einstein ci ha mostrato che lo
spazio e il tempo si comportano in modi sorprendenti e controintuitivi; oggi le ricerche più
avanzate hanno integrato le sue idee nell'ambito di un universo quantistico, dotato di molte
dimensioni nascoste nella trama del cosmo - dimensioni dalla geometria riccamente intricata
che possono celare la risposta alle domande più profonde mai poste. Alcuni di questi
concetti sono complessi, ma possono essere intesi grazie ad analogie prese dal mondo
quotidiano; quando li si comprende appieno, ci offrono una prospettiva sorprendente e
rivoluzionaria da cui guardare l'universo.
Robert P. Crease e Charles C. Mann
ALLA RICERCA DELL'UNO
1987 Mondadori
dalla quarta pagina di copertina:
Un'opera unica, irripetibile: Alla ricerca dell'uno oltreché un capolavoro di divulgazione
scientifica, è un trascinante viaggio nel cuore della fisica del nostro secolo raccontato dai
suoi grandi protagonisti: una storia non di protoni ma di persone, individui geniali.
Ecco giganteggiare, all'inizio, la figura di Einstein, l'ultimo pensatore solitario, il primo a
intuire le relazioni che legano insieme tutti i fenomeni dell'universo. ecco poi il sorgere della
teoria quantistica, la scoperta dei quark, l'entusiasmante proposta della teoria della "forza
elettrodebole" di Weinberg e Salam, la sua clamorosa conferma sperimentale compiuta da
Carlo Rubbia al CERN di Ginevra nel 1983. E infine ecco che appaiono le Nuove Teorie
Unificate - dalla Superforza alle Supercorde - che propongono una spiegazione globale del
cosmo, della sua nascita come del suo destino...
Fisica
La particella di Dio
Il nostro mondo, dagli atomi alle galassie più lontane, è oggi tenuto insieme da
quattro distinte forze, molto diverse tra loro. Unificarle in una sola formula è il
sogno di ogni fisico. Così i ricercatori elaborano teorie raffinate e affascinanti,
cercando poi di verificarle con la scoperta di "superparticelle" che sembrano
inaccessibili. La ricerca continua, e un giorno sapremo se è davvero così. Allora,
come dice Stephen Hawking, "conosceremo la mente di Dio"
Poter descrivere la complessità dell'universo in cui viviamo con una semplice teoria, la
"Teoria del tutto", è il sogno di ogni scienziato. Ma per arrivare a farlo è indispensabile un
passo intermedio: riuscire a descrivere, in un'unica trattazione matematica, tutte le quattro
forze fondamentali esistenti in natura. A questa meta ambiziosa - l'unificazione - stanno
lavorando ricercatori in tutto il mondo, alle prese con alcune delle più astratte e raffinate
teorie fisiche e matematiche mai elaborate dall'uomo, che hanno nomi suggestivi e difficili
(come superstringhe, supersimmetrie, supergravi- tà...) e che puntano a penetrare i più
riposti segreti del mondo delle particelle subatomiche. "Se riusciremo a trovare una
risposta", ha detto il famoso scienziato inglese Stephen Hawking, "decreteremo il trionfo
definitivo della ragione umana, giacché allora conosceremmo la mente di Dio". Via via che le
nostre conoscenze della natura e del cosmo si sono approfondite e nuovi esperimenti hanno
permesso di esplorare in dettaglio le nascoste proprietà della materia, la comprensione delle
quattro forze, o interazioni, fondamentali, che sono alla base dei processi fisici, chimici e
biologici è divenuta più chiara. Le quattro forze di base La forza gravitazionale, che si
esercita tra tutti i corpi dotati di massa, è la più familiare poiché viene avvertita attraverso il
nostro peso corporeo; è la causa della caduta dei corpi sulla Terra, e del movimento dei
pianeti intorno al Sole. All'interazione elettromagnetica, che si esercita tra particelle cariche,
si devono l'elettricità, le onde radio e l'attrazione che consente agli elettroni di carica
negativa di orbitare attorno al nucleo dell'atomo, che ha una carica positiva. Nel mondo di
dimensioni infinitesimali in cui vivono le particelle elementari, sono attive due altre
interazioni senza le quali l'universo come noi lo conosciamo non potrebbe esistere: la forza
"forte" e quella "debole". La prima è quella che tiene uniti protoni e neutroni (a loro volta
formati da quark) a formare il nucleo dell'atomo. La forza "debole" invece (centomila volte
meno intensa di quella forte), si esercita tra particelle chiamate leptoni (come l'elettrone e il
neutrino), ed è la causa della disintegrazione degli atomi radioattivi e di alcune delle reazioni
nucleari che avvengono all'interno del Sole. Questa disparità di interazioni non esisteva,
secondo gli scienziati, poco dopo il Big Bang, quando l'universo era estremamente caldo e
denso, ma le forze si sono andate via via separando mentre il cosmo si raffreddava e
prendeva le sembianze che oggi conosciamo. A riprova dell'enorme difficoltà di riunire in
un'unica trattazione quello che ci appare diverso nel mondo percepibile, vi è il fatto che
anche il grande Albert Einstein provò, per buona parte della sua vita, a unificare la forza
gravitazionale e quella elettromagnetica senza ottenere alcun risultato. La scoperta dei
bosoni Da allora il più importante successo è consistito nella creazione della "teoria unitaria
delle forze elettromagnetiche e deboli", realizzata da Sheldon Glashow, Steve Weinberg e
Abdus Salam, vincitori del premio Nobel nel 1979. La loro teoria prevedeva l'esistenza di
particelle mediatrici della forza elettrodebole, i bosoni vettori intermedi (le particelle W+, We Z0) che sono stati successivamente scoperti al Cern di Ginevra (il Laboratorio europeo per
la fisica delle particelle, il più prestigioso al mondo), dall'équipe guidata da Carlo Rubbia,
vincitore del premio Nobel nel 1984. Insieme ai bosoni, le altre particelle che mediano
l'azione delle forze (azione che, nella fisica moderna, è sempre vista come uno scambio di
particelle tra i corpi che interagiscono), sono i fotoni per la forza elettromagnetica, i gluoni
per quella forte, e gli ipotetici gravitoni per quella gravitazionale. Il passo successivo è stato
la formulazione delle cosiddette "teorie di grande unificazione", che trattano insieme la forza
forte e la forza elettrodebole, ma non tengono conto dell'interazione gravitazionale. Secondo
queste ultime teorie, nei primi anni di vita dell'Universo sarebbe dovuta esistere una
"superforza" mediata da una superparticella chiamata "X". Un'ipotesi che è impossibile
verificare, allo stato attuale delle conoscenze, come spiega Nicola Cabibbo, fisico teorico e
presidente dell'Enea, l'Ente per le nuove tecnologie, l'energia e l'ambiente. "Risultati recenti
ottenuti con gli esperimenti effettuati nel Lep, la macchina acceleratrice attualmente in
funzione al Cern, hanno permesso di capire che queste ipotetiche particelle sarebbero
estremamente pesanti, circa un milione di miliardi di volte la massa del protone. Per
trovarle, sarebbero necessari acceleratori che arrivano a energie così enormi da essere del
tutto irrealizzabili". Il fatto è che, secondo la famosa formula di Einstein, E=mc2 , che
esprime l'equivalenza di massa ed energia, più elevata è la massa di una particella che si
vuole produrre all'interno di un acceleratore, più elevata deve essere l'energia. Uno scambio
di ruoli Ma non è questo il solo limite delle "teorie di grande unificazione", che sono per il
momento considerate abbastanza insoddisfacenti. Più promettenti sono invece ritenute le
teorie "supersimmetriche" (chiamate "SuSy", da supersymmetry), che riuniscono in una
stessa famiglia i due grandi gruppi di particelle precedentemente considerati diversi fra loro:
i bosoni, cioè i mediatori delle interazioni (fotone, gluone, gravitone, e le particelle W e Z), e
i fermioni, le particelle che compongono l'atomo, come elettroni e quark. Queste particelle
potrebbero trasformarsi le une nelle altre, scambiandosi i ruoli. Ciò implica, per le stesse
complesse simmetrie matematico-fisiche, che ogni particella conosciuta abbia un compagno,
il cosiddetto "partner supersimmetrico", che si chiama squark per il quark, fotino per il
fotone, Wino per il W e così via. Un modo per verificare la validità della costruzione teorica è
dunque quello di "catturare" le particelle supersimmetriche. E i fisici sono sicuri di riuscire a
farlo presto con la nuova macchina acceleratrice Lhc che entrerà in funzione al Cern. "Dal
momento che la loro massa potrebbe non essere troppo alta", conferma Cabibbo,
"dovrebbero essere accessibili ai nostri rivelatori. Individuarle è uno dei grandi temi della
ricerca odierna". La "supergravità" Grazie alla supersimmetria può diventare più facile
trattare anche la forza gravitazionale, che è la più difficile da unificare, e ha sempre dato ai
fisici molti grattacapi. "La forza di gravità ci sembra intensa, ma all'interno dell'atomo è
molto debole, miliardesimi di miliardesimi di miliardesimi di miliardesimi di volte (il numero
preciso è 10 seguito da trentasette zeri) meno forte della forza elettromagnetica e quindi è
irrilevante per le particelle subatomiche", dice Cabibbo. Per arrivare alla possibilità di trattare
l'interazione gravitazionale insieme alle altre una nuova teoria, detta della "supergravità", è
stata formulata nel 1976 dal fisico italiano Sergio Ferrara (che lavora al Cern) insieme a
Daniel Freedman e Peter van Nieuwenhuizen (che hanno insieme vinto nel 1993 il
prestigioso premio Dirac). Si tratta di un ampliamento della teoria della gravitazione (la
relatività generale) di Einstein. Basata sulle teorie supersimmetriche, introduce accanto al
mediatore della forza gravitazionale, il gravitone, il suo partner supersimmetrico, chiamato
gravitino. Commenta Ferrara: "Lo schema teorico porta automaticamente a trattare la
gravità insieme alle altre interazioni, ma ci sono ancora al suo interno molti problemi aperti
che vanno affrontati". Ed ecco che entra in gioco una delle costruzioni matematiche forse più
affascinanti e complesse della fisica contemporanea, la "teoria delle superstringhe", la
migliore candidata, secondo i suoi sostenitori, per arrivare all'unificazione sognata. Spazio a
dieci dimensioni Formulata nel 1984 da Michael Green e John Schwarz (vincitori del premio
Dirac nel 1989), questa teoria suggestiva vale in un mondo molto particolare dove le quattro
dimensioni dello spazio-tempo in cui viviamo (tre per lo spazio e una per il tempo)
diventerebbero addirittura dieci. Inoltre le particelle elementari non sarebbero più
paragonabili a punti ma diventerebbero delle stringhe vibranti come corde musicali. E
sarebbero piccolissime, contenute in uno spazio di molti miliardi di volte più piccolo del
nucleo atomico: tanto più piccole di un atomo di idrogeno, quanto un atomo di idrogeno lo è
rispetto all'intero sistema solare. Ma quando si ritorna a distanze maggiori le stringhe
ridiventerebbero puntiformi e le dimensioni dello spazio tornerebbero a essere quattro. "Si
pensa che le sei dimensioni in più, presenti a distanze così piccole, si "arrotolino" e quindi
scompaiano a mano a mano che si ritorna verso le dimensioni del mondo in cui viviamo",
commenta Ferrara. Tra scienza e fantascienza Fantascienza? Forse, ma l'immaginazione
scientifica dei fisici teorici, nel tentativo di dominare i sottili meccanismi del mondo
subatomico, sembra non avere limiti. Tant'è vero che, da un po' di tempo, si sta facendo
strada un'altra teoria ancora più fantascientifica, chiamata "M", secondo la quale le particelle
non sarebbero simili a stringhe monodimensionali bensì a membrane bidimensionali che
fluttuerebbero in uno spazio a undici dimensioni. Vi stanno lavorando alcuni grandi scienziati,
tra cui lo stesso Ferrara e il famoso fisico Ed Witten dell'Institute for Advanced Study di
Princeton (dove lavorò per molti anni, fino alla fine della vita, lo stesso Einstein). Come si
vede, la strada verso l'unificazione e la comprensione dei mattoni elementari della materia,
nonostante gli sforzi di alcune delle menti più brillanti della fisica teorica, è lastricata di
difficoltà. "Anche se sono stati fatti progressi, c'è ancora molto lavoro da fare", conclude
Cabibbo. "Sarà il principale argomento di ricerca per il prossimo secolo".
Michela Fontana
L'UNO E IL TUTTO
di Mariangela Ferrara del gruppo Mizar
Comprendere i segreti della natura, dell’universo, della coscienza è la mèta che si è posta ogni
serio ricercatore in tutte le epoche storiche, tentando, attraverso studi e analisi sempre più
approfondite, di penetrare i misteri del mondo in cui viviamo, di rendere comprensibili i
fenomeni di cui siamo testimoni, nella speranza di “conoscere il pensiero stesso di Dio”.
Con quest’obiettivo e per questo scopo, Einstein, già famoso per aver pubblicato la teoria
della relatività (1905) dedicò gli ultimi anni della sua vita all’infruttuosa ricerca di una teoria
unificata e completa in grado di dare una spiegazione ad ogni cosa, ma i tempi non erano
ancora maturi, si sapeva ben poco sulle forze nucleari, ed inoltre Einstein si rifiutava, a torto,
poiché smentito dalle successive ac-quisizioni teorico-scientifiche, di credere nella realtà della
meccanica quantistica e nel principio di indeterminazione (Heisenberg, 1927). Celebre, a
questo proposito, è la sua frase “Dio non gioca a dadi con l’universo”.
Ancora oggi relatività generale e meccanica quantistica, pur rappre-sentando i due pilastri
fondamentali della fisica, hanno campi d’indagine differenti.
La relatività generale trova la sua applicazione solo nell’infinitamente grande, la meccanica
quantistica solo nell’infinitamente piccolo. Le due grandi teorie della fisica del XX secolo,
perciò, non possono essere giuste entrambe, sono incompatibili fra loro. Questo significa che ci
rivolgiamo di volta in volta alla relatività generale oppure alla meccanica quantistica.
La speranza resta quella di trovare una teoria unificata, coerente e completa che includa
tutte le teorie parziali che descrivono invece solo un ambito limitato di fenomeni. La difficoltà
principale nel trovare la grande teoria unificata è data dal fatto che la relatività generale è una
teoria classica, ossia non incorpora il principio di indeterminazione, tuttavia sembra che tale
principio costituisca un tratto fondamentale dell’universo in cui viviamo; una teoria unificata,
per poter raggiungere il proprio obiettivo, deve quindi necessariamente incorporare questo
principio.
Il grande astrofisico S. Hawking, nel suo libro “La teoria del tutto” sostiene che “un primo
passo da compiere nella ricerca è quello di combinare la relatività generale con il principio di
indeterminazione, ciò può portare a conseguenze notevoli come l’idea che i buchi neri non
siano così neri, che l’universo sia racchiuso in se stesso e privo di confine, che lo spazio vuoto
sia in realtà pieno di particelle e antiparticelle virtuali”.
La teoria unificata che la fisica cerca, tenta di riunire le grandi forze della natura per arrivare
a comprendere la meraviglia del creato e la semplicità delle leggi su cui è fondato, per svelare
il funzionamento dell’universo e per poterlo contemplare attoniti in tutta la
sua bellezza ed eleganza.
Anche l’uomo fa parte di questo scenario, egli non è solo spettatore
passivo di un meccanismo che sta al di fuori di lui. Egli fa parte
integrante del tutto, forse non è soltanto mèro osservatore degli eventi
e della realtà del cosmo.
La visione meccanicistica dell’universo è stata profondamente minata
proprio dal principio di indeterminazione che, secondo l’interpretazione
di alcuni ricercatori, dimostrerebbe che l’osser-vatore condiziona
l’osservato ponendo l’uomo e più precisamente la coscienza dell’uomo
stesso in una posizione interattiva rispetto al tutto.
La ricerca della “grande teoria unificata” mira alla descrizione di tutte e quattro le forze
fondamentali (nucleare forte, nucleare debole, elettromagnetica e gravitazionale) e di tutta la
materia nell’ambito di un unico quadro concettuale onnicomprensivo, attraverso formule ed
equazioni sempre più complesse, ma può tenere anche conto di ciò che è definito “principio
antropico” enunciato per la prima volta negli anni '50 da R.H. Dicke ed elaborato nel 1986 da
J.D. Barrow e da F.J. Tipler e, secondo il quale “la spiegazione del perché l’universo ha le
proprietà che osserviamo sta nel fatto che, qualora queste proprietà fossero differenti, è
probabile che la vita non sarebbe emersa e, di conseguenza, noi esseri umani non saremmo
qui ad osservare tali differenze. La peculiarità che contraddistingue la combinazione di forze e
particelle del nostro universo è quella di permettere il formarsi della vita. L’esistenza della vita,
della vita intelligente in particolare, è un presupposto necessario per potersi domandare perché
il nostro universo ha le proprietà che ha”. In altre parole le cose nel nostro universo sono come
sono perché se fossero diverse noi non saremmo qui ad osservarle. L’essere umano è parte
della natura, della terra, dell’universo e come tale rispetta i ritmi biologici e cosmologici propri
del suo ambiente. Egli partecipa anche alle misteriose sincronie della natura: nel cervello
milioni di neuroni agiscono in modo coordinato per regolare il respiro, mentre un metronomo
naturale dà il ritmo al cuore; il corpo umano è come un’orchestra i cui musicisti sono le singole
cellule che seguono il ritmo regolato dal loro DNA. Non soltanto nel corpo umano ma in tutti i
fenomeni naturali le sincronie sembrano avere un regista o un coreografo. Sono significativi in
tal senso i comportamenti di alcune specie di piante o di animali, eccone alcuni esempi: in
Cina, dopo mezzo secolo di fioriture casuali, i bambù di una stessa specie fioriscono tutti nello
stesso periodo, le farfalle monarca ogni anno partono in massa dal Canada dirette al Nuovo
Messico, i polipi della barriera corallina australiana in una notte di luna piena di agosto su un
fronte di duemila chilometri liberano simul-taneamente una nuvola di miliardi di uova.
Per non parlare delle straordinarie coreografie di nuoto sincronizzato di alcuni pesci che si
dispongono in banchi dalle forme più bizzarre, o delle formazioni complesse che assumono gli
stormi mostrando la capacità di volare e di muoversi all’unisono coordinati da un regista
invisibile.
Anche gli elettroni in un superconduttore si muovono in sincronia, permettendo all’elettricità
di fluire senza incontrare resistenza. Sembra esserci un impercettibile legame che unisce tutte
le sincronie esistenti. “Molti organismi si comportano come oscillatori accoppiati cioè sistemi
composti da molti elementi legati da una grandezza il cui valore in una unità del sistema
influenzerebbe tutte le altre.”
Il matematico Steven Strogatz, docente di matematica applicata alla Cornel University e al
Massachussetts Insitute of Tecnology, dopo venti anni di studi, sostiene questa tesi; i risultati
ottenuti dimostrano perciò che l’uno, non solo è parte del tutto ma ne condiziona il
funzionamento globale in un interscambio di informazioni dando luogo alle manifestazioni
osservabili. Il matematico si spinge ad affermare, altresì, che alcuni comportamenti umani
stranamente ritmici potrebbero essere spiegati dallo studio e dall’applicazione di questa nuova
disciplina divenuta nota con il nome di “ scienza dell’ordine
spontaneo”.
Le mode o i movimenti di pensiero sarebbero guidati dalle stesse
leggi che regolano alcune sincronie naturali.Si Potrebbe anche
azzardare l’ipotesi, quindi, che il sorgere repentino e quasi
contemporaneo di varie culture storiche o di molteplici abilità umane,
i tratti culturali e religiosi comuni alle civiltà superiori dell’antichità,
potreb-bero scaturire dalle connessioni individuate
dall’interpretazione della “scienza dell’ordine spontaneo”.
Alla luce di questa nuova chiave di lettura degli eventi della natura,
si può tentare di estendere il concetto dell’unione e dell’interazione della parte con il tutto
anche a livelli più profondi. Non solo la materia, sia organica che inorganica, risponde-rebbe
alle sincronie naturali, ma anche l’inconscio e di conseguenza il pensiero, la mente e taluni
comporta-menti, sarebbero soggetti a tale osmosi, creando incredibili sinergie.
Gli esseri umani sarebbero liberi nelle loro scelte ma collegati gli uni agli altri molto più di
quanto si creda, impegnati nella danza individuale della vita ma ignari delle invisibili sincronie.
Sapendo che la coscienza emerge proprio a causa delle complesse connessioni neurali che
hanno sede nella corteccia cerebrale,si potrebbe stabilire un’analogia e giungere ad identificare
l’universo con un grande organismo vivo e pulsante, un corpo fisico, ma anche una metamente di cui le capacità cerebrali rappresente-rebbero i neuroni.
Infatti, come in un corpo ogni cellula contribuisce e partecipa al funzio-namento
dell’organismo, così, sia nell’universo (infinitamente grande) che nell’atomo (infinitamente
piccolo), ogni parte interagisce con il tutto. Purtroppo, tranne le incoraggianti previsioni fornite
dalla teoria delle Superstringhe, secondo la quale la trama microscopica dell’universo è un
intricato labirinto a più dimensioni in cui stringhe unidimensionali vibrano senza posa dando il
ritmo alle leggi naturali, a causa dell’assenza di una teoria unificata, non possediamo ancora le
equazioni adeguate e compatibili per entrambe le realtà. Forse, però, se ci si spingesse a
considerare il Cosmo non solo come materia ma anche come spirito,inteso come essenza
nascosta delle cose,soffio animatore del reale e insieme delle attività mentali, tenendo
presente che gli elementi atomici si comportano sia come particelle sia come onde, si
giustificherebbero anche le fluttuazioni quantistiche, le onde di probabilità e l’indeterminismo
tipico dell’infini-tamente piccolo, poiché, così come la materia a grande scala risponde a leggi
fisiche definite e prevedibili, la psiche presenta invece caratteristiche inde-finite ed
imprevedibili.
In quest’ottica la ricerca della grande teoria unificata, riservata allo specifico campo della
fisica, potrebbe essere ampliata ad ulteriori territori d’inda-gine e curare l’aspetto interdisciplinare, ponendo l’attenzione anche alla biologia, all’etologia, alla neurofisiologia, alla
psicologia etc.
La scienza dell’ordine spontaneo ci ha suggerito un nuovo percorso da seguire ed un nuovo
approccio alla spiegazione degli eventi della natura, attraverso l’attendibile ipotesi di
correlazioni e collegamenti non solo fisici ma anche psichici.
Il principio di indeterminazione ci ha fornito un indizio facendoci com-prendere che non
esistono proprietà dell’universo a livello microscopico che si possono determinare con
precisione e che l’osservatore interagisce con l’osservato.
Sulla base di tali presupposti che rappresentano le ultime frontiere della ricerca scientifica, si
può dedurre che l’uomo è una parte del tutto al quale partecipa e, come tale, quindi,
probabilmente influenza le interazioni tra le particelle elementari, gli scambi molecolari e
cellulari, l’inconscio collettivo, già ipotizzato da Jung.
Per ora, nell’attesa di nuovi risultati sperimentali e di un più completo quadro teorico,
possiamo solo accontentarci della certezza che nell’unico universo che osserviamo, tentiamo di
comprendere e nel quale ci è consentito di vivere, determiniamo, attraverso le scelte che
operiamo, il nostro destino e la nostra storia.
Bibliografia:
La teoria del tutto, Origine e destino dell’universo di S. Hawking, Rizzoli
Sincronia di S. Strogatz, Rizzoli
All'inizio d'un mondo-nuovo
Una novella ateologico-scientifica intorno alla Teoria delle
Superstringhe
Domandarono a Dio se già avesse concepito il mondo e, se sì, in qual modo l'avrebbe creato.
Dio disse di aver pensato a tutti i modi possibili per dar origine alle cose, agli animali e agli uomini pensanti.
Ma le aveva scartate tutte. Infatti il modo di creare le pietre, le piante e gli animali poteva anche essere
pensato e generato, ma per quanto riguardava gli uomini, in particolare per quel loro pensiero non c'era
nulla da fare. Occorreva un inizio speciale che prendesse insieme il tutto, che oltrepassasse le cose, le piante,
gli animali, poi ancora oltre, un tutto differente e nuovo, che forse non avrebbe mai potuto esistere. A meno
che ... Ci pensò e ripensò, più e più volte, standosene fuori del tempo; gli capitò persino d'entrarci nel
mezzo. Ma ne era dovuto uscire in tutta fretta con uno sforzo non da poco, per non rimanerne impigliato e
vivo d'una vita non ancora possibile e vera. Non ne poteva proprio più. Come escogitare un'energia che
desse conto d'un'attività - quella del pensare - che nulla aveva a che fare con quella del cosmo costituito da
miliardi di anni di sola materia, energia non consapevole? Come dar conto di qualcosa di assolutamente
differente da ciò che già si vede, che appare consolidato lì fuori, che i sensi così facilmente recepiscono?
Come pensare a qualcosa che assomigliasse a quel suo pensiero e che persino lo trascendesse? .. Come
precedere se medesimo? Si fermò di colpo. Ma sì: ecco lo spiraglio!
Come precedere il mio stesso pensare? Come pensare qualcosa che mi antecede?
Come concepire un universo che manca persino di questo mio fondamentale credere che qualcosa sia posto
lì fuori ed esso sia vero ed io con esso, oppure il contrario?
Come inventare un tempo che s'inveri antecedendo se stesso insieme con colui che lo ha inventato?
Aveva trovato qualcosa da cui avrebbe potuto anche procedere. Che cosa? S'interrogava. Ma non riusciva
ancora a progettare un alcunché. Ci pensò ancora una volta e poi per milioni e milioni di anni, in un tempo
nuovo che tuttavia ancora non era stato generato in modo evidente e consapevole.
Non veniva però per nulla a capo dell'idea appena abbozzata: non riusciva a trattenerla, ad elaborarla,
renderla reale. Qualcosa che anteceda. Che sia oltre me. Al di là di Dio. Che cosa? Qualcosa che non c'è. Ma
sì ... ecco qualcosa che non c'è!
Qualcosa che manca. Ma allora anch'io non sono quel che sono e quel che penso. Nulla è così com'è. Non
esiste neppure la cosa cui credere, quell'idea che desidero emanare: nulla m'impersona.
Si fermò di botto: tutto l'universo che aveva immaginato e che ancora non era, anch'esso si era fermato di
colpo in un punto, con l'aprirsi d'un varco. Una mancanza. La mancanza di Dio. La mancanza dell'Essere. Il
venir meno del Creatore. Una vibrazione che, invece che uscire da qualcuno o da qualcosa, rientrasse. Ma in
che cosa sarebbe rientrata? "In niente", fu la risposta che subito ritornò su se stessa, ricollocandosi in una
nuova più feconda disposizione senza sollecitare alcun'altra soluzione.
Una potentissima vibrazione di nulla. Un fortissimo richiamo al mancare. Un'eco profondissima di ritorno
incominciò ad emergere. Un suono al negativo; un'assenza immane, un nulla che ondeggiava, una mancanza
che si mostrava ... Dio era scomparso. In sua vece una vibrazione che non ne occupava né il posto né la
maestà. Un silenzio che subentrava a se stesso. Un segno, un suono, un andirivieni di luci e assenze che
transitavano sotto la pelle del mondo giammai creato. Era la vibrazione del niente. Un'antivibrazione, come fu
chiamata dopo un tempo che era trascorso quasi all'infinito. Di più: un'antiantivibrazione come un suono che
suona all'inverso costituendo una soglia sottostante al piano dell'ascolto consueto. Si fanno simultaneamente
evidenti pacchetti d'una luce speciale che subito si dissolvono privati della loro medesima primigenia
illuminazione: ma questa già è incrementata all'infinito d'un mancare nel mezzo similmente a una vibrazione
che cessa, s'investe di nulla e si situa oscillando al-negativo.
Da quel momento le creature, a poco a poco, nel giro di milioni e milioni di anni, si videro crescere,
evolvere e uscire dalle antiche tane, dalle loro inveterate abitudini, e incominciare a pensare un pensiero
sottile, come se da un cervello, da una formidabile neocorteccia s'iniziasse ad emanare la descrizione chiara e
l'esistenza - per un lato evidenti e nouminose, ma per un altro in gran parte ancora oscure - d'un universo
assai complesso che andava ricercando in ogni sua piega e ad ogni istante quella pulsazione di nulla assente, il
solco d'una scintilla che in parte - o forse del tutto - esso aveva perduto, avendola tralasciata fin dal suo
principiare; oppure - è un'ipotesi recente - si trattava d'un pensiero, un'entità davvero pregevole, una
condizione dell'esistente che ancora non sapeva - o forse non voleva - né pensare né accettare nel profondo
del cuore ed entro le cavità abissali del suo capo un universo già pronto a fare a meno di sé e di chi l'aveva
creato.
Le corde di Witten
Nel 1984 Edward Witten concepì una nuova teoria fisica il cui principio risiede nel concetto di "corda".
Secondo questa teoria la "materia" sarebbe costituita da un insieme di vibrazioni presenti nella parte
più intima della struttura atomica .
Se fosse possibile osservare le particelle elementari, come elettroni e quark, con un ingrandimento
centomila miliardi di volte maggiore di quello che è consentito dalle attuali tecnologie, ci accorgeremmo
che queste non si presentano come palline ma come linee o anelli sottilissimi o, appunto, come corde
vibranti; per avere un'idea delle loro dimensioni basti pensare che un atomo, paragonato a una di
queste corde, sarebbe grande quanto un sistema stellare!
In questa teoria le caratteristiche delle particelle, compresi gravitoni, fotoni, bosoni e gluoni sarebbero
l'effetto del modo con il quale queste minuscole stringhe possono vibrare, proprio come vibrano le corde
di uno strumento musicale. Ciò che le vibrazioni producono, però, non sono note musicali, bensì
particelle distinte a seconda delle frequenze di vibrazione. Le interazioni tra le varie particelle si
presentano così come una sorta di fusione e scissione di corde.
I ricercatori hanno costruito ben cinque diverse teorie sulle superstringhe che dovrebbero essere forme
diverse di un'unica legge in grado di riassumerle tutte, una legge che dovrebbe essere formulata in dieci
dimensioni spaziali e una temporale e che dovrebbe essere in grado di unificare la teoria della relatività
generale e quella quantistica.
Non sappiamo se questa complicata teoria potrà mai essere espressa da formule matematiche, ma
l'intuizione appare straordinaria per procedere nella ricerca della struttura del cosmo.
Fisica e Macrocosmo: Cosmologia
[1]
La cosmologia moderna nasce negli anni ’20 del secolo scorso come una delle prime
applicazioni della Relatività Generale per lo studio delle proprietà del cosmo su larga
scala. [2] Se l’astrofisica tradizionale studiava oggetti celesti singoli (e.g. stelle) o
aggregati di tali oggetti su piccola scala (e.g., ammassi stellari, galassie), che
caratterizzano solo le proprietà locali del cosmo, con una strumentazione più
sofisticata è stato possibile sondare distanze più profonde, e quindi scale più estese

I numeri entro parentesi quadre [#] fanno riferimento alle diapositive del file [nome].ppt  della
Lezione II.
[3]. Più in generale, volendo descrivere le proprietà globali del cosmo, volendone dare
cioè una descrizione in toto, indicheremo col termine “universo” il primo oggetto di
indagine della cosmologia. Non potendo ricevere segnali da distanze maggiori di c x
[età dell’universo], le proprietà globali si configureranno al più come proprietà medie
della regione di universo visibile. Tali proprietà medie, oltre a rivestire un interesse
scientifico intrinseco, definiscono la cornice in cui inquadrare lo studio della
formazione e dell’evoluzione degli oggetti su scale più piccole, cioè stelle e galassie. In
definitiva, l’oggetto di indagine della cosmologia sono gli ammassi di galassie, i
superammassi di galassie, le strutture su larga scala, fino alla caratterizzazione delle
proprietà medie dell’universo visibile [4].
Principio Cosmologico. Nel linguaggio della Relatività Generale, il primo obiettivo
della cosmologia si traduce nella descrizione della geometria dello spazio-tempo su
larga scala, o meglio nella descrizione della geometria media dell’universo visibile.
[5] [isotropia] Nel 1969 Arno Penzias e Robert Wilson scoprono una radiazione
isotropa di fondo, cioè proveniente da tutte le direzioni con la stessa intensità e non
riconducibile ad alcun fenomeno astrofisico peculiare (i.e., emissione da un oggetto)
ma caratterizzante l’aspetto dell’universo su larga scala, cioè su distanze profonde
(“cosmologiche”), e quindi nelle sue prime fasi di vita. Essendo concentrata nella banda
delle microonde, la si chiama Cosmic Microwave Background (CMB). Lo spettro è quello
che tecnicamente si dice “di corpo nero”, un corpo caldo in equilibrio termodinamico
che emette radiazione elettromagnetica in tutte le direzioni indistintamente.
Lo spettro che si presenta all’antenna di Penzias e Wilson descrive il miglior corpo
nero che sia mai stato osservato in natura, e ciò significa: la radiazione di origine
cosmologica descrive un sistema, l’universo, in eccezionale equilibrio termodinamico al
momento dell’emissione di quella radiazione e straordinariamente isotropo. In altri
termini la geometria su larga scala, cioè la geometria media dell’universo, è
caratterizzata da un elevato grado di isotropia.
[6] [omogeneità] Muoviamo ora da una “dichiarazione di umiltà”, recuperando il
principio copernicano: non c’è ragione di di pensare che noi (= la nostra galassia)
occupiamo una posizione privilegiata. Più in generale, ogni punto è geometricamente
equivalente (questa la definizione di ‘omogeneità’). Meglio ancora: tutti gli osservatori
- definiti come quelli che esperimentano il moto “medio” di espansione osservato da
Hubble a parte il proprio moto peculiare - sono equivalenti. Quindi tutti osserveranno
lo stesso spettro della radiazione di fondo a microonde, cioè tutti osserveranno
l’isotropia su larga scala. Quindi tutte le singole posizioni sono, su larga scala,
equivalenti. In altri termini la geometria media dell’universo è caratterizzata da
omogeneità. Le osservazioni confermano questa conclusione: vedi e.g. catalogo Lick e
APM survey (ottico), Texas survey (radio).
[7] Siamo così giunti al Principio Cosmologico: su larga scala l’universo è omogeneo e
isotropo. Esso definisce la geometria media dell’universo visibile, o, rozzamente, la sua
“forma” media. Un teorema di geometria differenziale garantisce poi che uno spazio
omogeneo e isotropo possa essere descritto da tre sole geometrie (tre “forme”),
discriminate dal parametro di curvatura (k); sono quelle che in uno spazio 2D
descriverebbero la superficie si una sfera, di un piano o di un paraboloide iperbolico
(la “sella”). Si parla allora di universo chiuso (k > 0), aperto (k < 0) o piatto (k = 0).
[dinamica] Si dimostra inoltre che la “forma” deve mantenersi sempre uguale a se
stessa; e’ ragionevole però chiedersi se sia ammessa una dinamica, in altri termini se le
distanze tra gli oggetti distribuiti su larga scala debbano restare fisse o possano
variare nel tempo (un’immagine infantile che può aiutare: un pallone resta sempre
sferico se lo si gonfia). [8] Come già accennato, attraverso misure di magnitudine
apparente e redshift, nel 1929 Edwin Hubble rileva un allontanamento delle galassie
più distanti, secondo una legge di proporzionalità tra velocità di allontanamento e
distanza dell’oggetto osservato. Data la provenienza del segnale dalle distanze più
profonde, interpreta i suoi risultati come evidenza dell’espansione dell’universo: è
messa in luce la natura dinamica della geometria dello spazio-tempo su larga scala.
Il progresso tecnologico ha permesso di constatare che la legge di Hubble e’ di fatto
una legge approssimata: potendo osservare oggetti di cui sia nota la luminosità
intrinseca a distanze più profonde (nella fattispecie, supernovae di tipo IA), si
riscontra una legge quadratica, deviazione dalla legge lineare trovata da Hubble. Se
quest’ultima descrive un universo oggi in espansione (con velocità per unità di
lunghezza data da H0), la legge quadratica aggiunge l’informazione che tale espansione
è oggi accelerata (con “accelerazione”–q0). È una prova, questa, di come il miglioramento della sensibilità e risoluzione degli strumenti abbia mostrato una natura più
ricca e complessa dell’oggetto di studio.
[9] Relatività Generale. Il sistema che vogliamo descrivere, l’universo, e’ dominato dalle
interazioni gravitazionali: sulle scale in gioco (distanze > 1Mpc) le interazioni deboli e forti non
giocano ovviamente alcun ruolo, quelle elettromagnetiche possono avere degli effetti ma
assolutamente marginali in prima approssimazione. La teoria della gravitazione più completa a
disposizione è la teoria della Relatività Generale: essa dovrà rendere conto della geometria dello
spazio e della sua dinamica nel tempo compatibilmente con le grandezze osservabili. Nella
fattispecie, dovrà fornire delle equazioni che mettano in relazione le proprietà dello spazio-tempo
sulle distanze cosmologiche a valori medi di grandezze osservabili.
Le osservazioni di Hubble sono state cronologicamente la prima spinta all’interesse
per la cosmologia, che all’inizio era semplicemente oggetto di speculazioni matematiche come applicazione della teoria della Relatività Generale. Il modo di procedere di
quella fase è tipico della ricerca in fisica teorica, merita un’occhiata!
L’idea fondamentale della Relatività Generale è descritta da equazioni (“equazioni di
Einstein”) che mettono in relazione le proprietà geometriche dello spazio-tempo alla
distribuzione di materia-energia, determinandone così l’evoluzione in modo reciproco.
Sono costruite in modo da restituire la legge di gravitazione di Newton, le cui
predizioni sono eccezionalmente corrette sulle distanze del sistema solare; come
novità, soffrono di patologie predicendo l’esistenza di regioni singolari con densità di
energia infinita (buchi neri e big bang), e prevedono fenomeni astrofisici non possibili
nella vecchia teoria newtoniana (lenti gravitazionali e onde gravitazionali). - vedi
Lezione 3 @ Macrocosmo.
[simmetrie] Come tutte le equazioni, anche quelle di Einstein si semplificano
notevolmente (e magari si possono addirittura risolvere!) se si fa qualche ipotesi
opportuna e diventano più facilmente interpretabili da un punto di vista fisico. In
termini più corretti, si semplificano se si assume qualche simmetria (così come, ad
esempio, il moto lungo un cerchio è più semplice da descrivere di un moto caotico).
Consideriamo in particolare la cosmologia d’inizio ‘900: mossi soprattutto da un
interesse matematico per le soluzioni delle equazioni di Einstein, anche se debolmente
garantiti dall’evidenza osservativa, possiamo valutare come si presentano le equazioni
di Einstein facendo l’ipotesi che lo spazio-tempo da queste descritto sia invariante
sotto la simmetria per traslazioni, cioè omogeneo, o invariante sotto la simmetria per
rotazioni, cioè isotropo, o omogeneo e isotropo, o altro. In questo modo sono stati
studiati numerosi modelli e per ciascuno di essi sono state calcolate le conseguenti
proprietà fisiche osservabili (ed es. numero di oggetti per unità di volume).
Torniamo a oggi. La simmetria per rotazioni e la simmetria per traslazioni, cioè isotropia e
omogeneità, ora hanno dignità fisica sulle scale cosmologiche perché provate da osservazioni, tanto
da aver meritato l’appellativo di Principio Cosmologico. Di conseguenza le equazioni di Einstein si
semplificano lecitamente in una forma più leggibile: resta così definito il “Modello Cosmologico
Standard”, il punto di partenza per costruire dei modelli ragionevoli del cosmo su larga scala.
[10] Equazioni di Friedmann. Le equazioni di Einstein scritte sulla base del
Principio Cosmologico furono formulate da Friedmann nel 1922. Esse descrivono (il
quadrato della) velocità – H nelle equazioni- e accelerazione dell’universo, riconducibili
alle grandezze osservabili magnitudine e redshift, come effetto della densità media
di energia e della pressione media di tutte le sue componenti: radiazione, materia
barionica (protoni, neutroni, atomi di idrogeno, ecc.; MACHO), materia non barionica
(materia oscura: vedi Lezione 3 @ Macrocosmo), neutrini, ecc. Matematicamente sono
delle equazioni differenziali, cioè equazioni la cui soluzione è una funzione: con la
geometria in gioco la soluzione è il “fattore di scala” a(t), che definisce le distanze
degli oggetti da noi come da qualunque altro osservatore (per il principio copernicano!),
dunque l’estensione delle strutture sulle scale cosmologiche e quindi, rozzamente, il
“raggio” dell’universo visibile. Fissati i parametri cosmologici e H a un dato istante, il
fattore di scala a(t) assume una forma ben definita come funzione del tempo t (un
esempio: per il “modello Standard Cold Dark Matter”, SCDM, in grado di spiegare le
osservazioni compiute fino ad una decina di anni fa nell’ipotesi di universo piatto, si
ricava a(t) = [costante] t2/3). Tutte le grandezze osservabili che descrivono la
cinematica e la dinamica dell’universo sono funzioni del fattore di scala, o
equivalentemente (composizione di funzioni!) del redshift z:* risulta infatti (1 + z) =
1/a – relazione che permette un diretto legame tra una grandezza osservabile, la
lunghezza d’onda, e la grandezza caratterizzante la geometria dello spazio-tempo.
Secondo la relazione 1/a = (1+z) resta fissata allora la dipendenza spazio-temporale
delle grandezze osservabili: ad esempio tempo e redshift, t=t(z), densità di energia
media e il redshift, =(z), temperatura media e reshift, T = T(z), numero di oggetti e
redshift, N = N(z). Dalla misura un osservabile e del corrispondente redshift si
possono inferire i valori dei parametri cosmologici coinvolti: in questo modo si testa il
modello confrondandone le previsioni con previsioni di altra natura. Un esempio: il
modello SCDM prevede che l’età dell’universo sia inferiore a quella degli oggetti più
vecchi in esso contenuti, gli ammassi globulari - stimata per altra via - il che è
evidentemente assurdo. Un modello più corretto dovrà ovviare a questo difetto.
Quali le principali conseguenze delle soluzioni delle equazioni di Friedmann? [11]
1. Big Bang. Matematicamente le equazioni differenziali richiedono che siano
definite delle condizioni iniziali, cioè che il valore iniziale della funzione incognita
(e delle sue derivate…) sia preassegnato. Nel caso delle equazioni di Friedmann, per
convenienza, cioè per riuscire a risolverle, si usa porre a(0) = 0: significa dire che
all’istante iniziale t = 0 il “raggio dell’universo” è nullo. Ciò sembra dire che
procedendo all’indietro nel tempo tutta la materia-energia fosse concentrata in un
punto geometrico e che ad un certo istante (t = 0) il tutto ha cominciato a
prendere forma: il Big Bang. Ovviamente questa è un’approssimazione di comodo,
utile solo a poter definire una soluzione, cioè un modello, la cui validità va limitata a
descrivere il comportamento dell’universo a tempi successivi (t > 0) e dunque su
regioni spazialmente estese, cioè di interesse fisico e non geometrico (il punto
geometrico è fisicamente irrilevante). Il Big Bang è dunque solo l’effetto
dell’estrapolazione di un risultato della relatività generale in situazioni dove questa
teoria non è più valida. Einstein stesso scrisse: “La teoria è basata sulla
separazione dei concetti di campo gravitazionale e materia. Nonostante questa
possa essere una valida approssimazione per campi deboli, può presumibilmente
essere abbastanza inadeguata per densità di materia molto alte. Non si può
pertanto assumere la validità delle equazioni per densità di energia molto alte ed è
solo possibile che in una teoria unificata non ci debbano essere tali singolarità”
*
Il redshift è definito dal rapporto (oss - em) /em , dove è oss la lunghezza d’onda della
radiazione elettromagnetica emessa dalla sorgente luminosa misurata dall’osservatore (noi) e em quella
misurata nel sistema di riferimento solidale con la sorgente, in moto rispetto all’osservatore. Data la
natura relativistica del segnale (fotoni!), l’effetto doppler così manifestato non distingue tra moto
dell’osservatore o della sorgente: è rilevante solo il moto relativo dei due.
[“The Principle of Relatività”, Methuen, London, 1950]. In tali regimi la fisica
teorica moderna usa appellarsi alla Gravità Quantistica o alla Teoria delle
Superstringhe, tanto lontane da una formulazione definitiva quanto
matematicamente stimolanti (e ricordiamo che interessi esclusivamente
matematici stimolarono le prime soluzioni delle equazioni di Einstein!).
2.
Geometria 3D. Come visto prima, solo tre geometrie sono compatibili con uno
spazio omogeneo e isotropo. Per ciascuna di esse sono univocamente definiti
lunghezza di un segmento e angolo tra due rette in termini del fattore di scala
a(t); l’estensione di un oggetto, ad es. un ammasso di galassie, o l’angolo sotteso da
due oggetti, ad es. individuato dalla traiettoria della luce emessa da due quasar
distanti, dipende dalla geometria media e quindi, attraverso le equazioni di
Friedmann, dalla distribuzione di energia media dell’universo, cioè dai parametri
cosmologici. La corrispondenza biunivoca tra geometria dell’universo e contenuto di
materia-energia è manifesta riscrivendo le equazioni di Friedmann in termini della
densità critica cr, definita come valore della densità  in corrispondenza del quale
la geometria spaziale è piatta (k = 0), cioè quella euclidea. Scrivendo  = cr, la
prima equazione di Friedmann diventa
1 =  - kc2 / (H2 a2):
risulta allora k = 0 se e solo se  = 1, k = +1 se e solo e  > 0 e k = -1 se e solo se 
< 0.
Osservazione: da questa equazione che si deduce che il segno di k resta costante
nel tempo.
3. CMB. [12] Si è già parlato della radiazione cosmica di fondo (CMB) interessati
alle informazioni sulla geometria che da essa si possono dedurre. Consideriamo ora
la sua origine fisica un po’ più in dettaglio, alla luce della storia termica
dell’universo. Si può immaginare che nei primi istanti di vita l’universo fosse
costituito da una miscela di materia (protoni, elettroni, ecc.) e radiazione
elettromagnetica in equilibrio termodinamico sotto forma di “plasma” – uno stato
che sappiamo ben descrivere con le leggi dell’elettromagnetismo e della
fluidodinamica. Come osservato da Hubble nel 1929, l’universo è in espansione; per
effetto dell’espansio-ne ad un certo istante la radiazione elettromagnetica e la
materia non interagisco-no più come durante l’iniziale fase di plasma
(tecnicamente, si disaccoppiano). Quella radiazione, a questo punto libera di
propagarsi, da allora giunge alle nostre antenne praticamente senza più interagire
con la materia, mantenendo l’impronta delle condizioni di equilibrio in cui si trovava
l’universo nell’istante in cui si è disaccoppiata: deve essere caratterizzata cioè da
uno spettro di corpo nero corrispondente alla temperatura di disaccoppiamento (~
3000 K). Le equazioni di Friedmann devono predevere come il valore di quella
temperatura varia con il redshift, come effetto dell’espansione adiabatica
dell’universo: il valore predetto per z = 0, cioè misurato oggi, è proprio quello
osservato, 2.728 ± 0.002K!
Verso la complessità. Sulla base dei grafici z e z-T, è possibile distinguere
delle fasi nella storia evolutiva dell’universo. Una di particolare interesse l’abbiamo
appena reincontrata, riguarda l’”istante” dell’emissione della radiazione cosmica di
fondo a microonde; l’elevato grado di isotropia di questa radiazione si è dimostrato di
fondamentale importanza per la geometria su larga scala. Ma la radiazione del CMB è
realmente isotropa? Eventuali anisotropie cosa segnalerebbero? Consideriamo due
aspetti di rilievo in cosmologia: lo studio delle anisotropie della radiazione cosmica di
fondo (1) quale attuale strumento per la misura ad elevata precisione di alcuni
parametri cosmologici e (2) in quanto punto di partenza del processo fisico che domina
almeno il 90% del tempo di vita dell’universo, la formazione e l’evoluzione delle
strutture cosmiche, da galassie ad ammassi e superammassi di galassie fino alle
strutture su larga scala.
[12] Anisotropie del CMB. [anisotropia di dipolo] Una differenza di temperatura dal
valor medio di una parte su mille è rilevata in due regioni opposte sulla sfera celeste,
vale a dire separate da un angolo di 180°. Non è di origine cosmologica, ma va imputata
all’effetto Doppler dovuto al moto peculiare della nostra galassia: la radiazione
cosmica di fondo proveniente dalla regione verso cui ci muoviamo (il Grande
Attrattore) appare “più blu”, quella proveniente dalla regione da cui ci allontaniamo
appare viceversa “più rossa”, come se l’universo fosse più caldo in una direzione e meno
in quella opposta. Un “osservatore cosmologico” a riposo sarebbe quello che non
osserva tale anisotropia.
[anisotropie d’ordine superiore] Lo strumento DMR, montato sul satellite COBE che
per la prima volta rileva lo spettro di corpo nero della radiazione cosmica di fondo con
eccezionale precisione, misura delle differenze di temperatura dal valore medio pari
ad una parte su 105. Tali deviazioni dall’isotropia risultavano su una scala angolare di
circa 7°, limite dovuto al potere risolutivo dello strumento: ciò lascia intendere che
strumenti sensibili a scale angolari inferiori possano scoprire un aspetto ancora più
articolato. Il più recente risultato in questa direzione è stato raggiunto dal satellite
WMAP, che ha ottenuto delle immagini straordinariamente dettagliate; immagini ancor
più dettagliate saranno ottenute dal satellite PLANCK, il cui lancio è programmato per
il 2007. Molte delle informazioni codificate nelle anisotropie di temperatura su
piccola scala sono di origine cosmologica, ad esempio la curvatura media dell’universo e
i parametri di densità  di materia oscura e materia barionica. Questo segnale se ne
sovrappongono altri di origine non cosmologica, ad esempio dovuti all’emissione di
galassie vicine o della polvere del mezzo intergalattico: lo spettro complessivo è uno
strumento per studiare anche questi processi astrofisici.
[12] [missione Boomerang] Dati eccezionalmente precisi sulle anisotropie della
radiazione cosmica di fondo sono stati ottenuti dalla missione Boomerang, un
telescopio montato su un pallone aerostatico fatto volare al Polo Sud nel 1998. Il
telescopio ha osservato solo una regione di cielo, ciononostante le informazioni
dedotte sono state molto accurate. Il risultato più rilevante è stato la misura della
curvatura dell’universo inferita dalla separazione angolare media dei picchi di intensità
corrispondenti alle regioni più calde (10K oltre la temperatura media di 2.7K). Con
un errore sperimentale di circa il 5% quei dati risultano compatibili con un modello di
universo piatto, la geometria spaziale media è cioè quella euclidea. Questo effetto è in
totale accordo con l’ipotesi dell’inflazione primordiale, una fase di espansione
accelerata in cui sarebbe incorso l’universo nei primi istanti di vita, teorizzata per
risolvere alcuni problemi del Modello Cosmologico Standard.
[14] Formazione delle strutture cosmiche: ammassi di galassie, superammassi di
galassie, strutture su larga scala. Dopo l’oscura e affascinante fase iniziale dominio
della Gravità Quantistica, e la successiva inflazione, raffreddandosi l’universo si
assesta in uno stato più familiare, nel quale dominano le interazioni forti, deboli ed
elettromagnetiche descritte dal Modello Standard delle Particelle Elementari. Si
formano prima i quark, che condensano poi in adroni (essenzialmente protoni e
neutroni), che a loro volta si fondono in nuclei di atomi leggeri (nucleosintesi
primordiale). Sulla base della consolidata teoria che descrive questi processi, è
possibile predire l’abbondanza degli elementi leggeri così formati: misure su scale
cosmologiche delle abbondanze di idrogeno, elio, litio, ecc., neutri e ionizzati, sono in
accordo con le stime teoriche, confermando la previsione del raffreddamento
dell’universo in virtù della sua espansione così come descritta dal Modello Cosmologico
Standard.
[15] La materia così formata, in equilibrio con la radiazione elettromagnetica, è ancora
distribuita sostanzialmente in modo omogeneo e isotropo. La debole anisotropia della
distribuzione di materia, che è quella letta nelle anisotropie della radiazione cosmica
di fondo di ordine 10-5, è tuttavia in grado di accendere il meccanismo di collasso
gravitazionale: se le fluttuazioni di materia sono sufficientemente vicine, in virtù della
loro massa possono vincere il moto di espansione reciproco e dar luogo alla formazione
delle strutture cosmiche. Si entra così nella fase in cui dominano le interazioni
gravitazionali. [regime lineare e non-lineare] [16] Da principio sono molto deboli:
fintanto che le fluttuazioni della densità di materia sono piccole rispetto al valore
medio, le relazioni matematiche che descrivono il processo di collasso possono essere
semplificate notevolmente, fornendo una soluzione analitica. Quando le concentrazioni
di materia sono elevate, una trattazione analitica non è più sufficiente: si rende
necessario l’uso del calcolo numerico per ottenere soluzioni “esatte”. In qualche modo
si può pensare a questo approccio come ad un laboratorio: variando tutti i parametri
liberi, si realizzano configurazioni da confrontare con quelle reali osservate con i
telescopi, chiamando in causa solo equazioni che descrivono processi ben noti (F = ma =
-GMm r/r3 !).
La natura della materia su cui agiscono le forze gravitazionali definisce la storia di
formazione delle strutture cosmiche. Ad esempio, scenari in cui ci sia solo materia
oscura “calda” (la cui massa è molto piccola, e.g. 1eV/c2), prevedono la formazione
prima di strutture su larga scala, a cui seguirebbe per frammentazione la formazione
di strutture su scale più piccole (galassie e ammassi di galassie): il quadro così dipinto
è però poco compatibile con le osservazioni. Scenari con solo materia oscura “fredda”
(cioè non relativistica) prevedono invece prima la formazione di piccole strutture, poi
di quelle su scale maggiori: anche così non si ottengono risultati in pieno accordo con le
osservazioni.
[17] Il modello che descrive meglio quanto effettivamente osservato si avvicina a
quest’ultimo, che deve però essere modificato con il coinvolgimento di una costante
cosmologica () – a questo livello è solo un parametro geometricamente compatibile
con le equazioni di Einstein, ma negli ultimi anni sta attirando molta attenzione per
effetti direttamente misurati e per l’inquadramento in teorie fondamentali che si
propongono di estendere il Modello Standard delle Particelle Elementari.
Questi modelli (CDM) prevedono una storia di formazione delle strutture di tipo
gerarchico: prima si sarebbero formate le strutture di piccola massa, le galassie,
successivamente strutture più massive, ammassi e superammassi di galassie. Le prime
galassie osservabili, sedi di processi astrofisici ad alta energia (quasar, in sigla QSO),
risulterebbero osservabili a valori di redshift z  6: è quanto effettivamente
osservato di recente dal telescopio spaziale Hubble! Questo modello di formazione
risulta compatibile con le osservazioni. – vedi anche [20-21-22-23-24-25]
[18] ICM. Finora ci siamo concentrati sulle sorgenti luminose. È ovvio, tuttavia, che la
maggior parte dello spazio è occupata da regioni vuote, o più correttamente regioni in
cui la densità di materia è inferiore al valor medio; la loro evoluzione è regolata dalle
stesse leggi che descrivono la dinamica degli oggetti collassati. Queste appaiono buie
nella banda dello spettro visibile: osservandole invece nell’infrarosso o nella banda X,
manifestano una natura ben più ricca.
Su distanze cosmologiche, risultano di interesse le regioni tra gli ammassi di galassie
(Intra Cluster Medium, ICM). Sono regioni estremamente calde, sedi di interazioni
elettromagnetiche e processi d’urto tra elettroni e atomi pesanti ionizzati: il risultato
è uno spettro caratteristico, dalla cui forma è possibile dedurre la temperatura di
quelle regioni e la densità media di elettroni e ioni pesanti in esse contenuti. Lo studio
di simulazioni e il confronto con i dati osservativi costituiscono lo strumento per
l’indagine di queste strutture e il ruolo giocato contemporaneamente dalla
fluidodinamica e dall’elettrodinamica (collettivamente magnetoidrodinamica, un ramo
della fisica dei plasmi). – vedi anche [21]
[26-27] Un altro strumento di indagine del mezzo inter cluster, nella fattispecie la
distribuzione dell’elemento più abbondante sulle scale cosmologiche, l’idrogeno, è lo
studio degli spettri dei quasar più distanti (circa z > 3). La radiazione da questi
emessa attraversa lo spazio fino a raggiungere i nostri telescopi – spostata verso
lunghezze d’onda maggiori per effetto dell’espansione dell’universo. Nell’attraversamento di regioni con idrogeno neutro, viene assorbita la componente di questa
radiazione in grado di portare l’idrogeno neutro dallo stato fondamentale al primo
stato eccitato, cioè i fotoni con lunghezza d’onda pari a 1216Å. La lettura dello
spettro di assorbimento permette una mappatura della distribuzione dell’idrogeno
lungo la linea di vista: dalla posizione della riga di assorbimento si deduce il valore del
redshift della regione assorbente, cioè la sua distanza da noi; dall’ampiezza della riga
di assorbimento si risale invece alla densità di idrogeno di quella regione. [28]
Confrontando gli spettri di assorbimento di due o più quasar angolarmente vicini è poi
possibile una mappatura bi- o tri-dimensionale della distribuzione dell’idrogeno neutro.
Ancora una volta, le simulazioni numeriche costituiscono il “laboratorio” per esplorare
questi sistemi. E si ricordi: l’astronomia non è una scienza galileiana!
[19] Epilogo. Si conclude così questa rapida e sicuramente non esaustiva panoramica
u quell’affascinante ramo delle scienze fisiche e astronomiche che passa sotto il nome
di cosmologia: lo strumento con cui raccontare la storia dell’universo dai primi istanti
di vita fino ad oggi, in un quadro che vede coinvolti relatività generale, fisica delle
particelle elementari, elettrodinamica e fluidodinamica, che lascia spazio
all’introduzione di nuove teorie e nuova fisica, che fa uso dei più raffinati strumenti
della statistica e del calcolo numerico e che stimola il progresso tecnologico per
l’esplorazione del cosmo. Tutto ciò dovrebbe almeno suscitare curiosità e stimolare
l’immaginazione. E forse aveva ragione Einstein: “Imagination is more important than
knowledge”.
Aforismi
Paul Davies
Un fisico alla ricerca di Dio
Documenti correlati
I teologi affermano che l'universo ha molti tratti "contingenti". Intendono dire
che presenta dei fenomeni che devono essere spiegati con il richiamo a
qualcosa d'altro, con delle cause esterne all'universo. Certamente l'esistenza
degli esseri umani, come quasi tutto ciò che possiamo osservare nell'universo,
è, in questo senso, contingente.
Dunque, ci deve essere stato un atto di intellegenza che ha selezionato
l'enorme varietà di universi possibili. Deve essere stato, in qualche modo,
"scelto" un universo, o una gamma ristretta di universi. Non é illecito ritenere
che questa selezione si situi al di fuori o al di là del dominio della fisica, nello
spazio della metafisica. Così da un punto di vista religioso si può dire che
questa selezione è stata fatta da Dio. Molti scienziati non amano questa
spiegazione ed affermano che dobbiamo ricercare un meccanismo di selezione
del tutto interno all'universo.
I cosmologi di oggi, però, si richiamano alla cosiddetta "fisica dei quanti" e con
essa cercano di rendere ragionevole l'idea teologica di una creazione dal nulla
dell'universo. La fisica dei quanti si basa sul cosiddetto "principio di
indeterminazione" di W. Heisenberg. Questo principio ci dice che tutto ciò che
può essere misurato o osservato è soggetto a fluttuazioni spontanee: possono
accadere, cioé, cambiamenti improvvisi senza ragione alcuna. Possiamo
osservare in laboratorio come il fenomeno dei quanti faccia accadere delle cose
senza ragione apparente. Ad esempio, il decadimento di un nucleo radioattivo
è qualcosa che accadrà in un certo momento particolare senza ragioni
apparenti. Noi non possiamo dire in anticipo perché o quando il nucleo
decadrà, perché ciò accade in un momento piuttosto che in un altro. In altre
parole, per la fisica dei quanti c'è una imprevedibilità inerente alla natura.
Diviene così possibile per la prima volta concepire un universo che nasce per
una sorta di fluttuazione quantistica: la sua origine è un evento senza causa.
Nella fisica pre-quantistica non era concesso avere degli eventi senza cause.
Tutto ciò che avveniva nell'universo doveva avere una causa antecedente ben
definita, mentre nella fisica quantistica è possibile che si producano degli
eventi senza una causa antecedente ben definita. Se questo evento è la nascita
dell'universo, esso non costituisce più per noi un problema: l'universo
semplicemente nasce venendo fuori dal nulla.
Dobbiamo ricordarci che già molti secoli or sono Sant'Agostino diceva che il
mondo é nato con il tempo e non nel tempo. E' degno di nota che la moderna
immagine cosmologica riprenda questo punto di vista. Oggi sappiamo che
spazio e tempo sono parte dell'universo fisico e sono nati con esso. Vorrei
esprimere la cosa in questi termini: prima di Einstein si era portati a pensare
allo spazio e al tempo come ad un'arena in cui si rappresentava il grande
dramma della natura. Noi sapppiamo ora che spazio e tempo appartengono in
effetti al "cast" di questo dramma: essi stessi partecipano al dramma, sono
attori nel grande dramma della natura che si svolge di fronte a noi.
Non si può davvero parlare della nascita della materia senza parlare della
nascita dello spazio e del tempo. L'idea della nascita del tempo é molto
originale. Essa comporta una conseguenza: domande del tipo "Cosa accadde
prima del "big bang"?", oppure "Che cosa ha causato il "big bang"?", risultano
prive di significato, perché non c'era un "prima", non c'era una causa
antecedente come la intende la fisica tradizionale.
Inoltre, se spazio e tempo sono elementi dell'universo, possono essere
allungati e accorciati perfino in laboratorio. Possiamo manipolare spazio e
tempo allo stesso modo in cui possiamo manipolare la materia. Se essi sono
parte, per usare un termine religioso, della "creazione", allora devono esser
stati creati. Io personalmente non credo che ci sia modo di dare un senso al
mondo senza supporre che spazio e tempo, nel "big bang", siano stati creati
con la materia e l'energia originarie.
Tratto dall'intervista "Riflessioni sulla cosmologia
contemporanea" - Venezia, Università Ca' Foscari, sabato
16 dicembre 1989
Aforismi
Paul Davies
Scienza e tecnica
Documenti correlati
DOMANDA
Professor Davies, condivide la distinzione fra scienza e uso della
scienza?
DAVIES
Sicuramente. Penso che, spesso, si tenda ad equiparare scienza e tecnologia.
La mia carriera è stata contrassegnata dal tentativo di comprendere la scienza
come un mezzo per svelare i segreti della natura. Il mio fine è sempre stato
capire come funziona il mondo e qual è il suo significato. E credo sia questo un
uso molto nobile della scienza. Ma vi esiste anche la scienza come fondamento
della tecnologia. Come ho già avuto modo di spiegare, non credo che
possiamo fare a meno della tecnologia. La tecnologia non è intrinsecamente
buona o cattiva, è buona o cattiva a seconda dell’uso che ne vien fatto. Molti
cercano di giustificare il fatto di fare scienza in base ai suoi risultati
tecnologici. Secondo me la scienza è veramente un’impresa più profonda. Essa
è per sua natura fondamentalmente culturale. E’ da porre accanto alle arti, ed
è qualcosa che vale la pena di fare per se stessa. Ma ovviamente la scienza è
costosa, deve pagare un prezzo per il proprio sviluppo e lo fa attraverso i suoi
prodotti tecnologici. Ma è nell’era della tecnologia e non in quella della scienza
come tale che si nascondono i pericoli. La scienza è semplicemente un nobile
cammino verso la conoscenza. Invece, la scienza, in quanto strumento di
creazione della tecnologia, è pericolosa: per questo dobbiamo non già
arrestarci, ma essere consapevoli dei suoi pericoli e creare le istituzioni e la
regolamentazione adatta per esser sicuri che essa non sfugga mai al
controllo.Credo sia finita ormai da molto tempo l’epoca in cui gli scienziati
potevano permettersi di dire semplicemente che era colpa dei politici. Una
volta fatta una scoperta scientifica è inevitabile che prima o poi qualcuno
voglia sfruttarla. Il problema è che non possiamo sapere in anticipo quale
filone della ricerca probabilmente si dimostrerà pericoloso e quale invece
benefico. Ora io non credo che possiamo tornare sui nostri passi. Coloro che
vedono nella scienza puramente qualcosa di funesto e che vorrebbero in
qualche modo tornare all’epoca medioevale, alla società pre-tecnologica, sono
in grave errore, sono fuori strada. Ormai è troppo tardi, non possiamo fare a
meno della scienza, dipendiamo dalla scienza e dalla tecnologia in talmente
tanti modi per la nostra esistenza che siamo costretti ad accettarla, nel bene e
nel male. Io credo sia giunto il momento quindi per gli scienziati stessi di
comportarsi, se mi è concesso esprimermi in questi termini, come poliziotti
rispetto alle proprie scoperte. Non disponiamo ancora di istituzioni che
svolgano questo compito, anche se se ne intravede l’inizio, ad esempio
nell’area della biotecnologia, nel modo in cui gli scienziati si autodisciplinano al
fine di non creare mostri che verrebbero poi abbandonati, finendo al di là di
ogni controllo e minacciando le nostre vite. Spero che questa idea degli
scienziati che si assumono la responsabilità per il loro lavoro si diffonda anche
in altri campi. Ma in definitiva, naturalmente la società nel suo insieme deve
accettare che se si vogliono trarre benefici dalla scienza, si deve anche
imparare a convivere con i suoi pericoli.
Parte 1: le osservazioni cruciali
Fino a qualche centinaio di anni fa, il sistema solare e l'Universo erano equivalenti nella mente degli
uomini dotti, dunque la scoperta che la Terra non è il centro del sistema solare fu un passo decisivo
nello sviluppo della cosmologia. Inoltre all'inizio del XX secolo Shapley stabilì che il sistema solare
si trovava lontano dal centro della Via Lattea. Dunque negli anni '20, la situazione scientifica e
culturale era matura per le osservazioni cruciali che avrebbero portato al modello del Big Bang.
Il redshift delle galassie
Nel 1929 Hubble annunciò che il redshift delle galassie era proporzionale alla loro distanza. Il
redshift di una galassia è un indice della sua velocità radiale, e può essere determinato utilizzando
uno spettrografo per misurare lo spostamento Doppler. Il grafico seguente mostra i dati di Hubble
del 1929:
La pendenza della retta che interpola queste misure è ora nota come costante di Hubble H0. Dato
che sia i kilometri che i Megaparsec sono unità di distanza, l'unità di misura di H0 è 1/tempo, ed il
fattore di conversione è dato da
1/H0 = (978 miliardi di anni)/(H0 in km/s/Mpc)
Per questo motivo, il valore di 464 km/s/Mpc ottenuto da Hubble era equivalente a circa 2 miliardi
di anni. Dal momento che tale valore dovrebbe approssimare l'età dell'Universo, e noi sappiamo
(era noto anche nel 1929) che l'età della Terra supera i 2 miliardi di anni, il valore di H0 trovato da
Hubble portò ad un generale scetticismo nei confronti dei modelli cosmologici, e fornì una
motivazione a favore del modello stazionario.
Tuttavia, pubblicazioni successive misero in luce alcuni errori: Hubble aveva confuso due tipi
diversi di variabili Cefeidi usate per calibrare le distanze, inoltre aveva considerato come stelle
molto luminose regioni HII in galassie lontane. La correzione di questi errori portò ad un
ridimensionamento verso il basso del valore della costante di Hubble. Attualmente ci sono
principalmente due gruppi scientifici che utilizzano le Cefeidi per determinare H0: l'HST Distance
Scale Key Project team (Freedman, Kennicutt, Mould et al) che ha ottenuto il valore di 68÷78
km/s/Mpc, mentre il gruppo di Sandage, che usa anche osservazioni del telescopio spaziale per
calibrare supernovae di tipo Ia, ha ottenuto il valore di 57 ± 4 km/s/Mpc.
Altri metodi per determinare la scala di distanza includono il ritardo temporale nelle immagini
multiple delle lenti gravitazionali e l'effetto Sunyaev-Zeldovich negli ammassi distanti: entrambi
sono indipendenti dalla calibrazione delle Cefeidi e forniscono valori consistenti con la media dei
due gruppi che usano HST: 65 ± 8 km/s/Mpc.
Con questo valore di H0, l'età approssimativa dell'Universo 1/H0 è di 15 miliardi di anni.
I dati di Hubble del 1929 erano, dal nostro punto di vista, abbastanza scadenti. Infatti le singole
galassie hanno velocità peculiari di diverse centinaia di km/s, e i dati di Hubble arrivavano solo a
1.200 km/s. Ciò ha indotto alcuni a proporre una legge quadratica redshift-distanza, ma i dati
illustrati di seguito sulle supernovae di tipo Ia da Riess, Press and Kirshner (1996)
si estendono oltre 30.000 km/s e forniscono una spettacolare conferma della legge di Hubble,
La retta interpolante in questo grafico ha una pendenza di 65 km/s/Mpc.
Come già detto, noi misuriamo la velocità radiale delle galassie usando lo spostamento Doppler.
Dato che praticamente tutte le galassie si allontanano e dunque mostrano uno spostamento verso il
rosso delle righe spettrali, molto spesso si usa l'espressione redshift. Il redshift z è definito in modo
che:
dove lambda è la lunghezza d'onda della riga o della caratteristica dello spettro di un oggetto
celeste.
Sappiamo dalla relatività che il redshift è dato da
dunque, ricaviamo v = cz + termini di ordine superiore
Il pedice "0" in H0 (pronunciato "acca zero") indica il valore attuale di una quantità variabile nel
tempo. Dal momento che 1/H0 è approssimativamente l'età dell'Universo, il valore di H dipende dal
tempo. Un'altra quantità con il pedice zero è t0, l'età dell'Universo.
La legge lineare redshift-distanza trovata da Hubble è compatibile con la visione copernicana
dell'Universo: la nostra collocazione non è speciale. Innanzitutto nota che la velocità di
allontanamento è una quantità simmetrica: se A vede B allontanarsi, allora B vede A allontanarsi,
come illustra questo disegno:
basato su uno schizzo di Bob Kirshner. Poi considera il seguente diagramma spazio-temporale che
mostra numerose galassie vicine che si allontanano da noi. Il diagramma sopra è rappresentato dal
nostro punto di vista costituito dalla galassia A (la linea d'universo blu) in basso dal punto di vista
della galassia B (la linea d'universo verde)
I diagrammi sono identici, tranne per il fatto che i nomi delle galassie sono diversi. Invece, la legge
quadratica v(sq) = D2 quando si cambia il punto di vista, si trasforma in una legge anisotropa non
quadratica, come mostrato di seguito
Per questo motivo, se ammettessimo una relazione quadratica tra velocità e distanza, allora un
osservatore in un'altra galassia scoprirebbe una legge di tipo diverso - per di più tale legge
cambierebbe al variare della direzione. Dunque B misurerebbe velocità radiali molto più alte nella
direzione "piu" rispetto alla direzione "meno". Questo effetto consentirebbe di identificare il "centro
dell'Universo" trovando il punto dal quale la relazione redshift-distanza appare la stessa in ogni
direzione. Dato che effettivamente noi verifichiamo che è così, o tale relazione è lineare, oppure ci
troviamo proprio nel centro dell'Universo, e ciò è decisamente anti-Copernicano.
La legge di Hubble genera una espansione omologa che non cambia la forma degli oggetti, mentre
invece altre possibili relazioni velocità-distanza producono distorsioni durante l'espansione.
La legge di Hubble definisce pertanto un sistema di riferimento privilegiato per tutti i punti
dell'Universo. Un osservatore in moto con velocità molto maggiore del flusso di Hubble potrebbe
misurare dei blueshift in avanti e dei redshift all'indietro, invece che i soliti redshift proporzionali
alla distanza in tutte le direzioni. Per questo motivo noi possiamo misurare il nostro moto
relativamente al flusso di Hubble, che è anche il nostro moto relativo all'Universo visibile. Un
osservatore comovente è a riposo in questo speciale sistema di riferimento. Il nostro sistema
solare non è proprio comovente: abbiamo una velocità di 370 km/s relativa all'Universo visibile.
Inoltre il Gruppo Locale di galassie, che include la Via Lattea, sembra muoversi alla velocità di 600
km/s relativamente all'Universo visibile.
La distribuzione delle galassie
Hubble ha anche misurato il numero di galassie in diverse direzioni e con diverse luminosità. Egli
trovò approssimativamente lo stesso numero di deboli galassie in ogni direzione, anche se c'era un
evidente eccesso di galassie luminose nell'emisfero boreale celeste. Quando una distribuzione è la
stessa per ogni direzione, si dice isotropa. E quando Hubble cercò galassie con un flusso luminoso
più intenso di F/4 egli trovò approssimativamente 8 volte il numero di galassie rilevato quando
cercava quelle con flusso più intenso di F. Dato che un flusso luminoso 4 volte più piccolo implica
una distanza doppia, e quindi un volume 8 volte maggiore, ciò indica che l'Universo è omogeneo
(ha densità uniforme) su larga scala.
La figura qui sopra a sinistra mostra un pattern omogeneo ma non isotropo e a destra uno isotropo
ma non omogeneo. Se una figura è isotropa da più di un punto (due, se sferica), allora deve essere
anche omogenea.
Ovviamente l'Universo non è completamente isotropo ed omogeneo, poiché contiene regioni dense
come la Terra. Ma può esserlo in senso statistico, come questo campo simulato di galassie (24 kb),
il quale è omogeneo ed isotropo, una volta trascurati i dettagli fini. Peacock e Dodds (1994,
MNRAS, 267, 1020) hanno indagato le fluttuazioni di densità relative nell'Universo vicino in
funzione del raggio di un filtro passa-basso, e hanno ricavato questo grafico:
Dunque per regioni più estese di 100 Mpc l'Universo è omogeneo entro qualche punto percentuale.
Le Redshift survey di regioni estremamente ampie confermano questa tendenza verso l'omogeneità
su larga scala.
La radiazione cosmica di fondo
La visione di un Universo omogeneo e isotropo ha ricevuto una notevolissima conferma dopo
l'annuncio di Penzias e Wilson della scoperta di una radiazione cosmica di fondo (Cosmic
Microwave Background abbreviata altrove come CMB) nel 1965. Essi, lavorando ad una antenna
per microonde, osservarono un eccesso di flusso alla lunghezza d'onda di 7.5 cm equivalente ad una
radiazione di corpo nero con una temperatura di 3.7 ± 1 gradi Kelvin. Numerosi gruppi scientifici
hanno misurato l'intensità della CMB a diverse lunghezze d'onda. Attualmente le migliori
informazioni sullo spettro della CMB provengono dallo strumento FIRAS a bordo del satellite
COBE, e sono illustrate di seguito
La variabile sull'asse x è il numero d'onda ovvero 1/[lunghezza d'onda in cm]. La variabile sull'asse
y è la potenza per unità di area per unità di frequenza per unità di angolo solido in in MegaJansky
per steradiante. 1 Jansky è 10-26 Watt per metro quadrato per Hertz. Le barre d'errore sono state
amplificate di un fattore 400 in modo da risultare visibili, ma i punti sono consistenti con la
radiazione emessa da un corpo nero con temperatura di To = 2.725 K.
La temperatura della CMB è quasi la stessa in tutto il cielo. La figura a sinistra mostra una mappa
della temperatura in una scala tale che un punto a 0 K è bianco, a 4 K è nero. Al centro la stessa
figura con la componente isotropa rimossa ed il contrasto aumentato di 400 volte. Si evidenzia la
componente di dipolo dovuta al moto del sistema solare rispetto al flusso di Hubble e l'emissione
del piano galattico. A destra la stessa figura, rimossa la componente dipolare e l'emissione galattica,
contrasto aumentato di 6667 volte: ora sono visibili le fluttuazioni della CMB
Dunque il cielo visto per mezzo delle microonde è estremamente isotropo. Queste osservazioni sono
combinate nel Principio Cosmologico: l'Universo è omogeneo ed isotropo.
L'abbondanza degli elementi leggeri
Un'altra prova a favore del Big Bang è l'abbondanza degli elementi leggeri, come l'idrogeno, il
deuterio, l'elio e il litio. Man mano che l'Universo si espande, i fotoni della CMB perdono energia
per effetto del redshift e la CMB diviene più fredda. Ciò implica che la temperatura della CMB era
molto più elevata in passato. Quando l'Universo aveva solo alcuni minuti, la temperatura era
abbastanza elevata da produrre gli elementi leggeri. La teoria della nucleosintesi del Big Bang
predice che circa 1/4 della massa dell'Universo dovrebbe essere costituita da elio, e ciò è
effettivamente quanto si osserva. L'abbondanza del deuterio è in proporzione inversa con la densità
di nucleoni nell'Universo, e il valore dell'abbondanza misurata di deuterio suggerisce che
nell'Universo c'è un solo nucleone ogni 4÷7 metri cubi di spazio.
Parte 2: rappresentazione ed evoluzione dell'Universo
Affermare che l'Universo è omogeneo significa che ogni proprietà misurabile è la stessa ovunque.
Ciò non è vero su scala ridotta, ma è una eccellente approssimazione qualora si faccia una media su
regioni molto vaste. Dato che anche l'età dell'Universo è una quantità misurabile, l'omogeneità
dell'Universo deve essere definita per una superficie con tempo proprio costante dal Big Bang.
Tuttavia la relatività ristretta ci insegna che il tempo proprio misurato da un osservatore dipende
dalla sua velocità, dunque dobbiamo specificare che la variabile temporale t nella legge di Hubble è
il tempo proprio dal Big Bang per osservatori comoventi.
A patto che le variabili in gioco siano interpretate correttamente, la legge di Hubble (v = HD) è vera
per ogni valore di D, anche per quelli che implicano v>c. Si deve però prestare molta attenzione a
come si intendono la distanza e la velocità.
La distanza D nella legge di Hubble deve essere definita in modo tale che se A e B sono due
galassie lontane che noi vediamo nella stessa direzione, e A e B non sono troppo distanti tra loro,
allora la differenza delle distanze da noi, D(A)-D(B), è la distanza che A misurerebbe da B.
Questa misura però dev'essere fatta "ora", dunque A deve misurare la distanza da B allo stesso
tempo proprio dal Big Bang che misuriamo noi. Per questo motivo, allo scopo di determinare la
distanza D per una galassia remota Z, noi dobbiamo individuare una catena di galassie ABC...XYZ
lungo il cammino per Z, con ciascun elemento della catena abbastanza prossimo ai suoi vicini, e poi
fare in modo che ciascuna galassia della catena misuri la distanza dalla successiva al tempo to dal
Big Bang. La distanza di Z, D(da noi a Z), è la somma di tutti questi sotto-intervalli:
D(da noi a Z) = D(da noi ad A) + D(da A a B) + ... D(da X a Y) + D(da Y a Z)
La velocità nella legge di Hubble è semplicemente la derivata della distanza D rispetto al tempo ed
è approssimata dall'espressione v = cz per piccoli redshift ma devia significativamente per valori
elevati di z.
Diagrammi spazio-temporali
Il tempo e la distanza usati nella legge di Hubble non sono come la x e la t usati nella relatività
ristretta, e ciò purtroppo a volte determina confusione. Il diagramma spazio-temporale di seguito
illustra un modello cosmologico di universo vuoto (ovvero con densità molto prossima a zero)
usando la D e la t della legge di Hubble rispettivamente come ascissa e ordinata.
Le linee d'universo degli osservatori comoventi sono decorate con piccoli triangolini che
rappresentano il cono di luce del futuro. La curva rossa a forma di pera è il cono di luce del nostro
passato. Nota che la curva rossa ha in ogni punto la stessa inclinazione dei piccoli coni di luce.
In questo spazio di variabili, velocità superiori a c sono certamente possibili, e dal momento che gli
universi aperti sono spazialmente infiniti, esse sono attualmente riscontrabili. Tuttavia non c'è
contraddizione con il principio della relatività ristretta, che impedisce agli oggetti massivi di
raggiungere e superare la velocità della luce. Infatti se rappresentiamo lo stesso spazio-tempo nelle
coordinate relativistiche x e t (rispettivamente in ascissa e in ordinata) otteniamo:
Le iperboli grigie rappresentano le superfici con tempo proprio costante dal Big Bang (il vertice in
basso). Quando noi le schiacciamo per produrre il precedente diagramma spazio-temporale, le linee
d'universo delle galassie si appiattiscono, dando velocità v = dD/dt che possono essere maggiori di
c. Ma nelle coordinate della relatività ristretta le velocità sono sempre inferiori a c. Possiamo anche
vedere che il cono di luce del nostro passato incrocia la linea d'universo di molte galassie remote
alla distanza relativistica x = c*to/2. Ma la distanza D in base alla legge di Hubble, che viene
misurata ora, di queste galassie distanti è infinita (in questo modello cosmologico).
Distanza o distanze?
Mentre la legge di Hubble è in linea di principio misurabile, la necessità di avere degli aiutanti
lungo la catena di galassie, fino a quella lontana di cui vogliamo misurare la distanza, la rende
piuttosto impraticabile :)
Si possono allora definire altre distanze molto più facili da misurare.
Una di esse è la distanza DA data dalla dimensione angolare, la quale è definita da
e
dunque
dove con R intendiamo l'estensione trasversale di un oggetto e "theta" è
l'angolo (espresso in radianti) che l'oggetto sottende sulla volta celeste. Il problema principale per la
sua determinazione è che gli oggetti celesti, pensa ad esempio ad una galassia, non hanno confini
netti, ma sfumano gradualmente nello spazio. Nel modello di universo "vuoto", la x della relatività
speciale è uguale alla distanza data dalla dimensione angolare, x = DA.
Un altro importante indicatore di distanza è il flusso luminoso ricevuto da un oggetto, che definisce
dunque la distanza di luminosità attraverso
Il flusso si misura mediante un fotometro, mentre la luminosità L deve essere in qualche modo nota
a priori.
Gli oggetti celesti dei quali si conosce la luminosità sono detti candele standard. Fra le candele più
importanti annoveriamo le stelle variabili Cefeidi, che presentano una stretta relazione tra periodo e
luminosità, e le supernovae di tipo Ia, che hanno la stessa luminosità di picco durante l'esplosione.
Una quarta distanza è quella basata sul tempo di volo della luce: DT = c*(to-tem). Chi dice che la più
grande distanza visibile è c*to sta proprio usando questa accezione. Tuttavia la grandezza DT non è
molto utile perché è difficile conoscere tem, ovvero l'età dell'Universo nell'istante di emissione della
luce che ora stiamo ricevendo.
Ed infine, il redshift è un importantissimo indicatore di distanza, dal momento che gli astronomi lo
possono msurare facilmente, invece la dimensione o la luminosità necessarie per calcolare DA o DL
sono sempre abbastanza difficili da stimare.
Relazioni tra le distanze
La curva che mette in relazione un indicatore di distanza rispetto agli altri dipende dal modello
cosmologico adottato. Il grafico del redshift in funzione della distanza per le supernovae di tipo Ia
mostrato precedentemente è realmente un diagramma di cz in funzione di DL, dal momento che i
flussi luminosi sono stati utilizzati per determinare la distanza delle supernovae. Questi dati
chiaramente escludono i modelli che non predicono una relazione lineare tra cz e DL, per piccoli cz.
L'estensione di queste osservazioni alle supernovae remote hanno iniziato a rivelarci qualcosa sulla
curvatura del grafico di cz in funzione di DL.
L'accordo perfetto tra la CMB e la radiazione di corpo nero ci sonsente di determinare la relazione
tra DA e DL (ovvero tra la distanza data dall'estensione angolare e quella data dal flusso luminoso).
Dato che la CMB si è prodotta a grandissima distanza ma appare ancora come un corpo nero, un
corpo nero distante deve continuare ad assomigliare ad un corpo nero (anche se la temperatura
cambia per effetto dell'espansione). La luminosità del corpo nero è
L = 4*pi*R2*sigma*Tem4
dove R è il raggio, Tem è la temperatura del corpo nero emittente, sigma è la costante di StephanBoltzmann. Vista al redshift z, la temperatura osservata sarà
Tobs = Tem/(1+z)
ed il flusso luminoso sarà
F = theta2*sigma*Tobs4
dove il raggio angolare è legato a quello fisico da
theta = R/DA
Combinando queste equazioni abbiamo
DL2 = L/(4*pi*F)
= (4*pi*R2*sigma*Tem4)/(4*pi*theta2*sigma*Tobs4)
= DA2*(1+z)4
ovvero
DL = DA*(1+z)2
I modelli che non prevedono questa relazione tra DA e DL, come ad esempio il modello
cronometrico o quello della luce affaticata, sono esclusi in base alle proprietà della CMB.
Ecco un calcolatore Javascript che riceve in input H0, OmegaM, la costante cosmologica lambda
normalizzata, il redshift z e fornisce in output tutte queste distanze.
Il fattore di scala a(t)
Dato che in base alla legge di Hubble (v=HD) la velocità, ovvero dD/dt, è strettamente
proporzionale a D, la distanza tra ciascuna coppia di osservatori comoventi cresce di un fattore
durante lo stesso intervallo di tempo dt. Ciò significa che noi possiamo esprimere la
distanza da ogni osservatore comovente come
DG(t) = a(t) * DG(to)
dove DG(to) è la distanza dalla galassia G ora, mentre a(t) è il fattore di scala universale che si
applica a tutti gli oggetti comoventi. Dalla sua stessa definizione vediamo che a(to) = 1.
L'evoluzione dell'Universo
Possiamo calcolare la dinamica dell'Universo considerando un oggetto la cui distanza è R = D(t) =
a(t) Do.
Questa distanza e la velocità corrispondente dD/dt sono misurate rispetto a noi che siamo al centro
del sistema di riferimento (la galassia rossa). L'accelerazione gravitazionale dovuta alla sfera di
materia di raggio D(t) è
Rho(t) è la densità di materia che dipende solo dal tempo poiché l'Universo è omogeneo. La massa
contenuta entro D(t) è indipendente dal tempo per il fatto che la materia all'interno ha una velocità
di espansione più bassa (e dunque non esce dalla sfera) mentre la materia all'esterno ha velocità di
espansione maggiore (e dunque rimane all'esterno).
Ricordando il teorema di Gauss, l'effetto gravitazionale della materia all'esterno della sfera non
conta, l'accelerazione gravitazionale all'interno della sfera è zero, e tutta la materia dell'Universo la
cui distanza da noi è superiore a D(t) può essere schematizzata con gusci concentrici. Con una
massa interna a D(t) costante che produce una accelerazione sul bordo, il problema si riduce a
quello di un oggetto puntiforme (la galassia blu) che si muove radialmente in un campo
gravitazionale. Se la velocità è inferiore alla velocità di fuga, allora l'espansione si fermerà ed il
tutto tornerà a collassare.
Se la velocità eguaglia la velocità di fuga abbiamo il caso critico. In quest'ultimo caso abbiamo:
v = H*D = v(esc) = sqrt(2*G*M/D)
H2*D2 = 2*(4*pi/3)*rho*D2 ovvero
Per rho uguale o inferiore alla densità critica rho(crit), l'Universo si espanderà per sempre, mentre
per rho maggiore di rho(crit), l'Universo terminerà la sua espansione e ricollasserà. Il valore di
rho(crit) per Ho = 65 km/s/Mpc è 8E-30 = 8*10-30 g/cm³ o 5 protoni per metro cubo o anche 1.2E11
= 1.2*1011 masse solari per MegaParsec cubico. Quest'ultimo valore può essere paragonato al
valore osservato di 1.1E8 = 1.1*108 luminosità solari per Mpc3. Se la densità è ovunque prossima al
valore critico, gran parte della materia deve essere troppo poco luminosa per essere osservata.
Le stime attuali suggeriscono che la densità di materia è compresa tra 0.3 e 1 volte la densità critica,
e ciò richiede che la maggior parte della materia nell'Universo sia oscura.
Parte 3: gli apetti problematici
La curvatura spaziale
Una importante conseguenza della relatività generale è che la curvatura dello spazio dipende dal
rapporto tra la densità rho e la densità critica rho(crit). Possiamo chiamare questo rapporto Omega =
rho/rho(crit).
Per Omega < 1, l'Universo ha curvatura negativa, ovvero una geometria iperbolica.
Per Omega = 1, l'Universo è piatto, ovvero è descritto dalla geometria euclidea.
Per Omega > 1, l'Universo ha curvatura positiva ovvero una geometria sferica.
Abbiamo già visto che il caso di universo vuoto, che possiede una geometria iperbolica, infatti in
questo modello le istantanee di tempo cosmico nelle coordinate della relatività speciale erano
iperboloidi.
La figura qui sopra mostra i tre tipi di curvatura, e a fianco l'evoluzione dei corrispondenti fattori di
scala a(t).
L'età dell'Universo dipende da Omega0 e anche da H0. Per Omega=1, il caso di densità critica, il
fattore di scala è
e l'età dell'Universo è
to = (2/3)/H0
mentre nel caso di universo vuoto, Omega=0, è
a(t) = t/to
con
to = 1/H0
Se Omega0 > 1 l'età dell'Universo è anche minore di (2/3)/H0.
La figura qui sopra mostra il fattore di scala in funzione del tempo misurato dal presente, per H0 =
65 km/s/Mpc e per Omega0 = 0 (verde), Omega0 = 1 (nero), e Omega0 = 2(rosso). L'età
dell'Universo è rispettivamente di 15, 10 e 8.6 miliardi di anni. Il ricollasso del modello con
Omega0 = 2 avviene quando l'Universo è 11 volte più vecchio di quanto non sia ora, e dato che tutte
le osservazioni indicano che Omega0 < 2, abbiamo almeno 80 miliardi di anni prima di un Big
Crunch.
Il valore di H0*to è una quantità adimensionale che deve valere 1 se l'Universo è praticamente
vuoto, e 2/3 se l'Universo ha densità pari al valore critico. Assumendo H0 = 65 ± 8 e to = 14.6 ± 1.7
miliardi di anni, troviamo che H0*to = 0.97 ± 0.17. A prima vista ciò favorisce il modello di
Universo vuoto, ma un errore di 2 deviazioni standard verso il basso ci porterebbe al caso di densità
critica.
Dato che sia l'età degli ammassi globulari utilizzata sopra, che il valore di H0 dipendono dalla scala
di distanza allo stesso modo, un errore in quest'ultima potrebbe ripercuotersi in modo significativo
sul prodotto H0*to. In effetti, misurazioni recenti dal satellite HIPPARCOS suggeriscono che la
scala di distanza delle Cefeidi deve essere aumentata del 10%, e anche l'età degli ammassi globulari
dev'essere ridotta del 20%. Se assumiamo H0 = 60 ± 7 e to = 11.7 ± 1.4 miliardi di anni, troviamo
che H0*to = 0.72 ± 0.12 che è perfettamente consistente con un Universo di densità critica.
Per questi motivi è meglio ritardare le conclusioni a quando si saranno ottenuti dati più precisi.
Il problema della piattezza e dell'età
Se Omega0 > 1, l'Universo rallenterà progressivamente la sua espansione fino a fermarsi, e dunque
Omega diverrà infinito. Se invece Omega0 < 1, l'Universo si espanderà per sempre e, dato che la
densità diminuisce più in fretta della densità critica, Omega diminuirà sempre più. Per queste
ragioni Omega = 1 è un punto di equilibrio instabile, ed è notevole che Omega al momento sembri
molto prossimo a 1.
La figura qui sopra mostra l'evoluzione di a(t) per tre modelli cosmologici con tre diverse densità al
tempo di 1 ns dopo il Big Bang. La curva nera rappresenta il caso a densità critica rho =
447,225,917,218,507,401,284,016 g/cm³. Aggiungendo solo 1 a questi 447 sestilioni fa sì che il Big
Crunch debba accadere proprio ora! Invece portando via 1 otteniamo un modello con un Omega
troppo basso che non si accorda con le osservazioni.
Per questo motivo diciamo che la densità 1 ns dopo il Big Bang è "quella giusta" con una
accuratezza maggiore di una parte su 447 sestilioni. Per non parlare di istanti precedenti, in cui
l'accuratezza è maggiore di una parte su 1059! Dato che, se la densità nelle fasi iniziali è
leggermente maggiore, l'Universo ricollassa quasi subito, questo è chiamato il problema dell'età.
Inoltre, siccome l'Universo con densità critica ha geometria euclidea, questo aspetto enigmatico è
anche chiamato il problema della piattezza.
Qualunque sia il meccanismo che ha portato la densità al valore esattamente uguale a quella critica,
funziona estremamente bene, e sarebbe davvero strano se Omega0 fosse prossima a 1 ma non
esattamente uguale a 1.
La manipolazione dei diagrammi spazio-temporali
Il modello a densità critica è mostrato nel diagramma spazio-temporale di seguito.
Nota che le linee d'universo delle galassie ora sono curve a causa della forza di gravità, che fa sì che
l'espansione sia rallentata. In effetti, ciascuna linea d'universo è k volte a(t) con k costante e uguale
a (t/to)2/3 per questo modello in cui Omega0 = 1. La curva rossa a forma di pera è il cono di luce del
nostro passato. Questo diagramma è disegnato per il nostro punto di vista, ma dato che l'Universo è
omogeneo, lo stesso diagramma tracciato per ogni galassia sarebbe identico.
La figura qui sopra mostra il diagramma spazio-temporale come se fosse disegnato sul lato di un
mazzo di carte. Quello di seguito rappresenta il mazzo di carte spinto lateralmente in modo da
metterci nel sistema di riferimento di A.
Nota che questa non è una trasformazione di Lorentz, inoltre le coordinate non sono quelle della
relatività ristretta. La trasformazione galileiana che potrebbe essere realizzata spingendo
lateralmente il mazzo di carte richiede che il bordo del mazzo rimanga rettilineo, e in ogni caso la
trasformazione di Lorentz non può essere raffigurata in questo modo perché non esiste un tempo
assoluto. Tuttavia nei modelli cosmologici noi abbiamo effettivamente un tempo cosmico, che è il
tempo proprio dal Big Bang misurato da osservatori comoventi, pertanto questa
rappresentazione "del mazzo di carte" è valida.
La presenza della gravità in questo modello comporta uno spazio-tempo curvo che non può essere
rappresentato senza deformazioni su uno spazio-tempo piatto. Se ciascun sistema di coordinate è
una rappresentazione deformata dell'Universo, allora noi possiamo riferirci ad un conveniente
sistema di coordinate, e tenere traccia della deformazione alterando la forma dei coni di luce.
Ad esempio, spesso è conveniente "scorporare" l'espansione dell'Universo, il seguente diagramma
spazio-temporale mostra il risultato della divisione della coordinata spaziale per a(t). Ora le linee
d'universo delle galassie sono tutte verticali.
La divisione ha espanso il nostro cono di luce del passato a tal punto che dobbiamo ridisegnarlo per
mostrarlo tutto:
Se ora noi "stiriamo" l'asse del tempo nei dintorni del Big Bang, otteniamo il diagramma spaziotemporale che ha i coni di luce del passato con i bordi rettilinei:
Questo genere di diagramma spazio-temporale è chiamato "conforme", e mentre da un lato è
fortemente distorto, dall'altro rende semplice vedere dove va a finire la luce, e dunque ci consente
una analisi immediata dei rapporti di causalità. La trasformazione che abbiamo effettuato è analoga
alla trasformazione dalla vista laterale della Terra (a sinistra) alla proiezione di Mercatore (a destra).
Nota che una rotta in direzione costante verso Sud-Est è una linea retta sulla mappa di Mercatore,
dunque questa proiezione è analoga al diagramma spazio-temporale conforme, che mantiene
rettilineo il bordo dei coni di luce del passato.
Ricorda anche che lo spazio-tempo caratterizzato da Omega0 = 1 ha estensione infinita, quindi il
diagramma spazio-temporale conforme può proseguire ben oltre il nostro cono di luce del passato,
come illustrato qui sotto.
Si possono utilizzare altri sistemi di coordinate. Se consideriamo la coordinata spaziale come
l'angolo in un diagramma polare, il cambio del punto di vista sarà molto facile: è sufficiente una
rotazione.
Il diagramma qui sopra è relativo ad un modello di Universo con Omega0 = 2 (che in effetti è
sferico) ed è disegnato in questo modo con a(t) usata come coordinata radiale.
Il problema dell'orizzonte
Il diagramma spazio-temporale conforme è un valido strumento per descrivere le osservazioni
dell'anisotropia della CMB. L'Universo era opaco prima che i protoni e gli elettroni si combinassero
per formare atomi di idrogeno, ciò avvenne quando la temperatura scese al di sotto di 3000 K ad un
redshift di 1+z = 1000.
Dopo questa fase, i fotoni della CMB hanno viaggiato liberamente nell'Universo trasparente che
possiamo vedere oggi. Per questo motivo la temperatura della CMB in un dato punto del cielo è
stata determinata dal tempo in cui si sono formati gli atomi di idrogeno. Dal momento che le
lunghezze d'onda della CMB scalano allo stesso modo delle distanze intergalattiche durante
l'espansione dell'Universo, sappiamo che a(t) doveva essere 0.001 al tempo della ricombinazione.
Per il modello Omega0 = 1 ciò implica che t/t0 = 0.00003 e dunque per t0 = 10 miliardi di anni il
tempo è di circa 300.000 anni dopo il Big Bang. Questa è una frazione così piccola dell'età corrente
dell'Universo che lo "stiramento" dell'asse temporale quando si produce il diagramma spaziotemporale conforme è molto utile per ingrandire questa parte della storia dell'Universo.
Il diagramma comforme qui sopra ha esagerato questa zona molto di più, assumendo che il redshift
della ricombinazione sia 1+z = 144, che corrisponde alla linea orizzontale blu. Le regioni in giallo
sono i coni di luce del passato di due eventi di ricombinazione nel nostro cono di luce del passato.
Ogni evento che influenza la temperatura della CMB a sinistra deve essere confinato nel triangolo
giallo di sinistra. Ogni evento che influenza la temperatura della CMB nella parte destra deve
trovarsi nel triangolo giallo di destra. Queste regioni non hanno eventi in comune, ma le due
temperature sono uguali a meno di una parte su 100.000. Come è possibile? In cosmologia questo è
noto come problema dell'orizzonte.
Parte 4: l'inflazione
Lo "scenario inflazionario", sviluppato da Guth, Starobinsky e Linde, offre una soluzione al
problema della piattezza, della vecchiaia e dell'orizzonte invocando una densità di energia del
vuoto. Noi normalmente siamo portati a pensare che il vuoto sia privo di massa, e possiamo
determinare che la densità del vuoto è attualmente meno di 1E-30 g/cm³. Ma nella teoria quantistica
dei campi, il vuoto è considerato brulicante di particelle virtuali:
Il diagramma spazio-temporale qui sopra mostra coppie virtuali di particelle e anti-particelle che si
formano dal nulla e tornano nel nulla mediante un processo di annichilazione. Per particelle di
massa m, ci si attende la presenza di circa una particella virtuale in ogni volumetto di lato pari alla
lunghezza d'onda Compton della particella, h/mc, dove h è la costante di Planck.
Per questo motivo la densità attesa del vuoto è rho = m4*c3/h3 che è piuttosto grande. Per le
particelle elementari più massive normalmente considerate, la massa di Planck M (definita da
2*pi*G*M2 = h*c), questa densità è 2E91 g/cm³. Per questo motivo la densità di energia del vuoto è
almeno 121 ordini di grandezza più piccola di quanto indica il calcolo quantistico grossolano,
dunque dev'essere all'opera un meccanismo di soppressione molto efficace.
Se attualmente rimane un piccolo residuo di questa densità di energia del vuoto, esso produce una
"costante cosmologica" che è uno dei meccanismi proposti per ricomporre il disaccordo tra l'età
dell'Universo nel modello con Omega0 = 1, t0 = (2/3)/H0 = 10 miliardi di anni, e l'età apparente dei
più antichi ammassi globulari, 16 ± 4 miliardi di anni. La densità di energia del vuoto può fare
questo perché produce una "anti-gravità" che accelera l'espansione dell'Universo anziché rallentarla,
e ciò aumenta t0 per una data H0.
Lo scenario inflazionario propone che l'energia del vuoto fosse molto elevata durante un breve
periodo all'inizio della storia dell'Universo. Quando l'Universo è dominato da questa densità di
energia del vuoto, il fattore di scala cresce esponenzialmente, a(t) = exp(H(to-t)). La costante di
Hubble è realmente costante durante questa fase, per cui non serve lo "zero". Se la fase inflazionaria
dura a sufficienza, la funzione esponenziale cresce enormemente. Ciò fa si che a(t) sia molto
elevato, e con esso il raggio di curvatura dell'Universo. Il seguente diagramma mostra il nostro
orizzonte sovrapposto ad una sfera di raggio molto ampio (in alto), e ad una sfera di raggio più
piccolo (in basso). Dato che noi possiamo vedere al massimo il nostro orizzonte, per il modello
inflazionario l'Universo visibile deve risultare praticamente piatto.
Questo risolve il problema della piattezza e della vecchiaia, a patto che la crescita esponenziale
durante l'epoca inflazionaria continui per almeno 100 raddoppiamenti. L'inflazione risolve anche il
problema dell'orizzonte, perché il cono di luce del futuro di un evento che accade prima dell'epoca
inflazionaria viene espanso in una vasta regione dalla crescita inflattiva.
Questo diagramma spazio-temporale mostra l'epoca inflattiva colorata di verde, e il cono di luce del
futuro di due eventi, in rosso. L'evento primordiale ha un cono di luce del futuro che copre una
vasta area, che può facilmente comprendere tutto il nostro orizzonte. Per questo motivo noi
possiamo spiegare perché la temperatura del fondo di microonde è così uniforme in tutto il cielo.
Dettagli: le strutture su vasta scala e l'anisotropia
E' chiaro che l'Universo non è veramente omogeneo, dal momento che contiene regioni dense come
le galassie e i pianeti. Queste regioni dense dovrebbero avere qualche relazione con la temperatura
del fondo di microonde. Sachs e Wolfe (1967, ApJ, 147, 73) hanno derivato l'effetto delle
perturbazioni del potenziale gravitazionale sulla CMB. Il potenziale gravitazionale, phi = -GM/r,
sarà negativo negli ammassi densi, e positivo in regioni meno dense. I fotoni perdono energia
quando risalgono le pareti del potenziale gravitazionale degli ammassi:
Il diagramma spazio-temporale conforme qui sopra mostra gli ammassi come barre grigie verticali,
l'epoca prima della ricombinazione è la regione tratteggiata, ed il potenziale gravitazionale è la
curva phi(x) codificata a colori. Laddove il cono di luce del nostro passato interseca la superficie di
ricombinazione, vediamo una temperatura perturbata della quantità
Sachs e Wolfe hanno predetto fluttuazioni di temperatura dT/T ampie circa l'1% rispetto alla media,
ma ora noi sappiamo che l'Universo è molto più omogeneo di quanto Sachs e Wolfe pensavano. Per
questo motivo gli osservatori hanno lavorato per anni per raggiungere sensibilità così alte da
distinguere chiaramente le differenze di temperatura nel cielo. La prima differenza rivelata è stata
l'anisotropia di dipolo da Conklin nel 1969:
La mappa qui sopra è stata realizzata dal satellite COBE ed è molto meglio della rilevazione di
Conklin a 2 deviazioni standard. La zona rossa del cielo è più calda rispetto alla media di un fattore
(v/c)*To, mentre la zona blu è più fredda della stessa quantità, la velocità dedotta è v = 370 km/s.
Questo è il modo in cui noi possiamo misurare la velocità del sistema solare relativamente
all'Universo visibile. Ci sono voluti ancora 23 anni prima che le anisotropie previste da Sachs e
Wolfe fossero rivelate dal team di Smoot nel 1992. L'ampiezza era di una parte su 100.000 invece
che una parte su 100:
La mappa qui sopra mostra l'anisotropia cosmica (sovrapposta al rumore del rivelatore) dopo che
l'anisotropia di dipolo e la radiazione emessa dalla Via Lattea sono state rimosse. L'anisotropia in
questa mappa ha un valore RMS di 30 microK, e se lo esprimiamo in forma di potenziale
gravitazionale, usando i risultati di Sachs e Wolfe, e se il potenziale viene espresso come quota
assumendo una accelerazione di gravità costante ed uguale a quella terrestre, otteniamo una quota
pari al doppio della distanza tra la Terra ed il Sole. Dunque le "montagne e le valli" dell'Universo
sono abbastanza ampie.
Il modello inflazionario predice un certo pattern statistico nella anisotropia. Le fluttuazioni
quantistiche normalmente influenzano regioni di spazio estremamente piccole, ma la vastissima
espansione esponenziale durante la fase inflattiva le rende osservabili.
Il diagramma spazio-temporale qui sopra mostra i coni di luce del futuro di eventi relativi a
fluttuazioni quantistiche. La sommità di questo diagramma è in realtà il volume che interseca il
cono di luce del nostro passato, producendo la porzione visibile del cielo. Infatti i coni di luce del
futuro diventano cerchi nel cielo. Eventi che accadono precocemente nella fase inflattiva producono
cerchi ampi, come mostrato nella mappa a destra in basso. Eventi più tardivi producono cerchi più
piccoli, come mostra la mappa di mezzo, ma dato che sono più numerosi, la copertura del cielo è la
stessa di prima. Eventi ancora più tardivi producono cerchi ancora più piccoli che però danno la
stessa copertura totale.
Il pattern formato sommando tutti gli effetti di eventi che si sono prodotti in tutte le fasi è noto
come "equal power on all scales" (la stessa potenza per tutte le scale), ed è in accordo con i dati di
COBE.
Avendo scoperto che il pattern di anisotropia osservato è in accordo con l'inflazione, possiamo
anche chiederci se l'ampiezza di queste fluttuazioni dà luogo a forze abbastanza ampie da produrre
gli ammassi di galassie osservabili.
Il diagramma spazio-temporale conforme qui sopra mostra la funzione potenziale phi(x) al tempo
della ricombinazione, determinata dai dati dT di COBE. Le righe nere rappresentano le linee
d'universo delle galassie che sono perturbate dalle forze gravitazionali prodotte dal gradiente del
potenziale. La materia si allontana scendendo dai picchi del potenziale (i punti rossi nella mappa di
COBE), producendo vuoti nella attuale distribuzione delle galassie, mentre le valli del potenziale (i
punti blu) sono le zone dove si formano gli ammassi di galassie.
COBE non era in grado di rilevare punti corrispondenti agli ammassi o ai super-ammassi di
galassie, ma se utilizziamo la legge "equal power on all scales" per estrapolare i dati di COBE a
scale più piccole, troviamo che le forze gravitazionali sono adeguate a produrre il grado di
compattazione che si osserva, ma solo se non ci sono altre forze che si oppongono.
Se tutta la materia nell'Universo è costituita dai "soliti" elementi chimici, allora c'è stata una forza
molto efficace che si opponeva prima della ricombinazione, poiché gli elettroni liberi che ora stanno
legati negli atomi erano molto efficaci nel diffondere i fotoni della radiazione cosmica di fondo.
Dobbiamo per questo concludere che gran parte della materia nell'Universo è "materia oscura" che
non emette, assorbe o diffonde la luce. Questa strana conclusione sarà fortemente rafforzata dai dati
sull'anisotropia su scale angolari molto più piccole, che saranno forniti dal satellite Microwave
Anisotropy Probe (MAP) nel 2000.
L' ABC delle distanze astronomiche
A. la parallasse trigonometrica
Questo metodo è lo standard di riferimento per le distanze astronomiche. E' basato sulla misura di
due angoli e del lato compreso di un triangolo formato da 1) la stella, 2) la Terra in un punto della
sua orbita, e 3) la Terra sei mesi dopo, nel punto opposto dell'orbita.
La parte superiore di questo disegno mostra la Terra in due momenti differenti, ed il triangolo
formato tra una stella vicina e queste due posizioni della Terra. In basso vediamo due immagini di
questa stella proiettata su uno sfondo costituito da stelle molto più lontane, riprese dai due lati
dell'orbita terrestre. Se tu incroci gli occhi fino a sovrapporre le due immagini, potrai vedere la
stella staccarsi dallo sfondo, come nei disegni 3-D.
La parallasse di una stella è metà dell'angolo al vertice (alla stella) nel disegno in alto. Per questo la
parallasse è l'angolo alla stella nel triangolo Terra-Sole-stella. Dato che questo angolo è sempre
piccolissimo, il seno e la tangente della parallasse praticamente coincidono con la parallasse stessa
misurata in radianti. Per questo la distanza di una stella è
D[in m] = [Distanza Terra-Sole in m]/[parallasse in radianti]
Gli astronomi di solito affermano che la distanza Terra-Sole è di 1 unità astronomica (au), dove 1
au = 1.5E11 m, e misurano questi angoli piccolissimi in secondi d'arco. Ricordando che in un
radiante ci stanno 648.000 secondi d'arco, con queste unità di misura l'unità di distanza è
[648000/pi] au = 3.085678E16 m = 1 parsec.
Una stella con la parallasse di un secondo d'arco dista 1 parsec, ovvero 3.26 anni-luce. Nessuna
stella mostra una parallasse così ampia. Proxima Centauri ha una parallasse di 0.76".
La prima misura della parallasse stellare fu effettuata sulla stella 61 Cygni da Friedrich Wilhelm
Bessel (1784-1846) nel 1838. Bessel è noto anche per le funzioni besseliane usate in fisica
matematica.
B. la parallasse di gruppo
Non sono molte le stelle così vicine da evidenziare una parallasse misurabile. Tuttavia, quando le
stelle sono riunite in ammassi stabili, la cui estensione non sta cambiando (ad esempio le Pleiadi),
allora il moto apparente delle stelle nell'ammasso può essere impiegato per calcolarne la distanza.
La parte superiore del disegno mostra il moto nello spazio di un ammasso di stelle. Nota che i
vettori velocità sono paralleli, perché stiamo asumento che l'ammasso non si stia espandendo né
contraendo. Quando però consideriamo il moto di queste stelle proiettato sulla volta celeste, le
vediamo convergere a causa di un effetto di prospettiva. L'angolo al punto di convergenza è theta.
Se l'ammasso si sta muovendo verso di noi, allora il punto di convergenza si trova dietro l'ammasso,
ma ce n'è un altro nel punto opposto del cielo, e possiamo usare quest'ultimo. Da questi spostamenti
delle stelle nel cielo, noti come moti propri per il fatto che si tratta di proprietà delle singole stelle,
noi misuriamo theta e la sua velocità di variazione, d(theta)/dt. Abbiamo bisogno anche della
velocità radiale VR dell'ammasso, che possiamo determinare con uno spettrografo misurando lo
spostamento Doppler. La velocità trasversale, VT, (il moto laterale) dell'ammasso può essere
trovato usando VT/VR = tan(theta). La distanza dell'ammasso è dunque
D[in m] = VT[in m/sec]/[d(theta)/dt]
D[in pc] = (VR/4.74 km/sec)*tan(theta)/{d(theta)/dt[in "/yr]}
La strana costante 4.74 km/sec deriva da 1 au/anno. Dato che possiamo usare un intervallo
temporale di un secolo per misurare d(theta)/dt, sono possibili misure precise della distanza di
ammassi vicini. Questo metodo è stato applicato all'ammasso delle Iadi producendo un risultato di
45.53 ± 2.64 pc. La media delle parallassi trigonometriche per i singoli membri delle Iadi fornisce
46.34 ± 0.27 pc (Perryman et al.).
C. La parallasse secolare
Si può usare un altro metodo per misurare la distanza di un insieme di stelle, scelte in modo che
siano tutte alla stessa distanza dalla Terra.
Il disegno qui sopra mostra un tale insieme di stelle, ma con due possibili velocità medie. Le stelle
di colore verde mostrano una distanza media più piccola delle stelle di colore rosso. Dato che il
moto medio del sistema solare rispetto alle stelle vicine è di 20 km/sec, allora queste stelle
mostreranno un moto comune, come se fuggissero dal punto verso il quale il sistema solare si sta
dirigendo. Questo punto è noto col nome di apice. Sia theta l'angolo all'apice. Allora il moto proprio
d(theta)/dt avrà una componente media proporzionale a sin(theta), mostrato dalle linee nel grafico di
d(theta)/dt in funzione di sin(theta). Sia mu la pendenza di questa linea. Allora la distanza media
delle stelle è
D[in m] = V(sole)[in m/sec]/(mu [in radianti/sec])
D[in pc] = 4.16/(mu [in "/anno])
dove la strana costante 4.16 è il moto solare in au/anno.
D. la parallasse statistica
Quando per le stelle si ha il valore della velocità radiale, allora la dispersione nei loro moti propri
può essere usata per determinare la distanza media:
(dispersione in VR)[in m/sec]
D[in m] = ---------------------------------------(dispersione in d(theta)/dt)[in radians/sec]
E. distanza cinematica
La struttura della rotazione differenziale della nostra galassia puù essere impiegata per determinare
la distanza di una sorgente qualora sia nota la sua velocità radiale.
F. la parallasse del diametro apparente
La distanza di un oggetto in espansione come ad esempio un resto di supernova (es. quella di
Tycho) può essere determinata misurando:
1. il tasso di espansione angolare d(theta)/dt usando immagini riprese a distanza di molti anni,
e
2. la velocità radiale di espansione, VR, usando lo spostamento Doppler delle righe spettrali
emesse dalla parte anteriore e posteriore del guscio in espansione. Quando uno spettrografo
viene puntato al centro di un resto di supernova, si vede lo sdoppiamento di una data riga
spettrale, infatti si stanno sovrapponendo l'emissione dalla parte frontale del guscio, spostata
verso il blu, e quella dalla parte posteriore in allontanamento, spostata verso il rosso
La distanza si calcola dunque come
D = VR/d(theta)/dt
con theta in radianti
Questo metodo è soggetto ad errori sistematici qualora la velocità del materiale dietro l'onda d'urto
sia inferiore alla velocità della stessa onda d'urto. Questo è proprio il caso dei resti di supernova in
fase adiabatica, per i quali VR = 0.75 V(urto), e dunque la distanza calcolata può essere sottostimata
del 25%.
G. distanza dell'eco luminosa
L'anello centrale ellittico attorno alla supernova SN1987A sembra
dovuto ad un anello circolare inclinato sul piano visuale (vedi
figura a fianco tratta dalla rivista l'Astronomia) emesso molto
tempo prima dell'esplosione della stella. Quando il fronte della
radiazione ultravioletta emessa dalla supernova colpì l'anello,
accese le righe spettrali caratteristiche dell'emissione ultravioletta
che sono state registrate dal satellite International Ultraviolet
Explorer (IUE). Il satellite registrò chiaramente il tempo t1 relativo
all'arrivo della radiazione emessa dalla parte vicina dell'anello, ed il
tempo t2, relativo alla parte lontana. Se t0 è il tempo in cui la
supernova si è accesa, allora i tempi extra dovuti al cammino della
luce dalle parti vicine e lontane dell'anello sono:
t1 - t0 = R(1 - sin(i))/c
t2 - t0 = R(1 + sin(i))/c
clicca sull'immagine per
ingrandire
dove R è il raggio dell'anello in m. Per questo
R = c(t1-t0 + t2-t0)/2
Quando HST venne messo in orbita, riprese subito la SN 1987A vide l'anello e ne misurò il raggio
angolare theta. Il rapporto fornisce la distanza:
D = R/theta
con theta in radianti
Applicato alla piccola nube di Magellano usando la SN 1987A si ottiene D = 47 ± 1 kpc. (Gould
1995, ApJ, 452, 189) questo metodo è fondamentelmente il metodo di espansione applicato al
guscio in espansione della radiazione emessa dalla supernova che si allontana alla velocità della
luce. Può anche essere applicato ad altre geometrie note.
H. stelle binarie visuali e spettroscopiche
Se un'orbita binaria viene osservata sia visualmente che spettroscopicamente, allora sono note sia la
dimensione angolare dell'orbita che quella fisica. Il loro rapporto fornisce la distanza.
I seguenti metodi impiegano la luminosità superficiale delle stelle. La seguente immagine mostra
come la luminosità superficiale delle stelle dipenda dal loro colore:
I colori corrispondono approssimativamente alle temperature di 5000, 6000 and 7000 K. I
cambiamenti di colore sono esigui, ma la luminosità superficiale cambia notevolmente: in realtà per
rendere visibile la stella fredda ho dovuto dimezzare il cambiamento della luminosità superficiale.
Misurando il rapporto tra il flusso luminoso nel blu e quello nel giallo-verde, gli astronomi
misurano l'indice di colore B-V della stella. Questa misura del rapporto tra il flusso nel blu e nel
visibile può essere usata per stimare la luminosità superficiale SB della stella. Dato che si ha anche
la misura del flusso luminoso, il raggio angolare theta della stella è noto dall'espressione theta =
sqrt[Flux/(pi*SB)]. Se inoltre è possibile trovare il raggio fisico R, la distanza si ricava dalla D =
R/theta (come sempre, theta è espresso in radianti).
I. il metodo di Baade-Wesselink
Il metodo di Baade-Wesselink si applica alle stelle pulsanti. Usando le curve del colore e del flusso
luminoso, si può trovare il rapporto dei raggi in tempi differenti:
sqrt[Flusso(t2)/SB(Colore(t2)]
R(t2)/R(t1) = --------------------------sqrt[Flusso(t1)/SB(Colore(t1)]
Poi gli spettri della stella durante il suo periodo di pulsazione sono usati per trovare la sua velocità
radiale Vr(t). Sapendo quanto velocemente si sta muovendo la superficie della stella, si trova R(t2)R(t1) sommando la quantità velocità*tempo durante l'intervallo di tempo tra t1 e t2. Se poi è noto
sia il rapporto dei raggi R(t2)/R(t1) dai flussi e dai colori, sia la differenza nei raggi R(t2)-R(t1) dalla
spettroscopia, allora si hanno semplicemente due equazioni in due incognite ed è facile risolvere per
i raggi. Con il raggio e l'angolo, la distanza si trova usando l'espressione D = R/theta.
J. binarie ad eclisse spettroscopiche
In una binaria spettroscopica doppiamente allineata (cioè dove si assiste sia al minimo principale
che a quello secondario), il semiasse dell'orbita proiettato sulla volta celeste a*sin(i) viene ricavato
dall'escursione della velocità radiale durante il periodo. In una binaria ad eclisse, i raggi relativi
delle stelle R1/a e R2/a e l'inclinazione del piano orbitale i vengono ricavati analizzando la forma
delle curve di luce dell'eclisse. Utilizzando i flussi luminosi osservati e l'indice di colore per
ricavare la luminosità superficiale, si può stimare il raggio angolare delle stelle. R1 si ricava da i,
a*sin(i) e R1/a; e con theta1 si puòricavare la distanza.
K. metodo della fotosfera in espansione
Il metodo di Baade-Wesselink può essere applicato ad una stella in espansione: le variazioni del
raggio non devono essere periodiche. E' stato applicato a supernovae di tipo II, che sono stelle
massicce con un guscio ricco di idrogeno che esplode quando il loro nucleo collassa per formare
stelle di neutroni. Il metodo può essere applicato anche alle supernovae di tipo Ia, ma questi oggetti
non mostrano le righe dell'idrogeno nei loro spettri. Dato che la relazione luminosità superficiale in
funzione dell'indice di colore è calibrata utilizzando stelle normali, ricche di idrogeno, il metodo
della fotosfera in espansione è normalmente impiegato per le supernovae ricche di idrogeno, quelle
di tipo II. La supernova di tipo II SN1987A nella grande nube di Magellano è stata usata per
calibrare questo indicatore di distanza.
I metodi seguenti impiegano il diagramma H-R, che fornisce la luminosità in funzione della
temperatura. Quando sono noti la luminosità ed il flusso luminoso di un oggetto, la distanza può
essere ricavata mediante
D = sqrt[L/(4*pi*F)]
L. l'aggiustamento della sequenza principale
Quando tra la fine del 19° e l'inizio del 20° secolo si ottennero le distanze delle stelle vicine con il
metodo della parallasse trigonometrica, divenne possibile studiare la luminosità intrinseca di queste
stelle. Einar Hertzsprung e Henry Norris Russell realizzarono indipendentemente lo stesso
diagramma (oggi chiamato in loro onore H-R) della luminosità in funzione della temperatura. La
maggior parte delle stelle cadeva su una singola traccia, nota col nome di sequenza principale. A
volte la magnitudine assoluta è usata al posto della luminosità, e al posto della temperatura si usa
l'indice di colore.
Quando si studia un ammasso di stelle, le magnitudini apparenti ed i colori delle stelle formano una
traccia parallela alla sequenza principale, e scegliendo opportunamente la distanza, le magnitudini
apparenti si convertono in magnitudini assolute e si cerca così di sovrapporre la traccia
dell'ammasso alla sequenza principale standard.
M. la parallasse spettroscopica
Quando si osserva accuratamente lo spettro di una stella, è possibile determinare due parametri
della stella così come le abbondanze nell'atmosfera stellare. Il primo di questi parametri è la
temperatura superficiale della stella, che detemrina il tipo spettrale nell'insieme OBAFGKM, dal
più caldo al più freddo. Le stelle calde di tipo O mostrano le righe dell'elio ionizzato, le stelle di
classe B mostrano le righe dell'elio neutro, quelle di classe A hanno intense righe dell'idrogeno, le
stelle delle classi F e G hanno numerose righe dei metalli, e le più fredde stelle di classe K e M
hanno addirittura bande molecolari. Le classi spettrali sono ulteriormente suddivise mediante una
cifra, ad esempio il Sole appartiene alla classe G2.
Il secondo parametro che può essere determinato è la gravità superficiale della stella. Più elevata è
la gravità, maggiore è la pressione nell'atmosfera, e maggiori pressioni producono un allargamento
delle righe spettrali e riduce anche il grado di ionizzazione dell'atmosfera. La gravità superficiale è
denotata dalla classe di luminosità espressa da un numero romano da I a V essendo I la gravità più
bassa e V quella più alta (ad eccezione della classe VI che è vista raramente e delle nane bianche
che hanno una classificazione separata). Le stelle con elevata gravità superficiale (di classe V) sono
chiamate nane mentre le stelle con gravità media (classe III) sono chiamate giganti e le stelle con
gravità bassa (di classe I) sono chiamate supergiganti. La possibilità di sfruttare la gravità
superficiale per determinare la luminosità di una stella dipende da tre relazioni:
L = 4*pi*sigma*T4*R2
L = A*Mb
g = G*M/R2
Mass-luminosity law with b = 3-4
Ricavata la temperatura a partire dalla classe spettrale, e la gravità superficiale dalla classe di
luminosità, queste equazioni possono essere usate per trovare massa e luminosità. Se è nota la
luminosità e si misura il flusso luminoso, la distanza deriva dalla legge dell'inverso del quadrato.
Un avvertimento riguardo a questo metodo: funziona solamente per stelle normali, e ciascun
oggetto singolo potrebbe non essere normale. Main sequence fitting in un ammasso è molto più
affidabile dal momento che in un grande numero di stelle è facile trovare quelle normali.
I metodi seguenti sfruttano le proprietà delle stelle pulsanti:
N. distanze delle RR lyrae
Le variabili di tipo RR Lyrae sono stelle pulsanti come le Cefeidi, ma hanno una massa molto più
ridotta ed un periodo molto breve (meno di un giorno). Esse vengono individuate negli ammassi
globulari, e sembrano avere tutte la stessa magnitudine assoluto, che al minimo si situa attorno a
0.6.
O. distanze delle cefeidi
Le variabili cefeidi sono stelle pulsanti che prendono il nome dal più brillante membro di questa
classe di stelle: la delta Cephei. Queste stelle pulsano perché le regioni di idrogeno ed elio ionizzati
si trovano vicino alla superficie della stella. questo fatto fiss aapprossimativamente la temperatura
della stella variabile, e produce una fascia di instabilità nel diagramma H-R.
Il diagramma qui sopra mostra la stella man mano che si ingrandisce e diventa più fredda, e poi si
rimpicciolisce e diventa più calda. Le cefeidi sono più brillanti quando sono più calde, vicino al
minimo del raggio. Dato che tutte le cefeidi hanno la stessa temperatura, il raggio determina la loro
luminosità. Un grande oggetto pulsante naturalmente ha un periodo di oscllazione più grande di un
oggetto più piccolo. Per questo motivo nel caso delle cefeidi esiste una relazione periodoluminosità. Se due cefeidi hanno periodo che differisce di un fattore 2, allora la loro luminosità
della cefeide con periodo maggiore è 2.5 volte maggiore di quella con periodo più breve.
Dal momento che è facile misurare il periodo di una stella variabile, le cefeidi sono indicatori
straordinari della distanza delle galassie. Inoltre queste stelle sono intrinsecamente molto luminose
e dunque visibili da grande distanza: se ne individuano persino nella galassia M100 dell'ammasso
della Vergine. L'unico problema è la calibrazione della relazione periodo-luminosità, che deve
essere fatta indirettamente usando le cefeidi nella grande nube di Magellano e negli ammassi le cui
distanza sono ottenute fittando la sequenza principale. Inoltre si deve fare attenzione al fatto che la
calibrazione potrebbe dipendere dall'abbondanza di metalli nelle stelle, che è molto minore nella
LMC rispetto alle galassie spirali luminose come M100.
I metodi seguenti sfruttano le proprietà (reali o supposte) di classi di oggetti nelle galassie e pertanto
devono essere calibrati:
P. la funzione di luminosità delle nebulose planetarie
Le nebulose planetarie sono stelle che hanno attraversato le fasi di gigante rossa e gigante asintotica
e hanno eiettato i loro gusci residui di idrogeno, che ora formano una nebulosa ionizzata che
circonda una stella centrale molto calda e piccola. Esse emettono gran parte della radiazione nella
riga a 501 nm dell'ossigeno doppiamente ionizzato [O III] il che le rende facili da individuare. Le
nebulose planetarie più brillanti sembrano avere la stessa luminosità in molte galassie lontane, a tal
punto che i loro flussi luminosi possono essere usati come indicatori di distanza. Questo metodo è
correlato con il metodo della fluttuazione della luminosità superficiale, che è sensibile alle stelle del
ramo asintotico delle giganti prima che esse eiettino i loro gusci.
Q. le stelle più brillanti
Quando una galassia è molto vicina, si possono addirittura distinguere le singole stelle. La
luminosità di queste stelle può essere impiegata per stimare la distanza della galassia ospite. Spesso
si usa l'assunzione che ci sia un limite superiore fisso alla luminosità delle stelle, ma questa ipotesi
appare poco fondata. Nondimeno, se si studia una vasta popolazione di stelle luminose, è possibile
dare una ragionevole stima della distanza.
R. i diametri delle più vaste regioni H II
Le stelle molto calde e luminose ionizzano l'idrogeno circostante, producendo una regione H II,
come ad esempio la nebulosa di Orione. Il diametro delle più vaste regioni H II nelle galassie
lontane è stato assunto come "regolo standard" che può essere usato per determinare le distanze.
Questa tuttavia, appare una assunzione poco fondata.
S. le fluttuazioni della luminosità superficiale
Quando una galassia è troppo distante per consentirci di rilevare
le sue singole stelle, si può ancora stimarne la distanza usando
le fluttuazioni statistiche del numero di stelle in un pixel. Una
galassia vicina potrebbe avere 100 stelle che si proiettano in
ciascun pixel dell'immagine mentre una galassia più lontana
potrebbe averne un numero maggiore, ad esempio 1000. La
galassia vicina potrebbe avere fluttuazioni di ±10% della
luminosità superficiale (1/sqrt(N)), mentre la galassia più
lontana potrebbe avere fluttuazioni del 3%. L'illustrazione a
fianco (clicca per ingrandire) mostra una galassia nana vicina,
una galassia nana gigante ed una gigante ad una distanza tale
che il flusso totale sia uguale a quello della nana vicina. Nota
che la galassia gigante lontana ha un'immagine molto più
morbida rispetto a quella della nana vicina.
clicca sull'immagine per
ingrandire
T. le supernovae di tipo Ia
Le supernovae di tipo Ia sono esplosioni di nane bianche che si trovano in un sistema binario. Il
materiale sottratto alla stella compagna accresce la massa della nana bianca fino al limite di
stabilità, noto come limite di Chandrasekhar. A quel punto la nana bianca collassa, ma la
compressione innesca la combustione esplosiva del carbonio che porta alla totale distruzione della
stella. La produzione di luce deriva principalmente dall'energia prodotta dal decadimento
radioattivo di nickel e cobalto prodotti nell'esplosione. La luminosità di picco è correlata col tempo
di decadimento della curva di luce. quando si applica questa correzione, la luminosità relativa di
una supernova di tipo Ia può essere determinata con un errore del 20%. Alcune supernovae Ia sono
esplose in galassie abbastanza vicine alla nostra da permettere al telescopio spaziale Hubble di
determinarne la distanza assoluta e la luminosità assoluta usando le variabili cefeidi, consentendo
una delle migliori determinazioni della costante di Hubble.
I metodi seguenti sfruttano le proprietà globali delle galassie e pertanto devono essere calibrati:
U. la relazione di Tully-Fisher
La velocità di rotazione di una galassia spirale è un indicatore della sua massa, e dunque della sua
luminosità. La relazione è approssimativamente
Il pedice 20 significa che è la differenza di velocità riscontrata sulla riga a 21 cm dell'idrogeno
neutro al 20% della potenza di picco.
Dato che la velocità di rotazione di una galassia spirale può essere misurata con uno spettrografo
ottico o con un radiotelescopio, la luminosità può essere determinata. La distanza si ottiene
combinando tale luminosità con il flusso luminoso osservato. Il seguente disegno mostra due
galassie: una spirale gigante ed una nana, ma quella nana è più vicina alla Terra e dunque sottende
lo stesso angolo nel cielo e ha la stessa luminosità apparente.
La galassia più lontana per effetto della sua maggiore massa, ha una velocità di rotazione maggiore,
per cui la differenza tra gli spettri del lato in avvicinamento e in allontanamento sarà maggiore. Da
qui si possono calcolare le distanze relative.
V. la relazione di Faber-Jackson
La dispersione della velocità delle stelle sigma(v) in una galassia ellittica è un indicatore della sua
massa e dunque della sua luminosità. La relazione è approssimativamente:
Dato che la dispersione di velocità di una galassia ellittica può essere misurata con uno spettrografo
ottico, la luminosità può essere determinata. La distanza si ottiene combinando tale luminosità con
il flusso luminoso osservato.
W. la galassia più luminosa degli ammassi
Come candela standard si è usata anche la galassia più luminosa di un ammasso di galassie. Questo
assunto risente delle stesse difficoltà che affliggono i metodi delle stelle più luminose e delle più
grandi regioni H II: ammassi particolarmente ricchi probabilmente avranno esemplari di galassie
molto luminose anche se queste galassie sono rare, mentre ammassi meno ricchi probabilmente non
annovereranno questi membri.
I metodi seguenti hanno il vantaggio di non richiedere calibrazione:
X. il ritardo temporale nelle lenti gravitazionali
Quando un quasar viene visto attraverso una lente gravitazionale, si vedono repliche della sua
immagine, come mostrato nel seguente disegno:
I percorsi della luce dal quasar fino a noi per formare le diverse immagini, hanno lunghezze diverse
che differiscono approssimativamente di D*[cos(theta1)-cos(theta2)] dove theta è l'angolo di
deflessione e D è la distanza del quasar. Dal momento che i quasar sono sorgenti variabili nel
tempo, noi possiamo risalire alla differenza nella lunghezza del percorso ottico, cercando
correlazioni spostate nel tempo della variabilità delle imagini multiple Alla fine del 1996, questo
ritardo temporale è stato misurato in 2 quasar: l'originale doppio QSO 0957+061, che ha fornito un
risultato di Ho = [63 ± 12] km/sec/Mpc, e PG1115+080, che ha fornito Ho = 42 km/sec/Mpc, ma da
una ulteriore analisi degli stessi dati risulta Ho = [60 +/- 17] km/sec/Mpc.
Y. l'effetto Sunyaev-Zeldovich
Il gas caldo negli ammassi di galassie distorce lo spettro della radiazione cosmica di fondo
osservata attraverso l'ammasso. Il seguente disegno illustra il processo. Gli elettroni caldi
nell'ammasso di galassie diffondono una piccola frazione dei fotoni della CMB e li sostituisce con
fotoni di energia leggermente più alta. Questo processo è noto come effetto Compton inverso.
La quantità misurabile è la differenza tra la CMB vista attraverso l'ammasso e quella immutata vista
in un'altra direzione. In verità solo l'1% circa dei fotoni che passano attraverso l'ammasso vengono
diffusi dalle regioni di gas caldo ionizzato, e questi fotoni acquistano in media il 2% della loro
energia. Ciò produce una scarsità di fotoni a bassa energia di circa 0.01*0.02 = 0.0002 ovvero dello
0.02%, che dà luogo ad una diminuzione della temperatura di luminosità di circa 500 microK
guardando verso l'ammasso. A frequenze più elevate (maggiori di circa 218 GHz) l'ammasso appare
più luminoso rispetto allo sfondo. Questo effetto è proporzionale a (1) la densità di elettroni, (2) lo
spessore dell'ammasso lungo la nostra linea di vista, e (3) la temperatura degli elettroni. Il
parametro che combina questi fattori è chiamato parametro y di Kompaneets, con y = tau*(kT/mc2).
Tau è la profondità ottica della frazione di fotoni diffusi, mentre (kT/mc2) è la temperatura
dell'elettrone in unità della massa a riposo dell'elettrone.
L'emissione di raggi X, IX, dal gas caldo dell'ammasso è proporzionale a (1) il quadrato della densità
di elettroni, (2) lo spessore dell'ammasso lungo la nostra linea di vista, e (3) dipende dalla
temperatura degli elettroni e dalla frequenza dei raggi X. Come risultato, il rapporto
y2/IX = CONST * (Spessore lungo la linea di vista) * f(T)
Se assumiamo che lo spessore lungo la nostra linea di vista coincide con il diametro dell'ammasso,
possiamo utilizzare il diametro angolare osservato per trovarne la distanza.
Questa tecnica è molto complicata, e anni di duro lavoro da parte dei pionieri come Mark
Birkinshaw hanno prodotto solamente qulche misura di distanza, e valori di Ho che tendevano ad
essere un po' bassi. Lavori recenti con radio interferometri strettamente ammassati, operanti a 30
GHz hanno fornito misurazioni precise della diminuzione di luminosità radio per 18 ammassi, ma
solo 3 di essi hanno adeguati valori per l'emissione di raggi X.
Si veda anche questo sito con la descrizione accurata del metodo e dei suoi fondamenti.
Ed infine:
Z. la legge di Hubble
Lo spostamento Doppler fornisce il redshift di un oggetto remoto che è il mostro miglior indicatore
di distanza, a patto che si conosca con precisione la costante di Hubble.
L'età dell'Universo
Ci sono almeno tre modi per stimare l'età dell'Universo. Qui descriveremo:
- l'età degli elementi chimici
- l'età dei più antichi ammassi stellari
- l'età delle più antiche nane bianche
L'età degli elementi chimici
L'età degli elementi chimici può essere stimata per mezzo del decadimento radioattivo
determinando l'età di una mistura di atomi. Le età meglio definite che si possono stimare con questo
metodo sono le età di solidificazione delle rocce. Quando una roccia solidifica, gli elementi chimici
spesso si separano in differenti granuli cristallini. Ad esempio, il sodio ed il calcio sono elementi
comuni, ma i loro comportamenti chimici sono abbastanza diversi, e così nelle rocce si trovano in
genere separati in granuli distinti. Il rubidio e lo stronzio sono gli elementi più pesanti che si
comportano chimicamente come il sodio ed il calcio, per questo motivo si trovano in granuli
diversi. Tuttavia il Rb-87 decade in Sr-87 con una semi-vita di 47 miliardi di anni. C'è inoltre un
isotopo dello stronzio, lo Sr-86, che non è prodotto da alcun decadimento raidoattivo. L'isotopo Sr87 è chiamato radiogenico, perché come detto prima, si produce in seguito al decadimento di un
altro elemento, mentre lo Sr-86 non è radiogenico. Per questi motivi lo Sr-86 viene sfruttato per
determinare quale frazione dello Sr-87 è stata prodotta per decadimento radioattivo.
Si fa questo disegnando il grafico del rapporto Sr-87/Sr-86 in funzione del rapporto Rb-87/Sr-86.
Quando una roccia si è appena formata, i diversi granuli hanno una vasta gamma di rapporti Rb87/Sr-86, ma in tutti i granuli il rapporto Sr-87/Sr-86 è lo stesso poiché i processi chimici che
differenziano i granuli non possono separare gli isotopi. Dopo che la roccia è rimasta solida per
diversi miliardi di anni, una frazione di Rb-87 sarà decaduta in Sr-87. Allora il rapporto Sr-87/Sr-86
sarà più elevato nei granuli con un elevato rapporto Rb-87/Sr-86. Fai un'interpolazione lineare di
Sr-87/Sr-86 = a + b*(Rb-87/Sr-86)
e dunque il coefficiente
angolare è dato da
b = 2x - 1
con x inteso come numero di
semi-vite in cui la roccia è
rimasta allo stato solido.
Leggiti la isochrone FAQ del
newsgroup talk.origins per
maggiori informazioni sulla
datazione radioattiva.
Applicata alle rocce della
superficie terrestre, il metodo
fornisce per quelle più antiche
il valore di circa 3.8 miliardi
di anni. Se applicato alle
meteoriti, le più vecchie hanno
4.56 miliardi di anni. questa
età molto ben determinata è
l'età del sistema solare.
Leggiti la age of the Earth FAQ del newsgroup talk.origins per maggiori informazioni sullìetà del
sistema solare.
Applicato a sistemi misti ed in evoluzione, come ad esempio il gas nella Via Lattea, non è possibile
raggiungere una elevata precisione. Un grosso problema è che non vi è separazione in granuli di
cristalli diversi, per cui si devono usare i valori assoluti dei rapporti tra gli isotopi anziché le
pendenze delle interpolazioni lineari. Ciò richiede che si conosca con precisione la quantità iniziale
di ciascun isotopo, per cui è necessario un modello accurato della produzione degli elementi.
Una coppia di isotopi comunemente utilizzati è renio e osmio: in particolare il Re-187 che decade in
Os-187 con semi-vita di circa 40 miliardi di anni. A quanto pare circa il 15% del Re-187 è
decaduto, per cui si deduce un'età di 8-11 miliardi di anni. Ma questa è solo l'età media di
formazione dei materiali presenti nel sistema solare. Negli ultimi 4.56 miliardi di anni non si è
prodotto ulteriore renio né osmio. Per utilizzare con cognizione di causa questo dato in vista della
determinazione dell'età dell'Universo, occorre avere un modello di quando gli elementi sono stati
costituiti. Se tutti gli elementi chimici si fossero prodotti subito dopo il Big Bang, allora l'età
dell'Universo sarebbe semplicemente to = 8-11 miliardi di anni. Ma se gli elementi sono prodotti
continuamente ad un tasso costante, allora l'età media dei materiali nel sistema solare è
(to + tSS)/2 = 8-11 miliardi di anni
che possiamo risolvere per l'età dell'Universo, ottenendo
to = 11.5-17.5 miliardi di anni
La datazione radioattiva di stelle antiche
Una pubblicazione molto interessante di Cowan et al. (1997, ApJ, 480, 246) discute l'abbondanza
del torio nell'alone di una stella antica. Di solito non è possibile misurare l'abbondanza degli isotopi
radioattivi nelle altre stelle perché le righe spettrali sono troppo deboli. Ma nella stella CS 22892052 le righe del torio possono essere individuate perché quelle del ferro sono molto deboli e non le
confondono. Il rapporto tra Th/Eu (europio) in questa stella è 0.219 paragonato al valore attuale di
0.369 nel nostro sistema solare. Il torio decade con una semi-vita di 14.05 miliardi di anni, dunque
il sistema solare si è formato con un rapporto Th/Eu = 24.6/14.05*0.369 = 0.463. Se CS 22892-052 si è
formata con lo stesso rapporto Th/Eu ha dunque 15.2 ± 3.5 miliardi di anni. In realtà l'età è un poco
più alta perché una certa quantità di torio ora nel sistema solare dev'essere decaduta prima della
formazione del Sole, e questa correzione dipende dalla storia della nucleosintesi nella Via Lattea. In
ogni caso, si tratta di una interessante misura dell'età delle stelle più vecchie indipendente dai
metodi che sfruttano il diagramma H-R.
Una pubblicazione successiva di Cowan et al. (1999, ApJ, 521, 194) fornisce 15.6 ± 4.6 miliardi di
anni per l'età basata su due stelle: CS 22892-052 e HD 115444.
L'età dei più antichi ammassi stellari
Nella fase in cui le stelle bruciano idrogeno in elio nei loro nuclei, esse giacciono su una singola
traccia nel diagramma luminosità-temperatura noto come diagramma H-R dal nome dei suoi
inventori, Hertzsprung and Russell. Questa traccia è nota col nome di sequenza principale, dato che
vi si trova la maggior parte delle stelle. Dal momento che la luminosità di una stella varia come M3
o M4, il tempo di vita di una stella appartenente alla sequenza principale varia come
t=const*M/L=k/L0.7. Per questo, misurando la luminosità della stella più luminosa della sequenza
principale, si ottiene un limite superiore dell'età dell'ammasso:
Age < k/L(MS_max)0.7
Questo è un limite superiore dato che l'assenza di stelle più luminose di quella osservata
L(MS_max) potrebbe essere dovuta al fatto che non si sono formate stelle nell'intervallo di massa
appropriato. tuttavia, per ammassi con centinaia di membri, questo buco nella distribuzione delle
masse è improbabile, per cui l'età è proprio k/L(MS_max)0.7. Chaboyer, Demarque, Kernan and
Krauss (1996, Science, 271, 957) hanno applicato questa tecnica agli ammassi globulari ed hanno
trovato che l'età dell'Universo è maggiore di 12.07 miliardi di anni con una confidenza del 95%.
Chaboyer (1997) ha fornito una stima migliore: 14.6 ± 1.7 miliardi di anni per l'età degli ammassi
globulari. Tuttavia risultati recenti del satellite Hipparcos mostrano che gli ammassi globulari sono
più lontani di quanto si pensava, per cui le stelle sono in realtà più luminose. Gratton et al.
forniscono età comprese tra 8.5 e 13.3 miliardi di anni, con 12.1 come valore più probabile, mentre
Reid fornisce età comprese tra 11 e 13 miliardi di anni, e Chaboyer et al. danno 11.5 ± 1.3 miliardi
di anni come età media degli ammassi globulari.
L'età delle più antiche nane bianche
Una nana bianca è una stella massiccia come il Sole ma con un raggio come quello della Terra. La
densità media è dunque milioni di volte quella dell'acqua. Le nane bianche si formano al centro
delle giganti rosse, ma non sono visibili finché non si dirada nello spazio tutto il guscio di gas che le
avvolge. Quando ciò avviene la radiazione ultravioletta dalla caldissima stella centrale ionizza il gas
e produce una nebulosa planetaria. Il guscio della stella continua ad allontanarsi fino a rendersi
praticamente invisibile, e lascia solo il nucleo caldissimo che ora si chiama nana bianca. Le nane
bianche non producono più energia per mezzo di reazioni nucleari, per cui vanno spegnendosi
lentamente fino a diventare corpi freddi. Le nane bianche più antiche saranno le più fredde e dunque
le più deboli. Cercando deboli nane bianche, si può stimare il tempo di raffreddamento delle più
antiche nane bianche. Oswalt, Smith, Wood e Hintzen (1996, Nature, 382, 692) hanno compiuto
questo studio ottenendo un'età di 9.5+1.1-0.8 miliardi di anni per il disco della Via Lattea. Essi
stimano che l'età dell'Universo sia almeno di 2 miliardi di anni più alta, dunque to > 11.5 miliardi di
anni.