Leon M. Lederman e David N. Schramm DAI QUARK AL COSMO 1991 Zanichelli dalla quarta pagina di copertina: Dai quark al cosmo è il racconto "in diretta" di un'avvincente impresa scientifica, a cui si stanno dedicando numerosi ricercatori in ogni parte del mondo: il tentativo di costruire una teoria unitaria dei fenomeni fisici, collegando cosmologia e fisica delle particelle, l'immensa scala dell'universo e quella incredibilmente piccola dei leptoni e dei quark. Il racconto inizia il 17 aprile 1987 con la prima registrazione di una collisione protoneantiprotone al fermilab, l'acceleratore di particelle di Chicago. A partire da questo episodio, i due autori descrivono lo sviluppo delle attuali concezioni dello spazio, del tempo, della materia e delle forze fondamentali; con un tono narrativo che si mantiene sempre avvincente e chiaro, ci parlano del Modello Standard della fisica delle particelle e della teoria del Big Bang, della supersimmetria, della "teoria del Tutto" (TOE), della supergravità. Il libro si conclude con una rassegna degli strumenti che si stanno approntando per la fisica degli anni Novanta, come il Superconducting Supercollider (SCC), capace di simulare le condizioni dell'Universo pochi trilionesimi di secondo dopo il Big Bang, e i nuovi telescopi e osservatori spaziali. Gordon Kane IL GIARDINO DELLE PARTICELLE 1997 Longanesi & C. dalla quarta pagina di copertina: Sebbene l'idea secondo cui gli "oggetti" intorno a noi - le case, gli alberi, gli animali e persino l'arcobaleno - sono composti da particelle piccolissime sia molto antica, essa ha dovuto passare al vaglio di innumerevoli scienziati (da Newton a Rutherford, da Boltzmann a Feynman) per raggiungere quel grado di "concretezza" che le attribuiamo oggi. La semplice nozione di atomo dell'inizio del nostro secolo - quella di un sistema solare in miniatura formato da un nucleo centrale circondato da elettroni orbitanti - è stata infatti ormai soppiantata da un quadro assai più variegato e complesso, e le varie decine di particelle oggi note compongono quello che alcuni hanno chiamato uno "zoo" e che l'autore di questo libro, usando un'altra metafora, ha preferito chiamare un "giardino". Di questo giardino, che è l'universo, le particelle sono in un certo senso i semi, dai quali cresce la diversità di tutto ciò che ci circonda. In questo saggio, Gordon Kane c'illustra anzitutto come gli scienziati siano giunti a comprendere le leggi sottese all'intero universo: dalle affermazioni dei filosofi greci, secondo i quali doveva esistere un elemento primario costitutivo della materia, fino alle scoperte di Newton, Maxwell, Einstein, Heisenberg. Poi, grazie a un affascinante tour dei maggiori laboratori di fisica nel mondo, l'autore ci mostra come gli enormi acceleratori e collisori odierni siano in grado di "vedere" cose milioni di milioni di volte più piccole di quelle osservabili attraverso i primi microscopi, quattrocento anni or sono. Così, grazie alla comprensione del funzionamento dei macchinari utilizzati per "vedere" i quark e i leptoni, riusciamo a capire meglio gli esperimenti che hanno condotto gli scienziati a formulare la cosiddetta "teoria standard", cioè la teoria matematica completa che descrive come funzionano tutte le cose, dalle particelle alle stelle, cominciando dagli elettroni a dai quark. Il punto d'arrivo della ricerca scientifica, quindi? Niente affatto, ci rivela Kane, spiegandoci come la "teoria standard" si estenda di giorno in giorno, incorporando le ricerche più avanzate sulla supersimmetria, sulla materia oscura e sulle superstringhe, e spingendosi sino a far intravedere una possibile - ed esaltante - "teoria del tutto". Forte di una pluriennale esperienza nell'insegnamento della fisica a studenti non specializzati, Gordon Kane ci guida con sicurezza e disinvoltura in un campo tanto ostico quanto affascinante: grazie al suo libro, destinato a diventare un piccolo classico sull'argomento, il mondo delle particelle non sarà più, per noi, un giardino proibito. Leon Lederman e Dick Teresi LA PARTICELLA DI DIO 1996 Mondadori dalla quarta pagina di copertina: Nel V secolo a.C. Democrito di Abdera ipotizzò che la materia sia costituita da particelle invisibili e indivisibili, alle quali attribuì il nome di "atomi". Partendo da tale intuizione, il premio Nobel per la fisica Leon Lederman, in un'epoca in cui dagli ambienti scientifici quasi ogni giorno giunge l'annuncio di scoperte riguardo alla struttura della materia, ripercorre l'affascinante storia di ricerche, esperimenti e studi svolti dall'uomo per rispondere all'antichissima e ardua domanda: "Di che cosa è fatto il mondo?". Secolo dopo secolo, egli ci permette di cogliere lo sforzo comune dell'umanità nel tentativo di individuare e descrivere l'atomo teorizzato da Democrito, uno sforzo coronato da successi sempre parziali, provvisori, inevitabilmente limitati, a fronte dei continui progressi scientifici e tecnologici. Galileo, Newton, Faradey, Rutherford, Einstein sono soltanto alcuni dei numerosi protagonisti di tale appassionante avventura, presentati come veri e propri detective alla ricerca di indizi che svelino il segreto ultimo dell'universo. Illustrando ogni tappa di questo viaggio in prosa chiara e accattivante, non di rado venata da un originale umorismo. Lederman ci conduce fino all'ultimo cinquantennio, in cui lo studio del mondo subatomico ha conosciuto uno sviluppo straordinario grazie alla creazione della più complessa apparecchiatura sperimentale mai realizzata. l'acceleratore di particelle. L'autore ce ne spiega il funzionamento in modo estremamente semplice, con la metafora di un affilatissimo coltello che seziona la materia fino a separarne gli elementi costitutivi (leptoni, mesoni, quark, ecc.). E, infine, immagina la possibilità di metterne a punto un nuovo, potentissimo modello in grado di fornirci la risposta definitiva sull'argomento, di farci scoprire appunto la "particella di Dio". Gerard 't Hooft IL MONDO SUBATOMICO - alla ricerca delle particelle fondamentali 1999 Editori Riuniti dalla quarta pagina di copertina: Gerard 't Hooft, fisico teorico di punta, presenta in modo chiaro e affascinante uno degli ambiti di ricerca più creativi nella fisica del Novecento: quello che, soprattutto a partire dagli anni sessanta, ha esplorato a fondo la struttura fondamentale della materia, alla ricerca degli elementi ultimi, dei costituenti indivisibili. E' una storia che coinvolge aspetti della ricerca scientifica contemporanea, dalla riflessione teorica sull'origine dell'universo alle spettacolari sperimentazioni della fisica delle alte energie. Nella prima parte del libro 't Hooft ricostruisce le modalità con cui si è giunti a elaborare il cosiddetto Modello Standard della fisica, la teoria che descrive il mondo subatomico. La seconda parte illustra le ipotesi teoriche più attuali e più ardite circa la struttura della materia, dello spazio e del tempo. Paul Davies LE FORZE DELLA NATURA 1990 Bollati Boringhieri dalla quarta pagina di copertina: Vero "cavallo di razza" della divulgazione scientifica, Paul Davies è uno dei rari fisici che sanno farsi seguire dal lettore comune anche quando affrontano argomenti difficili. ne è una prova il presente volume, una delle migliori illustrazioni disponibili del microcosmo atomico e dell'incredibile fauna che lo abita: non solo la familiare triade protone-elettrone-neutrone, ma le ben più intriganti realtà che vanno sotto il nome di "colore", "incanto", "stranezza". Negli ultimi anni la ricerca fondamentale ha fatto passi da gigante, si da far pensare prossima una descrizione unificata di tutte le forze della natura, sostituite da un'unica "superforza", e l'avvento di una "supersimmetria" capace di unire forza e materia. Progressi promettenti si sono avuti nel campo delle teorie di grande unificazione, ma forse la spinta decisiva è stata data dalla scoperta delle particelle W e Z, i bosoni intermedi portatori della cosiddetta interazione debole. Anche di questi nuovi sviluppi rende conto il libro di Davies, che ha dunque tutto per interessare un pubblico vario, compresi i lettori di formazione scientifica, ma non addentro alla materia, desiderosi di curiosare "nell'orto del vicino". Paul Davies SUPERFORZA - verso una teoria unificata dell'universo 1986 Mondadori dalla quarta pagina di copertina: Sta oggi per realizzarsi un sogno antico dell'uomo: costruire una teoria che gli consenta di unificare lo scibile, di ricondurre la sconcertante molteplicità dei fenomeni che lo circondano a un'unica legge fisico-matematica. Una legge che comprenda l'infinitamente grande, ma anche l'infinitamente piccolo: le stelle, le galassie, gli spazi immensi, e la popolazione sterminata di particelle di cui i grandi acceleratori di tutto il mondo annunciano sempre più spesso la scoperta - bosoni, fermioni, quark, antiquark, particelle W, particelle Z... La soluzione viene intravista, oggi, dai fisici, nell'unificazione delle quattro forze che producono tutti gli eventi della natura - gravità, elettromagnetismo, interazione nucleare forte e debole - in una singola superforza, amalgama di materia, spazio-tempo ed energia: una struttura integrata e armoniosa, che confermerebbe le simmetrie profonde della materia rivelate dall'analisi matematica. In questo libro Paul Davies racconta la storia affascinante di questa ricerca, dalle ipotesi di Einstein alle scoperte di Rubbia alle prospettive attuali. E' un viaggio avventuroso nel cuore di un universo a undici dimensioni, nato spontaneamente dal nulla eppure "prodotto della legge, più che del caso": un mondo dominato da una logica molto diversa da quella del senso comune, una logica surreale che richiama alla mente il Paese delle Meraviglie di Alice. Brian Greene L'UNIVERSO ELEGANTE - supertringhe, dimensioni nascoste e la ricerca della teoria ultima 1999 Einaudi dalla quarta pagina di copertina: La teoria delle superstringhe è come una grande rete che avvolge molte delle scoperte fondamentali della fisica; è una teoria che unifica le leggi del grande e del piccolo, leggi che governano i più ampi spazi del cosmo e i più piccolo brandelli di materia. Dunque, è una teoria a cui ci si può accostare in vari modi. Ho scelto di concentrarmi sui progressi nella nostra concezione dello spazio e del tempo. Mi sembra una linea evolutiva molto stringente, che apre vaste e interessanti prospettive su nuovi concetti. Einstein ci ha mostrato che lo spazio e il tempo si comportano in modi sorprendenti e controintuitivi; oggi le ricerche più avanzate hanno integrato le sue idee nell'ambito di un universo quantistico, dotato di molte dimensioni nascoste nella trama del cosmo - dimensioni dalla geometria riccamente intricata che possono celare la risposta alle domande più profonde mai poste. Alcuni di questi concetti sono complessi, ma possono essere intesi grazie ad analogie prese dal mondo quotidiano; quando li si comprende appieno, ci offrono una prospettiva sorprendente e rivoluzionaria da cui guardare l'universo. Robert P. Crease e Charles C. Mann ALLA RICERCA DELL'UNO 1987 Mondadori dalla quarta pagina di copertina: Un'opera unica, irripetibile: Alla ricerca dell'uno oltreché un capolavoro di divulgazione scientifica, è un trascinante viaggio nel cuore della fisica del nostro secolo raccontato dai suoi grandi protagonisti: una storia non di protoni ma di persone, individui geniali. Ecco giganteggiare, all'inizio, la figura di Einstein, l'ultimo pensatore solitario, il primo a intuire le relazioni che legano insieme tutti i fenomeni dell'universo. ecco poi il sorgere della teoria quantistica, la scoperta dei quark, l'entusiasmante proposta della teoria della "forza elettrodebole" di Weinberg e Salam, la sua clamorosa conferma sperimentale compiuta da Carlo Rubbia al CERN di Ginevra nel 1983. E infine ecco che appaiono le Nuove Teorie Unificate - dalla Superforza alle Supercorde - che propongono una spiegazione globale del cosmo, della sua nascita come del suo destino... Fisica La particella di Dio Il nostro mondo, dagli atomi alle galassie più lontane, è oggi tenuto insieme da quattro distinte forze, molto diverse tra loro. Unificarle in una sola formula è il sogno di ogni fisico. Così i ricercatori elaborano teorie raffinate e affascinanti, cercando poi di verificarle con la scoperta di "superparticelle" che sembrano inaccessibili. La ricerca continua, e un giorno sapremo se è davvero così. Allora, come dice Stephen Hawking, "conosceremo la mente di Dio" Poter descrivere la complessità dell'universo in cui viviamo con una semplice teoria, la "Teoria del tutto", è il sogno di ogni scienziato. Ma per arrivare a farlo è indispensabile un passo intermedio: riuscire a descrivere, in un'unica trattazione matematica, tutte le quattro forze fondamentali esistenti in natura. A questa meta ambiziosa - l'unificazione - stanno lavorando ricercatori in tutto il mondo, alle prese con alcune delle più astratte e raffinate teorie fisiche e matematiche mai elaborate dall'uomo, che hanno nomi suggestivi e difficili (come superstringhe, supersimmetrie, supergravi- tà...) e che puntano a penetrare i più riposti segreti del mondo delle particelle subatomiche. "Se riusciremo a trovare una risposta", ha detto il famoso scienziato inglese Stephen Hawking, "decreteremo il trionfo definitivo della ragione umana, giacché allora conosceremmo la mente di Dio". Via via che le nostre conoscenze della natura e del cosmo si sono approfondite e nuovi esperimenti hanno permesso di esplorare in dettaglio le nascoste proprietà della materia, la comprensione delle quattro forze, o interazioni, fondamentali, che sono alla base dei processi fisici, chimici e biologici è divenuta più chiara. Le quattro forze di base La forza gravitazionale, che si esercita tra tutti i corpi dotati di massa, è la più familiare poiché viene avvertita attraverso il nostro peso corporeo; è la causa della caduta dei corpi sulla Terra, e del movimento dei pianeti intorno al Sole. All'interazione elettromagnetica, che si esercita tra particelle cariche, si devono l'elettricità, le onde radio e l'attrazione che consente agli elettroni di carica negativa di orbitare attorno al nucleo dell'atomo, che ha una carica positiva. Nel mondo di dimensioni infinitesimali in cui vivono le particelle elementari, sono attive due altre interazioni senza le quali l'universo come noi lo conosciamo non potrebbe esistere: la forza "forte" e quella "debole". La prima è quella che tiene uniti protoni e neutroni (a loro volta formati da quark) a formare il nucleo dell'atomo. La forza "debole" invece (centomila volte meno intensa di quella forte), si esercita tra particelle chiamate leptoni (come l'elettrone e il neutrino), ed è la causa della disintegrazione degli atomi radioattivi e di alcune delle reazioni nucleari che avvengono all'interno del Sole. Questa disparità di interazioni non esisteva, secondo gli scienziati, poco dopo il Big Bang, quando l'universo era estremamente caldo e denso, ma le forze si sono andate via via separando mentre il cosmo si raffreddava e prendeva le sembianze che oggi conosciamo. A riprova dell'enorme difficoltà di riunire in un'unica trattazione quello che ci appare diverso nel mondo percepibile, vi è il fatto che anche il grande Albert Einstein provò, per buona parte della sua vita, a unificare la forza gravitazionale e quella elettromagnetica senza ottenere alcun risultato. La scoperta dei bosoni Da allora il più importante successo è consistito nella creazione della "teoria unitaria delle forze elettromagnetiche e deboli", realizzata da Sheldon Glashow, Steve Weinberg e Abdus Salam, vincitori del premio Nobel nel 1979. La loro teoria prevedeva l'esistenza di particelle mediatrici della forza elettrodebole, i bosoni vettori intermedi (le particelle W+, We Z0) che sono stati successivamente scoperti al Cern di Ginevra (il Laboratorio europeo per la fisica delle particelle, il più prestigioso al mondo), dall'équipe guidata da Carlo Rubbia, vincitore del premio Nobel nel 1984. Insieme ai bosoni, le altre particelle che mediano l'azione delle forze (azione che, nella fisica moderna, è sempre vista come uno scambio di particelle tra i corpi che interagiscono), sono i fotoni per la forza elettromagnetica, i gluoni per quella forte, e gli ipotetici gravitoni per quella gravitazionale. Il passo successivo è stato la formulazione delle cosiddette "teorie di grande unificazione", che trattano insieme la forza forte e la forza elettrodebole, ma non tengono conto dell'interazione gravitazionale. Secondo queste ultime teorie, nei primi anni di vita dell'Universo sarebbe dovuta esistere una "superforza" mediata da una superparticella chiamata "X". Un'ipotesi che è impossibile verificare, allo stato attuale delle conoscenze, come spiega Nicola Cabibbo, fisico teorico e presidente dell'Enea, l'Ente per le nuove tecnologie, l'energia e l'ambiente. "Risultati recenti ottenuti con gli esperimenti effettuati nel Lep, la macchina acceleratrice attualmente in funzione al Cern, hanno permesso di capire che queste ipotetiche particelle sarebbero estremamente pesanti, circa un milione di miliardi di volte la massa del protone. Per trovarle, sarebbero necessari acceleratori che arrivano a energie così enormi da essere del tutto irrealizzabili". Il fatto è che, secondo la famosa formula di Einstein, E=mc2 , che esprime l'equivalenza di massa ed energia, più elevata è la massa di una particella che si vuole produrre all'interno di un acceleratore, più elevata deve essere l'energia. Uno scambio di ruoli Ma non è questo il solo limite delle "teorie di grande unificazione", che sono per il momento considerate abbastanza insoddisfacenti. Più promettenti sono invece ritenute le teorie "supersimmetriche" (chiamate "SuSy", da supersymmetry), che riuniscono in una stessa famiglia i due grandi gruppi di particelle precedentemente considerati diversi fra loro: i bosoni, cioè i mediatori delle interazioni (fotone, gluone, gravitone, e le particelle W e Z), e i fermioni, le particelle che compongono l'atomo, come elettroni e quark. Queste particelle potrebbero trasformarsi le une nelle altre, scambiandosi i ruoli. Ciò implica, per le stesse complesse simmetrie matematico-fisiche, che ogni particella conosciuta abbia un compagno, il cosiddetto "partner supersimmetrico", che si chiama squark per il quark, fotino per il fotone, Wino per il W e così via. Un modo per verificare la validità della costruzione teorica è dunque quello di "catturare" le particelle supersimmetriche. E i fisici sono sicuri di riuscire a farlo presto con la nuova macchina acceleratrice Lhc che entrerà in funzione al Cern. "Dal momento che la loro massa potrebbe non essere troppo alta", conferma Cabibbo, "dovrebbero essere accessibili ai nostri rivelatori. Individuarle è uno dei grandi temi della ricerca odierna". La "supergravità" Grazie alla supersimmetria può diventare più facile trattare anche la forza gravitazionale, che è la più difficile da unificare, e ha sempre dato ai fisici molti grattacapi. "La forza di gravità ci sembra intensa, ma all'interno dell'atomo è molto debole, miliardesimi di miliardesimi di miliardesimi di miliardesimi di volte (il numero preciso è 10 seguito da trentasette zeri) meno forte della forza elettromagnetica e quindi è irrilevante per le particelle subatomiche", dice Cabibbo. Per arrivare alla possibilità di trattare l'interazione gravitazionale insieme alle altre una nuova teoria, detta della "supergravità", è stata formulata nel 1976 dal fisico italiano Sergio Ferrara (che lavora al Cern) insieme a Daniel Freedman e Peter van Nieuwenhuizen (che hanno insieme vinto nel 1993 il prestigioso premio Dirac). Si tratta di un ampliamento della teoria della gravitazione (la relatività generale) di Einstein. Basata sulle teorie supersimmetriche, introduce accanto al mediatore della forza gravitazionale, il gravitone, il suo partner supersimmetrico, chiamato gravitino. Commenta Ferrara: "Lo schema teorico porta automaticamente a trattare la gravità insieme alle altre interazioni, ma ci sono ancora al suo interno molti problemi aperti che vanno affrontati". Ed ecco che entra in gioco una delle costruzioni matematiche forse più affascinanti e complesse della fisica contemporanea, la "teoria delle superstringhe", la migliore candidata, secondo i suoi sostenitori, per arrivare all'unificazione sognata. Spazio a dieci dimensioni Formulata nel 1984 da Michael Green e John Schwarz (vincitori del premio Dirac nel 1989), questa teoria suggestiva vale in un mondo molto particolare dove le quattro dimensioni dello spazio-tempo in cui viviamo (tre per lo spazio e una per il tempo) diventerebbero addirittura dieci. Inoltre le particelle elementari non sarebbero più paragonabili a punti ma diventerebbero delle stringhe vibranti come corde musicali. E sarebbero piccolissime, contenute in uno spazio di molti miliardi di volte più piccolo del nucleo atomico: tanto più piccole di un atomo di idrogeno, quanto un atomo di idrogeno lo è rispetto all'intero sistema solare. Ma quando si ritorna a distanze maggiori le stringhe ridiventerebbero puntiformi e le dimensioni dello spazio tornerebbero a essere quattro. "Si pensa che le sei dimensioni in più, presenti a distanze così piccole, si "arrotolino" e quindi scompaiano a mano a mano che si ritorna verso le dimensioni del mondo in cui viviamo", commenta Ferrara. Tra scienza e fantascienza Fantascienza? Forse, ma l'immaginazione scientifica dei fisici teorici, nel tentativo di dominare i sottili meccanismi del mondo subatomico, sembra non avere limiti. Tant'è vero che, da un po' di tempo, si sta facendo strada un'altra teoria ancora più fantascientifica, chiamata "M", secondo la quale le particelle non sarebbero simili a stringhe monodimensionali bensì a membrane bidimensionali che fluttuerebbero in uno spazio a undici dimensioni. Vi stanno lavorando alcuni grandi scienziati, tra cui lo stesso Ferrara e il famoso fisico Ed Witten dell'Institute for Advanced Study di Princeton (dove lavorò per molti anni, fino alla fine della vita, lo stesso Einstein). Come si vede, la strada verso l'unificazione e la comprensione dei mattoni elementari della materia, nonostante gli sforzi di alcune delle menti più brillanti della fisica teorica, è lastricata di difficoltà. "Anche se sono stati fatti progressi, c'è ancora molto lavoro da fare", conclude Cabibbo. "Sarà il principale argomento di ricerca per il prossimo secolo". Michela Fontana L'UNO E IL TUTTO di Mariangela Ferrara del gruppo Mizar Comprendere i segreti della natura, dell’universo, della coscienza è la mèta che si è posta ogni serio ricercatore in tutte le epoche storiche, tentando, attraverso studi e analisi sempre più approfondite, di penetrare i misteri del mondo in cui viviamo, di rendere comprensibili i fenomeni di cui siamo testimoni, nella speranza di “conoscere il pensiero stesso di Dio”. Con quest’obiettivo e per questo scopo, Einstein, già famoso per aver pubblicato la teoria della relatività (1905) dedicò gli ultimi anni della sua vita all’infruttuosa ricerca di una teoria unificata e completa in grado di dare una spiegazione ad ogni cosa, ma i tempi non erano ancora maturi, si sapeva ben poco sulle forze nucleari, ed inoltre Einstein si rifiutava, a torto, poiché smentito dalle successive ac-quisizioni teorico-scientifiche, di credere nella realtà della meccanica quantistica e nel principio di indeterminazione (Heisenberg, 1927). Celebre, a questo proposito, è la sua frase “Dio non gioca a dadi con l’universo”. Ancora oggi relatività generale e meccanica quantistica, pur rappre-sentando i due pilastri fondamentali della fisica, hanno campi d’indagine differenti. La relatività generale trova la sua applicazione solo nell’infinitamente grande, la meccanica quantistica solo nell’infinitamente piccolo. Le due grandi teorie della fisica del XX secolo, perciò, non possono essere giuste entrambe, sono incompatibili fra loro. Questo significa che ci rivolgiamo di volta in volta alla relatività generale oppure alla meccanica quantistica. La speranza resta quella di trovare una teoria unificata, coerente e completa che includa tutte le teorie parziali che descrivono invece solo un ambito limitato di fenomeni. La difficoltà principale nel trovare la grande teoria unificata è data dal fatto che la relatività generale è una teoria classica, ossia non incorpora il principio di indeterminazione, tuttavia sembra che tale principio costituisca un tratto fondamentale dell’universo in cui viviamo; una teoria unificata, per poter raggiungere il proprio obiettivo, deve quindi necessariamente incorporare questo principio. Il grande astrofisico S. Hawking, nel suo libro “La teoria del tutto” sostiene che “un primo passo da compiere nella ricerca è quello di combinare la relatività generale con il principio di indeterminazione, ciò può portare a conseguenze notevoli come l’idea che i buchi neri non siano così neri, che l’universo sia racchiuso in se stesso e privo di confine, che lo spazio vuoto sia in realtà pieno di particelle e antiparticelle virtuali”. La teoria unificata che la fisica cerca, tenta di riunire le grandi forze della natura per arrivare a comprendere la meraviglia del creato e la semplicità delle leggi su cui è fondato, per svelare il funzionamento dell’universo e per poterlo contemplare attoniti in tutta la sua bellezza ed eleganza. Anche l’uomo fa parte di questo scenario, egli non è solo spettatore passivo di un meccanismo che sta al di fuori di lui. Egli fa parte integrante del tutto, forse non è soltanto mèro osservatore degli eventi e della realtà del cosmo. La visione meccanicistica dell’universo è stata profondamente minata proprio dal principio di indeterminazione che, secondo l’interpretazione di alcuni ricercatori, dimostrerebbe che l’osser-vatore condiziona l’osservato ponendo l’uomo e più precisamente la coscienza dell’uomo stesso in una posizione interattiva rispetto al tutto. La ricerca della “grande teoria unificata” mira alla descrizione di tutte e quattro le forze fondamentali (nucleare forte, nucleare debole, elettromagnetica e gravitazionale) e di tutta la materia nell’ambito di un unico quadro concettuale onnicomprensivo, attraverso formule ed equazioni sempre più complesse, ma può tenere anche conto di ciò che è definito “principio antropico” enunciato per la prima volta negli anni '50 da R.H. Dicke ed elaborato nel 1986 da J.D. Barrow e da F.J. Tipler e, secondo il quale “la spiegazione del perché l’universo ha le proprietà che osserviamo sta nel fatto che, qualora queste proprietà fossero differenti, è probabile che la vita non sarebbe emersa e, di conseguenza, noi esseri umani non saremmo qui ad osservare tali differenze. La peculiarità che contraddistingue la combinazione di forze e particelle del nostro universo è quella di permettere il formarsi della vita. L’esistenza della vita, della vita intelligente in particolare, è un presupposto necessario per potersi domandare perché il nostro universo ha le proprietà che ha”. In altre parole le cose nel nostro universo sono come sono perché se fossero diverse noi non saremmo qui ad osservarle. L’essere umano è parte della natura, della terra, dell’universo e come tale rispetta i ritmi biologici e cosmologici propri del suo ambiente. Egli partecipa anche alle misteriose sincronie della natura: nel cervello milioni di neuroni agiscono in modo coordinato per regolare il respiro, mentre un metronomo naturale dà il ritmo al cuore; il corpo umano è come un’orchestra i cui musicisti sono le singole cellule che seguono il ritmo regolato dal loro DNA. Non soltanto nel corpo umano ma in tutti i fenomeni naturali le sincronie sembrano avere un regista o un coreografo. Sono significativi in tal senso i comportamenti di alcune specie di piante o di animali, eccone alcuni esempi: in Cina, dopo mezzo secolo di fioriture casuali, i bambù di una stessa specie fioriscono tutti nello stesso periodo, le farfalle monarca ogni anno partono in massa dal Canada dirette al Nuovo Messico, i polipi della barriera corallina australiana in una notte di luna piena di agosto su un fronte di duemila chilometri liberano simul-taneamente una nuvola di miliardi di uova. Per non parlare delle straordinarie coreografie di nuoto sincronizzato di alcuni pesci che si dispongono in banchi dalle forme più bizzarre, o delle formazioni complesse che assumono gli stormi mostrando la capacità di volare e di muoversi all’unisono coordinati da un regista invisibile. Anche gli elettroni in un superconduttore si muovono in sincronia, permettendo all’elettricità di fluire senza incontrare resistenza. Sembra esserci un impercettibile legame che unisce tutte le sincronie esistenti. “Molti organismi si comportano come oscillatori accoppiati cioè sistemi composti da molti elementi legati da una grandezza il cui valore in una unità del sistema influenzerebbe tutte le altre.” Il matematico Steven Strogatz, docente di matematica applicata alla Cornel University e al Massachussetts Insitute of Tecnology, dopo venti anni di studi, sostiene questa tesi; i risultati ottenuti dimostrano perciò che l’uno, non solo è parte del tutto ma ne condiziona il funzionamento globale in un interscambio di informazioni dando luogo alle manifestazioni osservabili. Il matematico si spinge ad affermare, altresì, che alcuni comportamenti umani stranamente ritmici potrebbero essere spiegati dallo studio e dall’applicazione di questa nuova disciplina divenuta nota con il nome di “ scienza dell’ordine spontaneo”. Le mode o i movimenti di pensiero sarebbero guidati dalle stesse leggi che regolano alcune sincronie naturali.Si Potrebbe anche azzardare l’ipotesi, quindi, che il sorgere repentino e quasi contemporaneo di varie culture storiche o di molteplici abilità umane, i tratti culturali e religiosi comuni alle civiltà superiori dell’antichità, potreb-bero scaturire dalle connessioni individuate dall’interpretazione della “scienza dell’ordine spontaneo”. Alla luce di questa nuova chiave di lettura degli eventi della natura, si può tentare di estendere il concetto dell’unione e dell’interazione della parte con il tutto anche a livelli più profondi. Non solo la materia, sia organica che inorganica, risponde-rebbe alle sincronie naturali, ma anche l’inconscio e di conseguenza il pensiero, la mente e taluni comporta-menti, sarebbero soggetti a tale osmosi, creando incredibili sinergie. Gli esseri umani sarebbero liberi nelle loro scelte ma collegati gli uni agli altri molto più di quanto si creda, impegnati nella danza individuale della vita ma ignari delle invisibili sincronie. Sapendo che la coscienza emerge proprio a causa delle complesse connessioni neurali che hanno sede nella corteccia cerebrale,si potrebbe stabilire un’analogia e giungere ad identificare l’universo con un grande organismo vivo e pulsante, un corpo fisico, ma anche una metamente di cui le capacità cerebrali rappresente-rebbero i neuroni. Infatti, come in un corpo ogni cellula contribuisce e partecipa al funzio-namento dell’organismo, così, sia nell’universo (infinitamente grande) che nell’atomo (infinitamente piccolo), ogni parte interagisce con il tutto. Purtroppo, tranne le incoraggianti previsioni fornite dalla teoria delle Superstringhe, secondo la quale la trama microscopica dell’universo è un intricato labirinto a più dimensioni in cui stringhe unidimensionali vibrano senza posa dando il ritmo alle leggi naturali, a causa dell’assenza di una teoria unificata, non possediamo ancora le equazioni adeguate e compatibili per entrambe le realtà. Forse, però, se ci si spingesse a considerare il Cosmo non solo come materia ma anche come spirito,inteso come essenza nascosta delle cose,soffio animatore del reale e insieme delle attività mentali, tenendo presente che gli elementi atomici si comportano sia come particelle sia come onde, si giustificherebbero anche le fluttuazioni quantistiche, le onde di probabilità e l’indeterminismo tipico dell’infini-tamente piccolo, poiché, così come la materia a grande scala risponde a leggi fisiche definite e prevedibili, la psiche presenta invece caratteristiche inde-finite ed imprevedibili. In quest’ottica la ricerca della grande teoria unificata, riservata allo specifico campo della fisica, potrebbe essere ampliata ad ulteriori territori d’inda-gine e curare l’aspetto interdisciplinare, ponendo l’attenzione anche alla biologia, all’etologia, alla neurofisiologia, alla psicologia etc. La scienza dell’ordine spontaneo ci ha suggerito un nuovo percorso da seguire ed un nuovo approccio alla spiegazione degli eventi della natura, attraverso l’attendibile ipotesi di correlazioni e collegamenti non solo fisici ma anche psichici. Il principio di indeterminazione ci ha fornito un indizio facendoci com-prendere che non esistono proprietà dell’universo a livello microscopico che si possono determinare con precisione e che l’osservatore interagisce con l’osservato. Sulla base di tali presupposti che rappresentano le ultime frontiere della ricerca scientifica, si può dedurre che l’uomo è una parte del tutto al quale partecipa e, come tale, quindi, probabilmente influenza le interazioni tra le particelle elementari, gli scambi molecolari e cellulari, l’inconscio collettivo, già ipotizzato da Jung. Per ora, nell’attesa di nuovi risultati sperimentali e di un più completo quadro teorico, possiamo solo accontentarci della certezza che nell’unico universo che osserviamo, tentiamo di comprendere e nel quale ci è consentito di vivere, determiniamo, attraverso le scelte che operiamo, il nostro destino e la nostra storia. Bibliografia: La teoria del tutto, Origine e destino dell’universo di S. Hawking, Rizzoli Sincronia di S. Strogatz, Rizzoli All'inizio d'un mondo-nuovo Una novella ateologico-scientifica intorno alla Teoria delle Superstringhe Domandarono a Dio se già avesse concepito il mondo e, se sì, in qual modo l'avrebbe creato. Dio disse di aver pensato a tutti i modi possibili per dar origine alle cose, agli animali e agli uomini pensanti. Ma le aveva scartate tutte. Infatti il modo di creare le pietre, le piante e gli animali poteva anche essere pensato e generato, ma per quanto riguardava gli uomini, in particolare per quel loro pensiero non c'era nulla da fare. Occorreva un inizio speciale che prendesse insieme il tutto, che oltrepassasse le cose, le piante, gli animali, poi ancora oltre, un tutto differente e nuovo, che forse non avrebbe mai potuto esistere. A meno che ... Ci pensò e ripensò, più e più volte, standosene fuori del tempo; gli capitò persino d'entrarci nel mezzo. Ma ne era dovuto uscire in tutta fretta con uno sforzo non da poco, per non rimanerne impigliato e vivo d'una vita non ancora possibile e vera. Non ne poteva proprio più. Come escogitare un'energia che desse conto d'un'attività - quella del pensare - che nulla aveva a che fare con quella del cosmo costituito da miliardi di anni di sola materia, energia non consapevole? Come dar conto di qualcosa di assolutamente differente da ciò che già si vede, che appare consolidato lì fuori, che i sensi così facilmente recepiscono? Come pensare a qualcosa che assomigliasse a quel suo pensiero e che persino lo trascendesse? .. Come precedere se medesimo? Si fermò di colpo. Ma sì: ecco lo spiraglio! Come precedere il mio stesso pensare? Come pensare qualcosa che mi antecede? Come concepire un universo che manca persino di questo mio fondamentale credere che qualcosa sia posto lì fuori ed esso sia vero ed io con esso, oppure il contrario? Come inventare un tempo che s'inveri antecedendo se stesso insieme con colui che lo ha inventato? Aveva trovato qualcosa da cui avrebbe potuto anche procedere. Che cosa? S'interrogava. Ma non riusciva ancora a progettare un alcunché. Ci pensò ancora una volta e poi per milioni e milioni di anni, in un tempo nuovo che tuttavia ancora non era stato generato in modo evidente e consapevole. Non veniva però per nulla a capo dell'idea appena abbozzata: non riusciva a trattenerla, ad elaborarla, renderla reale. Qualcosa che anteceda. Che sia oltre me. Al di là di Dio. Che cosa? Qualcosa che non c'è. Ma sì ... ecco qualcosa che non c'è! Qualcosa che manca. Ma allora anch'io non sono quel che sono e quel che penso. Nulla è così com'è. Non esiste neppure la cosa cui credere, quell'idea che desidero emanare: nulla m'impersona. Si fermò di botto: tutto l'universo che aveva immaginato e che ancora non era, anch'esso si era fermato di colpo in un punto, con l'aprirsi d'un varco. Una mancanza. La mancanza di Dio. La mancanza dell'Essere. Il venir meno del Creatore. Una vibrazione che, invece che uscire da qualcuno o da qualcosa, rientrasse. Ma in che cosa sarebbe rientrata? "In niente", fu la risposta che subito ritornò su se stessa, ricollocandosi in una nuova più feconda disposizione senza sollecitare alcun'altra soluzione. Una potentissima vibrazione di nulla. Un fortissimo richiamo al mancare. Un'eco profondissima di ritorno incominciò ad emergere. Un suono al negativo; un'assenza immane, un nulla che ondeggiava, una mancanza che si mostrava ... Dio era scomparso. In sua vece una vibrazione che non ne occupava né il posto né la maestà. Un silenzio che subentrava a se stesso. Un segno, un suono, un andirivieni di luci e assenze che transitavano sotto la pelle del mondo giammai creato. Era la vibrazione del niente. Un'antivibrazione, come fu chiamata dopo un tempo che era trascorso quasi all'infinito. Di più: un'antiantivibrazione come un suono che suona all'inverso costituendo una soglia sottostante al piano dell'ascolto consueto. Si fanno simultaneamente evidenti pacchetti d'una luce speciale che subito si dissolvono privati della loro medesima primigenia illuminazione: ma questa già è incrementata all'infinito d'un mancare nel mezzo similmente a una vibrazione che cessa, s'investe di nulla e si situa oscillando al-negativo. Da quel momento le creature, a poco a poco, nel giro di milioni e milioni di anni, si videro crescere, evolvere e uscire dalle antiche tane, dalle loro inveterate abitudini, e incominciare a pensare un pensiero sottile, come se da un cervello, da una formidabile neocorteccia s'iniziasse ad emanare la descrizione chiara e l'esistenza - per un lato evidenti e nouminose, ma per un altro in gran parte ancora oscure - d'un universo assai complesso che andava ricercando in ogni sua piega e ad ogni istante quella pulsazione di nulla assente, il solco d'una scintilla che in parte - o forse del tutto - esso aveva perduto, avendola tralasciata fin dal suo principiare; oppure - è un'ipotesi recente - si trattava d'un pensiero, un'entità davvero pregevole, una condizione dell'esistente che ancora non sapeva - o forse non voleva - né pensare né accettare nel profondo del cuore ed entro le cavità abissali del suo capo un universo già pronto a fare a meno di sé e di chi l'aveva creato. Le corde di Witten Nel 1984 Edward Witten concepì una nuova teoria fisica il cui principio risiede nel concetto di "corda". Secondo questa teoria la "materia" sarebbe costituita da un insieme di vibrazioni presenti nella parte più intima della struttura atomica . Se fosse possibile osservare le particelle elementari, come elettroni e quark, con un ingrandimento centomila miliardi di volte maggiore di quello che è consentito dalle attuali tecnologie, ci accorgeremmo che queste non si presentano come palline ma come linee o anelli sottilissimi o, appunto, come corde vibranti; per avere un'idea delle loro dimensioni basti pensare che un atomo, paragonato a una di queste corde, sarebbe grande quanto un sistema stellare! In questa teoria le caratteristiche delle particelle, compresi gravitoni, fotoni, bosoni e gluoni sarebbero l'effetto del modo con il quale queste minuscole stringhe possono vibrare, proprio come vibrano le corde di uno strumento musicale. Ciò che le vibrazioni producono, però, non sono note musicali, bensì particelle distinte a seconda delle frequenze di vibrazione. Le interazioni tra le varie particelle si presentano così come una sorta di fusione e scissione di corde. I ricercatori hanno costruito ben cinque diverse teorie sulle superstringhe che dovrebbero essere forme diverse di un'unica legge in grado di riassumerle tutte, una legge che dovrebbe essere formulata in dieci dimensioni spaziali e una temporale e che dovrebbe essere in grado di unificare la teoria della relatività generale e quella quantistica. Non sappiamo se questa complicata teoria potrà mai essere espressa da formule matematiche, ma l'intuizione appare straordinaria per procedere nella ricerca della struttura del cosmo. Fisica e Macrocosmo: Cosmologia [1] La cosmologia moderna nasce negli anni ’20 del secolo scorso come una delle prime applicazioni della Relatività Generale per lo studio delle proprietà del cosmo su larga scala. [2] Se l’astrofisica tradizionale studiava oggetti celesti singoli (e.g. stelle) o aggregati di tali oggetti su piccola scala (e.g., ammassi stellari, galassie), che caratterizzano solo le proprietà locali del cosmo, con una strumentazione più sofisticata è stato possibile sondare distanze più profonde, e quindi scale più estese I numeri entro parentesi quadre [#] fanno riferimento alle diapositive del file [nome].ppt della Lezione II. [3]. Più in generale, volendo descrivere le proprietà globali del cosmo, volendone dare cioè una descrizione in toto, indicheremo col termine “universo” il primo oggetto di indagine della cosmologia. Non potendo ricevere segnali da distanze maggiori di c x [età dell’universo], le proprietà globali si configureranno al più come proprietà medie della regione di universo visibile. Tali proprietà medie, oltre a rivestire un interesse scientifico intrinseco, definiscono la cornice in cui inquadrare lo studio della formazione e dell’evoluzione degli oggetti su scale più piccole, cioè stelle e galassie. In definitiva, l’oggetto di indagine della cosmologia sono gli ammassi di galassie, i superammassi di galassie, le strutture su larga scala, fino alla caratterizzazione delle proprietà medie dell’universo visibile [4]. Principio Cosmologico. Nel linguaggio della Relatività Generale, il primo obiettivo della cosmologia si traduce nella descrizione della geometria dello spazio-tempo su larga scala, o meglio nella descrizione della geometria media dell’universo visibile. [5] [isotropia] Nel 1969 Arno Penzias e Robert Wilson scoprono una radiazione isotropa di fondo, cioè proveniente da tutte le direzioni con la stessa intensità e non riconducibile ad alcun fenomeno astrofisico peculiare (i.e., emissione da un oggetto) ma caratterizzante l’aspetto dell’universo su larga scala, cioè su distanze profonde (“cosmologiche”), e quindi nelle sue prime fasi di vita. Essendo concentrata nella banda delle microonde, la si chiama Cosmic Microwave Background (CMB). Lo spettro è quello che tecnicamente si dice “di corpo nero”, un corpo caldo in equilibrio termodinamico che emette radiazione elettromagnetica in tutte le direzioni indistintamente. Lo spettro che si presenta all’antenna di Penzias e Wilson descrive il miglior corpo nero che sia mai stato osservato in natura, e ciò significa: la radiazione di origine cosmologica descrive un sistema, l’universo, in eccezionale equilibrio termodinamico al momento dell’emissione di quella radiazione e straordinariamente isotropo. In altri termini la geometria su larga scala, cioè la geometria media dell’universo, è caratterizzata da un elevato grado di isotropia. [6] [omogeneità] Muoviamo ora da una “dichiarazione di umiltà”, recuperando il principio copernicano: non c’è ragione di di pensare che noi (= la nostra galassia) occupiamo una posizione privilegiata. Più in generale, ogni punto è geometricamente equivalente (questa la definizione di ‘omogeneità’). Meglio ancora: tutti gli osservatori - definiti come quelli che esperimentano il moto “medio” di espansione osservato da Hubble a parte il proprio moto peculiare - sono equivalenti. Quindi tutti osserveranno lo stesso spettro della radiazione di fondo a microonde, cioè tutti osserveranno l’isotropia su larga scala. Quindi tutte le singole posizioni sono, su larga scala, equivalenti. In altri termini la geometria media dell’universo è caratterizzata da omogeneità. Le osservazioni confermano questa conclusione: vedi e.g. catalogo Lick e APM survey (ottico), Texas survey (radio). [7] Siamo così giunti al Principio Cosmologico: su larga scala l’universo è omogeneo e isotropo. Esso definisce la geometria media dell’universo visibile, o, rozzamente, la sua “forma” media. Un teorema di geometria differenziale garantisce poi che uno spazio omogeneo e isotropo possa essere descritto da tre sole geometrie (tre “forme”), discriminate dal parametro di curvatura (k); sono quelle che in uno spazio 2D descriverebbero la superficie si una sfera, di un piano o di un paraboloide iperbolico (la “sella”). Si parla allora di universo chiuso (k > 0), aperto (k < 0) o piatto (k = 0). [dinamica] Si dimostra inoltre che la “forma” deve mantenersi sempre uguale a se stessa; e’ ragionevole però chiedersi se sia ammessa una dinamica, in altri termini se le distanze tra gli oggetti distribuiti su larga scala debbano restare fisse o possano variare nel tempo (un’immagine infantile che può aiutare: un pallone resta sempre sferico se lo si gonfia). [8] Come già accennato, attraverso misure di magnitudine apparente e redshift, nel 1929 Edwin Hubble rileva un allontanamento delle galassie più distanti, secondo una legge di proporzionalità tra velocità di allontanamento e distanza dell’oggetto osservato. Data la provenienza del segnale dalle distanze più profonde, interpreta i suoi risultati come evidenza dell’espansione dell’universo: è messa in luce la natura dinamica della geometria dello spazio-tempo su larga scala. Il progresso tecnologico ha permesso di constatare che la legge di Hubble e’ di fatto una legge approssimata: potendo osservare oggetti di cui sia nota la luminosità intrinseca a distanze più profonde (nella fattispecie, supernovae di tipo IA), si riscontra una legge quadratica, deviazione dalla legge lineare trovata da Hubble. Se quest’ultima descrive un universo oggi in espansione (con velocità per unità di lunghezza data da H0), la legge quadratica aggiunge l’informazione che tale espansione è oggi accelerata (con “accelerazione”–q0). È una prova, questa, di come il miglioramento della sensibilità e risoluzione degli strumenti abbia mostrato una natura più ricca e complessa dell’oggetto di studio. [9] Relatività Generale. Il sistema che vogliamo descrivere, l’universo, e’ dominato dalle interazioni gravitazionali: sulle scale in gioco (distanze > 1Mpc) le interazioni deboli e forti non giocano ovviamente alcun ruolo, quelle elettromagnetiche possono avere degli effetti ma assolutamente marginali in prima approssimazione. La teoria della gravitazione più completa a disposizione è la teoria della Relatività Generale: essa dovrà rendere conto della geometria dello spazio e della sua dinamica nel tempo compatibilmente con le grandezze osservabili. Nella fattispecie, dovrà fornire delle equazioni che mettano in relazione le proprietà dello spazio-tempo sulle distanze cosmologiche a valori medi di grandezze osservabili. Le osservazioni di Hubble sono state cronologicamente la prima spinta all’interesse per la cosmologia, che all’inizio era semplicemente oggetto di speculazioni matematiche come applicazione della teoria della Relatività Generale. Il modo di procedere di quella fase è tipico della ricerca in fisica teorica, merita un’occhiata! L’idea fondamentale della Relatività Generale è descritta da equazioni (“equazioni di Einstein”) che mettono in relazione le proprietà geometriche dello spazio-tempo alla distribuzione di materia-energia, determinandone così l’evoluzione in modo reciproco. Sono costruite in modo da restituire la legge di gravitazione di Newton, le cui predizioni sono eccezionalmente corrette sulle distanze del sistema solare; come novità, soffrono di patologie predicendo l’esistenza di regioni singolari con densità di energia infinita (buchi neri e big bang), e prevedono fenomeni astrofisici non possibili nella vecchia teoria newtoniana (lenti gravitazionali e onde gravitazionali). - vedi Lezione 3 @ Macrocosmo. [simmetrie] Come tutte le equazioni, anche quelle di Einstein si semplificano notevolmente (e magari si possono addirittura risolvere!) se si fa qualche ipotesi opportuna e diventano più facilmente interpretabili da un punto di vista fisico. In termini più corretti, si semplificano se si assume qualche simmetria (così come, ad esempio, il moto lungo un cerchio è più semplice da descrivere di un moto caotico). Consideriamo in particolare la cosmologia d’inizio ‘900: mossi soprattutto da un interesse matematico per le soluzioni delle equazioni di Einstein, anche se debolmente garantiti dall’evidenza osservativa, possiamo valutare come si presentano le equazioni di Einstein facendo l’ipotesi che lo spazio-tempo da queste descritto sia invariante sotto la simmetria per traslazioni, cioè omogeneo, o invariante sotto la simmetria per rotazioni, cioè isotropo, o omogeneo e isotropo, o altro. In questo modo sono stati studiati numerosi modelli e per ciascuno di essi sono state calcolate le conseguenti proprietà fisiche osservabili (ed es. numero di oggetti per unità di volume). Torniamo a oggi. La simmetria per rotazioni e la simmetria per traslazioni, cioè isotropia e omogeneità, ora hanno dignità fisica sulle scale cosmologiche perché provate da osservazioni, tanto da aver meritato l’appellativo di Principio Cosmologico. Di conseguenza le equazioni di Einstein si semplificano lecitamente in una forma più leggibile: resta così definito il “Modello Cosmologico Standard”, il punto di partenza per costruire dei modelli ragionevoli del cosmo su larga scala. [10] Equazioni di Friedmann. Le equazioni di Einstein scritte sulla base del Principio Cosmologico furono formulate da Friedmann nel 1922. Esse descrivono (il quadrato della) velocità – H nelle equazioni- e accelerazione dell’universo, riconducibili alle grandezze osservabili magnitudine e redshift, come effetto della densità media di energia e della pressione media di tutte le sue componenti: radiazione, materia barionica (protoni, neutroni, atomi di idrogeno, ecc.; MACHO), materia non barionica (materia oscura: vedi Lezione 3 @ Macrocosmo), neutrini, ecc. Matematicamente sono delle equazioni differenziali, cioè equazioni la cui soluzione è una funzione: con la geometria in gioco la soluzione è il “fattore di scala” a(t), che definisce le distanze degli oggetti da noi come da qualunque altro osservatore (per il principio copernicano!), dunque l’estensione delle strutture sulle scale cosmologiche e quindi, rozzamente, il “raggio” dell’universo visibile. Fissati i parametri cosmologici e H a un dato istante, il fattore di scala a(t) assume una forma ben definita come funzione del tempo t (un esempio: per il “modello Standard Cold Dark Matter”, SCDM, in grado di spiegare le osservazioni compiute fino ad una decina di anni fa nell’ipotesi di universo piatto, si ricava a(t) = [costante] t2/3). Tutte le grandezze osservabili che descrivono la cinematica e la dinamica dell’universo sono funzioni del fattore di scala, o equivalentemente (composizione di funzioni!) del redshift z:* risulta infatti (1 + z) = 1/a – relazione che permette un diretto legame tra una grandezza osservabile, la lunghezza d’onda, e la grandezza caratterizzante la geometria dello spazio-tempo. Secondo la relazione 1/a = (1+z) resta fissata allora la dipendenza spazio-temporale delle grandezze osservabili: ad esempio tempo e redshift, t=t(z), densità di energia media e il redshift, =(z), temperatura media e reshift, T = T(z), numero di oggetti e redshift, N = N(z). Dalla misura un osservabile e del corrispondente redshift si possono inferire i valori dei parametri cosmologici coinvolti: in questo modo si testa il modello confrondandone le previsioni con previsioni di altra natura. Un esempio: il modello SCDM prevede che l’età dell’universo sia inferiore a quella degli oggetti più vecchi in esso contenuti, gli ammassi globulari - stimata per altra via - il che è evidentemente assurdo. Un modello più corretto dovrà ovviare a questo difetto. Quali le principali conseguenze delle soluzioni delle equazioni di Friedmann? [11] 1. Big Bang. Matematicamente le equazioni differenziali richiedono che siano definite delle condizioni iniziali, cioè che il valore iniziale della funzione incognita (e delle sue derivate…) sia preassegnato. Nel caso delle equazioni di Friedmann, per convenienza, cioè per riuscire a risolverle, si usa porre a(0) = 0: significa dire che all’istante iniziale t = 0 il “raggio dell’universo” è nullo. Ciò sembra dire che procedendo all’indietro nel tempo tutta la materia-energia fosse concentrata in un punto geometrico e che ad un certo istante (t = 0) il tutto ha cominciato a prendere forma: il Big Bang. Ovviamente questa è un’approssimazione di comodo, utile solo a poter definire una soluzione, cioè un modello, la cui validità va limitata a descrivere il comportamento dell’universo a tempi successivi (t > 0) e dunque su regioni spazialmente estese, cioè di interesse fisico e non geometrico (il punto geometrico è fisicamente irrilevante). Il Big Bang è dunque solo l’effetto dell’estrapolazione di un risultato della relatività generale in situazioni dove questa teoria non è più valida. Einstein stesso scrisse: “La teoria è basata sulla separazione dei concetti di campo gravitazionale e materia. Nonostante questa possa essere una valida approssimazione per campi deboli, può presumibilmente essere abbastanza inadeguata per densità di materia molto alte. Non si può pertanto assumere la validità delle equazioni per densità di energia molto alte ed è solo possibile che in una teoria unificata non ci debbano essere tali singolarità” * Il redshift è definito dal rapporto (oss - em) /em , dove è oss la lunghezza d’onda della radiazione elettromagnetica emessa dalla sorgente luminosa misurata dall’osservatore (noi) e em quella misurata nel sistema di riferimento solidale con la sorgente, in moto rispetto all’osservatore. Data la natura relativistica del segnale (fotoni!), l’effetto doppler così manifestato non distingue tra moto dell’osservatore o della sorgente: è rilevante solo il moto relativo dei due. [“The Principle of Relatività”, Methuen, London, 1950]. In tali regimi la fisica teorica moderna usa appellarsi alla Gravità Quantistica o alla Teoria delle Superstringhe, tanto lontane da una formulazione definitiva quanto matematicamente stimolanti (e ricordiamo che interessi esclusivamente matematici stimolarono le prime soluzioni delle equazioni di Einstein!). 2. Geometria 3D. Come visto prima, solo tre geometrie sono compatibili con uno spazio omogeneo e isotropo. Per ciascuna di esse sono univocamente definiti lunghezza di un segmento e angolo tra due rette in termini del fattore di scala a(t); l’estensione di un oggetto, ad es. un ammasso di galassie, o l’angolo sotteso da due oggetti, ad es. individuato dalla traiettoria della luce emessa da due quasar distanti, dipende dalla geometria media e quindi, attraverso le equazioni di Friedmann, dalla distribuzione di energia media dell’universo, cioè dai parametri cosmologici. La corrispondenza biunivoca tra geometria dell’universo e contenuto di materia-energia è manifesta riscrivendo le equazioni di Friedmann in termini della densità critica cr, definita come valore della densità in corrispondenza del quale la geometria spaziale è piatta (k = 0), cioè quella euclidea. Scrivendo = cr, la prima equazione di Friedmann diventa 1 = - kc2 / (H2 a2): risulta allora k = 0 se e solo se = 1, k = +1 se e solo e > 0 e k = -1 se e solo se < 0. Osservazione: da questa equazione che si deduce che il segno di k resta costante nel tempo. 3. CMB. [12] Si è già parlato della radiazione cosmica di fondo (CMB) interessati alle informazioni sulla geometria che da essa si possono dedurre. Consideriamo ora la sua origine fisica un po’ più in dettaglio, alla luce della storia termica dell’universo. Si può immaginare che nei primi istanti di vita l’universo fosse costituito da una miscela di materia (protoni, elettroni, ecc.) e radiazione elettromagnetica in equilibrio termodinamico sotto forma di “plasma” – uno stato che sappiamo ben descrivere con le leggi dell’elettromagnetismo e della fluidodinamica. Come osservato da Hubble nel 1929, l’universo è in espansione; per effetto dell’espansio-ne ad un certo istante la radiazione elettromagnetica e la materia non interagisco-no più come durante l’iniziale fase di plasma (tecnicamente, si disaccoppiano). Quella radiazione, a questo punto libera di propagarsi, da allora giunge alle nostre antenne praticamente senza più interagire con la materia, mantenendo l’impronta delle condizioni di equilibrio in cui si trovava l’universo nell’istante in cui si è disaccoppiata: deve essere caratterizzata cioè da uno spettro di corpo nero corrispondente alla temperatura di disaccoppiamento (~ 3000 K). Le equazioni di Friedmann devono predevere come il valore di quella temperatura varia con il redshift, come effetto dell’espansione adiabatica dell’universo: il valore predetto per z = 0, cioè misurato oggi, è proprio quello osservato, 2.728 ± 0.002K! Verso la complessità. Sulla base dei grafici z e z-T, è possibile distinguere delle fasi nella storia evolutiva dell’universo. Una di particolare interesse l’abbiamo appena reincontrata, riguarda l’”istante” dell’emissione della radiazione cosmica di fondo a microonde; l’elevato grado di isotropia di questa radiazione si è dimostrato di fondamentale importanza per la geometria su larga scala. Ma la radiazione del CMB è realmente isotropa? Eventuali anisotropie cosa segnalerebbero? Consideriamo due aspetti di rilievo in cosmologia: lo studio delle anisotropie della radiazione cosmica di fondo (1) quale attuale strumento per la misura ad elevata precisione di alcuni parametri cosmologici e (2) in quanto punto di partenza del processo fisico che domina almeno il 90% del tempo di vita dell’universo, la formazione e l’evoluzione delle strutture cosmiche, da galassie ad ammassi e superammassi di galassie fino alle strutture su larga scala. [12] Anisotropie del CMB. [anisotropia di dipolo] Una differenza di temperatura dal valor medio di una parte su mille è rilevata in due regioni opposte sulla sfera celeste, vale a dire separate da un angolo di 180°. Non è di origine cosmologica, ma va imputata all’effetto Doppler dovuto al moto peculiare della nostra galassia: la radiazione cosmica di fondo proveniente dalla regione verso cui ci muoviamo (il Grande Attrattore) appare “più blu”, quella proveniente dalla regione da cui ci allontaniamo appare viceversa “più rossa”, come se l’universo fosse più caldo in una direzione e meno in quella opposta. Un “osservatore cosmologico” a riposo sarebbe quello che non osserva tale anisotropia. [anisotropie d’ordine superiore] Lo strumento DMR, montato sul satellite COBE che per la prima volta rileva lo spettro di corpo nero della radiazione cosmica di fondo con eccezionale precisione, misura delle differenze di temperatura dal valore medio pari ad una parte su 105. Tali deviazioni dall’isotropia risultavano su una scala angolare di circa 7°, limite dovuto al potere risolutivo dello strumento: ciò lascia intendere che strumenti sensibili a scale angolari inferiori possano scoprire un aspetto ancora più articolato. Il più recente risultato in questa direzione è stato raggiunto dal satellite WMAP, che ha ottenuto delle immagini straordinariamente dettagliate; immagini ancor più dettagliate saranno ottenute dal satellite PLANCK, il cui lancio è programmato per il 2007. Molte delle informazioni codificate nelle anisotropie di temperatura su piccola scala sono di origine cosmologica, ad esempio la curvatura media dell’universo e i parametri di densità di materia oscura e materia barionica. Questo segnale se ne sovrappongono altri di origine non cosmologica, ad esempio dovuti all’emissione di galassie vicine o della polvere del mezzo intergalattico: lo spettro complessivo è uno strumento per studiare anche questi processi astrofisici. [12] [missione Boomerang] Dati eccezionalmente precisi sulle anisotropie della radiazione cosmica di fondo sono stati ottenuti dalla missione Boomerang, un telescopio montato su un pallone aerostatico fatto volare al Polo Sud nel 1998. Il telescopio ha osservato solo una regione di cielo, ciononostante le informazioni dedotte sono state molto accurate. Il risultato più rilevante è stato la misura della curvatura dell’universo inferita dalla separazione angolare media dei picchi di intensità corrispondenti alle regioni più calde (10K oltre la temperatura media di 2.7K). Con un errore sperimentale di circa il 5% quei dati risultano compatibili con un modello di universo piatto, la geometria spaziale media è cioè quella euclidea. Questo effetto è in totale accordo con l’ipotesi dell’inflazione primordiale, una fase di espansione accelerata in cui sarebbe incorso l’universo nei primi istanti di vita, teorizzata per risolvere alcuni problemi del Modello Cosmologico Standard. [14] Formazione delle strutture cosmiche: ammassi di galassie, superammassi di galassie, strutture su larga scala. Dopo l’oscura e affascinante fase iniziale dominio della Gravità Quantistica, e la successiva inflazione, raffreddandosi l’universo si assesta in uno stato più familiare, nel quale dominano le interazioni forti, deboli ed elettromagnetiche descritte dal Modello Standard delle Particelle Elementari. Si formano prima i quark, che condensano poi in adroni (essenzialmente protoni e neutroni), che a loro volta si fondono in nuclei di atomi leggeri (nucleosintesi primordiale). Sulla base della consolidata teoria che descrive questi processi, è possibile predire l’abbondanza degli elementi leggeri così formati: misure su scale cosmologiche delle abbondanze di idrogeno, elio, litio, ecc., neutri e ionizzati, sono in accordo con le stime teoriche, confermando la previsione del raffreddamento dell’universo in virtù della sua espansione così come descritta dal Modello Cosmologico Standard. [15] La materia così formata, in equilibrio con la radiazione elettromagnetica, è ancora distribuita sostanzialmente in modo omogeneo e isotropo. La debole anisotropia della distribuzione di materia, che è quella letta nelle anisotropie della radiazione cosmica di fondo di ordine 10-5, è tuttavia in grado di accendere il meccanismo di collasso gravitazionale: se le fluttuazioni di materia sono sufficientemente vicine, in virtù della loro massa possono vincere il moto di espansione reciproco e dar luogo alla formazione delle strutture cosmiche. Si entra così nella fase in cui dominano le interazioni gravitazionali. [regime lineare e non-lineare] [16] Da principio sono molto deboli: fintanto che le fluttuazioni della densità di materia sono piccole rispetto al valore medio, le relazioni matematiche che descrivono il processo di collasso possono essere semplificate notevolmente, fornendo una soluzione analitica. Quando le concentrazioni di materia sono elevate, una trattazione analitica non è più sufficiente: si rende necessario l’uso del calcolo numerico per ottenere soluzioni “esatte”. In qualche modo si può pensare a questo approccio come ad un laboratorio: variando tutti i parametri liberi, si realizzano configurazioni da confrontare con quelle reali osservate con i telescopi, chiamando in causa solo equazioni che descrivono processi ben noti (F = ma = -GMm r/r3 !). La natura della materia su cui agiscono le forze gravitazionali definisce la storia di formazione delle strutture cosmiche. Ad esempio, scenari in cui ci sia solo materia oscura “calda” (la cui massa è molto piccola, e.g. 1eV/c2), prevedono la formazione prima di strutture su larga scala, a cui seguirebbe per frammentazione la formazione di strutture su scale più piccole (galassie e ammassi di galassie): il quadro così dipinto è però poco compatibile con le osservazioni. Scenari con solo materia oscura “fredda” (cioè non relativistica) prevedono invece prima la formazione di piccole strutture, poi di quelle su scale maggiori: anche così non si ottengono risultati in pieno accordo con le osservazioni. [17] Il modello che descrive meglio quanto effettivamente osservato si avvicina a quest’ultimo, che deve però essere modificato con il coinvolgimento di una costante cosmologica () – a questo livello è solo un parametro geometricamente compatibile con le equazioni di Einstein, ma negli ultimi anni sta attirando molta attenzione per effetti direttamente misurati e per l’inquadramento in teorie fondamentali che si propongono di estendere il Modello Standard delle Particelle Elementari. Questi modelli (CDM) prevedono una storia di formazione delle strutture di tipo gerarchico: prima si sarebbero formate le strutture di piccola massa, le galassie, successivamente strutture più massive, ammassi e superammassi di galassie. Le prime galassie osservabili, sedi di processi astrofisici ad alta energia (quasar, in sigla QSO), risulterebbero osservabili a valori di redshift z 6: è quanto effettivamente osservato di recente dal telescopio spaziale Hubble! Questo modello di formazione risulta compatibile con le osservazioni. – vedi anche [20-21-22-23-24-25] [18] ICM. Finora ci siamo concentrati sulle sorgenti luminose. È ovvio, tuttavia, che la maggior parte dello spazio è occupata da regioni vuote, o più correttamente regioni in cui la densità di materia è inferiore al valor medio; la loro evoluzione è regolata dalle stesse leggi che descrivono la dinamica degli oggetti collassati. Queste appaiono buie nella banda dello spettro visibile: osservandole invece nell’infrarosso o nella banda X, manifestano una natura ben più ricca. Su distanze cosmologiche, risultano di interesse le regioni tra gli ammassi di galassie (Intra Cluster Medium, ICM). Sono regioni estremamente calde, sedi di interazioni elettromagnetiche e processi d’urto tra elettroni e atomi pesanti ionizzati: il risultato è uno spettro caratteristico, dalla cui forma è possibile dedurre la temperatura di quelle regioni e la densità media di elettroni e ioni pesanti in esse contenuti. Lo studio di simulazioni e il confronto con i dati osservativi costituiscono lo strumento per l’indagine di queste strutture e il ruolo giocato contemporaneamente dalla fluidodinamica e dall’elettrodinamica (collettivamente magnetoidrodinamica, un ramo della fisica dei plasmi). – vedi anche [21] [26-27] Un altro strumento di indagine del mezzo inter cluster, nella fattispecie la distribuzione dell’elemento più abbondante sulle scale cosmologiche, l’idrogeno, è lo studio degli spettri dei quasar più distanti (circa z > 3). La radiazione da questi emessa attraversa lo spazio fino a raggiungere i nostri telescopi – spostata verso lunghezze d’onda maggiori per effetto dell’espansione dell’universo. Nell’attraversamento di regioni con idrogeno neutro, viene assorbita la componente di questa radiazione in grado di portare l’idrogeno neutro dallo stato fondamentale al primo stato eccitato, cioè i fotoni con lunghezza d’onda pari a 1216Å. La lettura dello spettro di assorbimento permette una mappatura della distribuzione dell’idrogeno lungo la linea di vista: dalla posizione della riga di assorbimento si deduce il valore del redshift della regione assorbente, cioè la sua distanza da noi; dall’ampiezza della riga di assorbimento si risale invece alla densità di idrogeno di quella regione. [28] Confrontando gli spettri di assorbimento di due o più quasar angolarmente vicini è poi possibile una mappatura bi- o tri-dimensionale della distribuzione dell’idrogeno neutro. Ancora una volta, le simulazioni numeriche costituiscono il “laboratorio” per esplorare questi sistemi. E si ricordi: l’astronomia non è una scienza galileiana! [19] Epilogo. Si conclude così questa rapida e sicuramente non esaustiva panoramica u quell’affascinante ramo delle scienze fisiche e astronomiche che passa sotto il nome di cosmologia: lo strumento con cui raccontare la storia dell’universo dai primi istanti di vita fino ad oggi, in un quadro che vede coinvolti relatività generale, fisica delle particelle elementari, elettrodinamica e fluidodinamica, che lascia spazio all’introduzione di nuove teorie e nuova fisica, che fa uso dei più raffinati strumenti della statistica e del calcolo numerico e che stimola il progresso tecnologico per l’esplorazione del cosmo. Tutto ciò dovrebbe almeno suscitare curiosità e stimolare l’immaginazione. E forse aveva ragione Einstein: “Imagination is more important than knowledge”. Aforismi Paul Davies Un fisico alla ricerca di Dio Documenti correlati I teologi affermano che l'universo ha molti tratti "contingenti". Intendono dire che presenta dei fenomeni che devono essere spiegati con il richiamo a qualcosa d'altro, con delle cause esterne all'universo. Certamente l'esistenza degli esseri umani, come quasi tutto ciò che possiamo osservare nell'universo, è, in questo senso, contingente. Dunque, ci deve essere stato un atto di intellegenza che ha selezionato l'enorme varietà di universi possibili. Deve essere stato, in qualche modo, "scelto" un universo, o una gamma ristretta di universi. Non é illecito ritenere che questa selezione si situi al di fuori o al di là del dominio della fisica, nello spazio della metafisica. Così da un punto di vista religioso si può dire che questa selezione è stata fatta da Dio. Molti scienziati non amano questa spiegazione ed affermano che dobbiamo ricercare un meccanismo di selezione del tutto interno all'universo. I cosmologi di oggi, però, si richiamano alla cosiddetta "fisica dei quanti" e con essa cercano di rendere ragionevole l'idea teologica di una creazione dal nulla dell'universo. La fisica dei quanti si basa sul cosiddetto "principio di indeterminazione" di W. Heisenberg. Questo principio ci dice che tutto ciò che può essere misurato o osservato è soggetto a fluttuazioni spontanee: possono accadere, cioé, cambiamenti improvvisi senza ragione alcuna. Possiamo osservare in laboratorio come il fenomeno dei quanti faccia accadere delle cose senza ragione apparente. Ad esempio, il decadimento di un nucleo radioattivo è qualcosa che accadrà in un certo momento particolare senza ragioni apparenti. Noi non possiamo dire in anticipo perché o quando il nucleo decadrà, perché ciò accade in un momento piuttosto che in un altro. In altre parole, per la fisica dei quanti c'è una imprevedibilità inerente alla natura. Diviene così possibile per la prima volta concepire un universo che nasce per una sorta di fluttuazione quantistica: la sua origine è un evento senza causa. Nella fisica pre-quantistica non era concesso avere degli eventi senza cause. Tutto ciò che avveniva nell'universo doveva avere una causa antecedente ben definita, mentre nella fisica quantistica è possibile che si producano degli eventi senza una causa antecedente ben definita. Se questo evento è la nascita dell'universo, esso non costituisce più per noi un problema: l'universo semplicemente nasce venendo fuori dal nulla. Dobbiamo ricordarci che già molti secoli or sono Sant'Agostino diceva che il mondo é nato con il tempo e non nel tempo. E' degno di nota che la moderna immagine cosmologica riprenda questo punto di vista. Oggi sappiamo che spazio e tempo sono parte dell'universo fisico e sono nati con esso. Vorrei esprimere la cosa in questi termini: prima di Einstein si era portati a pensare allo spazio e al tempo come ad un'arena in cui si rappresentava il grande dramma della natura. Noi sapppiamo ora che spazio e tempo appartengono in effetti al "cast" di questo dramma: essi stessi partecipano al dramma, sono attori nel grande dramma della natura che si svolge di fronte a noi. Non si può davvero parlare della nascita della materia senza parlare della nascita dello spazio e del tempo. L'idea della nascita del tempo é molto originale. Essa comporta una conseguenza: domande del tipo "Cosa accadde prima del "big bang"?", oppure "Che cosa ha causato il "big bang"?", risultano prive di significato, perché non c'era un "prima", non c'era una causa antecedente come la intende la fisica tradizionale. Inoltre, se spazio e tempo sono elementi dell'universo, possono essere allungati e accorciati perfino in laboratorio. Possiamo manipolare spazio e tempo allo stesso modo in cui possiamo manipolare la materia. Se essi sono parte, per usare un termine religioso, della "creazione", allora devono esser stati creati. Io personalmente non credo che ci sia modo di dare un senso al mondo senza supporre che spazio e tempo, nel "big bang", siano stati creati con la materia e l'energia originarie. Tratto dall'intervista "Riflessioni sulla cosmologia contemporanea" - Venezia, Università Ca' Foscari, sabato 16 dicembre 1989 Aforismi Paul Davies Scienza e tecnica Documenti correlati DOMANDA Professor Davies, condivide la distinzione fra scienza e uso della scienza? DAVIES Sicuramente. Penso che, spesso, si tenda ad equiparare scienza e tecnologia. La mia carriera è stata contrassegnata dal tentativo di comprendere la scienza come un mezzo per svelare i segreti della natura. Il mio fine è sempre stato capire come funziona il mondo e qual è il suo significato. E credo sia questo un uso molto nobile della scienza. Ma vi esiste anche la scienza come fondamento della tecnologia. Come ho già avuto modo di spiegare, non credo che possiamo fare a meno della tecnologia. La tecnologia non è intrinsecamente buona o cattiva, è buona o cattiva a seconda dell’uso che ne vien fatto. Molti cercano di giustificare il fatto di fare scienza in base ai suoi risultati tecnologici. Secondo me la scienza è veramente un’impresa più profonda. Essa è per sua natura fondamentalmente culturale. E’ da porre accanto alle arti, ed è qualcosa che vale la pena di fare per se stessa. Ma ovviamente la scienza è costosa, deve pagare un prezzo per il proprio sviluppo e lo fa attraverso i suoi prodotti tecnologici. Ma è nell’era della tecnologia e non in quella della scienza come tale che si nascondono i pericoli. La scienza è semplicemente un nobile cammino verso la conoscenza. Invece, la scienza, in quanto strumento di creazione della tecnologia, è pericolosa: per questo dobbiamo non già arrestarci, ma essere consapevoli dei suoi pericoli e creare le istituzioni e la regolamentazione adatta per esser sicuri che essa non sfugga mai al controllo.Credo sia finita ormai da molto tempo l’epoca in cui gli scienziati potevano permettersi di dire semplicemente che era colpa dei politici. Una volta fatta una scoperta scientifica è inevitabile che prima o poi qualcuno voglia sfruttarla. Il problema è che non possiamo sapere in anticipo quale filone della ricerca probabilmente si dimostrerà pericoloso e quale invece benefico. Ora io non credo che possiamo tornare sui nostri passi. Coloro che vedono nella scienza puramente qualcosa di funesto e che vorrebbero in qualche modo tornare all’epoca medioevale, alla società pre-tecnologica, sono in grave errore, sono fuori strada. Ormai è troppo tardi, non possiamo fare a meno della scienza, dipendiamo dalla scienza e dalla tecnologia in talmente tanti modi per la nostra esistenza che siamo costretti ad accettarla, nel bene e nel male. Io credo sia giunto il momento quindi per gli scienziati stessi di comportarsi, se mi è concesso esprimermi in questi termini, come poliziotti rispetto alle proprie scoperte. Non disponiamo ancora di istituzioni che svolgano questo compito, anche se se ne intravede l’inizio, ad esempio nell’area della biotecnologia, nel modo in cui gli scienziati si autodisciplinano al fine di non creare mostri che verrebbero poi abbandonati, finendo al di là di ogni controllo e minacciando le nostre vite. Spero che questa idea degli scienziati che si assumono la responsabilità per il loro lavoro si diffonda anche in altri campi. Ma in definitiva, naturalmente la società nel suo insieme deve accettare che se si vogliono trarre benefici dalla scienza, si deve anche imparare a convivere con i suoi pericoli. Parte 1: le osservazioni cruciali Fino a qualche centinaio di anni fa, il sistema solare e l'Universo erano equivalenti nella mente degli uomini dotti, dunque la scoperta che la Terra non è il centro del sistema solare fu un passo decisivo nello sviluppo della cosmologia. Inoltre all'inizio del XX secolo Shapley stabilì che il sistema solare si trovava lontano dal centro della Via Lattea. Dunque negli anni '20, la situazione scientifica e culturale era matura per le osservazioni cruciali che avrebbero portato al modello del Big Bang. Il redshift delle galassie Nel 1929 Hubble annunciò che il redshift delle galassie era proporzionale alla loro distanza. Il redshift di una galassia è un indice della sua velocità radiale, e può essere determinato utilizzando uno spettrografo per misurare lo spostamento Doppler. Il grafico seguente mostra i dati di Hubble del 1929: La pendenza della retta che interpola queste misure è ora nota come costante di Hubble H0. Dato che sia i kilometri che i Megaparsec sono unità di distanza, l'unità di misura di H0 è 1/tempo, ed il fattore di conversione è dato da 1/H0 = (978 miliardi di anni)/(H0 in km/s/Mpc) Per questo motivo, il valore di 464 km/s/Mpc ottenuto da Hubble era equivalente a circa 2 miliardi di anni. Dal momento che tale valore dovrebbe approssimare l'età dell'Universo, e noi sappiamo (era noto anche nel 1929) che l'età della Terra supera i 2 miliardi di anni, il valore di H0 trovato da Hubble portò ad un generale scetticismo nei confronti dei modelli cosmologici, e fornì una motivazione a favore del modello stazionario. Tuttavia, pubblicazioni successive misero in luce alcuni errori: Hubble aveva confuso due tipi diversi di variabili Cefeidi usate per calibrare le distanze, inoltre aveva considerato come stelle molto luminose regioni HII in galassie lontane. La correzione di questi errori portò ad un ridimensionamento verso il basso del valore della costante di Hubble. Attualmente ci sono principalmente due gruppi scientifici che utilizzano le Cefeidi per determinare H0: l'HST Distance Scale Key Project team (Freedman, Kennicutt, Mould et al) che ha ottenuto il valore di 68÷78 km/s/Mpc, mentre il gruppo di Sandage, che usa anche osservazioni del telescopio spaziale per calibrare supernovae di tipo Ia, ha ottenuto il valore di 57 ± 4 km/s/Mpc. Altri metodi per determinare la scala di distanza includono il ritardo temporale nelle immagini multiple delle lenti gravitazionali e l'effetto Sunyaev-Zeldovich negli ammassi distanti: entrambi sono indipendenti dalla calibrazione delle Cefeidi e forniscono valori consistenti con la media dei due gruppi che usano HST: 65 ± 8 km/s/Mpc. Con questo valore di H0, l'età approssimativa dell'Universo 1/H0 è di 15 miliardi di anni. I dati di Hubble del 1929 erano, dal nostro punto di vista, abbastanza scadenti. Infatti le singole galassie hanno velocità peculiari di diverse centinaia di km/s, e i dati di Hubble arrivavano solo a 1.200 km/s. Ciò ha indotto alcuni a proporre una legge quadratica redshift-distanza, ma i dati illustrati di seguito sulle supernovae di tipo Ia da Riess, Press and Kirshner (1996) si estendono oltre 30.000 km/s e forniscono una spettacolare conferma della legge di Hubble, La retta interpolante in questo grafico ha una pendenza di 65 km/s/Mpc. Come già detto, noi misuriamo la velocità radiale delle galassie usando lo spostamento Doppler. Dato che praticamente tutte le galassie si allontanano e dunque mostrano uno spostamento verso il rosso delle righe spettrali, molto spesso si usa l'espressione redshift. Il redshift z è definito in modo che: dove lambda è la lunghezza d'onda della riga o della caratteristica dello spettro di un oggetto celeste. Sappiamo dalla relatività che il redshift è dato da dunque, ricaviamo v = cz + termini di ordine superiore Il pedice "0" in H0 (pronunciato "acca zero") indica il valore attuale di una quantità variabile nel tempo. Dal momento che 1/H0 è approssimativamente l'età dell'Universo, il valore di H dipende dal tempo. Un'altra quantità con il pedice zero è t0, l'età dell'Universo. La legge lineare redshift-distanza trovata da Hubble è compatibile con la visione copernicana dell'Universo: la nostra collocazione non è speciale. Innanzitutto nota che la velocità di allontanamento è una quantità simmetrica: se A vede B allontanarsi, allora B vede A allontanarsi, come illustra questo disegno: basato su uno schizzo di Bob Kirshner. Poi considera il seguente diagramma spazio-temporale che mostra numerose galassie vicine che si allontanano da noi. Il diagramma sopra è rappresentato dal nostro punto di vista costituito dalla galassia A (la linea d'universo blu) in basso dal punto di vista della galassia B (la linea d'universo verde) I diagrammi sono identici, tranne per il fatto che i nomi delle galassie sono diversi. Invece, la legge quadratica v(sq) = D2 quando si cambia il punto di vista, si trasforma in una legge anisotropa non quadratica, come mostrato di seguito Per questo motivo, se ammettessimo una relazione quadratica tra velocità e distanza, allora un osservatore in un'altra galassia scoprirebbe una legge di tipo diverso - per di più tale legge cambierebbe al variare della direzione. Dunque B misurerebbe velocità radiali molto più alte nella direzione "piu" rispetto alla direzione "meno". Questo effetto consentirebbe di identificare il "centro dell'Universo" trovando il punto dal quale la relazione redshift-distanza appare la stessa in ogni direzione. Dato che effettivamente noi verifichiamo che è così, o tale relazione è lineare, oppure ci troviamo proprio nel centro dell'Universo, e ciò è decisamente anti-Copernicano. La legge di Hubble genera una espansione omologa che non cambia la forma degli oggetti, mentre invece altre possibili relazioni velocità-distanza producono distorsioni durante l'espansione. La legge di Hubble definisce pertanto un sistema di riferimento privilegiato per tutti i punti dell'Universo. Un osservatore in moto con velocità molto maggiore del flusso di Hubble potrebbe misurare dei blueshift in avanti e dei redshift all'indietro, invece che i soliti redshift proporzionali alla distanza in tutte le direzioni. Per questo motivo noi possiamo misurare il nostro moto relativamente al flusso di Hubble, che è anche il nostro moto relativo all'Universo visibile. Un osservatore comovente è a riposo in questo speciale sistema di riferimento. Il nostro sistema solare non è proprio comovente: abbiamo una velocità di 370 km/s relativa all'Universo visibile. Inoltre il Gruppo Locale di galassie, che include la Via Lattea, sembra muoversi alla velocità di 600 km/s relativamente all'Universo visibile. La distribuzione delle galassie Hubble ha anche misurato il numero di galassie in diverse direzioni e con diverse luminosità. Egli trovò approssimativamente lo stesso numero di deboli galassie in ogni direzione, anche se c'era un evidente eccesso di galassie luminose nell'emisfero boreale celeste. Quando una distribuzione è la stessa per ogni direzione, si dice isotropa. E quando Hubble cercò galassie con un flusso luminoso più intenso di F/4 egli trovò approssimativamente 8 volte il numero di galassie rilevato quando cercava quelle con flusso più intenso di F. Dato che un flusso luminoso 4 volte più piccolo implica una distanza doppia, e quindi un volume 8 volte maggiore, ciò indica che l'Universo è omogeneo (ha densità uniforme) su larga scala. La figura qui sopra a sinistra mostra un pattern omogeneo ma non isotropo e a destra uno isotropo ma non omogeneo. Se una figura è isotropa da più di un punto (due, se sferica), allora deve essere anche omogenea. Ovviamente l'Universo non è completamente isotropo ed omogeneo, poiché contiene regioni dense come la Terra. Ma può esserlo in senso statistico, come questo campo simulato di galassie (24 kb), il quale è omogeneo ed isotropo, una volta trascurati i dettagli fini. Peacock e Dodds (1994, MNRAS, 267, 1020) hanno indagato le fluttuazioni di densità relative nell'Universo vicino in funzione del raggio di un filtro passa-basso, e hanno ricavato questo grafico: Dunque per regioni più estese di 100 Mpc l'Universo è omogeneo entro qualche punto percentuale. Le Redshift survey di regioni estremamente ampie confermano questa tendenza verso l'omogeneità su larga scala. La radiazione cosmica di fondo La visione di un Universo omogeneo e isotropo ha ricevuto una notevolissima conferma dopo l'annuncio di Penzias e Wilson della scoperta di una radiazione cosmica di fondo (Cosmic Microwave Background abbreviata altrove come CMB) nel 1965. Essi, lavorando ad una antenna per microonde, osservarono un eccesso di flusso alla lunghezza d'onda di 7.5 cm equivalente ad una radiazione di corpo nero con una temperatura di 3.7 ± 1 gradi Kelvin. Numerosi gruppi scientifici hanno misurato l'intensità della CMB a diverse lunghezze d'onda. Attualmente le migliori informazioni sullo spettro della CMB provengono dallo strumento FIRAS a bordo del satellite COBE, e sono illustrate di seguito La variabile sull'asse x è il numero d'onda ovvero 1/[lunghezza d'onda in cm]. La variabile sull'asse y è la potenza per unità di area per unità di frequenza per unità di angolo solido in in MegaJansky per steradiante. 1 Jansky è 10-26 Watt per metro quadrato per Hertz. Le barre d'errore sono state amplificate di un fattore 400 in modo da risultare visibili, ma i punti sono consistenti con la radiazione emessa da un corpo nero con temperatura di To = 2.725 K. La temperatura della CMB è quasi la stessa in tutto il cielo. La figura a sinistra mostra una mappa della temperatura in una scala tale che un punto a 0 K è bianco, a 4 K è nero. Al centro la stessa figura con la componente isotropa rimossa ed il contrasto aumentato di 400 volte. Si evidenzia la componente di dipolo dovuta al moto del sistema solare rispetto al flusso di Hubble e l'emissione del piano galattico. A destra la stessa figura, rimossa la componente dipolare e l'emissione galattica, contrasto aumentato di 6667 volte: ora sono visibili le fluttuazioni della CMB Dunque il cielo visto per mezzo delle microonde è estremamente isotropo. Queste osservazioni sono combinate nel Principio Cosmologico: l'Universo è omogeneo ed isotropo. L'abbondanza degli elementi leggeri Un'altra prova a favore del Big Bang è l'abbondanza degli elementi leggeri, come l'idrogeno, il deuterio, l'elio e il litio. Man mano che l'Universo si espande, i fotoni della CMB perdono energia per effetto del redshift e la CMB diviene più fredda. Ciò implica che la temperatura della CMB era molto più elevata in passato. Quando l'Universo aveva solo alcuni minuti, la temperatura era abbastanza elevata da produrre gli elementi leggeri. La teoria della nucleosintesi del Big Bang predice che circa 1/4 della massa dell'Universo dovrebbe essere costituita da elio, e ciò è effettivamente quanto si osserva. L'abbondanza del deuterio è in proporzione inversa con la densità di nucleoni nell'Universo, e il valore dell'abbondanza misurata di deuterio suggerisce che nell'Universo c'è un solo nucleone ogni 4÷7 metri cubi di spazio. Parte 2: rappresentazione ed evoluzione dell'Universo Affermare che l'Universo è omogeneo significa che ogni proprietà misurabile è la stessa ovunque. Ciò non è vero su scala ridotta, ma è una eccellente approssimazione qualora si faccia una media su regioni molto vaste. Dato che anche l'età dell'Universo è una quantità misurabile, l'omogeneità dell'Universo deve essere definita per una superficie con tempo proprio costante dal Big Bang. Tuttavia la relatività ristretta ci insegna che il tempo proprio misurato da un osservatore dipende dalla sua velocità, dunque dobbiamo specificare che la variabile temporale t nella legge di Hubble è il tempo proprio dal Big Bang per osservatori comoventi. A patto che le variabili in gioco siano interpretate correttamente, la legge di Hubble (v = HD) è vera per ogni valore di D, anche per quelli che implicano v>c. Si deve però prestare molta attenzione a come si intendono la distanza e la velocità. La distanza D nella legge di Hubble deve essere definita in modo tale che se A e B sono due galassie lontane che noi vediamo nella stessa direzione, e A e B non sono troppo distanti tra loro, allora la differenza delle distanze da noi, D(A)-D(B), è la distanza che A misurerebbe da B. Questa misura però dev'essere fatta "ora", dunque A deve misurare la distanza da B allo stesso tempo proprio dal Big Bang che misuriamo noi. Per questo motivo, allo scopo di determinare la distanza D per una galassia remota Z, noi dobbiamo individuare una catena di galassie ABC...XYZ lungo il cammino per Z, con ciascun elemento della catena abbastanza prossimo ai suoi vicini, e poi fare in modo che ciascuna galassia della catena misuri la distanza dalla successiva al tempo to dal Big Bang. La distanza di Z, D(da noi a Z), è la somma di tutti questi sotto-intervalli: D(da noi a Z) = D(da noi ad A) + D(da A a B) + ... D(da X a Y) + D(da Y a Z) La velocità nella legge di Hubble è semplicemente la derivata della distanza D rispetto al tempo ed è approssimata dall'espressione v = cz per piccoli redshift ma devia significativamente per valori elevati di z. Diagrammi spazio-temporali Il tempo e la distanza usati nella legge di Hubble non sono come la x e la t usati nella relatività ristretta, e ciò purtroppo a volte determina confusione. Il diagramma spazio-temporale di seguito illustra un modello cosmologico di universo vuoto (ovvero con densità molto prossima a zero) usando la D e la t della legge di Hubble rispettivamente come ascissa e ordinata. Le linee d'universo degli osservatori comoventi sono decorate con piccoli triangolini che rappresentano il cono di luce del futuro. La curva rossa a forma di pera è il cono di luce del nostro passato. Nota che la curva rossa ha in ogni punto la stessa inclinazione dei piccoli coni di luce. In questo spazio di variabili, velocità superiori a c sono certamente possibili, e dal momento che gli universi aperti sono spazialmente infiniti, esse sono attualmente riscontrabili. Tuttavia non c'è contraddizione con il principio della relatività ristretta, che impedisce agli oggetti massivi di raggiungere e superare la velocità della luce. Infatti se rappresentiamo lo stesso spazio-tempo nelle coordinate relativistiche x e t (rispettivamente in ascissa e in ordinata) otteniamo: Le iperboli grigie rappresentano le superfici con tempo proprio costante dal Big Bang (il vertice in basso). Quando noi le schiacciamo per produrre il precedente diagramma spazio-temporale, le linee d'universo delle galassie si appiattiscono, dando velocità v = dD/dt che possono essere maggiori di c. Ma nelle coordinate della relatività ristretta le velocità sono sempre inferiori a c. Possiamo anche vedere che il cono di luce del nostro passato incrocia la linea d'universo di molte galassie remote alla distanza relativistica x = c*to/2. Ma la distanza D in base alla legge di Hubble, che viene misurata ora, di queste galassie distanti è infinita (in questo modello cosmologico). Distanza o distanze? Mentre la legge di Hubble è in linea di principio misurabile, la necessità di avere degli aiutanti lungo la catena di galassie, fino a quella lontana di cui vogliamo misurare la distanza, la rende piuttosto impraticabile :) Si possono allora definire altre distanze molto più facili da misurare. Una di esse è la distanza DA data dalla dimensione angolare, la quale è definita da e dunque dove con R intendiamo l'estensione trasversale di un oggetto e "theta" è l'angolo (espresso in radianti) che l'oggetto sottende sulla volta celeste. Il problema principale per la sua determinazione è che gli oggetti celesti, pensa ad esempio ad una galassia, non hanno confini netti, ma sfumano gradualmente nello spazio. Nel modello di universo "vuoto", la x della relatività speciale è uguale alla distanza data dalla dimensione angolare, x = DA. Un altro importante indicatore di distanza è il flusso luminoso ricevuto da un oggetto, che definisce dunque la distanza di luminosità attraverso Il flusso si misura mediante un fotometro, mentre la luminosità L deve essere in qualche modo nota a priori. Gli oggetti celesti dei quali si conosce la luminosità sono detti candele standard. Fra le candele più importanti annoveriamo le stelle variabili Cefeidi, che presentano una stretta relazione tra periodo e luminosità, e le supernovae di tipo Ia, che hanno la stessa luminosità di picco durante l'esplosione. Una quarta distanza è quella basata sul tempo di volo della luce: DT = c*(to-tem). Chi dice che la più grande distanza visibile è c*to sta proprio usando questa accezione. Tuttavia la grandezza DT non è molto utile perché è difficile conoscere tem, ovvero l'età dell'Universo nell'istante di emissione della luce che ora stiamo ricevendo. Ed infine, il redshift è un importantissimo indicatore di distanza, dal momento che gli astronomi lo possono msurare facilmente, invece la dimensione o la luminosità necessarie per calcolare DA o DL sono sempre abbastanza difficili da stimare. Relazioni tra le distanze La curva che mette in relazione un indicatore di distanza rispetto agli altri dipende dal modello cosmologico adottato. Il grafico del redshift in funzione della distanza per le supernovae di tipo Ia mostrato precedentemente è realmente un diagramma di cz in funzione di DL, dal momento che i flussi luminosi sono stati utilizzati per determinare la distanza delle supernovae. Questi dati chiaramente escludono i modelli che non predicono una relazione lineare tra cz e DL, per piccoli cz. L'estensione di queste osservazioni alle supernovae remote hanno iniziato a rivelarci qualcosa sulla curvatura del grafico di cz in funzione di DL. L'accordo perfetto tra la CMB e la radiazione di corpo nero ci sonsente di determinare la relazione tra DA e DL (ovvero tra la distanza data dall'estensione angolare e quella data dal flusso luminoso). Dato che la CMB si è prodotta a grandissima distanza ma appare ancora come un corpo nero, un corpo nero distante deve continuare ad assomigliare ad un corpo nero (anche se la temperatura cambia per effetto dell'espansione). La luminosità del corpo nero è L = 4*pi*R2*sigma*Tem4 dove R è il raggio, Tem è la temperatura del corpo nero emittente, sigma è la costante di StephanBoltzmann. Vista al redshift z, la temperatura osservata sarà Tobs = Tem/(1+z) ed il flusso luminoso sarà F = theta2*sigma*Tobs4 dove il raggio angolare è legato a quello fisico da theta = R/DA Combinando queste equazioni abbiamo DL2 = L/(4*pi*F) = (4*pi*R2*sigma*Tem4)/(4*pi*theta2*sigma*Tobs4) = DA2*(1+z)4 ovvero DL = DA*(1+z)2 I modelli che non prevedono questa relazione tra DA e DL, come ad esempio il modello cronometrico o quello della luce affaticata, sono esclusi in base alle proprietà della CMB. Ecco un calcolatore Javascript che riceve in input H0, OmegaM, la costante cosmologica lambda normalizzata, il redshift z e fornisce in output tutte queste distanze. Il fattore di scala a(t) Dato che in base alla legge di Hubble (v=HD) la velocità, ovvero dD/dt, è strettamente proporzionale a D, la distanza tra ciascuna coppia di osservatori comoventi cresce di un fattore durante lo stesso intervallo di tempo dt. Ciò significa che noi possiamo esprimere la distanza da ogni osservatore comovente come DG(t) = a(t) * DG(to) dove DG(to) è la distanza dalla galassia G ora, mentre a(t) è il fattore di scala universale che si applica a tutti gli oggetti comoventi. Dalla sua stessa definizione vediamo che a(to) = 1. L'evoluzione dell'Universo Possiamo calcolare la dinamica dell'Universo considerando un oggetto la cui distanza è R = D(t) = a(t) Do. Questa distanza e la velocità corrispondente dD/dt sono misurate rispetto a noi che siamo al centro del sistema di riferimento (la galassia rossa). L'accelerazione gravitazionale dovuta alla sfera di materia di raggio D(t) è Rho(t) è la densità di materia che dipende solo dal tempo poiché l'Universo è omogeneo. La massa contenuta entro D(t) è indipendente dal tempo per il fatto che la materia all'interno ha una velocità di espansione più bassa (e dunque non esce dalla sfera) mentre la materia all'esterno ha velocità di espansione maggiore (e dunque rimane all'esterno). Ricordando il teorema di Gauss, l'effetto gravitazionale della materia all'esterno della sfera non conta, l'accelerazione gravitazionale all'interno della sfera è zero, e tutta la materia dell'Universo la cui distanza da noi è superiore a D(t) può essere schematizzata con gusci concentrici. Con una massa interna a D(t) costante che produce una accelerazione sul bordo, il problema si riduce a quello di un oggetto puntiforme (la galassia blu) che si muove radialmente in un campo gravitazionale. Se la velocità è inferiore alla velocità di fuga, allora l'espansione si fermerà ed il tutto tornerà a collassare. Se la velocità eguaglia la velocità di fuga abbiamo il caso critico. In quest'ultimo caso abbiamo: v = H*D = v(esc) = sqrt(2*G*M/D) H2*D2 = 2*(4*pi/3)*rho*D2 ovvero Per rho uguale o inferiore alla densità critica rho(crit), l'Universo si espanderà per sempre, mentre per rho maggiore di rho(crit), l'Universo terminerà la sua espansione e ricollasserà. Il valore di rho(crit) per Ho = 65 km/s/Mpc è 8E-30 = 8*10-30 g/cm³ o 5 protoni per metro cubo o anche 1.2E11 = 1.2*1011 masse solari per MegaParsec cubico. Quest'ultimo valore può essere paragonato al valore osservato di 1.1E8 = 1.1*108 luminosità solari per Mpc3. Se la densità è ovunque prossima al valore critico, gran parte della materia deve essere troppo poco luminosa per essere osservata. Le stime attuali suggeriscono che la densità di materia è compresa tra 0.3 e 1 volte la densità critica, e ciò richiede che la maggior parte della materia nell'Universo sia oscura. Parte 3: gli apetti problematici La curvatura spaziale Una importante conseguenza della relatività generale è che la curvatura dello spazio dipende dal rapporto tra la densità rho e la densità critica rho(crit). Possiamo chiamare questo rapporto Omega = rho/rho(crit). Per Omega < 1, l'Universo ha curvatura negativa, ovvero una geometria iperbolica. Per Omega = 1, l'Universo è piatto, ovvero è descritto dalla geometria euclidea. Per Omega > 1, l'Universo ha curvatura positiva ovvero una geometria sferica. Abbiamo già visto che il caso di universo vuoto, che possiede una geometria iperbolica, infatti in questo modello le istantanee di tempo cosmico nelle coordinate della relatività speciale erano iperboloidi. La figura qui sopra mostra i tre tipi di curvatura, e a fianco l'evoluzione dei corrispondenti fattori di scala a(t). L'età dell'Universo dipende da Omega0 e anche da H0. Per Omega=1, il caso di densità critica, il fattore di scala è e l'età dell'Universo è to = (2/3)/H0 mentre nel caso di universo vuoto, Omega=0, è a(t) = t/to con to = 1/H0 Se Omega0 > 1 l'età dell'Universo è anche minore di (2/3)/H0. La figura qui sopra mostra il fattore di scala in funzione del tempo misurato dal presente, per H0 = 65 km/s/Mpc e per Omega0 = 0 (verde), Omega0 = 1 (nero), e Omega0 = 2(rosso). L'età dell'Universo è rispettivamente di 15, 10 e 8.6 miliardi di anni. Il ricollasso del modello con Omega0 = 2 avviene quando l'Universo è 11 volte più vecchio di quanto non sia ora, e dato che tutte le osservazioni indicano che Omega0 < 2, abbiamo almeno 80 miliardi di anni prima di un Big Crunch. Il valore di H0*to è una quantità adimensionale che deve valere 1 se l'Universo è praticamente vuoto, e 2/3 se l'Universo ha densità pari al valore critico. Assumendo H0 = 65 ± 8 e to = 14.6 ± 1.7 miliardi di anni, troviamo che H0*to = 0.97 ± 0.17. A prima vista ciò favorisce il modello di Universo vuoto, ma un errore di 2 deviazioni standard verso il basso ci porterebbe al caso di densità critica. Dato che sia l'età degli ammassi globulari utilizzata sopra, che il valore di H0 dipendono dalla scala di distanza allo stesso modo, un errore in quest'ultima potrebbe ripercuotersi in modo significativo sul prodotto H0*to. In effetti, misurazioni recenti dal satellite HIPPARCOS suggeriscono che la scala di distanza delle Cefeidi deve essere aumentata del 10%, e anche l'età degli ammassi globulari dev'essere ridotta del 20%. Se assumiamo H0 = 60 ± 7 e to = 11.7 ± 1.4 miliardi di anni, troviamo che H0*to = 0.72 ± 0.12 che è perfettamente consistente con un Universo di densità critica. Per questi motivi è meglio ritardare le conclusioni a quando si saranno ottenuti dati più precisi. Il problema della piattezza e dell'età Se Omega0 > 1, l'Universo rallenterà progressivamente la sua espansione fino a fermarsi, e dunque Omega diverrà infinito. Se invece Omega0 < 1, l'Universo si espanderà per sempre e, dato che la densità diminuisce più in fretta della densità critica, Omega diminuirà sempre più. Per queste ragioni Omega = 1 è un punto di equilibrio instabile, ed è notevole che Omega al momento sembri molto prossimo a 1. La figura qui sopra mostra l'evoluzione di a(t) per tre modelli cosmologici con tre diverse densità al tempo di 1 ns dopo il Big Bang. La curva nera rappresenta il caso a densità critica rho = 447,225,917,218,507,401,284,016 g/cm³. Aggiungendo solo 1 a questi 447 sestilioni fa sì che il Big Crunch debba accadere proprio ora! Invece portando via 1 otteniamo un modello con un Omega troppo basso che non si accorda con le osservazioni. Per questo motivo diciamo che la densità 1 ns dopo il Big Bang è "quella giusta" con una accuratezza maggiore di una parte su 447 sestilioni. Per non parlare di istanti precedenti, in cui l'accuratezza è maggiore di una parte su 1059! Dato che, se la densità nelle fasi iniziali è leggermente maggiore, l'Universo ricollassa quasi subito, questo è chiamato il problema dell'età. Inoltre, siccome l'Universo con densità critica ha geometria euclidea, questo aspetto enigmatico è anche chiamato il problema della piattezza. Qualunque sia il meccanismo che ha portato la densità al valore esattamente uguale a quella critica, funziona estremamente bene, e sarebbe davvero strano se Omega0 fosse prossima a 1 ma non esattamente uguale a 1. La manipolazione dei diagrammi spazio-temporali Il modello a densità critica è mostrato nel diagramma spazio-temporale di seguito. Nota che le linee d'universo delle galassie ora sono curve a causa della forza di gravità, che fa sì che l'espansione sia rallentata. In effetti, ciascuna linea d'universo è k volte a(t) con k costante e uguale a (t/to)2/3 per questo modello in cui Omega0 = 1. La curva rossa a forma di pera è il cono di luce del nostro passato. Questo diagramma è disegnato per il nostro punto di vista, ma dato che l'Universo è omogeneo, lo stesso diagramma tracciato per ogni galassia sarebbe identico. La figura qui sopra mostra il diagramma spazio-temporale come se fosse disegnato sul lato di un mazzo di carte. Quello di seguito rappresenta il mazzo di carte spinto lateralmente in modo da metterci nel sistema di riferimento di A. Nota che questa non è una trasformazione di Lorentz, inoltre le coordinate non sono quelle della relatività ristretta. La trasformazione galileiana che potrebbe essere realizzata spingendo lateralmente il mazzo di carte richiede che il bordo del mazzo rimanga rettilineo, e in ogni caso la trasformazione di Lorentz non può essere raffigurata in questo modo perché non esiste un tempo assoluto. Tuttavia nei modelli cosmologici noi abbiamo effettivamente un tempo cosmico, che è il tempo proprio dal Big Bang misurato da osservatori comoventi, pertanto questa rappresentazione "del mazzo di carte" è valida. La presenza della gravità in questo modello comporta uno spazio-tempo curvo che non può essere rappresentato senza deformazioni su uno spazio-tempo piatto. Se ciascun sistema di coordinate è una rappresentazione deformata dell'Universo, allora noi possiamo riferirci ad un conveniente sistema di coordinate, e tenere traccia della deformazione alterando la forma dei coni di luce. Ad esempio, spesso è conveniente "scorporare" l'espansione dell'Universo, il seguente diagramma spazio-temporale mostra il risultato della divisione della coordinata spaziale per a(t). Ora le linee d'universo delle galassie sono tutte verticali. La divisione ha espanso il nostro cono di luce del passato a tal punto che dobbiamo ridisegnarlo per mostrarlo tutto: Se ora noi "stiriamo" l'asse del tempo nei dintorni del Big Bang, otteniamo il diagramma spaziotemporale che ha i coni di luce del passato con i bordi rettilinei: Questo genere di diagramma spazio-temporale è chiamato "conforme", e mentre da un lato è fortemente distorto, dall'altro rende semplice vedere dove va a finire la luce, e dunque ci consente una analisi immediata dei rapporti di causalità. La trasformazione che abbiamo effettuato è analoga alla trasformazione dalla vista laterale della Terra (a sinistra) alla proiezione di Mercatore (a destra). Nota che una rotta in direzione costante verso Sud-Est è una linea retta sulla mappa di Mercatore, dunque questa proiezione è analoga al diagramma spazio-temporale conforme, che mantiene rettilineo il bordo dei coni di luce del passato. Ricorda anche che lo spazio-tempo caratterizzato da Omega0 = 1 ha estensione infinita, quindi il diagramma spazio-temporale conforme può proseguire ben oltre il nostro cono di luce del passato, come illustrato qui sotto. Si possono utilizzare altri sistemi di coordinate. Se consideriamo la coordinata spaziale come l'angolo in un diagramma polare, il cambio del punto di vista sarà molto facile: è sufficiente una rotazione. Il diagramma qui sopra è relativo ad un modello di Universo con Omega0 = 2 (che in effetti è sferico) ed è disegnato in questo modo con a(t) usata come coordinata radiale. Il problema dell'orizzonte Il diagramma spazio-temporale conforme è un valido strumento per descrivere le osservazioni dell'anisotropia della CMB. L'Universo era opaco prima che i protoni e gli elettroni si combinassero per formare atomi di idrogeno, ciò avvenne quando la temperatura scese al di sotto di 3000 K ad un redshift di 1+z = 1000. Dopo questa fase, i fotoni della CMB hanno viaggiato liberamente nell'Universo trasparente che possiamo vedere oggi. Per questo motivo la temperatura della CMB in un dato punto del cielo è stata determinata dal tempo in cui si sono formati gli atomi di idrogeno. Dal momento che le lunghezze d'onda della CMB scalano allo stesso modo delle distanze intergalattiche durante l'espansione dell'Universo, sappiamo che a(t) doveva essere 0.001 al tempo della ricombinazione. Per il modello Omega0 = 1 ciò implica che t/t0 = 0.00003 e dunque per t0 = 10 miliardi di anni il tempo è di circa 300.000 anni dopo il Big Bang. Questa è una frazione così piccola dell'età corrente dell'Universo che lo "stiramento" dell'asse temporale quando si produce il diagramma spaziotemporale conforme è molto utile per ingrandire questa parte della storia dell'Universo. Il diagramma comforme qui sopra ha esagerato questa zona molto di più, assumendo che il redshift della ricombinazione sia 1+z = 144, che corrisponde alla linea orizzontale blu. Le regioni in giallo sono i coni di luce del passato di due eventi di ricombinazione nel nostro cono di luce del passato. Ogni evento che influenza la temperatura della CMB a sinistra deve essere confinato nel triangolo giallo di sinistra. Ogni evento che influenza la temperatura della CMB nella parte destra deve trovarsi nel triangolo giallo di destra. Queste regioni non hanno eventi in comune, ma le due temperature sono uguali a meno di una parte su 100.000. Come è possibile? In cosmologia questo è noto come problema dell'orizzonte. Parte 4: l'inflazione Lo "scenario inflazionario", sviluppato da Guth, Starobinsky e Linde, offre una soluzione al problema della piattezza, della vecchiaia e dell'orizzonte invocando una densità di energia del vuoto. Noi normalmente siamo portati a pensare che il vuoto sia privo di massa, e possiamo determinare che la densità del vuoto è attualmente meno di 1E-30 g/cm³. Ma nella teoria quantistica dei campi, il vuoto è considerato brulicante di particelle virtuali: Il diagramma spazio-temporale qui sopra mostra coppie virtuali di particelle e anti-particelle che si formano dal nulla e tornano nel nulla mediante un processo di annichilazione. Per particelle di massa m, ci si attende la presenza di circa una particella virtuale in ogni volumetto di lato pari alla lunghezza d'onda Compton della particella, h/mc, dove h è la costante di Planck. Per questo motivo la densità attesa del vuoto è rho = m4*c3/h3 che è piuttosto grande. Per le particelle elementari più massive normalmente considerate, la massa di Planck M (definita da 2*pi*G*M2 = h*c), questa densità è 2E91 g/cm³. Per questo motivo la densità di energia del vuoto è almeno 121 ordini di grandezza più piccola di quanto indica il calcolo quantistico grossolano, dunque dev'essere all'opera un meccanismo di soppressione molto efficace. Se attualmente rimane un piccolo residuo di questa densità di energia del vuoto, esso produce una "costante cosmologica" che è uno dei meccanismi proposti per ricomporre il disaccordo tra l'età dell'Universo nel modello con Omega0 = 1, t0 = (2/3)/H0 = 10 miliardi di anni, e l'età apparente dei più antichi ammassi globulari, 16 ± 4 miliardi di anni. La densità di energia del vuoto può fare questo perché produce una "anti-gravità" che accelera l'espansione dell'Universo anziché rallentarla, e ciò aumenta t0 per una data H0. Lo scenario inflazionario propone che l'energia del vuoto fosse molto elevata durante un breve periodo all'inizio della storia dell'Universo. Quando l'Universo è dominato da questa densità di energia del vuoto, il fattore di scala cresce esponenzialmente, a(t) = exp(H(to-t)). La costante di Hubble è realmente costante durante questa fase, per cui non serve lo "zero". Se la fase inflazionaria dura a sufficienza, la funzione esponenziale cresce enormemente. Ciò fa si che a(t) sia molto elevato, e con esso il raggio di curvatura dell'Universo. Il seguente diagramma mostra il nostro orizzonte sovrapposto ad una sfera di raggio molto ampio (in alto), e ad una sfera di raggio più piccolo (in basso). Dato che noi possiamo vedere al massimo il nostro orizzonte, per il modello inflazionario l'Universo visibile deve risultare praticamente piatto. Questo risolve il problema della piattezza e della vecchiaia, a patto che la crescita esponenziale durante l'epoca inflazionaria continui per almeno 100 raddoppiamenti. L'inflazione risolve anche il problema dell'orizzonte, perché il cono di luce del futuro di un evento che accade prima dell'epoca inflazionaria viene espanso in una vasta regione dalla crescita inflattiva. Questo diagramma spazio-temporale mostra l'epoca inflattiva colorata di verde, e il cono di luce del futuro di due eventi, in rosso. L'evento primordiale ha un cono di luce del futuro che copre una vasta area, che può facilmente comprendere tutto il nostro orizzonte. Per questo motivo noi possiamo spiegare perché la temperatura del fondo di microonde è così uniforme in tutto il cielo. Dettagli: le strutture su vasta scala e l'anisotropia E' chiaro che l'Universo non è veramente omogeneo, dal momento che contiene regioni dense come le galassie e i pianeti. Queste regioni dense dovrebbero avere qualche relazione con la temperatura del fondo di microonde. Sachs e Wolfe (1967, ApJ, 147, 73) hanno derivato l'effetto delle perturbazioni del potenziale gravitazionale sulla CMB. Il potenziale gravitazionale, phi = -GM/r, sarà negativo negli ammassi densi, e positivo in regioni meno dense. I fotoni perdono energia quando risalgono le pareti del potenziale gravitazionale degli ammassi: Il diagramma spazio-temporale conforme qui sopra mostra gli ammassi come barre grigie verticali, l'epoca prima della ricombinazione è la regione tratteggiata, ed il potenziale gravitazionale è la curva phi(x) codificata a colori. Laddove il cono di luce del nostro passato interseca la superficie di ricombinazione, vediamo una temperatura perturbata della quantità Sachs e Wolfe hanno predetto fluttuazioni di temperatura dT/T ampie circa l'1% rispetto alla media, ma ora noi sappiamo che l'Universo è molto più omogeneo di quanto Sachs e Wolfe pensavano. Per questo motivo gli osservatori hanno lavorato per anni per raggiungere sensibilità così alte da distinguere chiaramente le differenze di temperatura nel cielo. La prima differenza rivelata è stata l'anisotropia di dipolo da Conklin nel 1969: La mappa qui sopra è stata realizzata dal satellite COBE ed è molto meglio della rilevazione di Conklin a 2 deviazioni standard. La zona rossa del cielo è più calda rispetto alla media di un fattore (v/c)*To, mentre la zona blu è più fredda della stessa quantità, la velocità dedotta è v = 370 km/s. Questo è il modo in cui noi possiamo misurare la velocità del sistema solare relativamente all'Universo visibile. Ci sono voluti ancora 23 anni prima che le anisotropie previste da Sachs e Wolfe fossero rivelate dal team di Smoot nel 1992. L'ampiezza era di una parte su 100.000 invece che una parte su 100: La mappa qui sopra mostra l'anisotropia cosmica (sovrapposta al rumore del rivelatore) dopo che l'anisotropia di dipolo e la radiazione emessa dalla Via Lattea sono state rimosse. L'anisotropia in questa mappa ha un valore RMS di 30 microK, e se lo esprimiamo in forma di potenziale gravitazionale, usando i risultati di Sachs e Wolfe, e se il potenziale viene espresso come quota assumendo una accelerazione di gravità costante ed uguale a quella terrestre, otteniamo una quota pari al doppio della distanza tra la Terra ed il Sole. Dunque le "montagne e le valli" dell'Universo sono abbastanza ampie. Il modello inflazionario predice un certo pattern statistico nella anisotropia. Le fluttuazioni quantistiche normalmente influenzano regioni di spazio estremamente piccole, ma la vastissima espansione esponenziale durante la fase inflattiva le rende osservabili. Il diagramma spazio-temporale qui sopra mostra i coni di luce del futuro di eventi relativi a fluttuazioni quantistiche. La sommità di questo diagramma è in realtà il volume che interseca il cono di luce del nostro passato, producendo la porzione visibile del cielo. Infatti i coni di luce del futuro diventano cerchi nel cielo. Eventi che accadono precocemente nella fase inflattiva producono cerchi ampi, come mostrato nella mappa a destra in basso. Eventi più tardivi producono cerchi più piccoli, come mostra la mappa di mezzo, ma dato che sono più numerosi, la copertura del cielo è la stessa di prima. Eventi ancora più tardivi producono cerchi ancora più piccoli che però danno la stessa copertura totale. Il pattern formato sommando tutti gli effetti di eventi che si sono prodotti in tutte le fasi è noto come "equal power on all scales" (la stessa potenza per tutte le scale), ed è in accordo con i dati di COBE. Avendo scoperto che il pattern di anisotropia osservato è in accordo con l'inflazione, possiamo anche chiederci se l'ampiezza di queste fluttuazioni dà luogo a forze abbastanza ampie da produrre gli ammassi di galassie osservabili. Il diagramma spazio-temporale conforme qui sopra mostra la funzione potenziale phi(x) al tempo della ricombinazione, determinata dai dati dT di COBE. Le righe nere rappresentano le linee d'universo delle galassie che sono perturbate dalle forze gravitazionali prodotte dal gradiente del potenziale. La materia si allontana scendendo dai picchi del potenziale (i punti rossi nella mappa di COBE), producendo vuoti nella attuale distribuzione delle galassie, mentre le valli del potenziale (i punti blu) sono le zone dove si formano gli ammassi di galassie. COBE non era in grado di rilevare punti corrispondenti agli ammassi o ai super-ammassi di galassie, ma se utilizziamo la legge "equal power on all scales" per estrapolare i dati di COBE a scale più piccole, troviamo che le forze gravitazionali sono adeguate a produrre il grado di compattazione che si osserva, ma solo se non ci sono altre forze che si oppongono. Se tutta la materia nell'Universo è costituita dai "soliti" elementi chimici, allora c'è stata una forza molto efficace che si opponeva prima della ricombinazione, poiché gli elettroni liberi che ora stanno legati negli atomi erano molto efficaci nel diffondere i fotoni della radiazione cosmica di fondo. Dobbiamo per questo concludere che gran parte della materia nell'Universo è "materia oscura" che non emette, assorbe o diffonde la luce. Questa strana conclusione sarà fortemente rafforzata dai dati sull'anisotropia su scale angolari molto più piccole, che saranno forniti dal satellite Microwave Anisotropy Probe (MAP) nel 2000. L' ABC delle distanze astronomiche A. la parallasse trigonometrica Questo metodo è lo standard di riferimento per le distanze astronomiche. E' basato sulla misura di due angoli e del lato compreso di un triangolo formato da 1) la stella, 2) la Terra in un punto della sua orbita, e 3) la Terra sei mesi dopo, nel punto opposto dell'orbita. La parte superiore di questo disegno mostra la Terra in due momenti differenti, ed il triangolo formato tra una stella vicina e queste due posizioni della Terra. In basso vediamo due immagini di questa stella proiettata su uno sfondo costituito da stelle molto più lontane, riprese dai due lati dell'orbita terrestre. Se tu incroci gli occhi fino a sovrapporre le due immagini, potrai vedere la stella staccarsi dallo sfondo, come nei disegni 3-D. La parallasse di una stella è metà dell'angolo al vertice (alla stella) nel disegno in alto. Per questo la parallasse è l'angolo alla stella nel triangolo Terra-Sole-stella. Dato che questo angolo è sempre piccolissimo, il seno e la tangente della parallasse praticamente coincidono con la parallasse stessa misurata in radianti. Per questo la distanza di una stella è D[in m] = [Distanza Terra-Sole in m]/[parallasse in radianti] Gli astronomi di solito affermano che la distanza Terra-Sole è di 1 unità astronomica (au), dove 1 au = 1.5E11 m, e misurano questi angoli piccolissimi in secondi d'arco. Ricordando che in un radiante ci stanno 648.000 secondi d'arco, con queste unità di misura l'unità di distanza è [648000/pi] au = 3.085678E16 m = 1 parsec. Una stella con la parallasse di un secondo d'arco dista 1 parsec, ovvero 3.26 anni-luce. Nessuna stella mostra una parallasse così ampia. Proxima Centauri ha una parallasse di 0.76". La prima misura della parallasse stellare fu effettuata sulla stella 61 Cygni da Friedrich Wilhelm Bessel (1784-1846) nel 1838. Bessel è noto anche per le funzioni besseliane usate in fisica matematica. B. la parallasse di gruppo Non sono molte le stelle così vicine da evidenziare una parallasse misurabile. Tuttavia, quando le stelle sono riunite in ammassi stabili, la cui estensione non sta cambiando (ad esempio le Pleiadi), allora il moto apparente delle stelle nell'ammasso può essere impiegato per calcolarne la distanza. La parte superiore del disegno mostra il moto nello spazio di un ammasso di stelle. Nota che i vettori velocità sono paralleli, perché stiamo asumento che l'ammasso non si stia espandendo né contraendo. Quando però consideriamo il moto di queste stelle proiettato sulla volta celeste, le vediamo convergere a causa di un effetto di prospettiva. L'angolo al punto di convergenza è theta. Se l'ammasso si sta muovendo verso di noi, allora il punto di convergenza si trova dietro l'ammasso, ma ce n'è un altro nel punto opposto del cielo, e possiamo usare quest'ultimo. Da questi spostamenti delle stelle nel cielo, noti come moti propri per il fatto che si tratta di proprietà delle singole stelle, noi misuriamo theta e la sua velocità di variazione, d(theta)/dt. Abbiamo bisogno anche della velocità radiale VR dell'ammasso, che possiamo determinare con uno spettrografo misurando lo spostamento Doppler. La velocità trasversale, VT, (il moto laterale) dell'ammasso può essere trovato usando VT/VR = tan(theta). La distanza dell'ammasso è dunque D[in m] = VT[in m/sec]/[d(theta)/dt] D[in pc] = (VR/4.74 km/sec)*tan(theta)/{d(theta)/dt[in "/yr]} La strana costante 4.74 km/sec deriva da 1 au/anno. Dato che possiamo usare un intervallo temporale di un secolo per misurare d(theta)/dt, sono possibili misure precise della distanza di ammassi vicini. Questo metodo è stato applicato all'ammasso delle Iadi producendo un risultato di 45.53 ± 2.64 pc. La media delle parallassi trigonometriche per i singoli membri delle Iadi fornisce 46.34 ± 0.27 pc (Perryman et al.). C. La parallasse secolare Si può usare un altro metodo per misurare la distanza di un insieme di stelle, scelte in modo che siano tutte alla stessa distanza dalla Terra. Il disegno qui sopra mostra un tale insieme di stelle, ma con due possibili velocità medie. Le stelle di colore verde mostrano una distanza media più piccola delle stelle di colore rosso. Dato che il moto medio del sistema solare rispetto alle stelle vicine è di 20 km/sec, allora queste stelle mostreranno un moto comune, come se fuggissero dal punto verso il quale il sistema solare si sta dirigendo. Questo punto è noto col nome di apice. Sia theta l'angolo all'apice. Allora il moto proprio d(theta)/dt avrà una componente media proporzionale a sin(theta), mostrato dalle linee nel grafico di d(theta)/dt in funzione di sin(theta). Sia mu la pendenza di questa linea. Allora la distanza media delle stelle è D[in m] = V(sole)[in m/sec]/(mu [in radianti/sec]) D[in pc] = 4.16/(mu [in "/anno]) dove la strana costante 4.16 è il moto solare in au/anno. D. la parallasse statistica Quando per le stelle si ha il valore della velocità radiale, allora la dispersione nei loro moti propri può essere usata per determinare la distanza media: (dispersione in VR)[in m/sec] D[in m] = ---------------------------------------(dispersione in d(theta)/dt)[in radians/sec] E. distanza cinematica La struttura della rotazione differenziale della nostra galassia puù essere impiegata per determinare la distanza di una sorgente qualora sia nota la sua velocità radiale. F. la parallasse del diametro apparente La distanza di un oggetto in espansione come ad esempio un resto di supernova (es. quella di Tycho) può essere determinata misurando: 1. il tasso di espansione angolare d(theta)/dt usando immagini riprese a distanza di molti anni, e 2. la velocità radiale di espansione, VR, usando lo spostamento Doppler delle righe spettrali emesse dalla parte anteriore e posteriore del guscio in espansione. Quando uno spettrografo viene puntato al centro di un resto di supernova, si vede lo sdoppiamento di una data riga spettrale, infatti si stanno sovrapponendo l'emissione dalla parte frontale del guscio, spostata verso il blu, e quella dalla parte posteriore in allontanamento, spostata verso il rosso La distanza si calcola dunque come D = VR/d(theta)/dt con theta in radianti Questo metodo è soggetto ad errori sistematici qualora la velocità del materiale dietro l'onda d'urto sia inferiore alla velocità della stessa onda d'urto. Questo è proprio il caso dei resti di supernova in fase adiabatica, per i quali VR = 0.75 V(urto), e dunque la distanza calcolata può essere sottostimata del 25%. G. distanza dell'eco luminosa L'anello centrale ellittico attorno alla supernova SN1987A sembra dovuto ad un anello circolare inclinato sul piano visuale (vedi figura a fianco tratta dalla rivista l'Astronomia) emesso molto tempo prima dell'esplosione della stella. Quando il fronte della radiazione ultravioletta emessa dalla supernova colpì l'anello, accese le righe spettrali caratteristiche dell'emissione ultravioletta che sono state registrate dal satellite International Ultraviolet Explorer (IUE). Il satellite registrò chiaramente il tempo t1 relativo all'arrivo della radiazione emessa dalla parte vicina dell'anello, ed il tempo t2, relativo alla parte lontana. Se t0 è il tempo in cui la supernova si è accesa, allora i tempi extra dovuti al cammino della luce dalle parti vicine e lontane dell'anello sono: t1 - t0 = R(1 - sin(i))/c t2 - t0 = R(1 + sin(i))/c clicca sull'immagine per ingrandire dove R è il raggio dell'anello in m. Per questo R = c(t1-t0 + t2-t0)/2 Quando HST venne messo in orbita, riprese subito la SN 1987A vide l'anello e ne misurò il raggio angolare theta. Il rapporto fornisce la distanza: D = R/theta con theta in radianti Applicato alla piccola nube di Magellano usando la SN 1987A si ottiene D = 47 ± 1 kpc. (Gould 1995, ApJ, 452, 189) questo metodo è fondamentelmente il metodo di espansione applicato al guscio in espansione della radiazione emessa dalla supernova che si allontana alla velocità della luce. Può anche essere applicato ad altre geometrie note. H. stelle binarie visuali e spettroscopiche Se un'orbita binaria viene osservata sia visualmente che spettroscopicamente, allora sono note sia la dimensione angolare dell'orbita che quella fisica. Il loro rapporto fornisce la distanza. I seguenti metodi impiegano la luminosità superficiale delle stelle. La seguente immagine mostra come la luminosità superficiale delle stelle dipenda dal loro colore: I colori corrispondono approssimativamente alle temperature di 5000, 6000 and 7000 K. I cambiamenti di colore sono esigui, ma la luminosità superficiale cambia notevolmente: in realtà per rendere visibile la stella fredda ho dovuto dimezzare il cambiamento della luminosità superficiale. Misurando il rapporto tra il flusso luminoso nel blu e quello nel giallo-verde, gli astronomi misurano l'indice di colore B-V della stella. Questa misura del rapporto tra il flusso nel blu e nel visibile può essere usata per stimare la luminosità superficiale SB della stella. Dato che si ha anche la misura del flusso luminoso, il raggio angolare theta della stella è noto dall'espressione theta = sqrt[Flux/(pi*SB)]. Se inoltre è possibile trovare il raggio fisico R, la distanza si ricava dalla D = R/theta (come sempre, theta è espresso in radianti). I. il metodo di Baade-Wesselink Il metodo di Baade-Wesselink si applica alle stelle pulsanti. Usando le curve del colore e del flusso luminoso, si può trovare il rapporto dei raggi in tempi differenti: sqrt[Flusso(t2)/SB(Colore(t2)] R(t2)/R(t1) = --------------------------sqrt[Flusso(t1)/SB(Colore(t1)] Poi gli spettri della stella durante il suo periodo di pulsazione sono usati per trovare la sua velocità radiale Vr(t). Sapendo quanto velocemente si sta muovendo la superficie della stella, si trova R(t2)R(t1) sommando la quantità velocità*tempo durante l'intervallo di tempo tra t1 e t2. Se poi è noto sia il rapporto dei raggi R(t2)/R(t1) dai flussi e dai colori, sia la differenza nei raggi R(t2)-R(t1) dalla spettroscopia, allora si hanno semplicemente due equazioni in due incognite ed è facile risolvere per i raggi. Con il raggio e l'angolo, la distanza si trova usando l'espressione D = R/theta. J. binarie ad eclisse spettroscopiche In una binaria spettroscopica doppiamente allineata (cioè dove si assiste sia al minimo principale che a quello secondario), il semiasse dell'orbita proiettato sulla volta celeste a*sin(i) viene ricavato dall'escursione della velocità radiale durante il periodo. In una binaria ad eclisse, i raggi relativi delle stelle R1/a e R2/a e l'inclinazione del piano orbitale i vengono ricavati analizzando la forma delle curve di luce dell'eclisse. Utilizzando i flussi luminosi osservati e l'indice di colore per ricavare la luminosità superficiale, si può stimare il raggio angolare delle stelle. R1 si ricava da i, a*sin(i) e R1/a; e con theta1 si puòricavare la distanza. K. metodo della fotosfera in espansione Il metodo di Baade-Wesselink può essere applicato ad una stella in espansione: le variazioni del raggio non devono essere periodiche. E' stato applicato a supernovae di tipo II, che sono stelle massicce con un guscio ricco di idrogeno che esplode quando il loro nucleo collassa per formare stelle di neutroni. Il metodo può essere applicato anche alle supernovae di tipo Ia, ma questi oggetti non mostrano le righe dell'idrogeno nei loro spettri. Dato che la relazione luminosità superficiale in funzione dell'indice di colore è calibrata utilizzando stelle normali, ricche di idrogeno, il metodo della fotosfera in espansione è normalmente impiegato per le supernovae ricche di idrogeno, quelle di tipo II. La supernova di tipo II SN1987A nella grande nube di Magellano è stata usata per calibrare questo indicatore di distanza. I metodi seguenti impiegano il diagramma H-R, che fornisce la luminosità in funzione della temperatura. Quando sono noti la luminosità ed il flusso luminoso di un oggetto, la distanza può essere ricavata mediante D = sqrt[L/(4*pi*F)] L. l'aggiustamento della sequenza principale Quando tra la fine del 19° e l'inizio del 20° secolo si ottennero le distanze delle stelle vicine con il metodo della parallasse trigonometrica, divenne possibile studiare la luminosità intrinseca di queste stelle. Einar Hertzsprung e Henry Norris Russell realizzarono indipendentemente lo stesso diagramma (oggi chiamato in loro onore H-R) della luminosità in funzione della temperatura. La maggior parte delle stelle cadeva su una singola traccia, nota col nome di sequenza principale. A volte la magnitudine assoluta è usata al posto della luminosità, e al posto della temperatura si usa l'indice di colore. Quando si studia un ammasso di stelle, le magnitudini apparenti ed i colori delle stelle formano una traccia parallela alla sequenza principale, e scegliendo opportunamente la distanza, le magnitudini apparenti si convertono in magnitudini assolute e si cerca così di sovrapporre la traccia dell'ammasso alla sequenza principale standard. M. la parallasse spettroscopica Quando si osserva accuratamente lo spettro di una stella, è possibile determinare due parametri della stella così come le abbondanze nell'atmosfera stellare. Il primo di questi parametri è la temperatura superficiale della stella, che detemrina il tipo spettrale nell'insieme OBAFGKM, dal più caldo al più freddo. Le stelle calde di tipo O mostrano le righe dell'elio ionizzato, le stelle di classe B mostrano le righe dell'elio neutro, quelle di classe A hanno intense righe dell'idrogeno, le stelle delle classi F e G hanno numerose righe dei metalli, e le più fredde stelle di classe K e M hanno addirittura bande molecolari. Le classi spettrali sono ulteriormente suddivise mediante una cifra, ad esempio il Sole appartiene alla classe G2. Il secondo parametro che può essere determinato è la gravità superficiale della stella. Più elevata è la gravità, maggiore è la pressione nell'atmosfera, e maggiori pressioni producono un allargamento delle righe spettrali e riduce anche il grado di ionizzazione dell'atmosfera. La gravità superficiale è denotata dalla classe di luminosità espressa da un numero romano da I a V essendo I la gravità più bassa e V quella più alta (ad eccezione della classe VI che è vista raramente e delle nane bianche che hanno una classificazione separata). Le stelle con elevata gravità superficiale (di classe V) sono chiamate nane mentre le stelle con gravità media (classe III) sono chiamate giganti e le stelle con gravità bassa (di classe I) sono chiamate supergiganti. La possibilità di sfruttare la gravità superficiale per determinare la luminosità di una stella dipende da tre relazioni: L = 4*pi*sigma*T4*R2 L = A*Mb g = G*M/R2 Mass-luminosity law with b = 3-4 Ricavata la temperatura a partire dalla classe spettrale, e la gravità superficiale dalla classe di luminosità, queste equazioni possono essere usate per trovare massa e luminosità. Se è nota la luminosità e si misura il flusso luminoso, la distanza deriva dalla legge dell'inverso del quadrato. Un avvertimento riguardo a questo metodo: funziona solamente per stelle normali, e ciascun oggetto singolo potrebbe non essere normale. Main sequence fitting in un ammasso è molto più affidabile dal momento che in un grande numero di stelle è facile trovare quelle normali. I metodi seguenti sfruttano le proprietà delle stelle pulsanti: N. distanze delle RR lyrae Le variabili di tipo RR Lyrae sono stelle pulsanti come le Cefeidi, ma hanno una massa molto più ridotta ed un periodo molto breve (meno di un giorno). Esse vengono individuate negli ammassi globulari, e sembrano avere tutte la stessa magnitudine assoluto, che al minimo si situa attorno a 0.6. O. distanze delle cefeidi Le variabili cefeidi sono stelle pulsanti che prendono il nome dal più brillante membro di questa classe di stelle: la delta Cephei. Queste stelle pulsano perché le regioni di idrogeno ed elio ionizzati si trovano vicino alla superficie della stella. questo fatto fiss aapprossimativamente la temperatura della stella variabile, e produce una fascia di instabilità nel diagramma H-R. Il diagramma qui sopra mostra la stella man mano che si ingrandisce e diventa più fredda, e poi si rimpicciolisce e diventa più calda. Le cefeidi sono più brillanti quando sono più calde, vicino al minimo del raggio. Dato che tutte le cefeidi hanno la stessa temperatura, il raggio determina la loro luminosità. Un grande oggetto pulsante naturalmente ha un periodo di oscllazione più grande di un oggetto più piccolo. Per questo motivo nel caso delle cefeidi esiste una relazione periodoluminosità. Se due cefeidi hanno periodo che differisce di un fattore 2, allora la loro luminosità della cefeide con periodo maggiore è 2.5 volte maggiore di quella con periodo più breve. Dal momento che è facile misurare il periodo di una stella variabile, le cefeidi sono indicatori straordinari della distanza delle galassie. Inoltre queste stelle sono intrinsecamente molto luminose e dunque visibili da grande distanza: se ne individuano persino nella galassia M100 dell'ammasso della Vergine. L'unico problema è la calibrazione della relazione periodo-luminosità, che deve essere fatta indirettamente usando le cefeidi nella grande nube di Magellano e negli ammassi le cui distanza sono ottenute fittando la sequenza principale. Inoltre si deve fare attenzione al fatto che la calibrazione potrebbe dipendere dall'abbondanza di metalli nelle stelle, che è molto minore nella LMC rispetto alle galassie spirali luminose come M100. I metodi seguenti sfruttano le proprietà (reali o supposte) di classi di oggetti nelle galassie e pertanto devono essere calibrati: P. la funzione di luminosità delle nebulose planetarie Le nebulose planetarie sono stelle che hanno attraversato le fasi di gigante rossa e gigante asintotica e hanno eiettato i loro gusci residui di idrogeno, che ora formano una nebulosa ionizzata che circonda una stella centrale molto calda e piccola. Esse emettono gran parte della radiazione nella riga a 501 nm dell'ossigeno doppiamente ionizzato [O III] il che le rende facili da individuare. Le nebulose planetarie più brillanti sembrano avere la stessa luminosità in molte galassie lontane, a tal punto che i loro flussi luminosi possono essere usati come indicatori di distanza. Questo metodo è correlato con il metodo della fluttuazione della luminosità superficiale, che è sensibile alle stelle del ramo asintotico delle giganti prima che esse eiettino i loro gusci. Q. le stelle più brillanti Quando una galassia è molto vicina, si possono addirittura distinguere le singole stelle. La luminosità di queste stelle può essere impiegata per stimare la distanza della galassia ospite. Spesso si usa l'assunzione che ci sia un limite superiore fisso alla luminosità delle stelle, ma questa ipotesi appare poco fondata. Nondimeno, se si studia una vasta popolazione di stelle luminose, è possibile dare una ragionevole stima della distanza. R. i diametri delle più vaste regioni H II Le stelle molto calde e luminose ionizzano l'idrogeno circostante, producendo una regione H II, come ad esempio la nebulosa di Orione. Il diametro delle più vaste regioni H II nelle galassie lontane è stato assunto come "regolo standard" che può essere usato per determinare le distanze. Questa tuttavia, appare una assunzione poco fondata. S. le fluttuazioni della luminosità superficiale Quando una galassia è troppo distante per consentirci di rilevare le sue singole stelle, si può ancora stimarne la distanza usando le fluttuazioni statistiche del numero di stelle in un pixel. Una galassia vicina potrebbe avere 100 stelle che si proiettano in ciascun pixel dell'immagine mentre una galassia più lontana potrebbe averne un numero maggiore, ad esempio 1000. La galassia vicina potrebbe avere fluttuazioni di ±10% della luminosità superficiale (1/sqrt(N)), mentre la galassia più lontana potrebbe avere fluttuazioni del 3%. L'illustrazione a fianco (clicca per ingrandire) mostra una galassia nana vicina, una galassia nana gigante ed una gigante ad una distanza tale che il flusso totale sia uguale a quello della nana vicina. Nota che la galassia gigante lontana ha un'immagine molto più morbida rispetto a quella della nana vicina. clicca sull'immagine per ingrandire T. le supernovae di tipo Ia Le supernovae di tipo Ia sono esplosioni di nane bianche che si trovano in un sistema binario. Il materiale sottratto alla stella compagna accresce la massa della nana bianca fino al limite di stabilità, noto come limite di Chandrasekhar. A quel punto la nana bianca collassa, ma la compressione innesca la combustione esplosiva del carbonio che porta alla totale distruzione della stella. La produzione di luce deriva principalmente dall'energia prodotta dal decadimento radioattivo di nickel e cobalto prodotti nell'esplosione. La luminosità di picco è correlata col tempo di decadimento della curva di luce. quando si applica questa correzione, la luminosità relativa di una supernova di tipo Ia può essere determinata con un errore del 20%. Alcune supernovae Ia sono esplose in galassie abbastanza vicine alla nostra da permettere al telescopio spaziale Hubble di determinarne la distanza assoluta e la luminosità assoluta usando le variabili cefeidi, consentendo una delle migliori determinazioni della costante di Hubble. I metodi seguenti sfruttano le proprietà globali delle galassie e pertanto devono essere calibrati: U. la relazione di Tully-Fisher La velocità di rotazione di una galassia spirale è un indicatore della sua massa, e dunque della sua luminosità. La relazione è approssimativamente Il pedice 20 significa che è la differenza di velocità riscontrata sulla riga a 21 cm dell'idrogeno neutro al 20% della potenza di picco. Dato che la velocità di rotazione di una galassia spirale può essere misurata con uno spettrografo ottico o con un radiotelescopio, la luminosità può essere determinata. La distanza si ottiene combinando tale luminosità con il flusso luminoso osservato. Il seguente disegno mostra due galassie: una spirale gigante ed una nana, ma quella nana è più vicina alla Terra e dunque sottende lo stesso angolo nel cielo e ha la stessa luminosità apparente. La galassia più lontana per effetto della sua maggiore massa, ha una velocità di rotazione maggiore, per cui la differenza tra gli spettri del lato in avvicinamento e in allontanamento sarà maggiore. Da qui si possono calcolare le distanze relative. V. la relazione di Faber-Jackson La dispersione della velocità delle stelle sigma(v) in una galassia ellittica è un indicatore della sua massa e dunque della sua luminosità. La relazione è approssimativamente: Dato che la dispersione di velocità di una galassia ellittica può essere misurata con uno spettrografo ottico, la luminosità può essere determinata. La distanza si ottiene combinando tale luminosità con il flusso luminoso osservato. W. la galassia più luminosa degli ammassi Come candela standard si è usata anche la galassia più luminosa di un ammasso di galassie. Questo assunto risente delle stesse difficoltà che affliggono i metodi delle stelle più luminose e delle più grandi regioni H II: ammassi particolarmente ricchi probabilmente avranno esemplari di galassie molto luminose anche se queste galassie sono rare, mentre ammassi meno ricchi probabilmente non annovereranno questi membri. I metodi seguenti hanno il vantaggio di non richiedere calibrazione: X. il ritardo temporale nelle lenti gravitazionali Quando un quasar viene visto attraverso una lente gravitazionale, si vedono repliche della sua immagine, come mostrato nel seguente disegno: I percorsi della luce dal quasar fino a noi per formare le diverse immagini, hanno lunghezze diverse che differiscono approssimativamente di D*[cos(theta1)-cos(theta2)] dove theta è l'angolo di deflessione e D è la distanza del quasar. Dal momento che i quasar sono sorgenti variabili nel tempo, noi possiamo risalire alla differenza nella lunghezza del percorso ottico, cercando correlazioni spostate nel tempo della variabilità delle imagini multiple Alla fine del 1996, questo ritardo temporale è stato misurato in 2 quasar: l'originale doppio QSO 0957+061, che ha fornito un risultato di Ho = [63 ± 12] km/sec/Mpc, e PG1115+080, che ha fornito Ho = 42 km/sec/Mpc, ma da una ulteriore analisi degli stessi dati risulta Ho = [60 +/- 17] km/sec/Mpc. Y. l'effetto Sunyaev-Zeldovich Il gas caldo negli ammassi di galassie distorce lo spettro della radiazione cosmica di fondo osservata attraverso l'ammasso. Il seguente disegno illustra il processo. Gli elettroni caldi nell'ammasso di galassie diffondono una piccola frazione dei fotoni della CMB e li sostituisce con fotoni di energia leggermente più alta. Questo processo è noto come effetto Compton inverso. La quantità misurabile è la differenza tra la CMB vista attraverso l'ammasso e quella immutata vista in un'altra direzione. In verità solo l'1% circa dei fotoni che passano attraverso l'ammasso vengono diffusi dalle regioni di gas caldo ionizzato, e questi fotoni acquistano in media il 2% della loro energia. Ciò produce una scarsità di fotoni a bassa energia di circa 0.01*0.02 = 0.0002 ovvero dello 0.02%, che dà luogo ad una diminuzione della temperatura di luminosità di circa 500 microK guardando verso l'ammasso. A frequenze più elevate (maggiori di circa 218 GHz) l'ammasso appare più luminoso rispetto allo sfondo. Questo effetto è proporzionale a (1) la densità di elettroni, (2) lo spessore dell'ammasso lungo la nostra linea di vista, e (3) la temperatura degli elettroni. Il parametro che combina questi fattori è chiamato parametro y di Kompaneets, con y = tau*(kT/mc2). Tau è la profondità ottica della frazione di fotoni diffusi, mentre (kT/mc2) è la temperatura dell'elettrone in unità della massa a riposo dell'elettrone. L'emissione di raggi X, IX, dal gas caldo dell'ammasso è proporzionale a (1) il quadrato della densità di elettroni, (2) lo spessore dell'ammasso lungo la nostra linea di vista, e (3) dipende dalla temperatura degli elettroni e dalla frequenza dei raggi X. Come risultato, il rapporto y2/IX = CONST * (Spessore lungo la linea di vista) * f(T) Se assumiamo che lo spessore lungo la nostra linea di vista coincide con il diametro dell'ammasso, possiamo utilizzare il diametro angolare osservato per trovarne la distanza. Questa tecnica è molto complicata, e anni di duro lavoro da parte dei pionieri come Mark Birkinshaw hanno prodotto solamente qulche misura di distanza, e valori di Ho che tendevano ad essere un po' bassi. Lavori recenti con radio interferometri strettamente ammassati, operanti a 30 GHz hanno fornito misurazioni precise della diminuzione di luminosità radio per 18 ammassi, ma solo 3 di essi hanno adeguati valori per l'emissione di raggi X. Si veda anche questo sito con la descrizione accurata del metodo e dei suoi fondamenti. Ed infine: Z. la legge di Hubble Lo spostamento Doppler fornisce il redshift di un oggetto remoto che è il mostro miglior indicatore di distanza, a patto che si conosca con precisione la costante di Hubble. L'età dell'Universo Ci sono almeno tre modi per stimare l'età dell'Universo. Qui descriveremo: - l'età degli elementi chimici - l'età dei più antichi ammassi stellari - l'età delle più antiche nane bianche L'età degli elementi chimici L'età degli elementi chimici può essere stimata per mezzo del decadimento radioattivo determinando l'età di una mistura di atomi. Le età meglio definite che si possono stimare con questo metodo sono le età di solidificazione delle rocce. Quando una roccia solidifica, gli elementi chimici spesso si separano in differenti granuli cristallini. Ad esempio, il sodio ed il calcio sono elementi comuni, ma i loro comportamenti chimici sono abbastanza diversi, e così nelle rocce si trovano in genere separati in granuli distinti. Il rubidio e lo stronzio sono gli elementi più pesanti che si comportano chimicamente come il sodio ed il calcio, per questo motivo si trovano in granuli diversi. Tuttavia il Rb-87 decade in Sr-87 con una semi-vita di 47 miliardi di anni. C'è inoltre un isotopo dello stronzio, lo Sr-86, che non è prodotto da alcun decadimento raidoattivo. L'isotopo Sr87 è chiamato radiogenico, perché come detto prima, si produce in seguito al decadimento di un altro elemento, mentre lo Sr-86 non è radiogenico. Per questi motivi lo Sr-86 viene sfruttato per determinare quale frazione dello Sr-87 è stata prodotta per decadimento radioattivo. Si fa questo disegnando il grafico del rapporto Sr-87/Sr-86 in funzione del rapporto Rb-87/Sr-86. Quando una roccia si è appena formata, i diversi granuli hanno una vasta gamma di rapporti Rb87/Sr-86, ma in tutti i granuli il rapporto Sr-87/Sr-86 è lo stesso poiché i processi chimici che differenziano i granuli non possono separare gli isotopi. Dopo che la roccia è rimasta solida per diversi miliardi di anni, una frazione di Rb-87 sarà decaduta in Sr-87. Allora il rapporto Sr-87/Sr-86 sarà più elevato nei granuli con un elevato rapporto Rb-87/Sr-86. Fai un'interpolazione lineare di Sr-87/Sr-86 = a + b*(Rb-87/Sr-86) e dunque il coefficiente angolare è dato da b = 2x - 1 con x inteso come numero di semi-vite in cui la roccia è rimasta allo stato solido. Leggiti la isochrone FAQ del newsgroup talk.origins per maggiori informazioni sulla datazione radioattiva. Applicata alle rocce della superficie terrestre, il metodo fornisce per quelle più antiche il valore di circa 3.8 miliardi di anni. Se applicato alle meteoriti, le più vecchie hanno 4.56 miliardi di anni. questa età molto ben determinata è l'età del sistema solare. Leggiti la age of the Earth FAQ del newsgroup talk.origins per maggiori informazioni sullìetà del sistema solare. Applicato a sistemi misti ed in evoluzione, come ad esempio il gas nella Via Lattea, non è possibile raggiungere una elevata precisione. Un grosso problema è che non vi è separazione in granuli di cristalli diversi, per cui si devono usare i valori assoluti dei rapporti tra gli isotopi anziché le pendenze delle interpolazioni lineari. Ciò richiede che si conosca con precisione la quantità iniziale di ciascun isotopo, per cui è necessario un modello accurato della produzione degli elementi. Una coppia di isotopi comunemente utilizzati è renio e osmio: in particolare il Re-187 che decade in Os-187 con semi-vita di circa 40 miliardi di anni. A quanto pare circa il 15% del Re-187 è decaduto, per cui si deduce un'età di 8-11 miliardi di anni. Ma questa è solo l'età media di formazione dei materiali presenti nel sistema solare. Negli ultimi 4.56 miliardi di anni non si è prodotto ulteriore renio né osmio. Per utilizzare con cognizione di causa questo dato in vista della determinazione dell'età dell'Universo, occorre avere un modello di quando gli elementi sono stati costituiti. Se tutti gli elementi chimici si fossero prodotti subito dopo il Big Bang, allora l'età dell'Universo sarebbe semplicemente to = 8-11 miliardi di anni. Ma se gli elementi sono prodotti continuamente ad un tasso costante, allora l'età media dei materiali nel sistema solare è (to + tSS)/2 = 8-11 miliardi di anni che possiamo risolvere per l'età dell'Universo, ottenendo to = 11.5-17.5 miliardi di anni La datazione radioattiva di stelle antiche Una pubblicazione molto interessante di Cowan et al. (1997, ApJ, 480, 246) discute l'abbondanza del torio nell'alone di una stella antica. Di solito non è possibile misurare l'abbondanza degli isotopi radioattivi nelle altre stelle perché le righe spettrali sono troppo deboli. Ma nella stella CS 22892052 le righe del torio possono essere individuate perché quelle del ferro sono molto deboli e non le confondono. Il rapporto tra Th/Eu (europio) in questa stella è 0.219 paragonato al valore attuale di 0.369 nel nostro sistema solare. Il torio decade con una semi-vita di 14.05 miliardi di anni, dunque il sistema solare si è formato con un rapporto Th/Eu = 24.6/14.05*0.369 = 0.463. Se CS 22892-052 si è formata con lo stesso rapporto Th/Eu ha dunque 15.2 ± 3.5 miliardi di anni. In realtà l'età è un poco più alta perché una certa quantità di torio ora nel sistema solare dev'essere decaduta prima della formazione del Sole, e questa correzione dipende dalla storia della nucleosintesi nella Via Lattea. In ogni caso, si tratta di una interessante misura dell'età delle stelle più vecchie indipendente dai metodi che sfruttano il diagramma H-R. Una pubblicazione successiva di Cowan et al. (1999, ApJ, 521, 194) fornisce 15.6 ± 4.6 miliardi di anni per l'età basata su due stelle: CS 22892-052 e HD 115444. L'età dei più antichi ammassi stellari Nella fase in cui le stelle bruciano idrogeno in elio nei loro nuclei, esse giacciono su una singola traccia nel diagramma luminosità-temperatura noto come diagramma H-R dal nome dei suoi inventori, Hertzsprung and Russell. Questa traccia è nota col nome di sequenza principale, dato che vi si trova la maggior parte delle stelle. Dal momento che la luminosità di una stella varia come M3 o M4, il tempo di vita di una stella appartenente alla sequenza principale varia come t=const*M/L=k/L0.7. Per questo, misurando la luminosità della stella più luminosa della sequenza principale, si ottiene un limite superiore dell'età dell'ammasso: Age < k/L(MS_max)0.7 Questo è un limite superiore dato che l'assenza di stelle più luminose di quella osservata L(MS_max) potrebbe essere dovuta al fatto che non si sono formate stelle nell'intervallo di massa appropriato. tuttavia, per ammassi con centinaia di membri, questo buco nella distribuzione delle masse è improbabile, per cui l'età è proprio k/L(MS_max)0.7. Chaboyer, Demarque, Kernan and Krauss (1996, Science, 271, 957) hanno applicato questa tecnica agli ammassi globulari ed hanno trovato che l'età dell'Universo è maggiore di 12.07 miliardi di anni con una confidenza del 95%. Chaboyer (1997) ha fornito una stima migliore: 14.6 ± 1.7 miliardi di anni per l'età degli ammassi globulari. Tuttavia risultati recenti del satellite Hipparcos mostrano che gli ammassi globulari sono più lontani di quanto si pensava, per cui le stelle sono in realtà più luminose. Gratton et al. forniscono età comprese tra 8.5 e 13.3 miliardi di anni, con 12.1 come valore più probabile, mentre Reid fornisce età comprese tra 11 e 13 miliardi di anni, e Chaboyer et al. danno 11.5 ± 1.3 miliardi di anni come età media degli ammassi globulari. L'età delle più antiche nane bianche Una nana bianca è una stella massiccia come il Sole ma con un raggio come quello della Terra. La densità media è dunque milioni di volte quella dell'acqua. Le nane bianche si formano al centro delle giganti rosse, ma non sono visibili finché non si dirada nello spazio tutto il guscio di gas che le avvolge. Quando ciò avviene la radiazione ultravioletta dalla caldissima stella centrale ionizza il gas e produce una nebulosa planetaria. Il guscio della stella continua ad allontanarsi fino a rendersi praticamente invisibile, e lascia solo il nucleo caldissimo che ora si chiama nana bianca. Le nane bianche non producono più energia per mezzo di reazioni nucleari, per cui vanno spegnendosi lentamente fino a diventare corpi freddi. Le nane bianche più antiche saranno le più fredde e dunque le più deboli. Cercando deboli nane bianche, si può stimare il tempo di raffreddamento delle più antiche nane bianche. Oswalt, Smith, Wood e Hintzen (1996, Nature, 382, 692) hanno compiuto questo studio ottenendo un'età di 9.5+1.1-0.8 miliardi di anni per il disco della Via Lattea. Essi stimano che l'età dell'Universo sia almeno di 2 miliardi di anni più alta, dunque to > 11.5 miliardi di anni.