Mundus - francescofiume.altervista.org

annuncio pubblicitario
Clade Mundus Plinius
Prof. Francesco Fiume
già direttore della Sezione di Biologia, Fisiologia e Difesa degli Istituti di Ricerca e Sperimentazione Agraria del MiPAF e
dirigente di Ricerca del CRA - Roma
L’inquadramento del clade Mundus Plinius da un punto di vista tassonomico e dendrometrico è
riportato nella figura 1.
Figura 1 – Inquadramento del clade Mundus.
Mondus include Caelum, Astra, Particles, Naturalia ed Arctefacta. In particolare, il cielo che si
trova al di sopra della superficie terrestre e che tutti possiamo osservare alzando gli occhi è
costituito dalle costellazioni. Una costellazione è ognuna delle 88 parti in cui la sfera celeste è
convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità
prospettiche, a cui la moderna astronomia non riconosce alcun reale significato. Infatti:
• nello spazio tridimensionale le stelle possono essere separate anche da distanze enormi, così
come diverse possono essere le dimensioni e la luminosità,
• viceversa, due o più stelle che sulla sfera celeste appaiono magari lontanissime tra di loro, nello
spazio tridimensionale possono essere al contrario separate da distanze minori di quelle che le
separano dalle altre stelle della propria costellazione,
• durante un ipotetico viaggio interstellare non riusciremmo più ad identificare alcuna
costellazione e ogni sosta vicino a qualunque stella ce ne farebbe identificare semmai di nuove,
visibili solo da tale nuova prospettiva.
• nel corso del tempo sono state definite costellazioni differenti, alcune sono state aggiunte, altre
sono state unite tra di loro.
L'uomo eccelle nel trovare schemi regolari (pareidolia) e attraverso la storia ha raggruppato le stelle
che appaiono vicine in costellazioni.
Con il sostantivo Mundus (figura 2) si usa designare il luogo primigenio degli esseri umani che ne
comprende tutti gli abitanti e le cose create. Si distingue dal concetto di Terra in quanto essa ricopre
il significato di mera entità fisica, sulla quale gli esseri che popolano il mondo vivono e che è
distinta dagli altri pianeti e oggetti fisici o metafisici che costellano l'Universo.
Figura 2 – Globo terrestre. Detto anche, impropriamente,
mappamondo, è una riproduzione in scala del
pianeta Terra, sufficientemente fedele.
Il termine indica genericamente un oggetto
sferico e, per antonomasia, la Terra stessa.
Nonostante questa abbia forma ellissoidale, o,
più propriamente, di "geoide", il globo costituisce, infatti, una buona approssimazione.
Un globo rappresenta una riproduzione in
piccola scala di alcune caratteristiche della
Terra; perciò, date le dimensioni, su di esso
possono essere riportate solo le caratteristiche
generali della superficie del pianeta, indicate
con una grafica convenzionale.
Il prototipo di globo terrestre, definito "Globo terrestre di Norimberga", venne costruito tra il 1490
ed il 1492 dallo studioso tedesco Martin Behaim, che utilizzò una scala 1:40 milioni (ancor oggi
questa è la scala più comune nella costruzione di tale strumento).
Esistono tipologie diverse di globi, riportanti, secondo i casi, le caratteristiche fisiche del pianeta, in
alcuni esemplari anche in rilievo, o i confini politici, o altre proprietà politico-economiche.
Alcuni globi sono luminosi, per effetto di una lampada interna: l'accensione o spegnimento della
lampada può rendere possibile la visualizzazione di caratteristiche diverse. I globi, solitamente in
materiale plastico, sono generalmente montati su supporto che rende con buona approssimazione
l'effettiva inclinazione dell'asse terrestre. L'uso dei globi è per lo più didattico, ma non mancano gli
scopi ornamentali. Esistono anche globi antichizzati, che riportano le mappe della terra come si
realizzavano in epoche precedenti.
Oltre ad essere poco maneggevoli, i globi non consentono di raffigurare la superficie terrestre con
quella ricchezza di particolari che è necessaria negli studi geografici, per i quali sono più idonee le
carte geografiche di scala più ampia.
Tuttavia il globo geografico rimane la rappresentazione più realistica della Terra.
La Terra, quindi, rappresenta solo parzialmente il concetto di Mundus, poiché essa è il planisfero, la
carta geografica che rappresenta tutta la sua superficie, utilizzando diversi tipi di proiezioni
cartografiche. Scopo del planisfero è quello di fornire una rappresentazione piana della superficie
sferica della Terra (figura 3). Poiché è impossibile riprodurre su una superficie bidimensionale una
superficie tridimensionale come quella sferica della Terra, a seconda che vogliano essere rispettati
gli angoli o le superfici o le distanze, vengono usate proiezioni diverse.
Nell'antichità quasi tutti pensavano che la terra fosse piatta, solo oggi grazie a sostanziali prove
sappiamo che è sferica. La terra presenta uno schiacciamento ai poli perciò assomiglia di più ad un
ellissoide di rotazione. Considerando anche le irregolarità superficiali, si nota che la sua forma non
coincide con nessun solido geometrico. Si è introdotto quindi il termine geoide ossia il solido
costruito dall'insieme degli infiniti piani perpendicolari alla direzione del filo a piombo. Il geoide è
quindi la forma che terra avrebbe se fosse ricoperta interametne d'acqua. La prima misurazione
della Terra fu realizzata da Eratostene di Cirene, della scuola d'Alessandria, con estrema precisione.
Solo nel seicento nacque la geodesia, la scienza che si occupa di misurare le dimensioni della Terra.
Esse consentirono di calcolare la circonferenza terrestre, lo schiacciamento polare, e introdussero il
metro: unità di misura della lunghezza, inizialmente definita come quarantamilionesima parte del
2
meridiano terrestre. Venne adottato internazionalmente nel 1793 e viene definito come la distanza
percorsa dalla luce nel vuoto nel tempo di 1/299.792.458 s. Il reticolato geografico è composto da
due serie di linee immaginarie che s'incrociano in angolo retto: sono i meridiani le
semicirconferenze, tutte uguali tra loro, che uniscono il polo Nord e il polo Sud, sono 360 (180 est 180 ovest), la loro numerazione parte dal meridiano zero (meridiano fondamentale) passante per
Greenwich. I paralleli sono tutti i circoli, di lunghezza via via decrescente, tracciati parallelamente
all'equatore (definito come la circonferenza perpendicolare all'asse terrestre che divide la Terra in
due emisferi, Boreale e Australe). Sono 180, 90 a sud, 90 a nord (figura 2). Per definire la posizione
di un punto su un piano usiamo gli assi cartesiani, due rette tra loro perpendicolari. Così la
posizione di un punto si ricava dall'incrocio di due coordinate geografiche, ascissa e ordinata.
Chiamiamo latitudine la distanza angolare, misurata in gradi, primi e secondi, di un punto
dall'equatore. Chiamiamo longitudine la distanza angolare di un punto dal meridiano fondamentale.
Definiamo altitudine (o profondità quando siamo in acqua) la distanza verticale dal punto al livello
medio del mare. La direzione in cui sorge apparentemente il sole si chiama levante od oriente (est)
mentre quella del tramonto ponente od occidente (ovest). Nord (quando il sole è a metà della sua
traiettoria) mezzogiorno, sud settentrione. La terra compie un movimento di rotazione su se stessa,
da ovest verso est, avendo come perno una linea immaginaria, l'asse terrestre, che passa dal suo
centro ed emerge al polo Nord e al polo Sud. La rotazione avviene con una velocità angolare,
uguale a tutte le latitudini pari a 15° il giorno.
Figura 3 – Planisfero. Rappresentazione politica della terra.
La crosta terrestre (chiamata comunemente superficie terrestre), in geologia e in geofisica, è uno
degli involucri concentrici di cui è costituita la Terra: per la precisione, si intende lo strato più
esterno della Terra solida, limitata inferiormente dalla Discontinuità di Mohorovičić, avente uno
spessore medio variabile fra 4 (crosta oceanica) e 70 chilometri (crosta continentale).
Il nostro pianeta è formato da gusci concentrici di materiale diverso: la Crosta terrestre,
suddivisibile in continentale e oceanica, costituisce lo strato più esterno; al di sotto c'è il mantello
terrestre, che si estende fino a 2890 km di profondità; ancora al di sotto, e fino al centro della Terra
(6371 km dalla superficie) è il nucleo. Il mantello litosferico, la parte più superficiale del mantello,
è saldato alla crosta e la crosta terrestre, unita al mantello litosferico, costituisce quella che viene
definita litosfera. Fra la litosfera e il mantello inferiore (detto mesosfera) vi è l'astenosfera: uno
strato sottile di mantello parzialmente fuso che permette alla litosfera sovrastante di muoversi, alla
velocità di pochi centimetri l'anno.
3
Il limite superiore è dato dalla superficie terrestre che la mette in contatto con l'atmosfera o
l'idrosfera. Il limite inferiore della crosta terrestre è una superficie ben definita e marcata da
cambiamenti sia fisici (cambiamenti di proprietà meccaniche) che chimici (cambiamenti nella
composizione). L'interfaccia crosta-mantello viene definita, da un punto di vista petrografico, come
il passaggio tra rocce che contengono feldspati (sopra) e quelle che non ne contengono (sotto). Il
limite non è netto, ma sfumato e in rocce di crosta oceanica è doppio, in quanto la seconda
superficie è data dal passaggio tra cumuli ultramafici e hartzburgiti, osservabile direttamente in
alcune ofioliti, ad esempio, in Italia, nel complesso Ivrea-Verbano. La crosta si distingue, perciò,
dal mantello perché le sue rocce cristalline sono prevalentemente acide o basiche, mentre quelle del
mantello sono ultrabasiche. La crosta è, ovviamente, l'unica parte della Terra a contenere rocce
sedimentarie. Esiste anche una discontinuità fisica che separa la crosta dal mantello: si tratta di una
zona di transizione tra rocce a bassa velocità di propagazione delle onde sismiche (nella crosta) e
rocce ad elevata velocità (nel mantello); tale discontinuità è denominata discontinuità di
Mohorovičić, spesso abbreviata in Moho.
La crosta terrestre è l'unico strato del pianeta a possedere una marcata eterogeneità laterale.
Fondamentale è la distinzione tra:
• crosta continentale, con spessori che sono generalmente attorno ai 35 km (per la crosta stabile)
ma che possono raggiungere anche 70 o addirittura 90 km in corrispondenza delle catene
montuose. La sua caratteristica fondamentale, dal punto di vista geodinamico, è la sua relativa
bassa densità rispetto a quella del mantello sottostante, poiché le sue rocce cristalline sono
prevalentemente granitiche;
• una crosta oceanica con spessori che variano da zero a 10 km e con una densità uguale, se non
superiore a quella del mantello sottostante, in quanto costituita prevalentemente da rocce
ultrabasiche e basiche.
Tabella 1 – Percentuali in peso dei principali
composti della crosta terrestre.
È da notare che l'estensione (areale) della crosta
continentale è maggiore dell'estensione delle
terre emerse, in quanto comprende anche tutti i
territori sommersi a profondità inferiori ai 2500
metri.
Il gradino morfologico che marca il passaggio
tra crosta continentale e crosta oceanica è detto
scarpata continentale.
La gran maggioranza delle rocce che
compongono la crosta terrestre sono ossidi; le
sole eccezioni rilevanti sono i cloruri, i solfuri e
i fluoruri, in quantità che nella gran parte delle
rocce non supera l'1 %. Il 47 % della crosta
terrestre è costituita da ossigeno e silicio,
presente sotto forma di ossidi, di cui i principali
sono la silice (SiO2), l'ossido di alluminio
(Al2O3), l'ossido di calcio (CaO), l'ossido di
potassio (K2O), l'ossido di ferro (FeO) e l'ossido
di sodio (Na2O).
Dopo aver analizzato 1.672 tipi di rocce e
tenendo conto della loro diffusione, F. W.
Clarke ha ottenuto per la crosta terrestre le
seguenti percentuali in peso (tabella 1).
Interessante è il concetto di discontinuità di Conrad che corrisponde ad un piano sub-orizzontale
che si trova nella crosta continentale dove la velocità delle onde sismiche aumenta in modo
discontinuo. Questo piano è osservato in varie regioni continentali ad una profondità che va da 15 a
4
20 km, ma non è stato trovato nelle regioni della crosta oceanica. La velocità di propagazione delle
onde sismiche P, nella crosta superiore, oscilla tra 5,6 e 7,6 km/s mentre, al di sotto della
discontinuità di Conrad, l'intervallo di oscillazione passa a 6,5-7,6 km/s. Tale variazione è dovuta
ad un lieve incremento della densità del materiale roccioso della crosta inferiore.
Esiste anche una discontinuità fisica che separa la crosta dal mantello: si tratta di una zona di
transizione tra rocce a bassa velocità di propagazione delle onde sismiche (nella crosta) e rocce ad
elevata velocità (nel mantello); tale discontinuità è denominata discontinuità di Mohorovičić,
spesso abbreviata in Moho.
La discontinuità di Conrad (così chiamata dal nome del sismologo austriaco Victor Conrad) non è
così espressiva come la discontinuità di Mohorovičić ed è assente in alcune regioni continentali
(Lowrie, 1997). Si pensa che la discontinuità si trovi al confine tra la crosta continentale superiore e
quella inferiore.
Fino alla metà del XX secolo, si ipotizzava che nelle regioni continentali, la crosta superiore fosse
costituita da rocce felsiche come il granito, cosiddette SiAl (formate da silicio e alluminio) mentre
quella inferiore fosse formata da rocce mafiche come il basalto, il cosiddetto SiMa (silicio e
magnesio). I sismologi del tempo ritenevano che la discontinuità di Conrad corrispondesse al brusco
contatto tra i due strati chimicamente distinti, vale a dire, SiAl e SiMa (Kearey et al., 2009).
A partire dagli anni '60 tra i geologi cominciarono a sorgere forti dubbi verso questa supposizione,
anche se l'esatto significato geologico della discontinuità di Conrad non è stato ancora chiarito. La
possibilità che rappresenti la transizione dalla facies anfibolitica a quella granulitica ha ricevuto
qualche supporto dal sollevamento della parte centrale del cratere di Vredefort e il circostante
cratone di Kaapvaal.(Muundjua et al., 2007). I cratoni sono le parti più rigide, antiche e stabili della
crosta continentale. Le zone a fusione parziale disseminate nella crosta continentale potrebbero
fornire un'altra spiegazione.
La discontinuità di Conrad, proprio perché non sempre identificabile al passaggio tra crosta
superiore e crosta inferiore, tra le quali il passaggio è spesso di tipo "transizionale", viene definita
discontinuità di "seconda specie".
La crosta terrestre (chiamata comunemente superficie terrestre), in geologia e in geofisica, è uno
degli involucri concentrici di cui è costituita la Terra: cioè, lo strato più esterno della Terra solida,
limitata inferiormente dalla discontinuità di Mohorovičić, avente uno spessore medio variabile fra 4
(crosta oceanica) e 70 chilometri (crosta continentale).
Il nostro pianeta è formato da gusci concentrici di materiale diverso (figura 4):
• la crosta terrestre, suddivisibile in continentale e oceanica, costituisce lo strato più esterno;
• al di sotto c'è il mantello terrestre, che si estende fino a 2890 km di profondità;
• ancora al di sotto e fino al centro della Terra (6371 km dalla superficie) è il nucleo.
Il mantello litosferico, la parte più superficiale del mantello, è saldato alla crosta e la crosta
terrestre, unita al mantello litosferico, costituisce quella che viene definita litosfera.
Fra la litosfera e il mantello inferiore (detto mesosfera) vi è l'astenosfera: uno strato sottile di
mantello parzialmente fuso che permette alla litosfera sovrastante di muoversi, alla velocità di pochi
cm l'anno.
Il limite superiore è dato dalla superficie terrestre che la mette in contatto con l'atmosfera o
l'idrosfera.
Il limite inferiore della crosta terrestre è una superficie ben definita e marcata da cambiamenti sia
fisici (cambiamenti di proprietà meccaniche), sia chimici (cambiamenti nella composizione).
L'interfaccia crosta-mantello viene definita, da un punto di vista petrografico, come il passaggio tra
rocce che contengono feldspati (nella parte superiore) e quelle che non ne contengono (nella parte
inferiore). Il limite non è netto, ma sfumato nelle rocce della crosta oceanica è doppio, in quanto la
seconda superficie è data dal passaggio tra cumuli ultramafici e hartzburgiti (intrusioni basiche
stratificat), osservabile direttamente in alcune ofioliti ad esempio, in Italia, nel complesso IvreaVerbano. Per inciso, laa sezione di crosta profonda della zona Ivrea-Verbano (Alpi occidentali) è
uno dei migliori esempi di sottorivestimento magmatico continentale. Recenti studi hanno
5
evidenziato la presenza di una "zona tipo-Sesia" (l’area centrale) e di una "zona tipo-Finero" (l’area
settentrionale), che hanno subito evoluzioni magmatiche e tettoniche diverse.
Nella zona tipo-Sesia, l'enorme plutone gabbroico (complesso basico), si è intruso in età Permiana
all’interno della crosta profonda del sudalpino formata da una sequenza di paragneiss e di corpi
intercalati di peridotiti di mantello fertile (lherzoliti). Il contesto magmatico dell’intrusione è
rimasto poco chiaro, fino a quando è stato dimostrato che la messa in posto del complesso basico
era coeva con un vulcanismo acido superficiale, comprendente estesi depositi di caldera e, con la
crescita, di plutoni acidi nella crosta superiore dell’adiacente "serie dei laghi". Il sistema magmatico
del Sesia costituisce un’esposizione senza precedenti del sistema di alimentazione di una caldera
dalla superficie, ad una profondità di circa 25 km. In questo quadro, il complesso basico registra i
processi che avvengono nella crosta profonda al di sotto della caldera.
La zona tipo-Finero è caratterizzata dalla presenza dell’unico esempio al mondo di un corpo di
mantello meta somatizzato, costituito da rocce ultramafiche contenenti flogopite. L'unità di
mantello è circondata da un’intrusione stratiforme femica-ultrafemica ricca in anfibolo, il
complesso basico di Finero, che mostra caratteristiche litologiche, geochimiche, strutturali e
geocronologiche diverse da quello della Val Sesia.
Recenti datazioni U-Pb su zirconi indicano un età di intrusione medio-triassica per il complesso
basico di Finero, che quindi non può essere più considerato come parte del complesso basico
Permiano affiorante nell’area della Val Sesia. Diversamente, zirconi di orizzonti cromititici del
corpo peridotitico di mantello forniscono età U-Pb del Giurassico Inferiore. Questa marcata
differenza di età suggerisce che il complesso basico di Finero ed il corpo di mantello associato
hanno subito una diversa evoluzione geodinamica, almeno fino al Giurassico Inferiore.
L’escursione intende così illustrare la sequenza pressoché completa di crosta continentale della zona
tipo-Sesia muovendosi dai settori crostali profondi prossimi al mantello fino alla caldera del
supervulcano e mostrare le differenze litologiche e strutturali che intercorrono fra la zona tipo-Sesia
e quella tipo-Finero.
Ritornando allo studio sulla crosta terrestre, essa si distingue dal mantello perché le sue rocce
cristalline sono prevalentemente acide o basiche, mentre quelle del mantello sono ultrabasiche. La
crosta è, ovviamente, l'unica parte della Terra a contenere rocce sedimentarie.
Struttura interna della Terra
La Terra non ha una struttura omogenea: la densità della crosta terrestre è di circa 2,7-2,8 g/cm3 e
quella media del pianeta è di 5,52 g/cm3: dunque l'interno della Terra deve avere una densità ben
maggiore dell'involucro esterno.
La struttura interna della Terra, simile ad altri pianeti terrestri, ha una disposizione a strati che
possono essere definiti sia da proprietà chimiche che reologiche. La Terra ha una crosta esterna
solida di silicati, un mantello estremamente viscoso, un nucleo esterno liquido che è molto meno
viscoso del mantello e un nucleo solido.
La comprensione scientifica della struttura interna della Terra è basata sulle estrapolazioni di
evidenza fisica scaturita dai primi pochi chilometri distanti dalla superficie terrestre, dai campioni
portati alla superficie dalle più remote profondità tramite l'attività vulcanica e dalle analisi delle
onde sismiche che l'hanno attraversata (figura 4).
La forza esercitata dalla gravità della Terra può essere usata per calcolare la sua massa e stimare il
volume del pianeta, oltre a poter calcolare la sua densità media. L'astronomia può calcolare anche la
massa della Terra in base alla sua orbita e agli effetti prodotti sui vicini corpi planetari.
L'osservazione di rocce, masse d'acqua e atmosfera permette di fare una stima della sua massa,
volume e densità delle rocce a una certa profondità. La massa rimanente deve trovarsi negli strati
più profondi.
Con l'aumentare della profondità aumenta la temperatura, mediamente, in una litosfera continentale
stabile e a partire dalla superficie, la temperatura aumenta di 3° ogni 100 metri (circa 30° ogni
chilometro); questo aumento rimane costante più o meno fino all'isoterma 1300 °C, a profondità
6
maggiori, nel mantello convettivo, la temperatura rimane quasi costante risentendo solo
dell'aumento adiabatico (correlato all'aumento di pressione).
Dal limite del nucleo - mantello (segnato dalla discontinuità di Gutenberg) in giù la temperatura
ricomincia ad aumentare fino a raggiungere i circa 6000 °C nel centro del pianeta, ma gli elementi
sono allo stato solido a causa della pressione.
Anche la pressione aumenta con la profondità, anche se l'andamento non è ancora bene conosciuto
ed è, comunque, variabile da luogo a luogo: proprio questo gradiente pressorio tende a opporsi al
passaggio di stato (da solido a liquido, da liquido a gassoso) indotto dall'aumento di temperatura.
Figura 4 - Rappresentazione schematica degli strati concentrici di cui è fatta la terra.
Non potendo osservare direttamente la struttura dei livelli interni del pianeta (le maggiori profondità
raggiunte con miniere, gallerie, perforazioni o carotaggi non superano i 20 km - risultato raggiunto
solo nel 2007 - cioè meno di 1/400 del raggio terrestre).
Partendo dal nucleo centrale, che ha un raggio di 1216 km, si trova il nucleo esterno, fino a 2270
km, una zona convettiva dove lo spostamento di materia avviene per convezione, ovvero per
movimenti del materiale fluido e caldo. Poi vi è la zona di subduzione, il mantello, l'astenosfera, la
litosfera, il mantello superiore, la crosta oceanica e infine la crosta continentale.
Molto spesso, soprattutto dopo lo sviluppo della teoria della tettonica globale, anziché distinguere
tra crosta e mantello terrestre, si preferisce parlare di "litosfera", strato superficiale solido, rigido
comprendente tutta la crosta e parte del sottostante mantello sino a una profondità di circa 100 km,
"astenosfera", allo stato plastico, viscoso sulla quale la litosfera "galleggerebbe" mentre il mantello
vero e proprio viene suddiviso in superiore e inferiore.
Il nucleo esterno della Terra è uno strato fluido di circa 2300 km di spessore composto
prevalentemente di ferro e solfuro di ferro (FeS2) che si trova tra il nucleo solido della Terra ed il
mantello. Il suo confine esterno si trova approssimativamente 2900 km al di sotto della superficie
terrestre. Anche zolfo ed ossigeno potrebbero essere presenti nel nucleo esterno, ma in percentuali
minime.
7
La temperatura del nucleo esterno oscilla da circa 3000 °C nelle regioni più esterne fino a circa
6000 °C vicino al nucleo interno.
Sebbene abbia una composizione simile a quella del nucleo interno la pressione nel nucleo esterno
non è abbastanza alta per lo stato solido della lega, così esso rimane fluido, sede di correnti di eddy
(correnti parassite o correnti di Foucault), legate alla variazione del campo magnetico terrestre.
Nel nucleo esterno risiede la sorgente principale del campo magnetico terrestre: si tratta, infatti, di
una fonte di energia che mantiene in moto il metallo fuso, generando così un sistema di correnti
elettriche che alimentano il campo geomagnetico.
Discontinuità della terra. Dentro il globo terrestre, esistono zone dove si osservano alcune
modificazioni brusche della velocità di propagazione delle onde sismiche; queste zone
corrispondono a dei cambiamenti fisici del mezzo percorso. Le discontinuità fisiche delimitano i
differenti grandi involucri della Terra.
Le principali discontinuità individuate sono (figura 5):
• la discontinuità di Conrad, corrispondente a un piano sub-orizzontale nella crosta continentale ad
una profondità che va da 15 a 20 km
• la discontinuità di Mohorovičić (normalmente abbreviata in Moho), situata ad una profondità
compresa fra 5 e 90 km, che segna il limite fra la crosta (oceanica o continentale) ed il mantello,
e mostra una variazione della natura dei materiali. La Moho è compresa fra 0 e 15 km sotto la
crosta oceanica, 30 km sotto una crosta continentale di tipo zoccolo e ad una più grande
profondità (fino a 80 km) sotto le catene di montagne recenti.
• la discontinuità di Gutenberg, situata a 2900 km, marca il limite fra il mantello inferiore e il
nucleo esterno - che si comporta come un liquido.
• la discontinuità di Lehmann, situata a 5100 km di profondità, delimita il nucleo esterno e il
nucleo interno (detto anche "seme solido").
Oltre a queste, sono state identificate altre discontinuità minori, per lo più localizzate in qualche
specifica zona su un ambito territoriale regionale o relativamente ristretto.
Figura 5 – Discontinuità della Terra, con i principali strati concentrici che ne formano il profili.
8
Gli anelli concentrici ed altre caratteristiche profonde (figura 6), superficiali ed esterne del Mundus
sono di seguito indicate in maniera dettagliata:
1. Crosta continentale, solida, costituita da rocce essenzialmente granitiche in profondità e da rocce
sedimentarie in superficie. La crosta oceanica è la più spessa (da 30 km a 100 km, al di sotto
delle catene montuose). Essa rappresenta circa 1,5% del volume della terra. Precedentemente
nota come SiAl (silicio + alluminio).
2. Crosta oceanica, solida, composta principalmente da rocce basaltiche. Relativamente sottile
(circa 5 km) e chiamato anche SiMa (silicio + di magnesio ).
3. Zona subduzione (è quella dove una placca oceanica scivola e va sotto un altra placca oceanica),
dove una piastra affonda a volte fino a diverse centinaia di chilometri nel mantello.
4. Mantello superiore che è più viscoso del mantello inferiore. Consiste essenzialmente di rocce
come la peridotite, costituite per il 60% in volume da peridoto, i cui minerali sono l'olivina, i
pirosseni, il granito . Il contatto tra la crosta e mantello superiore a volte può scoprire una zona
chiamata LVZ (Low Velocity Zone).
5. Eruzioni sulle aree di vulcanismo attivo. Due tipi di vulcanismo sono indicati, il più profondo dei
due si chiama "punto di conflitto". Sarebbe costituito da magma di vulcani che proviene dalle
profondità del mantello, vicino al confine con la roccia liquida di base. Questi vulcani, poiché
non sono collegati a placche tettoniche e seguendo così i movimenti della crosta terrestre,
sarebbero quasi immobili sulla superficie del globo, formando gli arcipelaghi di isole come
Tahiti.
6. Mantello inferiore, che ha le proprietà di un solido elastico . Il mantello non è liquido come si
potrebbe pensare guardando la lava che fluisce dalle eruzioni vulcaniche, ma meno "duro"
rispetto agli altri livelli. Il mantello rappresenta 84% del volume della Terra.
7. Superficie della terra più calda che ha origine dal confine con il nucleo parzialmente fuso e
produce vulcanismo in punti contrastanti.
8. Nucleo esterno liquido (NiFe), composto principalmente da ferro (circa 80%) e nichel più alcuni
elementi più leggeri. La viscosità di questo nucleo è simile a quella dell'acqua, la temperatura
media raggiunge i 4000 °C ed una densità di 10. Questa enorme quantità di metallo fuso viene
rimossa (per convezione, ma anche in risposta ai vari movimenti quali la rotazione e
precessione del mondo). La precessione è la rotazione dell'asse di rotazione di un corpo attorno
ad un asse; esistono due tipi di precessione, qulla torque-free e quella giroscopica (o torqueinduced). Variazioni di ferro liquido sono in grado di generare correnti elettriche che danno
origine a campi magnetici. La massa liquida del nucleo è dunque l'origine del campo magnetico
terrestre.
9. Nucleo interno, solido, essenzialmente composto da progressiva cristallizzazione del nucleo
esterno. La pressione mantiene tale nucleo allo stato solido, nonostante una temperatura
superiore a 5000 °C e una densità di circa 13. Il nucleo interno ed esterno rappresentano il 15%
in volume della Terra.
10. Cellule del mantello di convezione che si muove lentamente. Il mantello è sede di correnti di
convezione che trasferiscono la maggior parte dell'energia termica dal nucleo della Terra alla
superficie. Queste correnti provocano la deriva dei continenti, ma le loro caratteristiche precise
(velocità, ampiezza, localizzazione) sono ancora poco conosciute.
11. Litosfera, costituita da crosta ( placche tettoniche ) ed una parte del mantello superiore. Il limite
inferiore della litosfera giace ad una profondità compresa tra 100 e 200 km, il limite dove le
peridotiti sono vicine al loro punto di fusione. Tale limite, talvolta, si trova alla base della
litosfera, in una zona chiamata LVZ o Low Velocity Zone, dove la diminuzione della velocità e
attenuazione delle onde sismiche è marcato. Questo fenomeno è dovuto alla parziale fusione
delle peridotiti e comporta una maggiore fluidità. LVZ è generalmente presente nelle radici
delle gamme di crosta continentale di montagna.
12. Astenosfera, si trova sotto mantello superiore, sotto la litosfera.
13. Discontinuità di Gutenberg , è la zona di transizione dal mantello al nucleo.
9
14. Discontinuità di Mohorovicic è la zona di transizione tra la crosta ed il mantello, è, quindi, parte
della litosfera.
Figura 6 - Anelli
concentrici ed altre caratteristiche profonde, superficiali ed esterne della Terra
Campo magnetico terrestre. Già nel 1600, si sosteneva che "tutta la Terra fosse un grosso
magnete", che genera un campo magnetico che fa sentire i suoi effetti sul piccolo magnete dell'ago
della bussola, così da allinearlo secondo l'asse nord-sud. Oggi la maggioranza degli studiosi crede
che il campo magnetico terrestre possa essere paragonato a quello di una sfera uniformemente
magnetizzata, caratterizzata da due poli magnetici, che non coincidono, però, con i due poli Nord e
Sud geografici (figura 7).
La struttura del campo magnetico
terrestre mostra che esso può
considerarsi generato prevalentemente
da un dipolo magnetico, situato nel
centro della Terra e inclinato di 11° 30'
rispetto all'asse terrestre. I punti in cui
l'asse del dipolo incontra la superficie
terrestre sono detti poli geomagnetici. Il
polo geomagnetico situato nell'emisfero
boreale si indica convenzionalmente
con B e si trova a 78° 30' N, 69° W; il
polo geomagnetico situato nell'emisfero
australe si indica convenzionalmente
con A e si trova a 78° 30' S, 111° E.
In realtà, l'origine del campo magnetico
non è ancora del tutto chiarita e
attualmente si ipotizza che esso possa
essere generato dal movimento di
Figura 7 – Campo magnetico terrestre.
cariche elettriche (ipotesi della dinamo
ad autoeccitazione).
Si può applicare alla Terra il modello della dinamo, immaginando:
a. la presenza iniziale di un debole campo magnetico non uniforme;
b. la presenza di un nucleo fuso, buon conduttore;
c. la possibilità di movimenti nel nucleo stesso.
10
I movimenti nel nucleo fuso inducono una corrente che produce un campo magnetico nuovo, che a
sua volta induce una nuova corrente nel nucleo, che da parte sua provoca un nuovo campo
magnetico e così via. Date queste caratteristiche, il modello è stato chiamato della "dinamo ad
autoeccitazione". Si pensa che le sorgenti di energia più probabili per mantenere il movimento
all'interno del nucleo siano dei movimenti di calore all'interno del nucleo, paragonabili a quelli che
si sviluppano in un liquido messo a bollire (moti convettivi).
Il paleomagnetismo. Studi compiuti negli anni Cinquanta evidenziarono che in passato si sono
verificate variazioni dell'intensità e anche inversioni di polarità del campo magnetico terrestre. Lo
studio di tali cambiamenti prende il nome di paleomagnetismo, o magnetismo fossile, e ha
contribuito in modo rilevante alla scoperta dell'espansione dei fondali oceanici e alla formulazione
della teoria della tettonica a placche.
In particolare, si sono fatte alcune scoperte.
• Il campo magnetico della Terra si è invertito varie volte rispetto a quello attuale, come se i poli si
fossero scambiati di posto; le inversioni di polarità si riconoscono quando, in colate basaltiche
successive, in corrispondenza delle dorsali medio-oceaniche (sorta di fessure sul fondale
oceanico, da cui fuoriesce magma proveniente dall'astenosfera), si riscontrano direzioni del
campo magnetico divergenti di 180°. Tale fenomeno è una prova utilizzata a favore
dell'espansione dei fondi oceanici.
• Il campo magnetico ha subito rilevanti migrazioni rispetto alla crosta terrestre, suffragando così
l'ipotesi della migrazione dei poli. Così sembrerebbe che il polo nord magnetico si sia spostato
verso nord per un lungo periodo di tempo a partire dal Permiano (circa 320 milioni di anni fa),
quando si trovava alla latitudine di 5° N.
• Le interpretazioni paleomagnetiche tratte da rocce coeve in diversi continenti hanno indicato
diverse posizioni dei poli, suggerendo la probabilità di una deriva dei continenti da quando le
rocce si sono formate. Informazioni riguardo al magnetismo fossile si ottengono dallo studio di
molte rocce ignee (lave basaltiche) e sedimentarie (arenarie rosse), contenenti minerali magnetici
che registrano fedelmente la direzione del campo magnetico presente al momento della loro
formazione. Quando la temperatura di un magma scende al di sotto di un valore detto punto di
Curie (diverso a seconda del minerale), i minerali magnetizzabili (per esempio, la magnetite)
cristallizzano, magnetizzandosi secondo la direzione del campo magnetico esistente in quel
momento. Ciò può avvenire sia quando un magma solidifica in profondità, dando origine a una
roccia intrusiva, sia quando una lava effusa si raffredda sulla superficie terrestre. Nel caso di
rocce sedimentarie clastiche, quando avviene la deposizione del materiale detritico sul fondo di
un bacino sedimentario (per esempio, un lago), le particelle di minerali magnetizzabili presenti si
orientano secondo la direzione del campo magnetico presente in quel momento sulla Terra.
Dagli studi effettuati, si è potuto stabilire che l'inversione dei poli magnetici sia avvenuta circa ogni
500.000-600.000 anni; tuttavia, non sono ancora state chiarite le cause e le modalità del fenomeno.
Alcuni scienziati ipotizzano che l'inversione dei poli magnetici abbia una grande importanza per la
sopravvivenza di interi gruppi di organismi. Infatti, nei momenti di inversione la schermatura
magnetica, che normalmente protegge la Terra da alcune radiazioni solari, è meno efficace e quindi
aumentano d'intensità gli effetti nocivi di alcune radiazioni solari su interi gruppi di organismi
viventi. Proprio per ciò, molti studiosi collegano le estinzioni di intere famiglie faunistiche, come i
dinosauri o le ammoniti, con momenti di inversione del campo magnetico terrestre.
La Terra è sede di un campo magnetico la cui origine, e soprattutto il suo mantenimento, è dovuta
alla dinamica del ferro fluido presente nel nucleo esterno del pianeta.
Il campo magnetico terrestre non si espande liberamente nello spazio interplanetario ma è confinato
dal vento solare entro una precisa regione di spazio che prende il nome di magnetosfera terrestre.
Conseguenza dell’interazione tra il vento solare e la magnetosfera è la formazione di un complesso
sistema di correnti magnetosferiche responsabili della generazione di campi magnetici secondari. Il
campo magnetico misurato sulla superficie del nostro pianeta è pertanto la sovrapposizione di
campi di origine interna alla Terra, come quelli prodotti nel nucleo e nella crosta terrestre, e campi
11
di origine esterna, come quelli dovuti alle correnti elettriche che circolano nella ionosfera e nella
magnetosfera.
La registrazione continua degli elementi del campo magnetico terrestre consente quindi da un lato,
di comprendere le proprietà fondamentali del campo e, dall’altro, di studiare le diverse sorgenti
all’origine del campo stesso.
L’obiettivo principale del gruppo di geomagnetismo dell’INGV è di monitorare il campo magnetico
terrestre tanto su territorio italiano quanto su quello antartico e di utilizzare i dati raccolti per studi
scientifici.
Elementi del campo magnetico. Il campo magnetico terrestre è un campo vettoriale rappresentato
da un vettore, funzione del punto di osservazione e del tempo, generalmente indicato con F.
Introducendo una terna cartesiana levogira con origine nel luogo di osservazione e assi orientati
come in figura, si definiscono i seguenti elementi magnetici (figura 8):
Figura 8 – Rappresentazione vettoriale del campo magnetico terrestre.
L’unità di misura del campo magnetico terrestre per convenzione internazionale è abitualmente
espressa in termini del vettore d’induzione. La sua unità nel Sistema Internazionale (SI) è il tesla
(T), ma nella pratica viene usato un suo sottomultiplo (nT) pari a 10-9 T. Sulla superficie terrestre, il
valore del campo varia in intensità, dall’equatore ai poli, da circa 20.000 nT a 70.000 nT.
Un modo comune di descrivere il campo magnetico terrestre è quello di riportare su delle mappe i
valori che gli elementi magnetici hanno sulla superficie terrestre. Si ottengono in questo modo le
carte isomagnetiche, cioè mappe in cui punti di uguale intensità sono uniti attraverso delle linee
chiuse. Il nome di queste carte varia ovviamente a seconda dell’elemento magnetico considerato, si
12
parla di carte isocline nel caso in cui vengano riportati i valori dell’inclinazione I, di carte
isodinamiche, qualora sia graficata una qualunque componente intensiva (X, Y, Z, H, F) del campo
(figura 9) ed, infine, di carte isogone nel caso della declinazione D.
Figura 9 - Carta isodinamica dell’intensità totale (F) del campo magnetico terrestre (espressa in nT), relativa all’anno
2005.
Riscaldamento globale. L'espressione riscaldamento globale (dall'inglese global warming, tradotto
talvolta con riscaldamento climatico o surriscaldamento climatico) indica il mutamento del clima
terrestre sviluppatosi nel corso del XX secolo e tuttora in corso. Tale mutamento è attribuito in larga
misura alle emissioni in atmosfera di crescenti quantità di gas serra e ad altri fattori comunque
dovuti all'attività umana.
Nel corso della storia della Terra si sono registrate diverse variazioni del clima che hanno condotto
il pianeta ad attraversare diverse ere glaciali, alternate a periodi più caldi detti ere interglaciali.
Queste variazioni sono riconducibili principalmente a mutamenti periodici dell'assetto orbitale del
nostro pianeta (cicli di Milanković), con perturbazioni dovute all'andamento periodico dell'attività
solare ed alle eruzioni vulcaniche, per emissione di CO2 e di polveri.
Per riscaldamento globale s'intende invece un fenomeno di incremento delle temperature medie
della superficie della Terra non riconducibile a cause naturali e riscontrato a partire dall'inizio del
XX secolo.
Secondo il quarto rapporto dell’Intergovernmental Panel on Climate Change del 2007, la
temperatura media della superficie terrestre è aumentata di 0,74 ± 0,18 °C durante il XX secolo
(IPCC, 2007).
La maggior parte degli incrementi di temperatura sono stati osservati a partire dalla metà del XX
secolo e sono attribuiti all'incremento della concentrazione atmosferica dei gas serra, in particolare
dell'anidride carbonica (riscaldamento globale). Questo incremento è il risultato dell'attività umana,
in particolare della generazione di energia per mezzo di combustibili fossili e della deforestazione, e
genera a sua volta un incremento dell'effetto serra (The National Academies, 2008). L'oscuramento
globale, causato dall'incremento della concentrazione in atmosfera di aerosol, blocca i raggi del
sole, per cui, in parte, potrebbe mitigare gli effetti del riscaldamento globale. I reports dell'IPCC
(IPCC, 2014) suggeriscono che durante il XXI secolo la temperatura media della Terra potrà
aumentare ulteriormente rispetto ai valori attuali, da 1,1 a 6,4 °C in più, a seconda del modello
climatico utilizzato e dello scenario di emissione (figura 10).
13
Figura 10 - La maggior parte dell'aumento delle temperature medie globali osservate dalla metà del XX secolo, molto
probabilmente, è causato dall'aumento, di origine antropica, delle concentrazioni di gas in serra.
L'aumento delle temperature sta causando importanti perdite di ghiaccio e l'aumento del livello del
mare. Sono visibili anche conseguenze sulle strutture e intensità delle precipitazioni, con modifiche
di conseguenti nella posizione e nelle dimensioni dei deserti subtropicali (Lu et al., 2007). La
maggioranza dei modelli previsionali prevede che il riscaldamento sarà maggiore nella zona artica e
comporterà una riduzione dei ghiacciai, del permafrost e dei mari ghiacciati, con possibili
modifiche alla rete biologica e all'agricoltura. Il riscaldamento climatico avrà effetti diversi da
regione a regione e le sue influenze a livello locale sono molto difficili da prevedere (IPCC, 2007,
a) Come risultato dell'incremento nell’atmosfera dell’anidride carbonica, gli oceani potrebbero
diventare più acidi (EPA, Environmental Protection Agency, 2010; NOAA – ,2010)
La comunità scientifica è sostanzialmente concorde nel ritenere che la causa del riscaldamento
globale sia di origine antropica (Oreskes, 2004; Joint Science Academies' Statement, 2010; The
National Academies, 2008). Ciò nonostante è in essere un ampio dibattito scientifico e politico che
coinvolge anche l'opinione pubblica. Il protocollo di Kyoto vuole mirare alla riduzione dei gas serra
prodotti dall'uomo. Alla data di novembre 2009 187 paesi avevano sottoscritto e ratificato il
protocollo (Kyoto Protocol, 2009).
I cambiamenti recenti del clima sono stati analizzati più in dettaglio solo a partire dagli ultimi 50
anni, cioè da quando le attività umane sono cresciute esponenzialmente ed è diventata possibile
l'osservazione dell'alta troposfera. Tutti i principali fattori ai quali è attribuito il cambiamento
climatico sono legati alle attività dell'uomo. In particolare questi sono (IPCC; 2007):
• incremento della concentrazione di gas serra nell'atmosfera;
• cambiamenti sulla superficie terrestre come la deforestazione;
• incremento degli aerosol;
• allevamento intensivo.
Un rapporto dell’Intergovernmental Panel on Climate Change (IPCC) conclude che la maggior
parte degli incrementi di temperatura osservati dalla metà del XX secolo è, con molta probabilità,
da imputare all'incremento di gas serra prodotti dall'uomo; mentre è molto improbabile (si stima
14
sotto il 5%) che le variazioni climatiche possano essere spiegate ricorrendo solo a cause naturali. Il
riscaldamento interessa sia l'oceano sia l'atmosfera.
Influenza della variazione dell'attività solare ed altri fattori cosmici. Variazioni nelle emissioni
solari sono state concausa, in passato, dei cambiamenti climatici (National Research Council,
1994). Gli effetti sul clima dei cambiamenti delle emissioni solari negli ultimi decenni sono incerti
(Lockwood e Fröhlich, 2008) d'altro canto alcuni studi suggeriscono che tali effetti siano minimi
(Phillips T., 2013; DuffyP.B., Santer B.D. e Wigley T.M.L., 2009; Hansen., 2002; 2005).
Gas serra e raggi solari incidono sulle temperature in modo diverso. Sebbene entrambi tendano a
riscaldare la superficie terrestre e l'immediata porzione di troposfera che poggia su di essa,
l'incremento dell'attività solare dovrebbe riscaldare la stratosfera mentre i gas serra la dovrebbero
raffreddare. Le osservazioni della stratosfera mostrano come la temperatura si è andata abbassando
a partire dal 1979, da quando è possibile la misurazione della stessa tramite i satelliti. Le stesse
radiosonde, usate prima dei satelliti, mostrano un raffreddamento della stratosfera a partire dal 1958
sebbene vi siano alcuni dubbi sulle prime misurazioni effettuate con questi dispositivi (Randel et
al., 2009).
Un'ipotesi correlata, proposta da Henrik Svensmark, è che l'attività magnetica del sole devii i raggi
cosmici che possono così influenzare la formazione di nubi di condensa e causare quindi degli
effetti sul clima (Marsh. e Svensmark, 2000).
Altre ricerche invece non rilevano legami tra il riscaldamento climatico e i raggi cosmici
(Lockwood e Fröhlich, 2007; Sloan e Wolfendale, 2008). L'influenza dei raggi cosmici sulle nubi
ha tuttavia un'incidenza cento volte più bassa di quella necessaria a spiegare i cambiamenti
osservati nelle masse nuvolose o per contribuire significativamente al riscaldamento climatico
(Pierce e Adams, 2009).
Influenza dei gas serra nell'atmosfera. L'effetto serra è l'insieme dei meccanismi che rende la
temperatura superficiale di un pianeta superiore a quella che si avrebbe per puro equilibrio
radiattivo, calcolato secondo la legge di Stefan-Boltzmann. Tale concetto è stato proposto per la
prima volta da Joseph Fourier nel 1827 ed è stato studiato poi da Svante Arrhenius nel 1896 (Weart,
2008).
L'effetto serra produce sulla superficie terrestre un aumento di temperatura di circa 33 °C, dato
calcolato considerando la temperatura media terrestre nel 1850 (IPCC, 2007).
I principali gas serra sono: il vapore acqueo, responsabile dell'effetto serra in una percentuale
variabile tra il 36–70%; l'anidride carbonica (CO2), che incide per il 9-26%; il metano (CH4), che
incide per il 4-9%; l'ozono (O3), che incide tra il 3-7% (Kiehl e Trenberth, 1997; Schmidt, 2005;
Russell, 2007). L'attività dell'uomo, già dalla rivoluzione industriale, ha incrementato l'ammontare
di gas serra nell'atmosfera modificando l'equilibrio radiativo e la partizione energetica superficiale
(atmosfera radiativa-convettiva). La concentrazione di CO2 e metano ha subito un incremento
rispettivamente del 36% e del 148% dal 1750 (EPA, 2007). Queste concentrazioni sono tra le più
alte degli ultimi 650.000 anni, periodo che è misurabile in base ai dati estratti da carotaggi nel
ghiaccio (Spahni et al., 2005; Siegenthaler et al., 2005; Petit et al.,1999). Tale incremento di circa 2
ppm all'anno è legato principalmente all'uso di combustibili fossili che durante il periodo
carbonifero (tra 345 e 280 milioni di anni fa) avevano fissato la CO2 nel sottosuolo, trasformandola
dalla forma gassosa a quella solida o liquida di petrolio, carbone o gas naturale. Negli ultimi 150200 anni, a partire dalla rivoluzione industriale, la combustione dei giacimenti fossili ha invertito il
processo avvenuto durante il periodo carbonifero liberando grandi quantità di anidride carbonica
pari a circa 27 miliardi di tonnellate all'anno. Secondo le stime, il pianeta riuscirebbe oggi a
riassorbire, mediante la fotosintesi clorofilliana e l'azione delle alghe degli oceani, meno della metà
di tali emissioni, anche a causa della deforestazione (Working Group I to the Third Assessment
Report of the Intergovernmental Panel on Climate Change, 2001). Alcuni indizi di carattere
geologico indicano che gli attuali valori di CO2 sono più alti di quelli di 20 milioni di anni fa
(Pearson e Palmer, 2000). Il bruciare i combustibili fossili ha prodotto circa 3/4 dell'incremento di
anidride carbonica negli ultimi 20 anni. La restante parte di incremento è largamente dovuta all'uso
15
che l'uomo ha fatto della superficie terrestre, come nel caso della deforestazione (IPCC, 2001).
L'attività umana ha, infatti, ridotto la biomassa vegetale in grado di assorbire la CO2 fin dalla
rivoluzione agricola neolitica, trasformando i boschi in campi o città. Oggi la deforestazione (in
particolare in Amazzonia) continua ad aumentare ed aggrava ulteriormente la situazione. A
contribuire ulteriormente vi è la maggior produzione di metano dovuto a fermentazione tipico
dell'allevamento anch'esso cresciuto in modo significativo e delle colture a sommersione (ad
esempio il riso). Secondo il comitato di esperti delle Nazioni Unite (Intergovernmental Panel on
Climate Change) l'attuale riscaldamento non può essere spiegato se non attribuendo un ruolo
significativo anche a questo aumento di concentrazione di CO2 nell'atmosfera (Anthropogenic
teory, Global Warming). Nell'arco degli ultimi tre decenni del XX secolo, la crescita del PIL
procapite e la crescita della popolazione sono stati i volani dell'aumento dell'emissione di gas serra
(Rogner et al. (2007; National Research Council, 2008; World Bank, World Development Report,
2010). Alla luce di questi studi sono stati creati degli strumenti per prevedere gli scenari futuri. Gli
Special Report on Emissions Scenarios redatti dall'IPCC disegnano il possibile scenario per il 2100:
la concentrazione di CO2 in atmosfera potrebbe variare tra 541 e 970 ppm.(Prentice et al., 2001).
Questo significa un incremento del 90-250% di concentrazione di anidride carbonica rispetto al
1750. Le riserve di combustibile fossile sono sufficienti per raggiungere questi livelli e andare
anche oltre il 2100 (Nakicenovic et al., 2001).
Ozono. La distruzione dell'ozono presente nella stratosfera a causa dei clorofluorocarburi svolge un
ruolo importante in relazione al riscaldamento globale (figura 11 e figura 12).
Figura 11 - Le emissioni di superficie dei precursori dell'ozono e l’andamento della quantità di metano in funzione del
tempo (sopra). La media annua globale delle emissioni dei precursori (asse a sinistra) e l’andamento del
metano sono mostrati (asse di destra). Le emissioni regionali medie annuali di NOx, un esempio di quelle
usate per i vari precursori (sotto). Le emissioni sono basate sul lavoro di van Aardenne et al., 2001 nei
Tg/anno: N per NOx, CO per monossido di carbonio e C per idrocarburi non metanici. Il metano è stato
previsto in superficie con la media globale totale indicata sopra ed una variante con la latitudine simile alle
osservazioni attuali, creando un gradiente interemisferico del 5,5% in più in NH rispetto ai valori medi di
SH. Nella legenda, CSI è il Commonwealth degli Stati indipendenti (ex Unione Sovietica) e Dey è l’area
dell’Asia in via di sviluppo. I simboli sono dati per anni. Nelle ordinate, i valori sono espressi in Tg/anno,
teragrammi/anno (1 Tg = 1012 g), mentre in ascissa si riporta il tempo in anni.
16
Figura 12 - Cambiamento di ozono troposferico calcolato secondo il modello chimicoclimatico (in alto). Conseguenze istantanee della forzatura della tropopausa
radiativa utilizzata nelle simulazioni climatiche transitorie, che sono guidate
da imposti andamenti dell’ozono troposferico (in basso). I cambiamenti di
ozono sono dati sia dalla colonna della media globale troposferica (> 150 ppb
di ozono), sia dal carico troposferico (inferiore a 150 millibar). L’ozono
nell’asse delle ordinate a sinistra in alto è misurato in unità di Dobson (DU),
per cui unità di Dobson equivale ad uno strato di ozono puro dello spessore di
0,01 mm alla densità che questo gas possiede alla pressione esistente
all’altezza del suolo. La quantità di ozono che ci sovrasta alle latitudini
temperate è pari a circa 350 DU. Per effetto delle correnti stratosferiche,
l’ozono viene trasportato dalle regioni tropicali a quelle polari. Nell’asse delle
ordinate, a destra in alto, l’ozono è misurato in Teragrammi (Tg) pari a 1012
grammi. Nell’asse delle ordinate, nel grafico in basso, si riporta l’emittenza
radiante o emittenza energetica (radiant exitance) che è il flusso radiante
emesso da una sorgente estesa per unità di area che, nel sistema
internazionale, si misura in W/m2 (watt per metro quadrato).
Tuttavia il legame non è così forte, poiché la riduzione della fascia di ozono ha effetti raffreddanti
(Ramaswamy, 1992). L'ozono presente nella troposfera (cioè nella parte più bassa dell'atmosfera
terrestre) contribuisce invece al riscaldamento della superficie della Terra. (Shindell et al, 2006).
Le tendenze di forcing radiativo erano non lineare nel tempo. Poi si separano in due periodi quasi
lineari: prima e dopo il 1950. Pertanto, le analisi del riscaldamento terrestre sono concentrate in
gran parte sulle tendenze durante la prima e la seconda metà del XX secolo. Il modello spaziale dei
cambiamenti di ozono durante questi due periodi, ciascuno di 50 anni, riguarda la superficie, un
17
livello vicino alla tropopausa, e la colonna totale nella figura 13. La superficie mostra la maggior
parte della distribuzione disomogenea, con aumenti di ozono chiaramente localizzati vicino le
regioni industrializzate (e in misura minore per la combustione di biomasse), in particolare durante
la prima metà del il secolo.
Gli aumenti sono più uniformemente distribuiti in direzione delle aree con livelli più alti, come ci si
aspetterebbe dalla prevalente circolazione e dai tempi chimici più lunghi a queste altitudini. Sia la
superficie sia il livello di ozono della tropopausa, nonché la colonna, mostrano gli incrementi
maggiori nelle latitudini del centro nord. Oltre l’Africa, tuttavia, gli aumenti sono grandi quasi tutti
fino all'equatore. Negli oceani, gli aumenti sono stati di grandi dimensioni sopra l'Atlantico e,
soprattutto, sopra l'Oceano Indiano, ma minori sopra il Pacifico.
Figura 13 - Cambiamenti di ozono prima e dopo il 1950. I valori sono presentati (in alto), per il livello di superficie
(ppb), (al centro) per il livello centrale intornoa 280 hPa (ppb), e (in basso) per la colonna troposferico
(DU). Nota che le prime due righe condividono la stessa barra di colore e che le scale delle parcelle sulla
destra sono il doppio di quelle a sinistra. I valori in alto a destra di ogni parcella danno il valore medio
globale nelle stesse unità.
18
Le osservazioni sono state prese presso stazioni che vanno da un’altitudine sul livello del mare da
400 a 3.450 m, con i più alti siti di campionamento dell’aria in cima alle montagne di superficie
superiore a alla superficie del modello come la topografia GCM è mediata sopra i relativamente
grandi volumi della griglia. Sono stati, inoltre, calcolati i valori di ozono medio del modello nel
secondo strato, che ha mostrato il valore di 28 ppbv nel 1930. Sembra quindi che il modello
produce un buon lavoro nella cattura dei valori di ozono.
Ampi confronti attuali indicati in precedenza (Shindell et al., 2003) indicano anche una elevata
qualità della simulazione, che porta a concludere che le tendenze di ozono sono abbastanza
plausibili in base ai limitati dati disponibili del modello storico. Si nota, tuttavia, che le prime
misurazioni dell'ozono si estendono dalla fine del 1930 attraverso 1950. Se invece si utilizza il
modello 1950 dei valori di superficie, le tendenze sono troppo piccole per soddisfare tali
osservazioni.
Allo stesso modo, se si confrontano le osservazioni di Montsouris alla fine del XIX secolo (Volz e
Kley, 1988) con il modello, la superficie di ozono del modello è troppo grande (circa 10-15 ppbv).
La tendenza del modello dovrebbe avere un aumento di circa il 50%. Poiché questo è solo un
singolo dato di osservazione quantitativamente affidabile del XIX secolo e che richiede anche una
correzione incerta per contaminazione da aerosol, potrebbe non essere rappresentativo.
Da quando è stato preso appena fuori Parigi, la quantità di ozono nel XIX secolo è scarsamente
vincolata da osservazioni.
Analogamente, gli studi del modello dipendono dalle emissioni che non sono inoltre ben note. Un
primo esempio sono le emissioni dalla combustione della biomassa.
Si tratta in parte di emissioni di origine antropica e in parte naturale. Tuttavia, anche la componente
naturale è stata colpita da pratiche di gestione degli incendi boschivi. Le emissioni di combustione
da masse preindustriali non sono ben note e anche le stime delle emissioni attuali variano
considerevolmente.
Il set dei dati che è stato utilizzato (van Aardenne et al., 2001) ha mostrato 290 Tg CO/anno nel
1990 dalla combustione della biomassa, per esempio, mentre nel 1990 (Benkovitz et al., 1996), le
emissioni dichiarate dall’Inventario delle Attività Globali delle Emissioni (Global Emissions
Inventory Activity, GEIA) e nel 2000 (Van der Werf et al., 2003) dal Database Globale delle
Emissioni del Fuoco (Global Fire Emissions Database, GFED) mostrano 490 e 467 Tg CO/anno,
rispettivamente.
In un precedente studio, confrontando il modello CO con le osservazioni dello strumento satellitare
MOPITT (Shindell et al., 2005), è stato trovato il miglior accordo utilizzando gli inventari più
grandi. Assumendo la stessa dipendenza dal tempo (in percentuale), come nei dati di van Aardenne
et al., 2001, i dati di questa grande emissione attuale sono circa il doppio nelle emissioni del XX
secolo per la combustione della biomassa.
Vi è, quindi, notevole incertezza per quanto riguarda la presenza pre-industriale di ozono
troposferico ad oggi. Sulla base del confronto dei dati, l’emissioni ottenuta dalla combustione della
biomassa sembra possibile riflettere un limite inferiore.
Questo è in accordo con altri studi che suggeriscono che il cambiamento totale potrebbe essere più
grande per uno dei due fattori rispetto ai valori ottenuti dal modello di studi che si basa sulle stime
delle emissioni convenzionali (Mickley et al., 2001) e sulle analisi di set multipli dei dati iniziali
(Shindell e Faluvegi, 2002).
Si possono anche confrontare con altri modelli gli studi che hanno valutato i cambiamenti di ozono
troposferico oltre lo stesso periodo di tempo.
Uno studio ha utilizzato lo stesso intervallo di tempo, dipendente dalle emissioni antropiche di
precursori dell'ozono, per guidare le simulazioni chimiche con il modello MOZART-2 (Lamarque
et al., 2005), mentre un altro studio ha usato un modello simile, in parte derivato, del set di
emissioni all'interno di OsloCTM-1 (Berntsen et al., 2000). I carichi di ozono troposferico per
entrambi i modelli aumentano abbastanza lentamente dal 1890 attraverso il 1950, dopo di che il
19
tasso di crescita aumenta notevolmente, in conseguenza dell’andamento quasi lineare nei due secoli
mezzo (figura 12).
Per le specie in tracce relativamente di breve durata come l'ozono, i tempi di trasporto separano la
troposfera in tre regioni: i tropici e le due aree extratropicali (Bowman e Erukhimova, 2004).
L'insieme della media globale annuale, tropicale (24 S-24 N), NH e dell'emisfero meridionale (SH)
extratropicale mostra le le tendenze della temperatura superficiale media annua in risposta agli
aumenti di ozono troposferico (figura 14).
Mentre una quantità considerevole di variabilità multidecadale è presente per l'oceano, specialmente
in un'altalena nel trasporto di calore tra le due regioni extratropicali, è tuttavia evidente che la
risposta al clima spazialmente è molto disomogenea.
Figura 14 - Variazione della temperatura superficiale media annua in risposta alla modificazione di ozono della
troposfera tempo-dipendente. I risultati sono la media di oltre cinque membri dell'ensemble per il nord e il
sud degli extratropici, i tropici e l'intero globo, tutti calcolati come media di 10 anni consecutivi. I valori
sono espressi rispetto alla media 1880-1890.
Gli extratropici SH non mostrano virtualmente alcuna tendenza, i tropici sono sostanzialmente caldi
e il NH extratropicale si riscalda abbastanza rapidamente. Le tendenze lineari per il XX secolo
sono 0,03 °C ± 0,01 °C, 0,14 °C ± 0,01 °C e 0,18 °C ± 0,01 °C, rispettivamente (2% di probabilità).
Il maggiore riscaldamento di NH extratropici è coerente con la distribuzione spaziale delle
variazioni di ozono (figura 13).
L'efficienza della produzione di ozono da NOx, definita come il rapporto tra l'aumento del carico di
ozono troposferico e l'aumento delle emissioni di NOx, relative al 1890, è stato più grande di circa
il 20% del 1950 diminuendo da allora in poi, ma rimanendo pressoché costante dal 1970 (figura 15).
Questi cambiamenti temporali sono simili alla studio MOZART-2 eccetto che la forte riduzione
dell’efficienza era iniziata circa 20 anni prima nelle simulazioni effettuate.
Le variazioni frazionali sono state maggiori in questo studio, tuttavia,
dove l'efficienza è stata ridotta di circa il 33% (se è stata calcolata la variazione del carico di ozono
solo al di sotto di 400 hPa, in questo caso, che limita il confronto ed anche i limiti del confronto
della grandezza della efficienza produttiva in i due modelli).
20
Anche le discrepanze sono molto probabilmente relative alle diverse emissioni naturali ed al limite
superiore delle specifiche tecniche. In un altro studio che ha utilizzato un diverso modello di
trasporto chimico, l'efficienza odierna di produzione di ozono nelle emissioni di NOx è stato trovato
essere circa il 50% del valore preindustriale (Wang e Jacob, 1998).
Anche se tale calcolo copre un intervallo di tempo leggermente più lungo, dagli studi risulta che
l'ampiezza della variazione dell’efficienza non è quantitativamente robusta. In generale, però, i
tempi ed i modelli spaziali in tutta la troposfera sono ampiamente coerenti per i modelli Mozart-2,
OsloCTM-1 e GISS, anche se l'entità dei cambiamenti quantitativi di ozono e la conseguente
forzatura mostrano considerevoli variazioni da modello a modello.
Figura 15 - Efficienza produttiva normalizzata di ozono in funzione del tempo. L'efficienza
è definita come il rapporto tra la aumento del carico di ozono troposferico e
l'aumento delle emissioni di NOx, rispetto al 1890. Il carico troposferico di
ozono è stato calcolato utilizzando la soglia di ozono di 150 ppb (parti per
bilione) per l'aria stratosferico; l'efficienza senza unità è stata normalizzata per
il valore del 1980 di 4.4). I punti indicano gli anni in cui le simulazioni sono
state eseguite.
In sintesi, lo strato di ozono è una regione dell’atmosfera che rappresenta il naturale schermo della
Terra alle radiazioni solari essendo in grado di filtrare le pericolose radiazioni ultraviolette
contenute nella luce solare prima che queste raggiungano la superficie terrestre causando danni
all’uomo e alle altre forme di vita. Di conseguenza la comparsa di un “buco” di rilevanti dimensioni
nello strato di ozono al di sopra dell’Antartide rappresenta uno dei più gravi pericoli per l’ambiente.
La quantità totale di ozono che ci sovrasta in qualsiasi punto dell’atmosfera è espressa in termini di
unità di Dobson (DU); una unità di Dobson equivale ad uno strato di ozono puro dello spessore di
0.01 mm alla densità che questo gas possiede alla pressione esistente all’altezza del suolo (figura
16). La quantità di ozono che ci sovrasta alle latitudini temperate è pari a circa 350 DU. Per effetto
delle correnti stratosferiche, l’ozono viene trasportato dalle regioni tropicali a quelle polari.
21
Quindi vicino all’Equatore lo strato di ozono che ci protegge dalle radiazioni ultraviolette è minore.
La concentrazione di ozono ai tropici mediamente è pari a 250 DU mentre quelle nelle regioni
subpolari è circa 450 DU, eccetto le zone sovrastate dal buco dell’ozono.
Figura 16 – Strati dell’atmosfera con le varie molecole CFC (clorofluorocarburi, che tendono a
ridurre lo strato di ozono), O (ossigeno atomico o ossigeno allo stato nascente), O2
(ossigeno molecolare, quello che compone l’atmosfera per circa il 20%), O3 (ozono),
Cl (cloro atomico) e ClO (monossido di cloro che si forma a seguito della reazione
dell’ozono con il cloro).
Vapore acqueo. Il principale gas ad effetto serra è il vapore acqueo (H2O), responsabile di un
intervallo che va dal 36 al 70% dell'effetto serra.(Gavin, 2005; Kiehl e Trenberth, 1997)
Nell'atmosfera, le molecole di acqua catturano il calore irradiato dalla superficie terrestre
diramandolo in tutte le direzioni, riscaldando così la superficie della terra prima di essere irradiato
nuovamente nello spazio. Il vapore acqueo atmosferico è parte del ciclo idrologico, un sistema
chiuso di circolazione dell'acqua dagli oceani e dai continenti verso l'atmosfera in un ciclo continuo
di evaporazione, traspirazione, condensazione e precipitazione. Tuttavia l'aria calda può assorbire
molta più umidità e, di conseguenza, le temperature in aumento intensificano ulteriormente
l'aumento di vapore acqueo in atmosfera e quindi il cambiamento climatico in quello che a livello
teorico è chiamato effetto serra a valanga.
Anidride carbonica. L'anidride carbonica (CO2) è responsabile per il 9-26% .(Gavin, 2005; Kiehl e
Trenberth, 1997) dell'effetto serra ed interagisce con l'atmosfera per cause naturali e antropiche: i
serbatoi naturali della CO2 sono gli oceani (che contengono il 78% della CO2), i sedimenti fossili
(22%), la biosfera terrestre (6%), l'atmosfera (1%).
Gran parte dell'anidride carbonica degli ecosistemi viene immessa in atmosfera. Un certo numero di
organismi hanno la capacità di assimilare la CO2 atmosferica. Il carbonio, grazie alla fotosintesi
delle piante, che combina l'anidride carbonica e l'acqua in presenza di energia solare, entra nei
composti organici e quindi nella catena alimentare, ritornando infine in atmosfera attraverso la
respirazione. Si possono individuare delle variazioni annuali della concentrazione di CO2
22
atmosferica: durante l'inverno si registra un aumento di concentrazione dovuto al fatto che nelle
piante a foglia caduca prevale la respirazione; durante l'estate invece la concentrazione di CO2
atmosferica diminuisce per l'aumento complessivo della fotosintesi ovvero la fase attiva di
accumulo di carbonio.
Gli oceani hanno un ruolo fondamentale nel bilancio del carbonio: costituiscono una vera e propria
riserva di carbonio sotto forma di ione bicarbonato e contengono quantità enormi di CO2, fino al
79% di quella naturale. Gli oceani possono rilasciare o assorbire CO2 in quanto è solubile in acqua.
L'incremento di temperatura dell'acqua diminuisce la solubilità del biossido di carbonio, pertanto
l'aumento della temperatura degli oceani sposta CO2 dal mare all'atmosfera. Gli oceani, assorbendo
la CO2 atmosferica, tendono a mantenere più stabile la sua concentrazione nell'atmosfera; se invece
la concentrazione nell'atmosfera tende ad abbassarsi, gli oceani possono liberare anidride carbonica
fungendo così da riequilibratori o feedback. Questo bilancio naturale tra emissioni da parte della
biosfera e assorbimento da parte degli oceani, in assenza di attività antropica ed in prima
approssimazione, è sempre in pareggio. Esso coinvolge valori di emissioni e assorbimenti maggiori
rispetto alle emissioni antropiche.
Tuttavia, per quanto piccole rispetto al totale, le emissioni antropiche sono sufficienti a squilibrare
l'intero sistema. L'anidride carbonica si va così accumulando nell'atmosfera in quanto i processi di
assorbimento da parte dello strato rimescolato dell'oceano non riescono a compensare l'aumento del
flusso di carbonio entrante in atmosfera.
Le emissioni legate all'attività umana sono dovute in primis all'uso di energia fossile come petrolio,
carbone e gas naturale; la restante parte è dovuta a fenomeni di deforestazione e cambiamenti d'uso
delle superfici agricole. Il contributo della deforestazione è peraltro molto incerto ed oggi al centro
di molti dibattiti: le stime indicano valori compresi tra un minimo di 0.6 e un massimo di 2 miliardi
di tonnellate di carbonio all'anno (rispettivamente 2.2 e 7.3 miliardi di tonnellate di CO2). Per
quanto concerne la persistenza media in anni della CO2 in atmosfera, l'IPCC considera un intervallo
compreso tra i 50 e i 200 anni, in dipendenza sostanzialmente dal mezzo di assorbimento. L'anidride
carbonica nell'atmosfera è aumentata di circa il 25% dal 1960 ad oggi: la stazione di rilevazione di
Mauna Loa (Hawaii) ha registrato in tale periodo una variazione da 320 ppm (1960) a 400 ppm
(2014).
Metano (CH4). Il metano è considerato responsabile dell'effetto serra per circa il 18%, essendo,
infatti, la sua capacità nel trattenere il calore 21 volte maggiore rispetto a quella dell'anidride
carbonica.
La sua concentrazione atmosferica media sta aumentando con un tasso medio annuo valutato tra
l'1,1% e l'1,4%. Il metano è il prodotto della degradazione di materiale organico in ambiente
anaerobico. Le principali fonti di metano sono i terreni paludosi (25-170 Tg annui; 1 Tg o
teragrammo = 1012 grammi, ossia 1 milione di tonnellate), le risaie (40-179 Tg), la fermentazione
del concime organico (40-110 Tg), la combustione della biomassa (30-110 Tg), la produzione e la
distribuzione di gas naturale (20-50 Tg), l'estrazione del carbone (10-40 Tg), le termiti (5-45 Tg) e,
non ultimo, la fusione del permafrost (o permagelo, è un terreno tipico delle regioni dell'estremo
nord perennemente ghiacciato, non necessariamente con presenza di masse di acqua congelata).
Convenzionalmente con questo termine si indica un terreno ghiacciato da almeno due anni.
È da rilevare il forte aumento delle emissioni di metano anche da parte delle discariche; inoltre si è
avuto un aumento delle emissioni provenienti dal settore energetico e una diminuzione di quelle del
settore agricolo.
Radiazione ultravioletta (UV). La radiazione ultravioletta (radiazione UV) è quella porzione dello
spettro elettromagnetico di lunghezze d´onda comprese tra 100 e 400 nm (nanometri) o,
equivalentemente, tra 0,1 e 0,4 micron. Verso le lunghezze d´onda maggiori, la radiazione UV
confina con la luce visibile di lunghezza d´onda più corta, percepita dall´uomo come viola, da cui la
denominazione "radiazione ultravioletta" (figura 17).
23
Figura 17 - Spettro elettromagnetico delle lunghezze d´onda.
La radiazione UV è suddivisa in tre bande di differenti lunghezze d´onda chiamate UVA, UVB e
UVC. Le esatte lunghezze d´onda in base alle quali vengono definite le tre bande variano a seconda
degli specifici ambiti di studio. La suddivisione più utilizzata è però la seguente:
• UVA: 400-315 nm
• UVB: 315-280 nm
• UVC: 280-100 nm
Le sorgenti di radiazione ultravioletta sono naturali ed artificiali.
La sorgente naturale più importante è sicuramente il sole. Come tutti i corpi a temperature elevate,
anche il sole emette una ampio spettro di onde elettromagnetiche che spaziano dall´infrarosso
all´ultravioletto.
Tale emissione è legata alla trasformazione dell´energia termica prodotta dalle numerose reazioni
nucleari e chimiche che avvengono all´interno e sulla superficie della stella, in energia radiante.
Figura 18 – La lunghezza d’onda in nm in rapporto alla costante solare spettrale all’apice
dell’atmosfera ed al livello del mare. UV è la fascia della luce ultravioletta; PAR
(photosynthetically active radiation)è la radiazione fotosinteticamente attiva,cioè
quella misura dell'energia della radiazione solare intercettata dalla clorofilla a e b
nelle piante; NIR (Non-Ionizing Radiations) si riferisce a qualunque tipo di
radiazione elettromagnetica che non trasporta sufficiente energia per ionizzare
atomi o molecole o per rimuovere completamente un elettrone da un atomo o
molecola. Invece di produrre ioni carichi attraversando la materia, la radiazione
elettromagnetica ha sufficiente energia solo per eccitare il movimento di un
elettrone ad uno stato energetico superiore. Nondimeno diversi effetti biologici
vengono osservati per diversi tipi di radiazioni non-ionizzanti.
L´atmosfera terrestre, tramite processi di assorbimento e diffusione, agisce come un filtro rispetto
alle radiazioni provenienti dal sole (figura 19). In particolare:
24
la radiazione UVC (la più dannosa per la vita a causa del suo alto contenuto energetico) viene
completamente assorbita dall´ozono e dall´ossigeno degli strati più alti dell´atmosfera;
• la radiazione UVB viene anch´essa in buona parte assorbita, ma una non trascurabile percentuale
(circa il 15-20%) riesce a raggiungere la superficie terrestre;
• la radiazione UVA riesce in buona parte (circa il 55-60%) a raggiungere a superficie terrestre.
In sintesi, la radiazione UV che raggiunge la superfice terrestre è circa il 9% (circa 120 Wm-2) della
radiazione solare al top dell´atmosfera ed è distribuita tra UVA (90%) ed UVB (10%).
•
Figura 19 – Energia, misurata in W/m2 (watt per metro quadrato), dell’irradianza spettrale, in relazione alla lunghezza
d’onda (in nm) misurata all’equatore, al top dell’atmosfera ed al livello del mare, come UVC, UVB e UVA.
Le sorgenti artificiali sono di svariati tipi e ambiti di applicazione. Tra le più diffuse, ricordiamo le
lampade germicide che sono usate per assicurare la sterilità di utensili e ambienti ospedalieri. Esse
sono costituite da tubi di vetro al quarzo riempiti con una miscela gassosa di argon e vapori di
mercurio a bassa pressione, attraverso i quali viene indotta una scarica elettrica. A differenza dello
spettro solare, lo spettro di emissione di queste lampade è costituito da righe discrete, in
corrispondenza alle frequenze di diseccitazione degli atomi di mercurio soggetti alla scarica
elettrica. Per le lampade a mercurio la riga principale, che comprende da sola l´80% dell´energia
emessa, si trova a 254 nm. Essa è vicinissima alla lunghezza d´onda di massimo assorbimento del
DNA, a 260 nm, e questo spiega la particolare efficacia di queste lampade nell´indurre effetti di
sterilizzazione.
Un altro utilizzo delle lampade UV, oggi molto comune, è negli istituti di estetica per favorire
l´abbronzatura. In questo caso la lampada deve essere opportunamente schermata per eliminare le
componenti nocive e permettere la fuoriuscita della sola radiazione UVA che è quella ad effetto
abbronzante.
In campo artigianale ed industriale infine è frequente l´uso di saldatrici ad arco elettrico ed anche di
alcuni laser che operano a lunghezze d´onda comprese nell´ultravioletto.
La frazione di radiazione ultravioletta che raggiunge la superficie terrestre è influenzata da vari
fattori. Tra questi i più importanti sono:
• Copertura nuvolosa. La copertura nuvolosa, se spessa, può bloccare la radiazione UV. Una
nuvolosità fine o intervallata permette il passaggio quasi totale della radiazione UV. Se la
nuvolosità è costituita da nubi isolate tipiche di condizioni di bel tempo, è possibile che la
radiazione UV che raggiunge il suolo in un certo punto sia addirittura maggiore che in condizioni
di cielo sereno.
• Ozono. L´ozono assorbe la radiazione UV. Maggiori quindi sono le concentrazioni di ozono,
minore è la quantità di radiazione che raggiunge il suolo. Esso è presente sia nella troposfera
(strato di atmosfera compreso tra il suolo e 10 km di quota) che nella stratosfera (strato di
25
atmosfera compreso tra 10 e 40 km di quota). I livelli di ozono troposferico possono variare a
seconda dell´ora del giorno, da giorno a giorno e da stagione a stagione. Diverso è il discorso per
l´ozono stratosferico che è caratterizzato da variazioni molto più lente e in parte legate a
mutazioni indotte dall´uomo. Si è infatti ormai certi che la riduzione dello strato di ozono
stratosferico osservata negli ultimi decenni sia causata dai composti del fluoro, del cloro e del
bromo, gas denominati Clorofluorocarburi (CFC) e Idrofluoruri (HCFC). Tali gas, prodotti ed
immessi in atmosfera dall´uomo, sono capaci di distruggere le molecole di ozono anche a
distanza di molti anni data la loro stabilità. Il primo effetto della distruzione dello strato di ozono
è un aumento della radiazione UVB di origine solare che raggiunge la bassa atmosfera e la
superficie terrestre. Grazie ai provvedimenti adottati a livello internazionale il problema della
riduzione dello strato di ozono è in via di soluzione.
• Altitudine. La radiazione UV aumenta di circa il 10-12% ogni 1000 m a causa del minore
spessore dell´atmosfera.
• Ora del giorno, latitudine e stagione. L´elevazione del sole è la causa comune dell´influenza
dell´ora del giorno, della latitudine e della stagione sulla quantità di radiazione UV che
raggiunge il suolo. Come per l´altitudine, il diverso assorbimento della radiazione UV è legato al
diverso spessore dello strato di atmosfera che i raggi solari si trovano ad attraversare prima di
raggiungere il suolo. I valori massimi di radiazione UV si registrano di conseguenza ai tropici, in
estate e verso mezzogiorno.
• Caratteristiche della superficie. Per valutare i valori di esposizione dell´uomo alla radiazione UV
si deve tener conto, oltre che della radiazione che arriva direttamente dall´atmosfera, anche di
eventuali contributi dovuti a fenomeni di riflessione che dipendono dalle caratteristiche della
superficie: i prati, il suolo nudo e l´acqua riflettono meno del 10% della radiazione incidente, la
sabbia arriva ad un 25%, mentre la neve può arrivare anche all´80%.
Riscaldamento degli oceani. L'incremento della CO2 dovuto alle fonti fossili potrebbe essere
amplificato dal conseguente riscaldamento degli oceani. Le acque marine contengono disciolta una
grande quantità di CO2 ed il riscaldamento dei mari potrebbe causarne l'emissione in atmosfera.
Inoltre il riscaldamento dovuto all'aumento della temperatura potrebbe produrre una maggior
evaporazione dei mari liberando in atmosfera ulteriori quantità di vapore acqueo, il principale gas
serra, accrescendo ulteriormente la temperatura globale.
Le proiezioni del modello climatico adottato dall'IPCC indicano che la temperatura media
superficiale del pianeta si dovrebbe innalzare di circa 1,1-6,4 °C durante il XXI secolo. Questo
intervallo di valori risulta dall'impiego di vari scenari circa le emissioni future di gas serra, assieme
a diversi valori di sensibilità climatica.
Benché molti studi riguardano l'andamento nel XXI secolo, il riscaldamento e l'innalzamento del
livello dei mari potrebbero continuare per più di un migliaio di anni, anche se i livelli di gas serra
verranno stabilizzati.
Il ritardo nel raggiungimento di un equilibrio sarebbe dovuto alla grande capacità termica degli
oceani.
Secondo alcuni studi (Lyman et al., 2010) la stasi delle temperature globali negli ultimi 10 anni
(2000-2009) sarebbe imputabile proprio all'accumulo di calore da parte degli oceani, per le loro
elevate capacità termiche, con conseguente riscaldamento anche degli strati sotto-superficiali come
alcune evidenze sperimentali sembrano confermare.
Retroazione. Quando una tendenza al riscaldamento provoca effetti che inducono ulteriore
riscaldamento si parla di retroazione positiva, mentre quando gli effetti producono raffreddamento
si parla di retroazione negativa.
La principale retroazione positiva nel sistema climatico comprende il vapore acqueo, mentre la
principale retroazione negativa è costituita dall'effetto della temperatura sulle emissioni di
radiazione infrarossa: all'aumentare della temperatura di un corpo, la radiazione emessa aumenta in
proporzione alla potenza quarta della sua temperatura assoluta (legge di Stefan-Boltzmann).
26
Questo effetto fornisce una potente retroazione negativa che stabilizza il sistema climatico nel
tempo.
Uno degli effetti a retroazione positiva invece è in relazione con l'evaporazione dell'acqua. Se
l'atmosfera è riscaldata, la pressione di saturazione del vapore aumenta e con essa aumenta la
quantità di vapore acqueo nell'atmosfera. Poiché esso è un gas serra, il suo aumento rende
l'atmosfera ancora più calda, e di conseguenza si ha una maggiore produzione di vapore acqueo.
Questo processo continua fino a quando un altro fattore interviene per interrompere la retroazione.
Il risultato è un effetto serra molto più grande di quello dovuto alla sola CO2, anche se l'umidità
relativa dell'aria rimane quasi costante (Soden et Held, 2005). Gli effetti di retroazione dovuti alle
nuvole sono attualmente un campo di ricerca.
Viste dal basso, le nuvole emettono radiazione infrarossa verso la superficie, esercitando un effetto
di riscaldamento; viste dall'alto, le nuvole riflettono la luce solare ed emettono radiazione verso lo
spazio, con effetto opposto.
La combinazione di questi effetti risultano in un raffreddamento o in un riscaldamento netto a
seconda del tipo e dell'altezza delle nuvole. Queste caratteristiche sono difficili da includere nei
modelli climatici, in parte a causa della piccola estensione delle stesse nei modelli simulativi (Soden
et Held, 2005).
Un effetto più sottile è costituito dai cambiamenti nel gradiente adiabatico mentre l'atmosfera si
scalda. La temperatura atmosferica diminuisce con l'aumentare dell'altezza nella troposfera.
Poiché l'emissione di radiazione infrarossa è legata alla quarta potenza del valore della temperatura,
la radiazione emessa dall'atmosfera superiore è minore rispetto a quella emessa dall'atmosfera
inferiore.
La maggior parte della radiazione emessa dall'atmosfera superiore viene irradiata verso lo spazio
mentre quella dell'atmosfera inferiore viene riassorbita dalla superficie o dall'atmosfera.
Quindi l'intensità dell'effetto serra dipende da quanto la temperatura decresce con l'altezza: se essa è
superiore, l'effetto serra sarà più intenso, mentre se è inferiore l'effetto sarà più debole.
Queste misurazioni sono molto sensibili agli errori, rendendo difficile stabilire se i modelli climatici
aderiscono alle osservazioni.
Un altro importante processo a retroazione è costituito dall'albedo del ghiaccio (Stocker et al.,
2001): quando la temperatura globale aumenta, i ghiacci polari si sciolgono ad un tasso superiore.
Sia la superficie emersa che le acque riflettono meno la luce solare rispetto al ghiaccio, quindi la
assorbono maggiormente (figura 20 e figura 21).
Per questo motivo aumenta il riscaldamento globale, che incrementa la fusione dei ghiacci, facendo
continuare il processo.
Figura 20 - Andamento dei ghiacci nell'emisfero settentrionale.
27
Figura 21 - Andamento dei ghiacci nell'emisfero meridionale
Il riscaldamento è anche un fattore scatenante per il rilascio di metano da varie sorgenti presenti sia
sulla terra che sui fondali oceanici. Il disgelo del permafrost, come nelle torbiere ghiacciate in
Siberia creano una retroazione positiva a causa del rilascio di anidride carbonica e metano (Sample,
2005). Analogamente, l'aumento della temperatura degli oceani può rilasciare metano dai depositi
di idrati di metano e clatrati di metano presenti nelle profondità in base all'ipotesi dei clatrati. Questi
fenomeni sono attualmente oggetto di intense ricerche.
Con il riscaldamento degli oceani si prevede inoltre un feedback positivo sulla concentrazione di
CO2 in atmosfera a causa della diminuzione della capacità di assorbimento diretto per solubilità ed
anche da parte degli ecosistemi oceanici. Infatti il livello mesopelagico (situato ad una profondità
compresa tra 200 m e 1000 m) subisce una riduzione delle quantità di nutrienti che limitano la
crescita delle diatomee in favore dello sviluppo del fitoplancton. Quest'ultimo è una pompa
biologica del carbonio meno potente rispetto alle diatomee (Buesseler et al., 2007).
Infine, un altro feedback climatico molto discusso è quello delle correnti oceaniche: la fusione dei
ghiacci polari dovuto al riscaldamento globale porta ad un’alterazione della circolazione termoalina
(la componente della circolazione globale oceanica causata dalla variazione di densità delle masse
d'acqua.) e ad una conseguente alterazione del cosiddetto Nastro Trasportatore Oceanico, in
particolare del ramo superficiale nord-atlantico ovvero la Corrente del Golfo, con effetto di
raffreddamento sull'emisfero settentrionale, in particolare sul continente europeo, contrastando,
annullando o addirittura invertendo il trend al riscaldamento degli ultimi decenni.
Evoluzione delle temperature degli altri pianeti del sistema solare. Di recente è stato suggerito
che alcuni dei pianeti e dei satelliti del sistema solare starebbero subendo un aumento della
temperatura. Su Marte il supposto aumento della temperatura è ricavato da un articolo che studia il
rapporto tra tempeste di sabbia ed albedo superficiale e basato su soli due punti, nel 1977 e 1997.
Un'analisi di tutti i dati disponibili mostra un andamento erratico della temperatura, senza una
tendenza ad un riscaldamento, e nel 2001 la temperatura globale marziana era inferiore a quella del
1977 (Szwast et al., 2006). Alcuni modelli prevedono un aumento della temperatura per il pianeta
Giove di una decina di gradi nelle zone equatoriali, in seguito ad un aumento dell'attività
meteorologica, ma non un aumento della temperatura media. Inoltre si tratta di una previsione, non
osservata direttamente. Nei pianeti più lontani come Urano, Nettuno si constatano aumenti di
temperatura, ma si tratta probabilmente di variazioni stagionali. Non conosciamo quasi nulla della
meteorologia di questi pianeti, che sono stati osservato per un tempo limitato (Nettuno per circa
28
mezzo periodo di rivoluzione). L'ipotesi che queste variazioni siano dovute a variazioni dell'attività
solare è in contrasto con le debolissime variazioni misurate per l'irradianza solare.
Effetti del riscaldamento globale
I modelli climatici elaborati dall'IPCC indicano un potenziale aumento della temperatura, durante il
XXI secolo, compreso tra 1,4 e 5,8 °C. La Nasa con un breve video di 26 secondi mostra
l'evoluzione del Global Warming negli ultimi 131 anni, evidenziando un'impennata delle
temperature soprattutto negli ultimi 2 decenni (NASA, 2011). In generale, oltre alla fusione dei
ghiacci nei ghiacciai e nelle calotte polari, con conseguente innalzamento del livello dei mari e
riduzione delle terre emerse, un aumento della temperatura significa un aumento dell'energia
presente nell'atmosfera e quindi eventi meteorologici estremi (quali cicloni, alluvioni, siccità,
ondate di caldo e di gelo) di maggior numero, con una maggior violenza; l'alterazione chimica
dell'atmosfera causa un'alterazione chimica di tutti gli ecosistemi. Risulta, tuttavia, tuttora molto
difficile prevedere come realmente influirà sul sistema pianeta l'attuale riscaldamento globale. Il
clima globale è un sistema non lineare multifattoriale, per cui la climatologia può stabilire delle
tendenze, ma non eventi di dettaglio a breve periodo tipici invece delle analisi meteorologiche.
Alcuni effetti sull'ambiente sono, almeno in parte, già attribuibili al riscaldamento del pianeta. Nel
suo rapporto del 2001, l'IPCC suggerisce che il generale ritiro dei ghiacci continentali,
l'arretramento della calotta polare artica, l'aumento del livello dei mari, in particolare in quelli con
minori tassi di evaporazione, a causa dell'espansione termica e della fusione dei ghiacci
continentali, oltre che dei ghiacciai montani, le modifiche nella distribuzione delle piogge e
l'aumento nell'intensità e frequenza degli eventi meteorologici estremi sono attribuibili in parte al
riscaldamento globale.
La variazione dello spessore medio dei ghiacciai a livello mondiale è riportato nella figura 22.
Figura 22 - Andamento della variazione dello spessore medio dei ghiacciai a livello mondiale (WGMSUNEP).
La variazione dell’estensione dei ghiacciai e riportata nella figura 23.
29
Figura 23 - Mappa con l'estensione del ghiaccio artico il 26 agosto 2012 (a destra), pari a 4.10 milioni Km2, ossia
inferiore di 70,000 km2 rispetto all'estensione misurata il 18 settembre 2007 (a sinistra). La linea arancione
mostra l'estensione media dei ghiacci fra il 1979 ed il 2000 nel giorno cui si riferisce la mappa. La crocetta
nera indica il Polo nord geografico.
Attualmente l'IPCC ritiene che il riscaldamento a livello meteorologico si stia manifestando e si
manifesterà proprio attraverso un aumento della 'meridianizzazione' della circolazione atmosferica,
ovvero con una spiccata predisposizione verso scambi meridiani con conseguente aumento della
frequenza e dell'intensità di eventi estremi quali alluvioni, siccità, ondate di caldo e di gelo. Sempre
secondo l'IPCC alcuni effetti, come l'aumento delle morti, degli esodi in massa e le perdite
economiche, potrebbero essere esacerbati dall'aumento della densità di popolazione in alcune
regioni del globo, nonostante il numero di vittime potrebbe essere mitigato per le conseguenze dei
climi freddi.
È tuttavia difficile collegare eventi specifici al riscaldamento globale. Per molte di queste predizioni
infatti fonti diverse danno dati di supporto contrastanti come ad esempio per l'innalzamento dei
livelli dei mari. I dati pubblicati dalla NASA mostrano un innalzamento superiore ai quindici
centimetri a partire dal 1870.
Il quarto e più recente rapporto dell'IPCC riporta alcuni dati sull'incremento nell'intensità dei cicloni
tropicali nell'Oceano Atlantico settentrionale a partire dal 1970, correlato all'aumento delle
temperature superficiali del mare, ma le previsioni a lungo termine sono complicate dalla qualità dei
dati antecedenti l'inizio delle osservazioni satellitari. Il rapporto stesso afferma inoltre che non
esiste un andamento chiaro nel numero annuale dei cicloni tropicali nel mondo (IPCC, 2007). Altri
effetti paventati dall'IPCC comprendono l'innalzamento del livello dei mari di 180-590 mm nel
2090-2100, rispetto ai valori del periodo 1980-1999 (IPCC, 2007), ripercussioni sull'agricoltura,
rallentamenti nella corrente nord-atlantica causati dalla diminuzione della salinità dell'oceano
30
Atlantico (dovuta alla fusione dei ghiacci), riduzioni dello strato di ozono, aumento nell'intensità di
eventi meteorologici estremi (Knutson, 2008), acidificazione degli oceani e la diffusione di malattie
come la malaria e la dengue (Parry et al., 2007; United Nations Development Program, 2008). Uno
studio prevede che di un campione di 1.103 specie di piante ed animali, dal 18% al 35% si
estingueranno per il 2050, in base ai futuri mutamenti climatici (Thomas et al., 2004). Tuttavia,
pochi studi hanno documentato una relazione diretta tra l'estinzione di specie e i mutamenti
climatici (McLaughlin J.F. et al., 2002) e uno studio suggerisce che il tasso di estinzione è ancora
incerto (Botkin et al., 2007).
Figura 24 - Variazione della temperatura globale e continentale. Confronto dei cambiamenti continentali e su scala
globale osservati della temperatura superficiale, con i risultati simulati dei modelli del clima, che
considerano le azioni di modificazione naturali ed antropiche. Le medie decadali delle osservazioni si
riferiscono al periodo 1906-2005 (linea nera), tracciata a confronto con la metà del decennio e rispetto alla
media corrispondente al periodo 1901-1950. Le linee sono tratteggiate dove la copertura spaziale è
inferiore al 50%. Le bande blu ombreggiate mostrano il range 5-95% per 19 simulazioni ottenute con 5
modelli climatici, usando solo la componente delle attività naturali quali l'attività solare e dei vulcani. Le
bande rosse ombreggiate mostrano l'intervallo 5-95% per 58 simulazioni ottenute da 14 modelli climatici,
usando entrambe le cause forzanti naturali e antropiche.
Gli effetti del riscaldamento climatico (figura 24) potrebbero essere più significativi se non vi fosse
stata una relativa riduzione dell'irraggiamento solare dovuta all'inquinamento atmosferico, cioè al
particolato atmosferico e ai solfati nel fenomeno noto come oscuramento globale. Paradossalmente,
31
una riduzione dell'inquinamento (in particolare degli SOx e del particolato) potrebbe portare quindi
ad un aumento delle temperature globali superiore a quanto inizialmente ipotizzato.
Il riscaldamento rilevato negli ultimi anni sta inoltre sciogliendo i ghiacci artici, tanto che l'ESA il
14 settembre 2008 ha annunciato la riapertura del celeberrimo Passaggio a nord-ovest a settentrione
del continente nord americano, per la fusione dei ghiacci.
Si è aperto, inoltre, anche il passaggio a nord-est (a settentrione della Russia) nel Mare glaciale
artico. Il primo precedente documentato risale al 1903 quando Roald Amundsen riuscì nell'impresa
di traversare il passaggio a nord-ovest. Per il passaggio a nord-est si può risalire al 1878 ed alla
spedizione del barone Adolf Erik Nordenskjöld (epoche in cui i rompighiaccio moderni non erano
ancora disponibili).
Nel settembre 2007 i ghiacci antartici hanno invece raggiunto la loro massima estensione (16,3
milioni di km², leggermente superiore alla media) da quando si effettuano le registrazioni (1978)
sulla calotta glaciale dell'Antartico; viceversa, l'anno seguente, l'estensione è stata fra le minori mai
registrate.
La spedizione DAMOCLES (Developping Arctic Modelling and Observing Capabilities for Longterm Environmental Studies) in ogni caso prevede la fusione totale della calotta artica prima del
2020.
La marina americana ritiene che, sebbene vi siano delle significative incertezze, il consenso
scientifico corrente sia tale per cui l'artico sarà quasi completamente privo di ghiaccio in estate a
partire da un anno tra il 2030 e il 2040. Ritiene pertanto che potrebbe essere necessario
incrementare le sue capacità operative in tale regione.
Molti altri fenomeni sono spesso citati come conseguenza del riscaldamento globale. Uno di essi è
la riduzione del pH degli oceani per effetto dell'aumento della CO2 nell'atmosfera e di conseguenza
l'aumento della quantità disciolta in acqua (NASA, 2005).
Infatti, la CO2 disciolta in acqua forma acido carbonico, che ne aumenta l'acidità. Si stima che il
valore del pH all'inizio dell'era industriale fosse pari a 8,25 e che sia diminuito a 8,14 nel 2004
(Jacobson M.Z., 2005), con proiezioni che prevedono un'ulteriore diminuzione del valore di una
quantità variabile tra 0,14 e 0,5 per il 2100 (Caldeira e Wickett, 2005).
Poiché molti organismi ed ecosistemi sono in grado di adattarsi solo ad uno stretto intervallo di
valori del pH, è stato ipotizzato un possibile evento di estinzione, che distruggerebbe la catena
alimentare (Raven et al., 2005).
Tropicalizzazione meridionalizzazione del Mediterraneo e migrazione lessepsiana (ingresso e
stabilizzazione di specie animali e vegetali dal Mar Rosso nelle acque del Mar Mediterraneo
attraverso il Canale di Suez). Nel mar Mediterraneo si assiste da alcuni anni ad un ingresso di specie
tropicali (tropicalizzazione), in molti casi lessepsiani ovvero penetrati dal mar Rosso attraverso il
Canale di Suez.
Nei bacini più settentrionali come quelli italiani si assiste invece ad un aumento delle specie
termofile meridionali, prima presenti solo sulle coste nordafricane (meridionalizzazione del
Mediterraneo): questi cambiamenti faunistici sono messi in relazione al riscaldamento climatico.
Soprattutto nella parte orientale del Mediterraneo questi processi stanno avendo effetti consistenti
sulle specie autoctone e si hanno esempi di gravi danni ecologici, come quello, molto noto,
dell'invasione di Caulerpa taxifolia [(M. Vahl) C. Agardh 1817] e Caulerpa racemosa J. Agardh
1873, anche lungo le coste italiane.
Alcuni economisti hanno cercato di stimare i costi economici aggregati netti dei danni causati dai
mutamenti climatici. Tali stime sono lontane dal presentare conclusioni definitive: su circa un
centinaio di stime, i valori variano da 10 dollari per tonnellata di carbonio (3 dollari per tonnellata
di anidride carbonica) fino a 350 dollari (95 dollari per tonnellata di anidride carbonica), con una
media di 43 dollari per tonnellata di carbonio (12 dollari per tonnellata di anidride carbonica).
Lo Stern Review, un rapporto molto pubblicizzato sull'impatto economico potenziale, ha ipotizzato
una riduzione del PIL globale di un punto percentuale a causa degli eventi meteorologici estremi e
nello scenario peggiore la riduzione del 20% dei consumi globali pro capite (At-a-glance, 2006). La
32
metodologia e le conclusioni di questa pubblicazione sono state criticate da molti economisti (Tol e
Yohe, 2006), mentre altri hanno accolto favorevolmente il tentativo di quantificare il rischio
economico ((Bradford De Long, 2007).
Gli studi preliminari suggeriscono che i costi e i benefici della mitigazione del fenomeno di
riscaldamento globale sono a grandi linee attorno alla stessa cifra (Barker, 2008).
In base al programma ambientale delle Nazioni Unite (United Nations Environment Programme UNEP), i settori economici che dovranno affrontare con maggiore probabilità gli effetti avversi del
cambiamento climatico includono le banche, l'agricoltura e i trasporti (Dlugolecki et al., 2002). Le
nazioni in via di sviluppo che sono dipendenti dall'agricoltura saranno particolarmente colpite.
Misure correttive. Il consenso scientifico attorno al riscaldamento globale e le previsione di
aumento delle temperature hanno convinto varie nazioni, aziende ed individui ad adottare delle
misure per cercare di limitare questo fenomeno.
Molti gruppi ambientalisti incoraggiano inoltre linee di condotta per i consumatori ed è stato
suggerito l'impiego di quote sulla produzione mondiale di combustibili fossili, indicandoli come una
fonte diretta di emissioni di CO2 (Monbiot, 2007). È stata altresì suggerita una tassa sulle emissioni
di carbonio che eviterebbe l'imposizione di un sistema di quote sulle emissioni (quote che
potrebbero essere allocate su base individuale o nazionale, e potrebbero essere commerciate tra i
vari beneficiari).
Una tassa sulle emissioni è in vigore in Danimarca dal 1990 e ha portato alla riduzione delle
emissioni del 15% dal 1990 al 2008. Sono attualmente in progetto delle misure per ridurre le
emissioni causate dalla deforestazione, specialmente nei paesi in via di sviluppo.
In un tentativo di adattarsi al riscaldamento globale, è stato anche proposto di sviluppare delle
metodologie di controllo meteorologico. Sono allo studio anche progetti di geoingegneria più
ambiziosi ma che potrebbero avere degli effetti imprevisti, quali per esempio il rilascio su scala
massiccia di solfati nell'atmosfera che dovrebbero ridurre l'irraggiamento solare oscurando
leggermente il cielo (Launder e Thompson., 2008). Sempre per mitigare il riscaldamento globale, è
stato proposto di introdurre nuove leggi che obblighino a costruire case più efficienti dal punto di
vista energetico.
Protocollo di Kyōto
.Il principale accordo internazionale per il controllo del riscaldamento globale è il Protocollo di
Kyōto, un emendamento allo United Nations Framework Convention su Climate Change negoziato
nel 1997 (figura 25).
Il Protocollo copre 180 nazioni globalmente e più del 55% delle emissioni di gas serra globali. Fu
messo in atto il 16 febbraio 2005 (Kyoto Protocol Status of Ratification, 2006). Solo gli Stati Uniti e
il Kazakhstan non hanno ratificato il trattato.
Il Presidente degli Stati Uniti George W. Bush ha contestato il Protocollo di Kyoto giudicandolo
ingiusto ed inefficace per la soluzione del problema del riscaldamento globale, affermando che
"esclude l'80% del mondo, tra i principali stati per popolazione come Cina e India e potrebbe
costituire una seria minaccia per l'economia degli Stati Uniti" (Bush, 2001).
Il governo statunitense ha invece proposto il miglioramento delle tecnologie per l'energia, mentre
alcuni stati e città statunitensi hanno iniziato a supportare localmente il Protocollo di Kyoto,
attraverso la Regional Greenhouse Gas Initiative.
Lo U.S. Climate Change Science Program è, invece, un programma di cooperazione tra più di 20
agenzie federali per indagare sui cambiamenti climatici. "Gli Stati Uniti si impegnano a rafforzare
la propria sicurezza energetica e a confrontarsi sul cambiamento climatico globale. Il miglior modo
per l'America per raggiungere questi scopi è continuare a guidare lo sviluppo di una tecnologia più
pulita ed efficiente energeticamente."
L'Europa ha recentemente proposto come soluzione al riscaldamento globale, oltre al supporto al
Protocollo di Kyoto, il cosiddetto "Pacchetto Clima 20-20-20", che prevede l'aumento del 20%
nell'efficienza energetica, la riduzione del 20% delle emissioni di gas serra e l'aumento del 20%
della quota di energie rinnovabili entro il 2020.
33
Figura 25 - Emissioni mondiali di gas serra per persona nell'anno 2000.
Cenni storici. Le principali tappe della comprensione scientifica del fenomeno del riscaldamento
globale e del ruolo della CO2 sono le seguenti (Weart, 2008)
• 1824 Joseph Fourier comprende che la Terra sarebbe molto più fredda se non avesse
un'atmosfera e conia il termine "effetto serra".
• 1859 John Tyndall scopre che alcuni gas bloccano la radiazione infrarossa, suggerendo che
cambiamenti nella concentrazione dei gas, CO2 in particolare, potrebbe causare cambiamenti
climatici.
• 1896 Svante Arrhenius pubblica il primo calcolo del riscaldamento globale da un aumento della
CO2, e comprende il ruolo del vapor acqueo nell'amplificazione del fenomeno.
• 1901 Knut Ångström, sulla base di esperimenti possibili all'epoca, in contrasto con Arrhenius
ritiene che l'effetto di assorbimento della radiazione infrarossa da parte della CO2 saturi
rapidamente.
• 1938 Milutin Milankovitch propone la sua teoria astronomica dei cambiamenti orbitali per
spiegare la causa delle ere glaciali.
• 1938 Guy Callendar argomenta sul riscaldamento globale da effetto serra in corso per l'aumento
di CO2, in accordo con quanto predetto da Arrhenius.
• 1956 Gilbert Plass calcola il riscaldamento mediante un modello a strati dell'atmosfera.
• 1957 Hans Suess identifica la traccia isotopica dei combustibili fossili in atmosfera.
• 1960 Charles Keeling misura accuratamente la CO2 in atmosfera e ne rileva la crescita annuale.
• 1963 Calcoli sul feedback da vapor acqueo mostrano che la sensibilità climatica al raddoppio
della CO2 poteva essere maggiore di quanto ritenuto fino ad allora.
• 1967 Manabe e Wetherald sviluppano il primo modello al computer per simulare il clima
terrestre.
• 1971 Rasool e Schneider modellizzano l'effetto di raffreddamento degli aerosol.
• 1979 Prima conferenza mondiale sul clima, organizzata da WMO, UNEP, FAO, UNESCO e
WHO.
• 1988 James Hansen presenta i risultati dei modelli climatici del NASA Goddard Institute che
predicono l'aumento del riscaldamento globale, testimoniando al Senato USA.
• 1990 Primo rapporto dell'IPCC.
34
Per analizzare in modo accurato le variazioni del clima, le Nazioni Unite hanno costituito nel 1988
una Commissione Intergovernativa sul Cambiamento Climatico (IPCC) che raccoglie accademici
provenienti delle nazioni del G8. I rapporti dell'IPCC sono usciti in varie edizioni a partire dal 1991.
Secondo quanto riportato dalla commissione, la temperatura superficiale globale del pianeta sarebbe
aumentata di 0,74 ± 0,18 °C durante gli ultimi 100 anni, fino al 2005.
L'IPCC ha inoltre concluso nei suoi "studi di attribuzione" delle cause (peso di ciascun contributo,
antropico e naturale) che «la maggior parte dell'incremento osservato delle temperature medie
globali a partire dalla metà del XX secolo è molto probabilmente da attribuire all'incremento
osservato delle concentrazioni di gas serra antropogenici», attraverso un aumento dell'effetto serra.
Viceversa, i fenomeni naturali, come le fluttuazioni solari e l'attività vulcanica, hanno contribuito
marginalmente al riscaldamento nell'arco di tempo che intercorre tra il periodo pre-industriale e il
1950 ed hanno causato un lieve effetto di raffreddamento nel periodo dal 1950 all'ultimo decennio
del XX secolo.
Queste conclusioni sono state supportate da almeno 30 associazioni e accademie scientifiche, tra cui
tutte le accademie nazionali della scienza dei paesi del G8.
Le conclusioni raggiunte dall'IPCC sono basate anche da un'analisi di oltre 928 pubblicazioni
scientifiche dal 1993 al 2007, in cui si osserva che il 75% degli articoli accetta, esplicitamente o
implicitamente, la tesi scientifica del contributo antropico al riscaldamento, mentre il restante 25%
degli articoli copre unicamente metodologie o paleoclimatologia per cui non esprime opinioni in
merito.
Secondo la Union of Concerned Scientists, circa 40 tra ricercatori e organizzazioni che contestano il
ruolo umano nei fenomeni di riscaldamento globale sono stati finanziati dalla ExxonMobil, di cui fa
parte l'italiana Esso. Nel dossier della UCS si legge che la Exxon ha finanziato campagne di
contestazione del riscaldamento globale a matrice antropica elargendo, dal 1998 al 2005, 16 milioni
di dollari a decine di organizzazioni, gruppi e ricercatori che si oppongono alla teoria. I
finanziamenti della Exxon sono stati biasimati dalla Royal Society, l'accademia nazionale inglese
delle scienze (Royal Society, 2006). GreenPeace ha avviato una campagna, denominata
ExxonSecrets, per denunciare e tenere traccia dei finanziamenti erogati della Exxon.
Il graduale incremento dei dati scientifici disponibili sul riscaldamento globale ha alimentato a
partire dagli anni settanta un crescente dibattito politico che ha poi iniziato a considerare tra le sue
priorità anche il contenimento delle emissioni dei gas serra e l'utilizzo di fonti energetiche
alternative e rinnovabili.
Nel 2007, alcune organizzazioni internazionali hanno riconosciuto l'importanza della
sensibilizzazione sul riscaldamento globale in atto nel nostro pianeta. Per la prima volta l'orologio
dell'apocalisse è stato modificato con una motivazione non inerente esclusivamente il pericolo
nucleare, ma anche sul mutamento climatico.
Il premio Nobel per la pace è stato assegnato al Comitato intergovernativo sul cambiamento
climatico e ad Al Gore, quest'ultimo ha organizzato il Live Earth e girato “Una scomoda verità”, un
film che ha ricevuto il premio Oscar al miglior documentario, anche se recentemente ha ricevuto
molte critiche circa la sua attendibilità scientifica e la reale fondatezza di previsioni eccessivamente
catastrofistiche.
Anche a livello europeo, il riscaldamento climatico è diventata una priorità. Per la fine del 2008
erano attese una serie di misure legislative volte a ridurre del 20% i gas a effetto serra.
Nel dicembre 2009 si è svolto il Vertice di Copenaghen, dove per la prima volta nella storia si è
tentato di raggiungere, fra enormi difficoltà (Parlamento europeo, 2009), un punto di vista comune
fra la maggior parte degli stati mondiali.
Tuttavia, secondo molti osservatori, questo accordo, che di fatto riguarda Stati Uniti, Cina, India,
Sudafrica e Brasile, dandosi degli obiettivi di massima (fra cui tentare di limitare a 2 °C l'aumento
della temperatura globale media) ma non vincolanti, è solamente un primo passo cui dovranno
seguirne altri affinché abbia una ragionevole efficacia.
35
Oscuramento globale
Con la locuzione oscuramento globale o offuscamento globale (in inglese: global dimming) viene
indicata la riduzione graduale dell'irraggiamento solare sulla superficie terrestre, osservata a partire
dagli anni 1950. Al rovescio è stato osservato un aumento di luminosità della Terra verso lo spazio
tramite le apparecchiature (radiometri) in dote ai satelliti in orbita proprio per l'aumentata riflettanza
dell'atmosfera.
L'entità del fenomeno varia a livello geografico, ma globalmente è stata stimata una riduzione
complessiva della radiazione solare al suolo tra il 2% ed il 5% nel periodo tra gli anni 1960 e gli
anni 1990. Questa tendenza è rallentata nell'ultimo decennio, e localmente sembra essersi invertita.
L'oscuramento globale potrebbe aver mascherato parzialmente gli effetti del riscaldamento globale
e, analogamente, la recente inversione di tendenza potrebbe averli accentuati.
Si pensa che la causa principale dell'oscuramento globale sia da imputare all'aumentata presenza in
atmosfera di particolato sospeso in forma di aerosol come effetto dell'inquinamento. Questo
particolato ha il doppio effetto di diffondere la luce, rifletterla parzialmente e di fungere da nucleo
di condensazione per le gocce d'acqua che formano le nubi (Denman, 2007). L'aerosol e altri
particolati assorbono la radiazione solare riflettendola parzialmente verso lo spazio; possono
fungere, inoltre, da nuclei di condensazione per le gocce d'acqua che formano le nuvole.
L'incremento dell'inquinamento atmosferico causa l'aumento di particelle sospese e la formazione di
nuvole costituite da gocce di piccole dimensioni. Il conseguente maggior numero di punti di
riflessione aumenta l'albedo dell'atmosfera.
Le nuvole assorbono sia il calore irradiato dalla superficie terrestre che quello del Sole. L'effetto
combinato di questi fattori varia, in modo complesso, a seconda dell'altitudine, della località, della
luminosità e del tempo atmosferico (notte, giorno, stagioni). In genere durante il giorno predomina
l'assorbimento della luce solare (con l'effetto di mitigare il riscaldamento sulla superficie terrestre);
di notte invece la retroriflessione della radiazione terrestre rallenta la perdita di calore della Terra.
Tra i primi a studiare gli effetti della radiazione solare sul clima vi fu Mikhail Ivanovich Budyko,
nel 1969, che tramite semplici modelli climatici bidimensionali investigò l'impatto dell'albedo
glaciale nel bilancio energetico atmosferico (Budyko, 1969). Budyko riscontrò una correlazione
positiva tra l'aumento delle precipitazioni nevose e del ghiaccio, e la quantità di radiazione solare
riflessa nello spazio. L'aumentata riflessione causa una diminuzione della temperatura globale del
pianeta. Altre ricerche successive indagarono il ruolo nelle variazioni climatiche dell'inquinamento
atmosferico e delle eruzioni vulcaniche (Rasool et al., 1971; Lockwood, 1979).
Nel 1989, Atsumo Ohmura, geografo dell'ETH Zürich, pubblicò uno studio dove analizzava i dati
statistici sull'irraggiamento solare della superficie terrestre, ed evidenziava una diminuzione del
10% avvenuta nel corso dei precedenti tre decenni (Ohmura e Lan, 1988). L'effetto della
diminuzione avrebbe dovuto condurre ad un raffreddamento dell'atmosfera, un risultato
apparentemente in contraddizione con gli effetti del riscaldamento globale. Ben presto furono
effettuate nuove ricerche che confermarono il trend individuato da Ohmura (Russak, 1990; Liepert,
1994). Nel 1992, Gerry Stanhill descrisse per la prima volta il fenomeno con la parola dimming,
cioè offuscamento, oscuramento (Stanhill e Moreshet, 2004).
L'incidenza dell'oscuramento globale varia localmente e nel corso dell'anno, ma è stato stimato un
aumento medio annuale dell'oscuramento di circa il 2-3% (Liepert, 2002) che è da considerare un
valore di molto superiore alla riduzione della radiazione solare (Gilliland et al., 1982) fino agli anni
1990 quando il fenomeno ha mostrato una inversione di tendenza (Hegerl, 2007).
Negli anni novanta fu effettuato un esperimento alle isole Maldive, in modo da comprovare che le
cause dell'oscuramento fossero effettivamente dovute all'inquinamento atmosferico. Fu registrata
una riduzione del 10% dell'irraggiamento (contro l'1% inizialmente previsto) nelle isole coperte dai
venti stagionali (molto inquinati) provenienti dall'India meridionale (Srinivasan et al., 2002).
Anche le scie di condensazione degli aeromobili hanno un impatto sul fenomeno: un'evidenza di
questo la si è avuta durante gli attentati dell'11 settembre 2001. La sospensione dei voli aerei
durante quella giornata è stata associata ad una diminuzione dell'emissione in atmosfera, dando
36
evidenza empirica di un anomalo aumento dell'escursione termica tra notte e giorno (circa 1 °C) in
alcune zone degli USA normalmente interessati da traffico aereo (Travis et al., 2002).
Nel 2005 Wild, Pinker e altri hanno registrato una inversione dell'effetto (localmente fino al 4%), a
partire dagli anni novanta (Wild et al., 2007; Pinker et alii, 2005; Ohmura e Makowski, 2007).
Sembra che una fra le cause di ciò sia la diminuzione di particolato e SOx disperso in atmosfera
(non di gas serra) che si è cominciato a registrare grazie a legislazioni favorevoli al contenimento
dell'inquinamento, in particolare in Europa.
Effetti sul clima. L'irraggiamento solare provoca il riscaldamento degli oceani e la conseguente
evaporazione dell'acqua che ricade successivamente come pioggia. La riduzione dell'irraggiamento
causata dalla presenza di aerosol nell'aria, può quindi avere un'influenza negativa sul ciclo
idrogeologico del pianeta. L'offuscamento globale potrebbe avere perciò effetti su larga scala sul
clima.
Alcuni modelli climatici sembrano indicare che una riduzione dell'irraggiamento superficiale può
aver contribuito alla mancata formazione dei monsoni nell'Africa subsahariana durante gli anni
settanta e ottanta, con conseguenti carestie come quella provocata dalla tragica Siccità del Sahel.
Allo stesso modo tramite l'offuscamento da parte degli aerosol si tende a spiegare buona parte del
lieve raffreddamento climatico globale registrato nel trentennio compreso tra il 1945 e il 1975.
Nel complesso sembra che l'oscuramento globale abbia contenuto i flussi energetici fra l'atmosfera e
la superficie terrestre, con un relativo calo dell'evaporazione ed aumento dell'umidità atmosferica,
ma una conseguente riduzione delle precipitazioni.
Relazioni con il riscaldamento globale.Alcuni scienziati ritengono che l'offuscamento globale
mascheri parzialmente gli effetti del riscaldamento globale (Liepert, 2002), al punto che una
risoluzione dell'oscuramento globale potrebbe portare ad un aumento delle temperature superiore a
quanto ipotizzato.
La riduzione del particolato in atmosfera è relativamente veloce una volta fermata l'immissione
degli inquinanti in atmosfera, mentre l'inerzia degli effetti del riscaldamento globale è molto
superiore e più difficilmente controllabile.
Il fenomeno è globale, ma i suoi effetti sono locali: infatti, mentre gran parte del globo si è
riscaldata, le regioni investite da venti inquinati si sono raffreddate. Questo potrebbe spiegare il
relativo raffrescamento della parte est degli Stati Uniti rispetto alla costa ovest.
Controversia sul cambiamento climatico
La controversia sul riscaldamento globale è una disputa riguardante le cause, la natura e le
conseguenza del riscaldamento globale. La disputa riguarda le cause dell'aumento della temperatura
media dell'aria a livello globale, specialmente a partire dalla metà del XX secolo, se tale aumento
sia senza precedenti o faccia parte delle normali variazioni climatiche, se l'umanità abbia
contribuito a tale aumento, e se tale aumento sia parzialmente o completamente attribuibile a
misurazioni errate.
Ulteriori aree di discussione riguardano la stima della sensibilità del clima, le predizioni sul
riscaldamento futuro del pianeta, e le conseguenze di un tale riscaldamento. Le controversie sono
più vigorose nei mass media che nella letteratura scientifica. Il quadro di questo dibattito rende
difficile una chiara percezione dei dati di fatto al grande pubblico. In particolare l'influenza
antropica sembra percepita in maniera distorta; ad esempio è stato fatto un sondaggio su una
disomogenea e vasta platea, mostrando che all'aumentare della competenza tecnica sono più
frequenti le risposte positive alla domanda se «l'attività umana è un fattore significativo nel variare
le temperature globale del pianeta» (Doran, 2009).
Consenso scientifico. La teoria, secondo cui la temperatura media del globo si è alzata nelle ultime
decadi e tale aumento medio è da attribuirsi in tutto o in parte all'attività umane, viene sostenuta da
ogni accademia scientifica nazionale che abbia preso posizione sulla teoria stessa, incluse le
accademie scientifiche dei paesi del G8 (Joint statement of sixteen national academies of science,
2001). Nel 2007, anche l'associazione dei geologi petroliferi americani ha riconosciuto l'influenza
umana sui recenti cambiamenti climatici (Brigham-Grette et al., 2006).
37
I gruppi ambientalisti, alcuni rapporti governativi e la maggior parte dei mass media spesso
affermano che ci sia un sostegno quasi unanime della comunità scientifica al fatto che i
cambiamenti climatici siano causati da attività umane. I contrari a tale tesi affermano che la
maggioranza degli scienziati considera il riscaldamento globale "non provato", lo negano
completamente, o sottolineano i pericoli di esaminare solo un punto di vista in un dibattito
scientifico che ritengono ancora aperto o affermano che la scienza è basata sui fatti e non sui
sondaggi (Crichton, 2003).
Ci sono comunque ricercatori scettici sul ruolo antropico nell'attuale riscaldamento: essi
rappresentano una minoranza nella comunità scientifica, sebbene negli ultimi anni il loro numero
abbia conosciuto un significativo aumento. Tra questi "scettici" vi sono, tra gli altri, anche il premio
Nobel Kary Mullis, oltre che ex membri dei vari comitati IPCC come i meteorologi Hajo Smit,
Philip Lloyd e Roy Spencer, nonché fisici dell'atmosfera come Fred Singer e i climatologi John
Christy e William D. Braswell.
Le criticità espresse da tali ricercatori sono diverse e variano dalla politicizzazione ed
estremizzazione dei documenti conclusivi dell'IPCC fino alle perplessità sulla possibilità di stabilire
una relazione tra aumento di CO2 e riscaldamento globale. Alcuni di essi inoltre rimarcano il ruolo
di altri fattori naturali sul clima tra cui il principale sarebbe la variazione dell'attività solare ma
anche l'effetto dei raggi cosmici, che avrebbe un ruolo sul mutamento climatico. Le loro criticità
trovano peraltro riscontro nella diminuzione della temperatura media globale che si è verificata
approssimativamente tra il 1940 e il 1976 (D. Rapp, Assessing Climate Change, 2008), nonostante
continuasse ad aumentare con la stessa costanza la concentrazione di CO2 nell'atmosfera nel
medesimo intervallo di tempo, così come nell'abbassamento della temperatura globale osservato
nell'ultimo decennio rispetto al picco del 1998. Viene in particolare messa in dubbio la validità
degli attuali modelli climatici utilizzati che non sono in grado di ricostruire efficacemente il clima
passato né sono stati in grado di predire il parziale raffreddamento dell'ultimo decennio (Zichichi,
2007).
Il grande pubblico vuole sapere se è vero che le attività dell'uomo stanno portando a uno
sconvolgimento delle caratteristiche climatiche di questo satellite del Sole. Per venire a capo di
questo problema è stato istituito dall'Onu un Comitato permanente composto da oltre mille
scienziati di tutte le Nazioni, l'Ipcc (Intergovernmental Panel for Climatic Changes), che ha lavorato
per diversi anni portando l'opinione pubblica mondiale a credere che la Scienza ha capito tutto sul
clima: presente, passato e futuro. Se fosse vero, il destino climatologico del nostro pianeta dovrebbe
essere privo di incertezze e sotto il rigoroso controllo della Scienza. Non è così.
La climatologia ha come fondamento matematico una struttura priva di soluzione analitica. Detto in
modo semplice, non esiste l'equazione del clima. Detto in termini esatti, i modelli climatologici,
sono un sistema di «equazioni differenziali non lineari fortemente accoppiate» che hanno come
soluzioni soltanto approssimazioni numeriche per le quali è necessario l'uso di «parametri» liberi. Il
padre di questa matematica, John von Neumann, metteva in guardia i suoi giovani collaboratori
sull'uso di questi «parametri liberi» dicendo: se mi date quattro parametri liberi vi costruisco un
modello matematico che descrive esattamente tutto quello che fa un elefante. Se mi date la libertà di
aggiungere un quinto parametro, il modello da me costruito avrà come previsione che l'elefante
vola. Stiamo parlando di modelli matematici le cui conseguenze si valutano in miliardi di dollari e
coinvolgono la responsabilità di tutti i Governi del mondo. Il grande pubblico vuole sapere quali
sono le conclusioni che il rigore scientifico può permettere di derivare dall'analisi delle misure fatte.
Ecco le risposte. Esistono due Scuole di Pensiero. Una fa capo a Richard Lindzen del prestigioso
Mit, che critica i modelli usati dagli scienziati dell'Ipcc. L'altra fa capo a Ants Leetmaa del
Geophysical Fluid Dynamics Laboratory di Princeton, massimo esponente scientifico dell'Ipcc.
Le misure dicono che è aumentata e su questo non c'è nulla da discutere. Ma i modelli dell'Ipcc
prevedono che, con questo aumento, la temperatura avrebbe dovuto aumentare tre volte più di ciò
che si misura. Gli scienziati della scuola di Lindzen sostengono che il mancante «tre volte più» è la
prova di quanto siano poco credibili i modelli matematici dell'Ipcc. Gli scienziati dell'Ipcc
38
rispondono dicendo che il motivo del mancante «tre volte più» risiede in «effetti» non ancora
conosciuti, non in errori dei loro modelli. David Douglass, dell'Università di Rochester (Usa), ha
fatto una prova usando un modello matematico che simula alcune parti dei modelli dell'Ipcc e ha
trovato che una quantità importante (detta fattore «g») risulta essere per Pinatubo tre volte inferiore
a quella relativa al Sole. Nei modelli dell'Ipcc i fattori «g» generati da emissioni vulcaniche e dal
Sole sono presi eguali. Bisogna lavorare ancora molto e con maggiore rigore per migliorare i
modelli matematici finora usati.
Un'analisi sulle variazioni climatiche dei periodi trascorsi, da milioni di anni fino a pochi secoli fa,
dimostra che i raggi cosmici influiscono molto sul destino del clima, ma nessun modello
matematico ha finora introdotto questa variabile. Una critica ai modelli accettata dal massimo
esponente dell'Ipcc riguarda la mancanza di «convergenza matematica» delle approssimazioni
numeriche usate. Questo equivale a dire che tutte le previsioni potrebbero saltare in aria. Motivo: la
matematica dei modelli è molto complicata. Perché? Risposta: è necessario descrivere lo strato
d'aria che circonda questo satellite del Sole con tutte le interazioni tra atmosfera, oceani, venti,
correnti marine e gas a effetto-serra. E poi ci sono le particelle di polvere, fuliggine e di altre
sostanze che vengono continuamente iniettate nell'atmosfera senza che sia possibile un controllo
accurato delle loro caratteristiche, sia in termini di quantità sia in termini di qualità. Eppure queste
«polveri» hanno un ruolo importante nella termodinamica dell'atmosfera. Non bisogna scoraggiare i
costruttori di modelli matematici. Bisogna incoraggiarli a far meglio, senza però avallare come
perfettamente valide le loro previsioni, quando esse vanno al di là del prevedibile (Zichichi, 2007).
Queste tesi sono state raccolte in un documentario della CBC. Il matematico e fisico teorico
Freeman Dyson, che fin dagli anni 70 teorizzava la necessità di attuare il sequestro del carbonio
piantando nuovi alberi in aree enormi, nel 2007 ha invece rivalutato la questione del riscaldamento
globale affermando che «...l'allarmismo sul riscaldamento globale è fortemente esagerato» dopo
aver calcolato che «...il problema dell'anidride carbonica nell'atmosfera è un problema di gestione
del terreno, non un problema meteorologico». Secondo lo scienziato gli errori commessi sarebbero
legati al fatto che nessun modello matematico atmosferico o oceanico è in grado di predire il modo
in cui dovrebbe essere gestita la terra (Dyson, 2007). Infine, sottolinea che dovrebbero avere
maggiore priorità altri problemi globali (Spencer, 2007).
In particolare scienziato sostengono che il sistema terra ha in sé elementi stabilizzatori che tendono
a reagire alle variazioni di temperatura in modo da mantenere quest'ultima costante o quasi. Un caso
di questo genere è quello dell'"Ipotesi Iris", " di Richard Lindzen, la quale propone che mentre
l'atmosfera tropicale si riscalda, i cirri nuvolosi diminuiscono, consentendo al calore della
radiazione infrarossa di uscire dall'atmosfera verso lo spazio (Spencer, 2007).
Di contro, come rilevato dallo stesso articolo di Science, la maggioranza degli scienziati concorda
sul fatto che sia necessario trovare urgentemente sistemi di contenimento delle emissioni: tra essi,
per quanto riguarda l'Italia, vi è il premio Nobel Carlo Rubbia. In quest'ottica il ricorso al solare
termodinamico e all'energia nucleare garantirebbe un importante contributo nella diminuzione delle
emissioni di gas serra. Molti sono gli scienziati che, pur riconoscendo il ruolo antropico, sono
scettici riguardo alle misure adottate per contenere le emissioni e ritengono il protocollo di Kyōto
sia troppo blando e poco incisivo in termini di risultati sul clima.
Ad aumentare la perplessità vi è il fatto che i principali emettitori di anidride carbonica (USA e
Cina) non lo applicheranno sulle proprie economie. È tutt'oggi tema di accese discussioni la reale
entità e gli effetti del riscaldamento, dovute al fatto che il clima terrestre non è considerabile come
un sistema statico, avendo presentato nella sua storia cambiamenti graduali ma intensi anche senza
l'intervento dell'uomo. Sia ai tempi dell'Impero Romano che nel Medioevo le temperature medie
sono state leggermente più alte che in altri periodi, permettendo la colonizzazione della Groenlandia
e la coltivazione estesa di viti nell'Europa del Nord. Entrambi questi periodi sono stati seguiti da
periodi di raffreddamento climatico: a Londra il fiume Tamigi gelava tanto da permetterne il
passaggio a cavallo e lo svolgimento di mercati natalizi sulla sua superficie ghiacciata.
39
Un altro elemento di controversia è la cosiddetta controversia dell'hockey stick in merito alla
comparazione tra il riscaldamento attuale e l'optimum climatico medioevale.
Il 20 novembre 2009 sono apparsi su internet alcuni file contenenti scambi di mail e modelli
climatici provenienti dai server del Centro per la Ricerca Climatica (CRU) dell'Università dell'East
Anglia. Questo centro di ricerca è uno dei più influenti tra quelli che studiano i cambiamenti
climatici naturali e antropici e molti dei corrispondenti succitati fanno parte del Gruppo
intergovernativo sul mutamento climatico.
Il contenuto delle mail e l'analisi del software usato dall'istituto per le sue predizioni climatiche
hanno destato vaste polemiche non ancora sopite. In particolare hanno suscitato scalpore diversi
carteggi in cui ad esempio la CRU, guidata da Phil Jones, si accordava con l'editor di una rivista,
per bloccare per circa un anno la pubblicazione di un articolo che denunciava l'inadeguatezza degli
attuali modelli climatici nello spiegare la discrepanza tra la temperatura registrata al suolo e quella
registrata nella bassa troposfera. Il ritardo era funzionale a permettere la contemporanea
pubblicazione di un corposo controarticolo della CRU cui era stata offerta dall'editor una corsia
preferenziale. Un altro elemento che ha fatto molto discutere è stata la reticenza dei ricercatori della
CRU di fornire i dati su cui costruivano i propri modelli.
Pur esistendo un dispositivo normativo che li obbligava a fornirli a chi ne avesse fatto richiesta
(FOIA), i ricercatori inglesi li hanno forniti solo a scienziati allineati, negandoli in modo sistematico
ai loro avversari, i critici verso il riscaldamento antropico. In ultimo il codice del software rinvenuto
appariva al di sotto degli standard e presentava interventi e note in cui erano presenti evidenti
manipolazioni ed aggiustamenti dei dati.
La successiva inchiesta del governo inglese sull'affidabilità delle ricerche effettuate dagli scienziati
della CRU hanno assolto gli scienziati coinvolti dall'accusa di aver alterato i dati o di aver esagerato
la minaccia del cambiamento climatico. Diversi scienziati e gli stessi dirigenti dell'IPCC sono stati
accusati di conflitti di interesse in quanto collegati a movimenti o aziende che potrebbero
beneficiare di incentivi economici o ricadute di immagine positive grazie all'imposizione di
restrizioni alle emissioni di CO2.
Considerazioni filosofiche su Mundus
La definizione di mondo nella lingua italiana affonda nell'espressione latina locus mundus nella sua
accezione di "luogo pulito, chiaro, visibile" ovvero quella porzione della Terra, ma anche del cielo,
illuminata dalla luce e, quindi, visibile, identificabile e riconoscibile dall'essere umano. Ma
aggiunge anche il valore di "ornamento" e di "elegante" inteso come il "luogo ordinato dove regna
la bellezza", insito anche nel greco κόσµος (kósmos) con significato di "ordine, ornamento,
bellezza", contrapposto al Χάος (kàos), che rimanda al pensiero pitagorico ellenistico.
In un contesto metafisico, esso può anche fare riferimento a ogni cosa realizzata nella realtà del
Creato, ovvero l'universo.
In un senso più ristretto il mondo sta a significare quanto riferisce o afferisce a una particolare
civiltà e a quanto da essa è o fu sviluppato nell'ambito dei suoi confini fisici o metafisici con
riferimento alle sue Leggi, alla cultura, agli usi, ai costumi, alla filosofia, all'arte: il "mondo
romano", il "mondo ellenistico", il "mondo cristiano", il "mondo arabo" o anche "il mondo d'oggi",
inteso come la somma delle cose umane che contraddistinguono i tempi odierni; il mondo
dell'Ottocento, il mondo della preistoria. Il mondo è anche, sempre nella medesima accezione,
quanto prodotto e significato nei confini di una particolare attività o disciplina umana: il "mondo
dell'arte", "della filosofia", "della scienza", "della religione", "del lavoro", "della politica", "della
meteorologia", "del calcio", "dell'amore", "dell'urbanistica".
Mundus è anche una categoria filosofica che ha assunto storicamente vari significati.
Esso indica, nelle varie dottrine filosofiche:
• La totalità delle cose esistenti, quale che sia il significato attribuito alla parola esistenza nelle
diverse ermeneutiche. In questo caso il Mondo rappresenta l'oggetto stesso dell'ontologia.
• La totalità di un campo o più campi di indagine o di attività o di relazioni, come quando si dice
"Mondo fisico", "Mondo storico" "Mondo degli affari" e così via.
40
I primi ad utilizzare il concetto di Mundus inteso come totalità furono gli Epicurei, ma solo nella
filosofia moderna - ad esempio in Leibniz - questo concetto prevalse soppiantando quello di Mondo
come "ordine" introdotto da Pitagora.
Mundus va distinto come l'Universo a noi conosciuto, limitato nello spazio e nel tempo e Mundus
come universo o «il mondo nella sua totalità». Nel primo caso, Mundus rappresenta l'oggetto di
studio di un singolo campo del sapere scientifico, nel secondo caso è l'oggetto di studio
dell'ontologia.
Dal punto di vista ontologico, il mondo è un infinito potenziale, cui interezza è aperta e non chiusa,
in quanto contiene lo sviluppo e ammette la novità, compresa quella che non nasce univocamente
dalle condizioni esistenti, ma si costituisce hic et nunc (qui ed ora) nel determinato punto di
biforcazione. L'infinito attuale del mondo è sempre limitato da un certo stato e non rappresenta
l'unità omnicomprensiva assoluta.
Il mondo dell'ontologo è una struttura attributiva (universale, categoriale), che stabilisce l'interezza
e la possibilità di sviluppo di un insieme dell'essere dato e dell'essere che potrà essere dato dalla
nostra esperienza.
Una concezione del mondo, chiamato "filosofia dell'armonia in sviluppo" è l'antropocosmismo. I
seguenti enunciati riassumono l'idea portante dell'antropocosmismo:
1. Concezione del mondo è un insieme di idee sullo stato del mondo, uomo e relazione dell'uomo
nei confronti del mondo.
2. Filosofia è riflessione categoriale della concezione del mondo.
3. Per poter motivare una concezione del mondo in grado di offrire una strategia di soluzione dei
problemi globali dell'attualità, la filosofia deve effettuare una sintesi degli aspetti positivi del
precedente sviluppo delle correnti filosofiche, centrata non più sulla «lotta», ma sulla reciproca
complementarità.
4. Questa sintesi si fonda su:
• il principio ontoantropologico: gli attributi dell'uomo sono radicati negli attributi dell'essere
mondiale.
• l'ontologia correlativa: esistere in qualità di qualcosa significa essere in relazione con
qualcosa.
• l'integrità dell'essere: ogni essere è l'unità delle tre realtà (oggettiva, soggettiva e
trascendentale). Questi tipi della realtà non sono riducibili l'uno ad altro e si distinguono per
le modalità di costituzione e per il ruolo svolto nell'integrità dell'essere. In questo modo si
possono raccogliere i momenti positivi del materialismo e dell'idealismo soggettivo e
oggettivo.
• l'idea dell'armonia in sviluppo come l'ideale dell'attività umana relativamente al mondo e
l'uomo stesso: passando sul "filo del rasoio" tra l'assolutizzazione della stabilità e/o della
mutabilità, rifiuto dell'orientamento al maximum in favore dell'orientamento all'optimum.
Sulla base di questi concetti vengono costruiti i sistemi categoriali dell'ontologia (dottrina sul
mondo) e antropologia (dottrina sull'uomo), come unità della filosofia sociale e antropologia
filosofica, gettando le fondamenta per la dottrina sulla relazione sostanziale dell'uomo nei confronti
del mondo: teoria della conoscenza, assiologia, etica, estetica.
Secondo l'antropocosmismo la concezione del mondo è un sistema di punti di vista sulla realtà
oggettiva che costituisce una rappresentazione in termini del rapporto uomo-mondo e del dovuto, in
quanto il soggetto di una determinata concezione del mondo vede il mondo e la collocazione
dell'uomo in esso dal punto di vista dei propri ideali.
Ciò significa che, sebbene la concezione del mondo comprenda le conoscenze (altrimenti rischia di
rimanere un desiderio utopico), essa si basa sui valori, ossia le motivazioni interiori ed immutabili
per il soggetto, che lo portano alla scelta dei mezzi e dei fini della propria attività.
Pluralità dei mondi
La pluralità dei mondi abitati o semplicemente pluralità dei mondi è l'idea che al di fuori della Terra
possano esistere numerosi altri mondi - come altri pianeti o altri universi - che ospitano la vita e, in
41
particolare, esseri intelligenti. Il dibattito filosofico sulla pluralità dei mondi alimenta una
speculazione che data almeno dai tempi di Talete (circa 600 a.C.) e che è continuata nel tempo, in
forme molteplici, largamente influenzata dalle idee scientifiche di ciascun epoca, fino all'epoca
moderna e contemporanea.
In età greca il dibattito sulla pluralità dei mondi fu in gran parte filosofico e non conforme alle
attuali nozioni di cosmologia. Era un corollario alle nozioni di infinito e la pretesa moltitudine di
mondi culle di vita era più vicina al concetto di universi paralleli (sia compresenti nello spazio sia
infinitamente ricorrenti nel tempo) che a sistemi solari differenti.
Diogene Laerzio riferisce come Anassagora ritenesse la Luna abitata; nella sua cosmologia, i semi,
unendosi e separandosi, formavano sistemi planetari simili al nostro, quindi esistevano altri corpi
celesti analoghi al Sole, alla Luna e alla Terra.
Nella sua opera De rerum natura (circa 70 a.C.), Lucrezio speculava apertamente della possibilità
di vita su altri mondi:
«Pertanto dobbiamo capire che esistono altri mondi in altre parti dell'Universo, con tipi differenti di
uomini e di animali.»
Dopo che Talete e il suo allievo Anassimandro ebbero aperto le porte a un universo infinito, da
parte degli atomisti venne presa una posizione forte sulla pluralità, in particolare con Leucippo,
Democrito ed Epicuro. Per quanto si trattasse di pensatori di spicco, i loro avversari - Platone e
Aristotele - ebbero un'influenza maggiore; essi sostenevano che la Terra è unica e che non ci
potessero essere altri sistemi di mondi (Darling, 1862), escludendo a priori il concetto in nome di una
unità metafisica del mondo (Tanzella-Nitti, 2007).
Pensatori cristiani. La presa di posizione di Aristotele, in seguito, combaciò spesso con la
concezione dominante nel cristianesimo (Wiker, 2002), che si richiamava all'autorità del pensatore
greco. Nel Medioevo venne completamente rigettato l'atomismo, visto come eretico dalla Chiesa,
decretando la sconfitta di ogni immagine astronomica alternativa a quella avallata dalla Chiesa
stessa. L'idea di pluralità dei mondi tuttavia non venne completamente soppressa e il dibattito
continuò nel tempo, largamente influenzato dal contesto storico-scientifico del momento, sebbene la
questione fosse trattata solo da pochi pensatori almeno fino all'invenzione del telescopio. L'idea
generale nel Medioevo infatti era che le stelle e i pianeti - che apparivano come semplici punti
luminosi fissati nel firmamento - non fossero veri e propri corpi fisici.
Storicamente, l'unico intervento di un pontefice cristiano sulla questione risale ad una lettera di papa
Zaccaria I (741-752), nella quale si menziona che un certo presbitero Virgilio stava insegnando una
dottrina sulla pluralità di mondi abitati. Zaccaria riprova l'idea che vi siano abitanti agli antipodi,
sulla Luna o sul Sole, per non porre in discussione l'unità del genere umano, rendendo più confusa
la comprensione dei rapporti con Dio e con il peccato originale per quegli "uomini" che non fossero
discendenti di Adamo.
Sul tema della pluralità, il più grande filosofo e teologo tedesco del Medioevo Alberto Magno e il
suo allievo Tommaso d'Aquino sostenevano tesi diverse, solo apparentemente in disaccordo fra
loro: in realtà il primo sosteneva la plausibilità di altri mondi (altre terre), mentre il secondo negava
quella di altri universi (diversi dall'unico creato da Dio).
Il vescovo di Parigi Étienne Tempier nel 1277, nella sua lotta contro l'averroismo latino - uno dei
luoghi storiografici più dibattuti nello studio del pensiero medievale nel corso del novecento,
definizione introdotta da Ernest Renan - e nell'intento di portare un poco di quiete nel mondo
intellettuale assai vivace e per questo propenso a litigi e agli scontri, nell'elenco di 219 proposizioni
da rigettare poneva anche quella - di tradizione aristotelica - che negava a Dio la possibilità di aver
creato o di creare altri mondi diversi dal nostro (art. 34). L'ammissione, dunque, di tale possibilità di
"altri mondi" appare indirettamente una condizione per poter operare nell'ambito degli istituti della
cultura del tempo (Campanini, 1989; Sorge, 1999; Todisco, 1999).
Dante (1265-1321), nel suo Paradiso, descrive l'ascesa del suo narratore attraverso le sfere celesti
della Luna, i pianeti da Mercurio a Saturno e di lì alla sfera delle stelle fisse e al cielo degli angeli.
Dante presuppone che la luce dei pianeti sia una combinazione di luce impartita dalla volontà divina
42
e dello splendore dei beati che abitano le sfere. Questi pianeti sono, tuttavia, del tutto eterei:
possiedono luce ma nessuna forma fisica o geografia.
Il cardinale e teologo Nicola Cusano, nella sua opera più importante De docta ignorantia del 1440,
ammetteva la possibilità che Dio potesse avere creato altri mondi, con altri esseri razionali in uno
spazio senza limiti. Anche questi esseri razionali, egli scriveva, sono creati ad immagine di Dio ed
eredi delle promesse di Cristo.
Il sistema geocentrico tolemaico-aristotelico venne infine sfidato e la pluralità ribadita, prima
timidamente dai filosofi della tarda Scolastica (la filosofia cristiana medioevale) e da Guglielmo di
Occam, poi con maggiore decisione dai seguaci di Niccolò Copernico. Il telescopio apparve a
dimostrare che una moltitudine di vita era ragionevole ed era una espressione dell'onnipotenza
creatrice di Dio; avversari teologici ancora potenti, nel frattempo, continuarono a insistere che,
sebbene la Terra potesse essere stata spostata dal centro del cosmo, era ancora l'unico centro della
creazione di Dio. Pensatori come Keplero erano disposti ad ammettere la possibilità della pluralità
pur senza sostenerla veramente.
Il filosofo e frate domenicano Giordano Bruno - condannato come eretico e messo al rogo nel 1600
- immaginava un universo infinito, popolato da un'infinità di stelle come il Sole, ciascuna
circondata da pianeti su taluni dei quali crescono e prosperano esseri intelligenti; anzi, alcuni di
questi mondi sono certamente più stupendi del nostro e con abitanti di gran lunga migliori dei
terrestri. Non vi sono elementi per affermare che Bruno fu condannato per tale idea (che non è
annoverata tra i capi d'accusa della sentenza).
Il concetto che i pianeti fossero veri corpi fisici non venne preso seriamente fino a quando Galileo
scoprì nel 1609-1610 che la Luna aveva rilievi nella sua superficie, e che gli altri pianeti avrebbero
potuto quantomeno essere risolti in dischi. Nel 1543 Niccolò Copernico aveva già postulato che i
pianeti orbitano intorno al Sole, come la Terra. La combinazione di questi due concetti condusse al
pensiero che i pianeti avrebbero potuto essere "mondi" simili alla Terra.
La possibilità di vita extraterrestre era un luogo comune del discorso dotto nel XVII secolo, grazie
soprattutto alla diffusione del telescopio di Galileo. Da quando la pluralità di mondi abitati divenne
"ragionevolmente possibile", il numero di teologi che si occuparono della questione divenne
significativo a partire dal Settecento, specie in ambiente anglosassone, evangelico e anglicano. Ad
esempio nel 1760 Vincenzo da Sant'Eraclio esaminò la questione nel suo esame teologico-fisico del
sistema di chi sostiene abitati da ragionevoli creature i pianeti.
Illuminismo. Nel corso della rivoluzione scientifica e della conseguente età dei lumi, la pluralità
dei mondi divenne una possibilità considerata dall'opinione generale. Le Conversazioni sulla
pluralità dei mondi (Entretiens sur la pluralité des mondes) di Bernard le Bovier de Fontenelle del
1686 fu un'opera divulgativa importante di questo periodo, che speculava sulla pluralità e
descriveva la nuova cosmologia copernicana. In un viaggio fantastico attraverso il sistema solare,
l'autore spiegava efficacemente le nuove concezioni scientifiche del tempo e narrava della presenza
di civiltà su Mercurio, Venere e Saturno; rimase lo scritto più popolare del genere fino alla fine del
XVIII secolo.
La pluralità fu inoltre sostenuta da filosofi come John Locke, da astronomi come William Herschel
e anche da politici, tra i quali John Adams e Benjamin Franklin. Allorquando un maggiore
scetticismo e rigore scientifico vennero applicati alla questione, essa cessò di essere semplicemente
una questione filosofica e teologica e venne opportunamente delimitata da astronomia e biologia.
L'astronomo francese Camille Flammarion fu uno dei principali sostenitori della pluralità durante la
seconda metà del XIX secolo. Il suo primo libro, La pluralità dei mondi abitati (1862), fu un grande
successo popolare, con 33 edizioni nei vent'anni successivi alla sua prima pubblicazione.
Flammarion fu tra i primi a proporre l'idea che gli esseri extraterrestri fossero davvero alieni, e non
semplicemente variazioni delle creature terrestri.
Pensiero scientifico moderno. Tra la fine dell'Ottocento e gli inizi del Novecento il dibattito
strettamente filosofico-teologico sulla "pluralità dei mondi" venne superato dall'avanzare e
43
diversificarsi della conoscenza scientifica e le speculazioni sulla vita extraterrestre si focalizzarono
sui corpi particolari e osservazioni.
Lo scenario filosofico-metafisico della pluralità dei mondi vede una possibile traduzione nel
linguaggio della scienza moderna nella teoria della panspermia, proposta agli inizi del Novecento
dal chimico e premio Nobel svedese Svante Arrhenius, il quale immaginava che la vita possa essere
stata condotta in tutto il cosmo da spore (batteri intrappolati in proteine) presenti nello spazio.
Nell'ultimo quarto del XX secolo a riprendere la teoria sono stati agli astronomi Fred Hoyle e
Chandra Wickramasinghe. Nel primo decennio del XXI secolo la teoria ha ricevuto alcune prime
conferme sperimentali nel ritrovamento, da parte della sonda spaziale Stardust, di tracce di ammine
e lunghe catene carboniose nei materiali raccolti dalla cometa Wild 2. Negli anni settanta il premio
Nobel Francis Crick per cercare di risolvere il problema del difficile insorgere spontaneo di una
vita intelligente sulla Terra propose, con Leslie Orgel, un altro tipo di panspermia, la cosiddetta
panspermia guidata (o diretta), che teorizza che le spore siano state seminate in luoghi adatti allo
sviluppo della vita da una o più civiltà avanzate diffuse nell'universo (Adamo, 2002), benché in
seguito lo stesso Crick abbia dichiarato di essere stato eccessivamente pessimista sulle possibilità di
un'origine terrestre della vita (Orgel e Crick, 1993).
Fu necessario attendere il 1920, anno del "Great Debate" (grande dibattito), per vedere degli
astronomi riuniti a discutere con metodi scientifici sulla pluralità delle galassie, con tesi diverse
sostenute da Harlow Shapley e Heber D. Curtis sulla scala dell'universo (Adamo, 2002). Curtis
sosteneva che l'Universo fosse composto di molte galassie come la nostra, identificate dagli
astronomi di allora come "nebulose a spirale". Shapley sosteneva che queste "nebulose" fossero
semplici nubi di gas nelle immediate vicinanze e che l'Universo fosse composto da una sola grande
Galassia. Nel modello di Shapley, il nostro Sole era lontano dal centro di questo grande
universo/galassia. Curtis poneva al contrario il Sole vicino al centro della nostra galassia
relativamente piccola (Curtis, 1920). Il dibattito ebbe una parziale soluzione alla metà degli anni
venti, quando l'astronomo Edwin Hubble, utilizzando il più grande telescopio di allora, dimostrò
che la distanza della galassia di Andromeda (M31) è superiore anche all'estensione proposta da
Shapley della nostra, la Via Lattea, pertanto, quella di Andromeda era una galassia molto simile alla
Via Lattea. Nel 1930, ulteriori scoperte portarono all'accettazione del fatto che le dimensioni della
Via Lattea erano davvero state molto sottostimate e che il Sole non era vicino al suo centro. Shapley
si dimostrò pertanto più corretto riguardo alle dimensioni della nostra Galassia e alla posizione del
Sole in essa, mentre Curtis si dimostrò corretto sul fatto che il nostro Universo era composto da
molte altre galassie, e che le "nebulose a spirale" erano davvero galassie come la nostra (Curtis,
1920).
Il generale ottimismo sulla presenza di vita anche intelligente nell'universo si scontrò nel 1950 e
negli anni seguenti con il cosiddetto paradosso di Fermi, attributo al fisico Enrico Fermi, che pone
una fondamentale questione empirica: "Dove sono tutti quanti?" (Jones, 1985). Se ci sono così tante
civiltà evolute, perché non sono ancora state ricevute prove di vita extraterrestre come trasmissioni
di segnali radio, sonde o navi spaziali? Si considera pertanto che probabilmente le civiltà
nell'universo siano abbastanza distanti tra di loro (ipotesi della rarità della Terra) e che due civiltà
vicine assai difficilmente possano raggiungere nello stesso tempo uno stadio paragonabile di
evoluzione, tale da riuscire a comunicare tra di loro. D'altro canto, nel 1961 venne formulata
l'Equazione di Drake, che propone un metodo per stimare il numero di civiltà extraterrestri in grado
di comunicare esistenti nella nostra galassia, giungendo a risultati piuttosto ottimisti e dando un
argomento a favore della ricerca delle intelligenze extraterrestri tramite radiosegnali (progetto
SETI); il problema è che i parametri di questa equazione si conoscono con troppa incertezza di
misura (i valori correlati all'abitabilità planetaria, per esempio) o il loro valore allo stato attuale non
è proprio determinabile empiricamente (non disponiamo di misurazioni statistiche della durata
media di una civiltà evoluta), così diventa impossibile dare un numero senza che esso abbia un
immenso errore assoluto. Il dibattito storico sulla "pluralità dei mondi" continua dunque ad avere un
parallelo moderno: Carl Sagan e Frank Drake, ad esempio, sostenitori del principio di mediocrità,
44
potrebbero essere considerati "pluralisti", mentre i sostenitori della rarità della Terra dei moderni
scettici.
Origine della vita nel mondo
Non è noto come e quando la vita comparve sul nostro pianeta. Le prime impronte della vita sono
state riconosciute in rocce vecchie di circa 3,8 miliardi di anni e furono lasciate da microscopici
organismi viventi che si possono considerare batteri che ricavavano l’energia necessaria ai loro
processi vitali dalla trasformazione di composti dello zolfo, prodotti dall’attività vulcanica presente
sul fondo degli oceani. Questi microrganismi sono di circa un miliardo di anni più giovani della
Terra e non sono stati trovati altri reperti rocciosi più antichi nei quali è stato possibile individuare
tracce di vita in epoca anteriore.
Più tardi, circa 3 miliardi di anni fa, tali organismi acquistarono la capacità di procurarsi energia
direttamente dalla luce solare e di accumulare azoto. Gli organismi più complessi dotati di
organizzazione cellulare eucariotica non si sono evoluti fino a circa un miliardo e mezzo di anni fa.
Per circa 2 miliardi di anni, pertanto, gli organismi unicellulari procariotici, i batteri, furono le sole
forme di vita presenti sul nostro pianeta. Nella figura 26 è possibile osservare ipiù antichi fossili
costituiti da batteri provvisti di una struttura molto semplice. Un momento fondamentale nella storia
della vita è rappresentato dalla
comparsa dei cianobatteri, o alghe
azzurre, che si accrebbero formando sul
fondo strutture a strati analoghe a
quelle tuttora visibili al largo delle
coste australiane. I ciano-batteri si
servirono dell’energia della luce solare
per
ricavare
carboidrati
dalla
combinazione chimica dell’acqua con
l’anidride carbonica. Tale processo,
noto come fotosintesi, diede come
prodotto di scarto l’ossigeno che, da 2,5
e sino a 1,75 miliardi di anni fa, si legò
chimicamente col ferro, ossidandolo e
formando sul fondo degli oceani Figura 26 – Sezione ultrasottile al microscopio elettronico dove si
depositi a strati di rocce ferrose.
osservano le pareti trasversali delimitanti le singole
cellule di batteri uniti in catenelle.
Il tappeto di alghe azzurre era anche in
grado di intrappolare e creare strati di sostanze quali i fanghi di carbonato di calcio, che formarono
le strutture note come stromatoliti. Non appena tutto il ferro fu legato chimicamente, l’ossigeno
resosi disponibile cominciò ad accumularsi nell’acqua degli oceani e a diffondersi nell’atmosfera;
qui costituì uno strato di ozono, che fece da scudo contro le dannosissime radiazioni ultraviolette
provenienti dal sole che, altrimenti, avrebbero reso impossibile lo sviluppo della vita. Solo
pochissimi fossili di organismi provengono dal Precambriano, anche dal più recente, e per la
maggior parte sono costituiti da piante. Alghe calcaree si diffusero ampiamente nei mari
dell’America (Montana, Alberta) e della Rhodesia; nella selce nera precambriana dell’Ontario e
nelle rocce del Michigan, Minnesota, Inghilterra e Scozia, sono stati trovati primitivi funghi
acquatici e alghe.
Gli animali fossili sono rari; è stata scoperta una medusa nel Gran Cañion ed alcune tracce
rinvenute nelle rocce del Montana testimoniano una possibile esistenza di esseri viventi. Un
maggior numero di fossili sono stati ritrovati in Australia, in depositi recentemente scoperti.
Sembra probabile che gli animali del Precambriano avessero il corpo privo di parti di una certa
consistenza e perciò scarsamente conservabili sotto forma di fossile; solo in seguito, una grande
quantità di differenti specie svilupparono parti ossee ed i loro fossili diventarono più comuni. Il
45
paesaggio dell’epoca precambriana risulta al principio piuttosto desolato: uno sterile deserto di nuda
roccia attorniato da mari poco profondi, da dove hanno inizio le prime forme di vita.
Origine della vita
La comprensione della vita e della sua origine sul nostro pianeta è un problema che l’uomo ha
sempre, invano, cercato di risolvere ed il notevole sviluppo delle diverse discipline biologiche che si
è verificato negli ultimi cento anni ha permesso di affrontare, in modo sperimentale, l’approccio alla
problematica.
Anticamente, in assenza di conoscenze scientifiche e tecnologiche, la comprensione dell’origine
della vita si è dimostrata di una tale difficoltà ed incertezza da ingenerare le più disparate
interpretazioni metafisiche e filosofiche.
Dalla mitologia classica si deduce questa grande confusione, per cui numerosi personaggi
prendevano origine da piante ed animali o addirittura si supponevano vivificati dalla materia
inanimata. Inoltre, la complessità della vita è giudicata tale che, come logica conseguenza, soltanto
un Essere superiore può averla creata e molti scienziati ancora ammettono, in modo esplicito o
implicito, l’esistenza di un creatore intelligente e soprannaturale la cui esistenza non è
razionalmente descrivibile e dimostrabile attraverso una ricerca sperimentale.
La corrente di pensiero che suppone che le funzioni connesse alla vita siano legate ad una invisibile
ed intangibile forza vitale o spirituale è indicata con il termine di vitalismo. Questi punti di vista,
che erano sostenuti fino a circa tre secoli addietro, si concretizzano, per esempio, nella teoria della
generazione spontanea per la quale piante ed animali potevano prendere anguille e molti altri vermi
prendessero origine dal fango o dalla terra umida, che i parassiti derivassero dal sudiciume e le
larve della Sarcophaga carnaria, fossero prodotte dalla carne in via di decomposizione, scambiando,
così, l’ambiente favorevole con la causa efficiente.
L’ipotesi della generazione spontanea si esaurì con Francesco Redi, Lazzaro Spallanzani e Luigi
Pasteur, i quali dimostrarono, con metodo sperimentale, rispettivamente per gli insetti, i protozoi ed
i batteri, che la nascita degli organismi viventi deriva da altri viventi. L’approccio che consente
l’applicazione del metodo scientifico attraverso la sperimentazione e la verifica dei risultati ottenuti
è denominato meccanicismo.
Va ancora detto, tuttavia, che i principi della teoria della generazione spontanea vengono ancora
oggi chiamati in causa, sia pure su basi differenti, per spiegare e sostenere l’origine della vita sul
pianeta terra. E’ opinione comune di molti studiosi del problema che, una volta che si è verificata
l’evoluzione polimerica dei composti del carbonio, in determinate condizioni ambientali di estremo
dinamismo è scoccata, dopo infiniti tentativi, la scintilla dell’evoluzione prebiotica che ha condotto
alla comparsa delle prime forme viventi in un mondo senza vita. A tal proposito, numerose sono le
ricerche che hanno tentato e cercano di stabilire non tanto i passi dell’evoluzione, dal momento che
è impossibile la formulazione di qualunque ricostruzione storica dell’epoca primordiale, ma di
stabilire quali possono essere state le caratteristiche fondamentali per la nascita della vita e di
ottenere dati sperimentali sui principi fisici che hanno spianato la strada al processo della nascita e
della prima evoluzione della vita. La conoscenza della fisica assume un’importanza fondamentale
per lo studio dell’energia ed il suo trasferimento in strutture molecolari da cui si sono poi evolute le
prime forme viventi.
D’altra parte, numerosi scienziati, tra i quali S. Arrhenius, a cavallo dei due secoli precedenti, e F.H
Crick, uno degli ideatori, nel 1953, del modello spaziale della doppia elica del DNA, ammettono
che la vita non abbia mai avuto una propria origine e che essa sia sempre esistita come proprietà
della materia. Particolari molecole e macromolecole provenienti dallo spazio possono moltiplicarsi
e colonizzare i corpi celesti soltanto se su questi esistono condizioni ambientali compatibili con la
vita intesa come macchina funzionante. L’evoluzione prebiotica I tentativi fatti per imitare la vita
sono ancora poca cosa rispetto al tempo di tre miliardi e mezzo di anni, trascorso dalla sua origine.
Nessuno può dire di sicuro quali fossero le condizioni atmosferiche o terrestri in quel momento o
quale fosse la molecola che oltrepassò la soglia critica tra la chimica organica e la biologia.
46
Una delle prime interessanti ricerche che ha avuto come obiettivo l’ottenimento di dati sperimentali
sulle condizioni ambientali che possono aver determinato l’insorgere della vita è stata quella di S.
L. Miller nel 1953, un neolaureato ventitreenne dell’Università di Chicago.
Tra i numerosi e fondamentali problemi che bisogna prendere in considerazione nello studio
dell’origine della vita, vi è il modo in cui possono essersi formate le prime proteine in un mondo
privo di vita. In un apposito pallone, con all’interno due elettrodi, fu introdotta una miscela di
metano, ammoniaca, idrogeno ed acqua, prodotti che probabilmente potevano costituire l’atmosfera
terrestre primitiva (brodo primordiale).
L’acqua del pallone fu portata all’ebollizione e la miscela di gas fu sottoposta per una settimana a
continue scariche elettriche. Il vapore acqueo trascina con sé i prodotti che si sono formati dalla
ceazione dei tre gas e sono raccolti in un apposito tubo. Dopo 24 ore dall’inizio dell’esperimento,
circa la metà del carbonio originariamente presente nel gas metano è trasformato in aminoacidi ed
in altre molecole organiche. Nella figura 27 è riportato schematicamente l’esperimento.
Figura 27 – Esperienza di Stanley Miller. Apparecchio originale in cui fu compiuto l’esperimento (A) e corrispondente
schema dell’apparecchio (B): fatto il vuoto nell’apparecchiatura, una miscela di metano, ammoniaca ed
idrogeno viene introdotta nel pallone (2); l’acqua del pallone (1) viene portata all’ebollizione ed il vapore
viene spinto nel senso delle frecce; nel pallone (2), contenente la miscela di gas che simula l’atmosfera
primitiva, viene fatta passare una scarica elettrica per una settimana; il vapore d’acqua trascina con se i
prodotti della reazione che subiscono un raffreddamento (3); i composti che si formano sono raccolti nel
tubo a U (4), che può essere paragonato ad un oceano primordiale.
In questo modo fu ottenuta la sintesi di parecchi aminoacidi (i mattoni costitutivi delle principali
macromolecole biologiche) e non può essere una coincidenza non significativa il fatto che proprio
alcuni di questi sono quelli più importanti presenti negli organismi viventi.
Numerosi altri studiosi hanno confermato questi esperimenti, con la scoperta che è possibile
ottenere aminoacidi anche a seguito della modificazione della miscela iniziale, sostituendo ad
esempio il metano con l’ossido di carbonio o l’anidride carbonica. É stata ottenuta la sintesi degli
aminoacidi in condizioni abiologiche artificiali attraverso l’impiego di diversi tipi di radiazioni
come quelle α, β, γ ed ultraviolette o con l’impiego del calore. Dal grande successo ottenuto con la
sintesi artificiale degli aminoacidi con metodi diversi, si deduce che questi composti organici
possono essersi formati in molti ambienti terrestri prima della nascita della vita.
47
Se è stato relativamente semplice la dimostrazione che gli aminoacidi possono prodursi secondo
procedimenti abiologici, molto più limitato è risultato l’ottenimento delle proteine per sintesi
prebiologica. E’ stato dimostrato che un poli-α-aminoacido, costituito da residui di glicina, poteva
ottenersi per condensazione di aminoacetonitrile senza formazione intermedia di aminoacidi ed è
stato proposto che questa preproteina possa essere servita come precursore per la sintesi di polimeri
molto più complessi, come le proteine. Tuttavia, nonostante sia stato possibile introdurre in questa
proteina primordiale altre forme aminoacidiche, i prodotti ottenuti non si sono mai avvicinati alla
complessità delle proteine oggi conosciute.
Una convinzione che viene condivisa dalla maggior parte dei ricercatori è che la materia deve aver
preso vita da una serie di tappe, tutte molto probabili. Questa interpretazione risale a Darwin il
quale ipotizzò che la vita abbia avuto inizio quando alcune sostanze attivate dal calore, dalla luce o
da scariche elettriche cominciarono a reagire con altre, generando composti organici di complessità
via via crescente e suggerì una spiegazione del perché oggi non si possa veder balzare la vita fuori
da sostanze inanimate. Un qualsiasi organismo primitivo, scrisse, verrebbe istantaneamente distrutto
o assorbito da quelli più evoluti.
La versione sostenuta da Miller è anch’essa esprimibile secondo i concetti darwiniani. La vita ebbe
inizio quando alcuni composti, oppure una categoria di sostanze fu capace di replicarsi secondo un
processo tale da dare origine, di tanto in tanto, a degli errori ereditabili, in conseguenza dei quali
sono state prodotte nuove generazioni di molecole capaci di copiare se stesse con maggiore
efficienza rispetto a quelle parentali.
Negli anni che seguirono il classico esperimento di Miller, le proteine sembrarono essere i migliori
candidati al ruolo di prime molecole in grado di autoreplicarsi, poiché erano in grado di riprodursi
ed anche di organizzarsi. Un grande sostegno a questa ipotesi prese corpo verso la fine degli anni
cinquanta quando S.W. Fox e K. Harada, scaldando a secco miscugli di aminoacidi con acido
aspartico ed acido glutammico in sufficiente quantità, riuscirono ad
ottenere delle aggregazioni sferiche costituite da polimeri contenenti 18 aminoacidi che si trovano
comunemente nelle proteine. Tali polimeri, detti proteinoidi, hanno un elevato peso
molecolare, sono digeribili dagli enzimi proteolitici e possiedono deboli proprietà catalitiche.
Per tali caratteristiche e per altre ancora, i proteinoidi sono assimilabili qualitativamente alle attuali
proteine. I proteinoidi , tuttavia, rimangono tali nel tempo e non riescono ad evolvere o a riprodursi.
Diversi altri ricercatori, in particolare C.A. Ponnamperuma dell’Università del
Maryland, ripartendo dagli studi di Fox e Harada hanno tentato di ottenere proteine in grado di
replicarsi senza gli interventi di acidi nucleici.
E’ opinione comune che gli acidi nucleici, come il DNA, siano da ritenersi, attualmente, i più idonei
al ruolo di prime molecole capaci di autoreplicazione. La difficoltà è rappresentata dal fatto che il
DNA non può svolgere i propri compiti, compresa la formazione di ulteriore DNA, senza la
presenza di proteine catalitiche quali gli enzimi. In altre parole, le proteine non possono formarsi
senza DNA, ma neppure il DNA può prendere origine senza la presenza di proteine.
A questo dilemma dettero una plausibile risposta gli esperimenti condotti, all’inizio degli anno
ottanta, dai biologi molecolari T.R. Cech dell’Università del Colorado e S. Altman della Yale
University. Era stato ipotizzato che la prima ad autoreplicarsi possa essere stata una molecola di
RNA, ma nessuno aveva dimostrato in che modo essa possa efficacemente dar luogo a delle copie
di se stessa senza la presenza di enzimi. I due ricercatori scoprirono che certi tipi di RNA potevano
comportarsi come enzimi nei confronti di se stessi, tagliandosi in due e ricucendosi nuovamente.
Una tale scoperta valse ai due studiosi, nel 1989, il premio Nobel e fu subito colta dai ricercatori
interessati al problema dell’origine della vita. Se le molecole di RNA possono agire come enzima,
potrebbero anche replicarsi senza l’aiuto delle proteine. Fu introdotto, da W.
Gilbert dell’Università di Harvard, il termine “mondo a RNA”, per cui i primi organismi
consistevano di semplici molecole di RNA autoreplicantisi. La loro evoluzione indusse la capacità a
sintetizzare le proteine, che favorivano una replicazione più rapida, ed i lipidi che potevano formare
48
una membrana cellulare. Successivamente questi prebiotici ad RNA formarono le prime molecole
di DNA che avrebbe costituito un più sicuro deposito di informazione genetica.
In laboratorio sono stati riprodotti con successo i diversi momenti di questa evoluzione. J.W.
Szostak ed altri ricercatori hanno costruito speciali molecole di RNA capaci di agire come enzimi di
restrizione, ossia di tagliare e poi saldare tra loro le diverse molecole, loro stesse incluse, per molte
volte di seguito. Altri ricercatori, in particolare M. Eigen del Max Planck Institut di Gottinga,
dimostrano sperimentalmente come la molecola di RNA, protagonista in questa vicenda evolutiva
dell’origine della vita sul nostro pianeta, sia capace di adattarsi e di evolversi e sia potenzialmente
capace di generare nuovi elementi biologici.
Figura 28 – Possibile schema di evoluzione prebiotica attraverso un mondo a RNA.
Questo effetto è stato chiamato “evoluzione diretta” ed è schematicamente rappresentato nella
figura 28, dove, attraverso un mondo a RNA, lo stesso acido ribonucleico si forma dal ribosio e da
altri composti organici (a), si evolve apprendendo al capacità della replicazione (b), inizia a
sintetizzare proteine dotate di capacità catalitiche (c), le quali aiutano il nucleotide a replicarsi ed a
sintetizzare nuove proteine caratterizzate da una maggiore efficienza ed a costruire versioni a
doppio filamento di se stesso che poi evolveranno in DNA (d), il quale assumerà una posizione
preminente nell’utilizzare le molecole di RNA per costruire ulteriori proteine che, a loro volta,
aiutano lo stesso DNA a produrre copie di se stesso ed a trasferire l’informazione genetica allo
stesso RNA (e).
Questo antico mondo prebiotico, formato da molecole di RNA poteva aver rappresentato un ponte
tra la chimica dei composti semplici ed i prototipi di quelle cellule complesse, la cui sopravvivenza
nel tempo è assicurata dal DNA che costituisce il patrimonio ereditario degli attuali organismi.
Queste cellule, secondo alcune testimonianze fossili, sarebbero comparse durante il primo miliardo
di anni che seguì la formazione del nostro pianeta, databile intorno a 4,5 miliardi di anni.
L’attento esame della teoria del “mondo a RNA” pone il quesito principale di come possa essersi
formato il primo RNA.
La molecola di RNA ed i suoi componenti sono difficili da sintetizzare in laboratorio, anche nelle
migliori condizioni sperimentali e tali difficoltà saranno state ampiamente amplificate in un mondo
primordiale, prima dell’origine della vita. In particolare, la sintesi dello zucchero chiave dell’acido
ribonucleico, il ribosio, produce tutta una serie di altri zuccheri che potrebbero inibire la
replicazione dello stesso RNA. Inoltre, non è chiaro perché il fosforo, un elemento relativamente
raro in natura, sia così fortemente rappresentato nella molecola di RNA e DNA. La sintesi in
laboratorio di RNA può ottenersi, ma la sua replicazione può avvenire soltanto in determinate
condizioni che non è detto che si siano verificate all’epoca dell’origine della vita.
49
Alcuni ricercatori e tra questi L.E. Orgel ritengono che qualche molecola più semplice e forse del
tutto diversa possa aver spianato la strada per la sintesi di RNA. L’identificazione di questo
composto non è facile ed un gruppo di ricercatori, coordinato da J. Rebek, lavorando intorno a
questo problema ha condotto un’ampia sperimentazione che ha portato, intorno alla metà degli anni
novanta, alla sintesi di nuove molecole organiche in grado di autoreplicarsi.
Molecole autoreplicanti
Le molecole, naturali o sintetiche, riescono a replicarsi quando le loro forme e le loro proprietà
chimiche sono dotate di complementarietà. Una molecola, in virtù di come occupa lo spazio e di
come i suoi atomi o gruppi atomici sono distribuiti al suo interno, può posizionarsi nei recessi e
negli angoli reconditi di un’altra molecola. L’adattamento ottimale tra due molecole complementari
dipende così non soltanto dalla struttura spaziale delle molecole, ma anche dai differenti tipi di
legami chimici che le tengono unite in gruppi. Questi gruppi o complessi si formano e si dissociano
rapidamente, nello spazio di frazioni infinitesime di secondo, in tempi molto brevi ma
sufficientemente lunghi da permettere lo svolgimento di reazioni chimiche.
Le forze che tengono uniti i complessi, spesse volte più deboli dei legami covalenti che si
stabiliscono tra gli atomi nelle molecole, sono costituiti dai legami idrogeno, dalle forze di van der
Waals e dall’impilamento aromatico.
Il legame a idrogeno o legame polare si forma quando un atomo di idrogeno dotato di una carica
parziale positiva è attratto da una atomo di ossigeno che ha una carica parziale negativa.
Le forze di van der Waals sono quelle che si stabiliscono tra due molecole, quando gli elettroni di
una riescono a spostare quelli dell’altra, creando uno squilibrio di carica e stabilendo tra i due
complessi delle forze di attrazione.
Figura 29 – Semplice accoppiamento di due molecole complementari con attrazioni elettrostatiche indicate con i segni
+ e -. Questo tipo di accoppiamento riproduce uno schema abbastanza diffuso di replicazione che è quello
preferito dal DNA.
Il terzo tipo di attrazione, quello dell’impilamento aromatico, si stabilisce tra le superfici piane di
molecole cicliche aromatiche le quali si avvicinano le une alle altre, ponendo a contatto diretto le
loro facce piatte e venendo a stabilire una configurazione più stabile. Si viene a stabilire una
repulsione per il solvente in cui tali molecole si trovano, per cui lo stesso solvente non può
interporsi tra le superfici molecolari combacianti che risultano così protette, poiché solventi in
grado di danneggiarle, acidi, basi, ossidanti in soluzione, non sono in grado di raggiungerle.
Allora legami covalenti forti hanno il tempo di congiungere le parti complementari e, talvolta,
soltanto due su tre molecole di un complesso formano un legame, mentre la terza serve
semplicemente a facilitare il processo. Il ricorso a forme concave e convesse può essere utile per
rappresentare schematicamente il tipo di accoppiamento descritto.
50
Una superficie molecolare concava può riconoscere e circondare il proprio complemento convesso e
può fungere da stampo per assemblare la molecola convessa a partire dalle sue parti componenti.
Reciprocamente la molecola convessa può costituire uno stampo per riunire e fondere insieme le
parti componenti della molecola concava. Si ottiene, in pratica, che ciascuna molecola forma l’altra
e questi due tipi di replicazione costituiscono un bi-ciclo.
Nella figura 29 è indicata la rappresentazione schematica del riconoscimento molecolare di due
frammenti, con proprietà geometriche e chimiche complementari, fra i quali il solvente che
s’interpone viene eliminato, con conseguente stabilizzazione del complesso neoformato. Si realizza
un accoppiamento di due molecole complementari con attrazioni elettrostatiche dei segni opposti.
Nella figura 30 è schematicamente rappresentato un bi-ciclo di replicazione coinvolgente due
molecole che hanno forme complementari rappresentate da due elementi in cui il primo si inserisce
nel secondo.
Figura 30 – Bi-ciclo di replicazione in cui l’elemento A raccoglie le due parti di B attorno a sé per formare un
complesso; le parti reagiscono tra loro formando un elemento B intero per poi dissociarsi velocemente
(ciclo a sinistra). L’elemento B riunisce i frammenti dell’elemento A in modo che le due molecole
complementari catalizzano ciascuna la formazione dell’altro (ciclo a destra).
Un modello alternativo di replicazione è rappresentato da due molecole complementari all’interno
di un complesso che si uniscono in qualche punto che non si trova sulla superficie di iconoscimento,
con la formazione di un’unica molecola di cui un’estremità è complementare dell’altra e l’insieme è
complementare di se stesso.
Figura 31 – Se due molecole complementari A e B, anziché inserirsi l’una nell’altra come avviene in un bi-ciclo, si
uniscono in corrispondenza di un altro sito di reazione formando una molecola autocomplementare, ha
luogo un’autoreplicazione. La molecola assembla copie delle forme originarie e le trattiene in modo che
anch’esse possano reagire per dare origine ad una copia di sé stessa.
51
Le superfici di riconoscimento alle estremità di questa nuova molecola autocomplementare sono
ancora accessibili ad altre molecole e possono catturare, ciascuna, un frammento identico a quello
che si trova all’altra estremità. Una volta catturate, queste due nuove componenti non possono più
muoversi liberamente e si spostano insieme nello spazio e le probabilità che si uniscano l’una
all’altra sono molto potenziate. In tal modo, l’entità autocomplementare produce una copia e,
identicamente, molte copie di sé. Non sono necessari enzimi poiché è la stessa molecola che
catalizza la propria formazione (figura 31).
Figura 32 – Una molecola autocomplementare (ARNI) riunisce i
componenti di cui ha bisogno per replicarsi: una
molecola di adeninribosio ed una molecola di
naftalenimmide. Gli aloni colorati indicano gli atomi
coinvolti nei legami a idrogeno.
É stato proprio questo il metodo che J. Rebek, nel 1994 ha utilizzato in laboratorio per produrre
molecole che fossero in grado di reagire l’una con l’altra in modo da richiamare alla mente il
mondo vivente.
Quando sono associate insieme in un complesso, l’adenina e l’immide si uniscono mediante legame
covalente e formano una molecola autocomplementare.
L’inserimento tra l’adenina e l’immide di una molecola di naftalene (più voluminosa e più rigida) al
posto della catena a legami singoli e di un gruppo di ribosio ciclico, quale unità di collegamento
meno flessibile, ha lo scopo di impedire che la lunga catena di atomi di carbonio, quale risultante
struttura autocomplementare, si ripiegasse su se stessa senza associarsi ad altre molecole e senza
replicarsi. La nuova molecola ottenuta è stata l’adeninribosonaftalenimmide (ARNI) che offrì uno
dei primi esempi di autoreplicazione (figura 32).
52
Tuttavia, l’ARNI non andava incontro ad un accrescimento secondo una curva sigmoide, tipico
degli acidi nucleici. Per ottenere ciò si è dovuto inserire una superficie per l’impilamento
leggermente più lunga, cioè un bifenile al posto del naftalene per avere così una nuova molecola
sintetica che si autoreplica autenticamente, cioè l’adeninribosobifenlimmide (ARBI). L’ARBI, però,
pur essendo in grado di replicarsi, è una molecola capace di fare copie soltanto di se stessa, mentre
un prodotto ereditabile tipico degli organismi viventi, affinché possa dar luogo ad un processo
evolutivo, deve poter sintetizzare di tanto in tanto altre molecole in grado di svolgere una migliore
attività duplicativa e dar luogo a variabilità.
É stato necessario ottenere, per impostare uno schema che potesse dare un’idea di come la vita ha
avuto origine sul nostro pianeta, una molecola che catalizzasse non soltanto la propria formazione,
ma anche quella di una molecola di forma simile, tuttavia dotata di una maggiore capacità di
replicazione.
Rebek e collaboratori hanno progettato molecole in grado di fare “errori”, di subire, in altre parole,
delle mutazioni, cioè delle modificazioni strutturali e biochimiche sotto l’azione di cause
ambientali, come, per esempio, le radiazioni ultraviolette. Si trattava di simulare in laboratorio
quello che probabilmente accadde sul nostro pianeta qualche miliardo di anni fa, quando si
verificarono le condizioni che determinarono la nascita della vita.
In chimica organica, si verifica un “errore” quando i reagenti non possiedono selettività.
Per produrre un’ipotesi più o meno valida sulla nascita della vita bisognava disporre di una
molecola che catalizzasse non soltanto la propria formazione, ma anche quella di una molecola di
forma simile. Inoltre, almeno una di queste due molecole doveva essere in grado di trasformarsi in
un’altra dotata di maggiore capacità di replicazione.
Gli studi condotti sul DNA da Watson e Crick dimostrarono l’esistenza di due siti dell’adenina dove
si formano i legami a idrogeno: un sito lungo il cosiddetto spigolo di Watson e Crick, che è
interessato nella replicazione del DNA, ed un sito presente lungo lo spigolo di Hoogsteen, una parte
del DNA che rimane normalmente esposta, anche se a volte è congiunta in eliche triple. Orbene, le
immidi di Rebek possono attaccarsi in corrispondenza dell’uno o dell’altro spigolo e se uno degli
idrogeni del gruppo amminico (–NH2) dell’adenina, per l’appunto interessato nel legame a
idrogeno, viene sostituito da un gruppo di maggiori dimensioni, quest’ultimo blocca l’accesso allo
spigolo di Watson e Crick, mentre lo spigolo di Hoogsteen rimane ampiamente accessibile. Infatti,
quando un gruppo metilico (–CH3) si unisce all’adenina, si rileva che oltre 85% dei recettori delle
immidi si lega lungo lo spigolo di Hoogsteen.
Utilizzando il cambiamento della velocità di replicazione, conseguenza del blocco dello spigolo di
Watson e Crick, sono state ottenute due diverse molecole di adenina: una con un gruppo
benzilossicarbonilico (Z), bloccante nella sintesi delle proteine, ed un’altra con lo stesso gruppo al
quale era stato aggiunto un radicale –NO2 (Z–NO2).
Ciò allo scopo di assemblare sullo stampo una molecola alterata di adenina ed un’immide, con
gruppi bloccanti penzolanti in siti lontani dal punto dove si forma il legame covalente, così che la
sintesi potesse svolgersi indipendentemente dall’identità dei gruppi, poiché Z ad un’estremità non
sapeva se il gruppo bloccante all’altra estremità poteva essere Z oppure Z-NO2. Prendendo ancora
in considerazione la molecola autoreplicante ARBI, questa è stata modificata in ZARBI (con
molecole di adenina contenenti il gruppo Z) e ZNARBI (con molecole di adenina provviste del
gruppo Z-NO2), due molecole in grado di autoreplicarsi lentamente e di compiere “errori”. Infatti,
una catalizza la propria formazione e funge da stampo per l’assemblaggio dell’altra, mentre
quest’ultima catalizza la propria formazione e quella della prima.
Va anche detto che l’addizione di molti gruppi può portare alla formazione di molecole
autoreplicanti in grado di compiere “errori”, tuttavia –NO2 si comporta in modo particolare, poiché
è facile rimuoverlo con irraggiamento mediante particolari lunghezze d’onda nell’ultravioletto.
Una volta staccato il gruppo Z-NO2, lo spigolo di Watson e Crick diventa accessibile, la nuova
molecola diventa più leggera ed è possibile trovare una corrispondenza oltre che lungo lo stesso
spigolo anche verso quello di Hoogsteen con un raddoppiamento dell’efficienza di autoreplicazione.
53
Le ricerche di Rebek e collaboratori hanno così portato alla realizzazione di una versione chimica
della mutazione, con un cambiamento strutturale permanente, ereditabile, che influisce sulla
capacità di sopravvivenza di un organismo o del suo analogo, come in questo caso, la molecola
autoreplicante.
Inoltre, come forse avvenne nelle condizioni ambientali all’origine della vita, le modificazioni nella
struttura di una molecola autoreplicante possono essere causati da variazioni termiche, acidità,
salinità, radiazioni e molti altri fattori.
Facendo competere i derivati adeninici contenenti i gruppi Z e Z-NO2 per una quantità limitata del
recettore bifenilico complementare, una volta avvenuto il consumo completo del recettore, il
recipiente di reazione è stato irradiato con luce ultravioletta della lunghezza d’onda di 350 nm.
Dopo alcune ore di irradiazione i gruppi bloccanti Z-NO2 sono stati tutti rimossi, sia dalle molecole
autoreplicanti ZNARBI, sia dai loro progenitori adeninici. In altre parole, le molecole ZNARBI
sono state tutte trasformate in molecole ARBI e le molecole di adenina contenenti i gruppi Z-NO2
sono diventate semplicemente adenina.
Era stata ottenuta una vera mutazione, sollecitata da un cambiamento dell’ambiente. Le molecole
ZARBI e la Z-adenina sono rimaste inalterate, ma a seguito dell’aggiunta di altro recettore
bifenilico, la molecola ARBI, prodotto dell’irradiazione, diventa loro concorrente e prende il
completo e rapido sopravvento nell’utilizzazione delle risorse del sistema, sia perché di forma più
affusolata, sia per il vantaggio di replicarsi lungo lo spigolo di Watson e Crick e quello di
Hoogsteen, ambedue privi di gruppi bloccanti.
Nella figura 33 viene riportato lo schema di ottenimento di molecole autoreplicanti e mutanti,
quando una molecola di adenina, provvista di un qualunque gruppo supplementare (ad esempio un
gruppo Z o Z-NO2) si unisce con una molecola di bifenilimmide, formando una molecola
autocomplementare.
Diventa ora possibile proporre una semplice spiegazione evoluzionistica. Supponendo che la
molecola ZARBI sia la molecola origine, la sua replicazione comporta necessariamente la presenza
di una Z-adenina e del recettore bifenilico.
Addizionando acido nitrico, alcune molecole di Z-adenina acquistano il gruppo Z-NO2 e vanno a
costituire molecole ZNARBI le quali si autoreplicano con maggiore efficienza del predecessore
ZARBI. Con l’irraggiamento di luce ultravioletta si verifica un’altra modificazione per la quale
ZNARBI si trasforma nella molecola ARBI più semplice ed efficiente, poiché dimostra la migliore
autoreplicazione.
La mutazione è il fenomeno più efficiente in quasi tutti i processi evolutivi, ma anche la
ricombinazione assume importanza fondamentale nell’evoluzione. Due cromosomi possono
dividersi, scambiarsi filamenti di DNA e ricongiungersi, combinando in tal modo anche i loro
caratteri.
La mutazione induce piccoli singoli cambiamenti, mentre la ricombinazione permette l’ottenimento
di ibridi che sono molto diversi dai loro genitori. Orbene, gli studi di Rebek e collaboratori, allo
scopo di dimostrare la ricombinazione a livello molecolare, hanno condotto alla produzione di un
insieme di molecole autoreplicanti completamente nuovo.
Due molecole complementari vengono unite da un legame covalente per dare origine ad una
struttura autocomplementare capace di agevolare la propria sintesi.
Specificamente, sono state ottenute molecole autoreplicanti basate sull’adenina e sulla timina le
quali, introdotte nello stesso reattore, sono state in grado di rimescolare le proprie componenti in
nuove combinazioni ed alcuni dei prodotti della ricombinazione, la diamminotriazinxantentimina
(DIXT) e l’adeninribosotimina (ART) hanno dimostrato di essere molecole dotate di
autoreplicazione, in particolare la seconda è stata la molecola autoreplicante più prolifica mai
incontrata, mentre un’altra, la diamminotriazinxantenbifenilimmide (DIXBI) non riusciva affatto a
replicarsi, mostrando caratteristiche, per così dire, di sterilità.
54
Figura 33 – Ottenimento di molecole mutanti autocomplementari a partire da adenina, provvista di un gruppo R, e da
bifenilimmide. R può essere un gruppo Z o Z-NO2, il che dà luogo ad una molecola ZARBI o NZARBI,
rispettivamente. Quest’ultima può fissare una molecola di adenina soltanto lungo lo spigolo di Hoogsteen e
non con lo spigolo di Watson e Crick, poiché questo è bloccato dal gruppo R, e fonderla con una molecola
di bifenilimmide. La molecola NZARBI realizza così la catalisi della propria formazione, oltre a quella
della molecola competitrice.
L’efficienza autoreplicante di ART si può spiegare col fatto che questa molecola assomiglia molto
ad un segmento di DNA che, probabilmente, è la molecola che si auto replica nel migliore dei modi
fra tutte quelle esistenti.
Il ribosio di cui è provvista dà luogo ad una configurazione molto utile allo scopo, poiché rende le
superfici di riconoscimento parallele le une alle altre. L’elevata affinità dell’adenina per la sua
complementare timina permette, inoltre, la formazione di un complesso che si assembla senza
difficoltà.
55
Figura 34 – Rappresentazione di un albero genealogico di molecole capaci di autoreplicazione. L’adenin ribosio e la
bifenilimmide producono l’ARBI e se la soluzione, una sorta di brodo primordiale, contiene anche
diamminotriazinxantene e timina avviene la sintesi anche di ART, DIXT e DIXBI. La prima molecola è la
più prolifica delle quattro, mentre l’ultima è assolutamente sterile.
L’inefficienza nell’autoreplicazione di DIXBI è legata alla sua conformazione molecolare globale,
poiché questa è costituita da due molecole a forma di U, unite da un distanziatore bifenilico rigido
che induce una struttura complessiva a forma di C o a S.
56
Nella prima forma le superfici di riconoscimento sono affacciate all’interno, dove non c’è spazio
sufficiente per la formazione di un complesso autoreplicante.
Nella seconda forma le superfici di riconoscimento sono molto distanziate, per cui, quando si forma
un complesso, le parti reattive sono troppo distanti l’una dall’altra e non riescono ad unirsi tramite
un legame covalente.
Ciò spiega perché la DIXBI, pur essendo una molecola autocomplementare non è capace di
autoreplicazione.
Un insieme relativamente piccolo di molecole può, pertanto, originare un vero albero genealogico
di molecole dotate della peculiarità dell’autoreplicazione.
Nella figura 34 viene rappresentato lo schema di un albero genealogico di molecole autoreplicanti,
per cui una soluzione con frammenti molecolari complementari può generare alcune molecole, che
si autoreplicano, diverse tra loro. Alcune di queste molecole si autoreplicano con buona efficienza,
mentre un ramo dell’albero si distingue per assenza della capacità autoreplicante.
Molto interessante sarebbe la reale possibilità che le molecole sterili, frantumate in parti, potessero
dar luogo a raggruppamenti chimici che le molecole con elevata capacità di autoreplicazione
sarebbero in grado di utilizzare a loro vantaggio.
Dalle molecole autoreplicanti ad un modello di cellula primordiale
Un altro evento importante per la comparsa della vita è la costruzione di una membrana capace di
operare una separazione spaziale tra gli aggregati di molecole e l’ambiente. In altri termini, le
conquiste evolutive, raggiunte da un sistema attraverso apposite sintesi biochimiche, sono vanificate
se vi è la libera circolazione delle macromolecole e dei loro prodotti che altrimenti verrebbero
condivisi dai loro competitori.
La membrana impedisce, inoltre, la penetrazione dall’esterno di molecole in grado di disorganizzare
il programma abbozzato, operando da barriera grazie alla sua continuità spaziale ed alla sua
particolare struttura fisicochimica.
La natura lipoproteica, infatti, rende la membrana altamente isolante ed impermeabile alle molecole
idrofile ed a quelle di grosse dimensioni, anche se tale funzione di impermeabilizzazione non è
assoluta, nel senso che la stessa membrana,con una certa selettività, può far passare o trasportare
molecole appartenenti alle più diverse categorie, presupposto essenziale al mantenimento della vita
della cellula.
Gli eventi che hanno condotto alla formazione della membrana sono sconosciuti e tra le tante teorie
ce n’è una che chiama in causa complessi che sono detti coacervati (figura 35).
I coacervati, secondo A.I. Oparin possono ottenersi in laboratorio dissolvendo una proteina in
acqua. Se si aggiunge un acido si osserva l’intorbidamento del liquido dovuto alla comparsa di
migliaia di piccole goccioline, per l’appunto i coacervati, visibili al microscopio e del diametro
compreso tra 0,5 e 2.000 nm, che si formano per l’esistenza sulle macromolecole di cariche
elettriche che attirano l’acqua.
I coacervati sono delimitati all’esterno da un evidente strato con carattere di membrana, attraverso il
quale possono verificarsi scambi in maniera selettiva.
Questi modelli di cellule sono molto interessanti, poiché è possibile che simili aggregati selettivi di
macromolecole si siano formati negli oceani primordiali. S.W. Fox e S. Yuyama sono riusciti ad
ottenere coacervati a partire da proteinoidi, preparati per via termica per immersione in soluzioni
saline calde. Fenomeni analoghi, svoltisi in un cosiddetto brodo primordiale, avrebbero permesso la
formazione di aggregati colloidali complessi e coacervati, le cui dimensioni avrebbero superato da
200 a 1.000 volte quelle delle singole macromolecole. Queste ultime si sarebbero concentrate in
punti localizzati nella massa fluida, fino alla comparsa dell’individualità. Ciascun coacervato o
microsfera o micella, gradualmente, avrebbe avuto a disposizione un proprio ambiente interno in
cui sarebbero avvenute le principali reazioni chimiche attraverso l’assorbimento, regolato da una
membrana rudimentale, di materiale organico dalla soluzione acquosa esterna. Ciascuna goccia, da
questo momento, avrebbe seguito un differente cammino: avrebbe potuto evolversi o estinguersi
(figura 36).
57
Figura 35 – Gocce di coacervato, ottenuto mescolando gelatina e gomma arabica (a sinistra) ed
addizionando RNA ad un istone.
Figura 36 – Lo schema di formazione delle microsfere distinto in quattro
tappe. La prima comporta la presenza di gas costituenti
l’atmosfera primordiale (anidride carbonica o metano,
ammoniaca, acqua ed idrogeno); questi subiscono una
condensazione e danno luogo alla seconda tappa con
formazione di aminoacidi; un successivo addensamento degli
amminoacidi genera la terza tappa con formazione dei
proteinoidi; infine la quarta tappa che produce microsfere
dotate di membrane limitanti e di gemme. Nelle due
microfotografie è possibile osservare delle microsfere (A),
ottenute da S.W. Fox, nelle quali è ben visibile la membrana,
le quali stanno producendo un processo formativo delle
gemme (B).
58
La successiva evoluzione delle microsfere avrebbe portato ad intravedere i primi passi di un
rudimentale metabolismo. Esse si sarebbero orientate verso una graduale organizzazione in semplici
sistemi aperti, capaci di scambiare energia e materia mediante processi di diffusione ed osmosi
attraverso le membrana, con passaggio preferenziale di alcune molecole come l’acqua, gli zuccheri
semplici, gli aminoacidi, prefigurando così i primi processi nutritivi, probabilmente di tipo
eterotrofo. Uno degli attributi chiave della vita è una delimitazione rappresentata dalla parete di un
contenitore e, specificamente, di una cellula che separi l’interno dall’esterno ed impedisca alle
molecole utili di essere portate via, mentre le molecole che non interessano vengono tenute sotto
controllo. E’ noto che i virus utilizzano come contenitore un involucro proteico di molte copie
identiche di una sola unità proteica. Le unità sono autocomplementari, ma le loro superfici di
riconoscimento sono orientate in modo che esse si assemblano in un involucro chiuso.
Il capside virale è costituito da molte copie identiche di una proteina, poiché il genoma virale non
possiede una quantità di informazioni adeguata per il coinvolgimento di diverse molecole.
Rebek e collaboratori hanno pensato ad un progetto molto semplice basato sulla struttura di una
palla da tennis. Tagliata lungo la cucitura, essa dà luogo a due metà identiche, le cui estremità
convesse sono complementari come forma alle parti centrali concave. E’ stata sintetizzata, in
laboratorio, una struttura che imita le forme dei pezzi della palla da tennis e possiede una
complementarietà chimica, con unità che si adattano bene tra loro con legami a idrogeno lungo la
cucitura (figura 37).
Una molecola sintetica è stata creata per adattarsi bene all’interno, tuttavia, altri ostacoli si
interpongono affinché possa dimostrarsi sino in fondo che un simile progetto possa aver realmente
dato luogo all’origine di una struttura vivente. In particolare, è molto difficile dimostrare come un
simile pseudorganismo possa trarre energia e da dove, cioè dalla luce o da altre molecole, ed ancora
ci si chiede come possono essere reintegrate le parti componenti delle molecole autoreplicanti ed i
loro contenitori.
Figura 37 – Ipotesi della palla da tennis sull’origine della membrana cellulare, vale a dire di un
contenitore autoreplicante di molecole autoreplicanti in grado di separare l’interno
dall’esterno. Sulla destra viene indicata la rappresentazione di una molecola che,
assemblandosi con la propria gemella, dà origine ad una sfera cava in grado di
contenere molecole autoreplicanti.
Questi esperimenti starebbero a significare che le conoscenze dei concetti intimi che stanno alla
base della vita e della creazione siano prossimi ad essere svelati, mentre le cose non stanno proprio
in questi termini e si può sostenere logicamente che la vita è così complessa che potrebbe essere
stata creata da un inventore intelligente e la spiegazione possa essere ancora correlata all’esistenza
di un Creatore.
Anche se si riuscisse a creare in laboratorio qualcosa dotato di proprietà simili alla vita, rimarrebbe
sempre in sospeso la domanda se le cose andarono effettivamente in quel modo. La risposta è molto
difficile dal momento che la tettonica delle zolle, il vulcanismo e l’erosione hanno cancellato la
maggior parte delle tracce risalenti al primo miliardo di anni del nostro pianeta. Basti pensare che
59
per stimare l’età della Terra bisogna rivolgersi alle meteoriti che si presume siano relitti dell’era in
cui il sistema solare si condensò da una nube di gas e polvere e che il tasso di decadimento
radioattivo osservato nelle stesse meteoriti indica che esse, e così la Terra, hanno
approssimativamente un’età di 4,5 miliardi di anni.
La vita è il prodotto più straordinario scaturito dall’interazione tra sistemi complessi. Lo sviluppo di
un organismo vivente è il frutto di una serie articolata di rapporti reciproci che coinvolgono un gran
numero di componenti diverse. Queste componenti, o sottosistemi, sono a loro volta costituiti da
elementi molecolari più piccoli, ciascuno dei quali, indipendentemente dagli altri, mostra un
comportamento dinamico tipico, come, per esempio, la capacità di catalizzare reazioni chimiche.
Quando questi elementi sono combinati insieme in unità funzionali più grandi ne scaturiscono
nuove ed imprevedibili proprietà come la capacità di accrescersi, di nutrirsi, di moltiplicarsi e di
reagire agli stimoli. L’unità funzionale dotata di queste caratteristiche e che rappresenta la chiave
per capire come funziona la vita è la cellula ed il fenomeno per il quale diverse componenti si
uniscono per formare strutture stabili più grandi, dotate di proprietà inedite rispetto a quelle delle
singole componenti, è noto come autoassemblaggio. La cellula è l’unità fondamentale della vita,
poiché tutti gli organismi viventi, siano essi batteri, animali o vegetali, sono costituiti da cellule e la
loro conoscenza rappresenta la chiave per capire la struttura e la funzione delle piante e degli
animali.
Formazione ed evoluzione del Mundus
Le teorie riguardanti la formazione e l'evoluzione del sistema solare sono varie e investono
numerose discipline scientifiche, dall'astronomia alla fisica, alla geologia. Molte nei secoli sono
state le teorie proposte per l'origine del sistema solare, è tuttavia dal XVIII secolo che iniziano a
prendere forma le teorie moderne. L'inizio dell'era spaziale, le immagini di altri pianeti del sistema
solare, i progressi nella fisica nucleare e nell'astrofisica hanno contribuito a modellare le attuali
teorie sull'origine e sul destino del sistema solare.
L'ipotesi sull'origine del sistema solare che attualmente gode di maggior credito è quella della
nebulosa, proposta inizialmente da Immanuel Kant nel 1755 e indipendentemente da Pierre-Simon
Laplace. La teoria nebulare afferma che il sistema solare ha avuto origine dal collasso
gravitazionale di una nube gassosa, la nebulosa solare. Si calcola che la nebulosa avesse un
diametro di circa 100 UA e una massa circa 2-3 volte quella del Sole. Si ipotizza che nel tempo una
forza interferente (probabilmente una vicina supernova) abbia compresso la nebulosa spingendo
materia verso il suo interno ed innescandone il collasso. Durante il collasso la nebulosa avrebbe
iniziato a ruotare più rapidamente (secondo la legge di conservazione del momento angolare) ed a
riscaldarsi. Col procedere dell'azione della gravità, della pressione, dei campi magnetici e della
rotazione la nebulosa si sarebbe appiattita in un disco protoplanetario con una protostella al suo
centro in via di contrazione.
La teoria prosegue ipotizzando che da questa nube di gas e polveri si formarono i diversi pianeti. Si
stima che il sistema solare interno fosse talmente caldo da impedire la condensazione di molecole
volatili quali acqua e metano. Vi si formarono pertanto dei planetesimi relativamente piccoli (fino
allo 0,6% della massa del disco) e formati principalmente da composti ad alto punto di fusione,
quali silicati e metalli. Questi corpi rocciosi si sono evoluti successivamente nei pianeti di tipo
terrestre. Più esternamente, oltre la frostline, si svilupparono invece i giganti gassosi Giove e
Saturno, mentre Urano e Nettuno catturarono meno gas e si condensarono attorno a nuclei di
ghiaccio.
Grazie alla loro massa sufficientemente grande i Giganti gassosi hanno trattenuto l'atmosfera
originaria sottratta alla nebulosa mentre i pianeti di tipo terrestre l'hanno perduta. La loro atmosfera
è frutto di vulcanismo, impatti con altri corpi celesti e, nel caso della Terra, l'evoluzione della vita.
Secondo questa teoria, dopo cento milioni di anni la pressione e la densità dell'idrogeno nel centro
nella nebulosa divennero grandi a sufficienza per avviare la fusione nucleare nella protostella. Il
60
vento solare prodotto dal neonato Sole spazzò via i gas e le polveri residui del disco allontanandoli
nello spazio interstellare e fermando così il processo di crescita dei pianeti.
Uno dei problemi è posto dal momento angolare. Con la concentrazione della grande maggioranza
della massa del disco al suo centro, anche il momento angolare avrebbe dovuto concentrarsi allo
stesso modo, invece, la velocità di rotazione del Sole è inferiore a quanto previsto dal modello
teorico e i pianeti, pur rappresentando meno dell'1% della massa del sistema solare, contribuiscono
a oltre il 90% del momento angolare totale. Una possibile spiegazione è che la rotazione del nucleo
centrale della nebulosa sia stata rallentata dall'attrito con gas e polveri.
Anche i pianeti "al posto sbagliato" sono un problema per il modello a nebulosa. Urano e Nettuno si
trovano in una regione in cui la loro formazione è poco probabile, data la ridotta densità della
nebulosa a tale distanza dal centro. Si introduce, pertanto, una successiva ipotesi secondo la quale le
interazioni tra la nebulosa ed i planetesimi (oggetti rocciosi primordiali alla base della formazione
dei pianeti, asteroidi e del sistema solare) avrebbero prodotto dei fenomeni di migrazione planetaria.
Anche alcune proprietà dei pianeti pongono problemi. L'ipotesi della nebulosa prevede
necessariamente che tutti i pianeti si formino esattamente sul piano dell'eclittica, invece le orbite dei
pianeti presentano tutte delle inclinazioni (anche se piccole) rispetto a tale piano.
Inoltre, questa prevede che sia i pianeti giganti sia le loro lune, siano tutti allineati al piano
dell'eclittica. Al contrario di quanto prevede la teoria, le osservazioni mostrano che la maggior parte
dei pianeti giganti ha un'apprezzabile inclinazione assiale. Urano ha addirittura una notevole
inclinazione (98°) che fa sì che il pianeta "rotoli" sulla sua orbita.
Un ulteriore elemento di incongruenza tra teoria ed osservazione è dato dalle grandi dimensioni
della Luna terrestre e le orbite irregolari di altri satelliti che sono incompatibili col modello a
nebulosa. Per giustificare la teoria si introduce una ulteriore ipotesi secondo la quale tali
discrepanze siano il frutto di avvenimenti accaduti successivamente alla nascita del sistema solare.
Stima dell'età. Attraverso misure radiometriche su delle meteoriti alcuni ricercatori hanno stimato
che l'età del sistema solare sia di circa 4,5 miliardi di anni.
Il nostro sistema solare ha iniziato a formarsi circa 4.5 miliardi di anni fa. I ricercatori hanno
stabilito le date analizzando un particolare tipo di meteoriti, le condriti carbonacee, che risalgono
alle prime fasi di esistenza del sistema.
I ricercatori dell’Università della California a Davis hanno datato le prime fasi della formazione del
sistema solare - quando la polvere microscopica interstellare è andata incontro al fenomeno di
coalescenza formando masse rocciose - a 4568 milioni di anni fa con una accuratezza di 2,080
milioni di anni.
Frederic Moynier, Qing-zhu Yin e Benjamin Jacobsen hanno stabilito le date analizzando un
particolare tipo di meteorite, chiamata condrite carbonacea, che rappresenta un antico materiale che
risale alla formazione del sistema solare.
"La dinamica e la tempistica del primo stadio di formazione planetaria non sono ancora comprese
nei dettagli", ha spiegato Yin. "Per questo motivo porre dei limiti temporali al processo potrebbe
rappresentare un elemento importante per i modelli fisici che dovrebbero essere utilizzati per
spiegare come è cominciato il tutto".
Secondo le attuali conoscenze, in una seconda fase dell’evoluzione del sistema solare masse delle
dimensioni, grossomodo, di una montagna terrestre si sono aggregate velocemente a formare una
ventina di pianeti di dimensioni pari a quelle di Marte.
In un terzo e ultimo stadio, questi piccoli pianeti si sono scontrati in una serie di collisioni
gigantesche che hanno dato origine ai pianeti così come li conosciamo oggi. La scansione temporale
di queste fasi è già stata stimata con sufficiente accuratezza, ma mancava finora una valutazione
precisa della fase precedente.
In quest’ultimo studio sono state considerate le condriti carbonacee, costituite da globuli di silice e
grani di metalli immersi in una matrice di polveri interstellari in cui sono presenti molti composti
organici. La matrice è relativamente ricca dell’elemento manganese, mentre i globuli sono ricchi di
cromo. Grazie all’analisi di differenti tipi di meteoriti raccolti sulla Terra, i ricercatori hanno trovato
61
una diretta correlazione tra tre grandezze: il rapporto manganese/cromo, la quantità di matrice nei
meteoriti e l’abbondanza di cromo-53.
“Queste meteoriti sono diventate grandi abbastanza per riscaldarsi per effetto del decadimento
radioattivo e perciò si sono fuse”, ha continuato Yin. “Si tratta in sostanza di sedimenti cosmici.”
Misurando la quantità di cromo-53 si è così potuto ricavare la quantità dell’isotopo manganese-53
inizialmente presente, il che ha fornito indicazioni circa la sua età. In seguito si è confrontato tale
valore con la quantità di manganese-53 leggermente più giovane contenuta in meteoriti di età nota,
chiamate angriti.
I ricercatori dell’UC Davis stimano la formazione delle condriti carbonacee a 4568 milioni di anni
fa, come riportato in un articolo pubblicato sulla rivista “Astrophysical Journal Letters”.
Le più vecchie rocce della Terra sono vecchie circa 3,9 miliardi di anni. Rocce di questa età sono
rare dato che la superficie terrestre è soggetta ad un continuo rimodellamento dovuto a erosione,
vulcanismo e movimento delle placche continentali.
Vista la difficoltà di reperire rocce la cui età sarebbe compatibile, per stimare l’età del sistema
solare si studiano le meteoriti che sono precipitate sul pianeta: affinché l’età della terra sia databile
con questo metodo è necessario che abbia la medesima età delle rocce spaziali. Diventa quindi
necessario ipotizzare che queste si siano formate nelle prime fasi di condensazione della nebulosa
solare, contemporaneamente ai pianeti, e che non si siano formate successivamente e non siano
pervenute dall’esterno del sistema. Le meteoriti più vecchie (come quella di Canyon Diablo) sono
state datate 4,6 miliardi di anni, pertanto questo è un limite inferiore dell’età del sistema solare.
Fino alla fine del XX secolo si è pensato che i pianeti occupino oggi orbite simili e vicine a quelle
che avevano in origine; questa visione è andata cambiando radicalmente in tempi recenti e si pensa
che l’aspetto del sistema solare alle sue origini fosse molto diverso da quello attuale.
Si ipotizza oggi che i corpi presenti nel sistema solare interno alla fascia degli asteroidi con massa
non inferiore a quella di Mercurio fossero cinque (e non gli attuali quattro), che il sistema solare
esterno fosse più compatto di com’è oggi e che la fascia di Kuiper occupasse un’orbita più distante
dell’attuale.
Gli impatti tra corpi celesti, ancorché rari sulla scala dei tempi della vita umana, sono considerati
una parte essenziale dello sviluppo e dell’evoluzione del sistema solare. Oltre all’impatto da cui si
ipotizza abbia avuto origine la Luna terrestre, anche il sistema Plutone-Caronte si pensa derivi da un
impatto tra oggetti della fascia di Kuiper. Esempi recenti di collisioni sono lo schianto della cometa
Shoemaker-Levy 9 su Giove nel 1994 ed il cratere Meteor Crater che si trova in Arizona.
Sistema solare interno
Stando alle ipotesi che godono attualmente di maggior credito, il sistema solare interno fu teatro di
un gigantesco impatto tra la Terra ed un corpo di massa analoga a quella di Marte (il “quinto corpo”
cui si è accennato in precedenza, chiamato Theia). Da tale impatto si formò la Luna. Si ipotizza che
tale corpo si sia formato in uno dei punti lagrangiani stabili del sistema Terra-Sole (L4 o L5) e sia
nel tempo andato alla deriva.
Fascia degli asteroidi. Secondo l'ipotesi della nebulosa, la fascia degli asteroidi conteneva
inizialmente una quantità di materia più che sufficiente per formare un pianeta, tuttavia i
planetesimi che vi si formarono non poterono fondersi in un unico corpo a causa dell'interferenza
gravitazionale prodotta da Giove, venutosi a formare prima. Allora come oggi le orbite dei corpi
nella fascia degli asteroidi sono in risonanza con Giove, tale risonanza causò la fuga di numerosi
planetesimi verso lo spazio esterno e impedì agli altri di consolidarsi in un corpo massiccio. Sempre
secondo questa ipotesi gli asteroidi osservati oggi sono i residui dei numerosi planetesimi che si
sarebbero formati nelle prime fasi della nascita del sistema solare.
L’effetto di Giove avrebbe scalzato dall’orbita la maggior parte della materia contenuta
originalmente nell’orbita della fascia e la massa degli asteroidi residui oggi è circa 2,3 × 1021 kg.
La perdita di massa sarebbe stato il fattore cruciale che impedì agli oggetti della fascia degli
asteroidi di consolidarsi in un pianeta. Gli oggetti di grande massa hanno un campo gravitazionale
sufficiente ad impedire la perdita di grandi quantità di materia in seguito ai violenti impatti con altri
62
corpi celesti (i frammenti ricadono sulla superficie del corpo principale). I corpi più massicci della
fascia degli asteroidi non sarebbero stati invece sufficientemente grandi: le collisioni li hanno
frantumati ed i frammenti sono sfuggiti alla reciproca attrazione gravitazionale. La prova delle
avvenute collisioni è osservabile nelle piccole lune che orbitano attorno agli asteroidi più grandi che
possono essere considerati frammenti la cui energia non è stata sufficiente per poterli separare dal
corpo principale
I pianeti esterni. È opinione diffusa, ogg che la parte esterna del sistema solare sia stata foggiata
dalle migrazioni planetarie. Molti degli oggetti della fascia di Kuiper furono scagliati verso il
sistema solare interno da Saturno, Urano e Nettuno, mentre Giove spesso spinse questi oggetti fuori
dal sistema solare. Come risultato di queste interazioni Giove migrò su orbite più strette verso il
Sole, mentre Saturno, Urano e Nettuno migrarono verso l'esterno. Un grande passo per la
comprensione di come tali fenomeni abbiano modellato il sistema solare esterno è avvenuto nel
2004, quando nuove simulazioni computerizzate hanno mostrato che se Giove avesse compiuto
meno di due rivoluzioni attorno al Sole nel tempo in cui Saturno ne compie una, la migrazione dei
due pianeti avrebbe portato a orbite in risonanza 2:1 in cui il periodo di rivoluzione di Giove
diventa esattamente la metà di quello di Saturno. Questa risonanza avrebbe avuto inoltre l'effetto di
spingere Urano e Nettuno su orbite molto ellittiche, con un 50% di probabilità che questi si
scambiassero di posto. Il pianeta più esterno, Nettuno, sarebbe quindi stato spinto ulteriormente
verso l'esterno, dentro l'orbita occupata allora dalla fascia di Kuiper.
Le interazioni tra i pianeti e la fascia di Kuiper successive allo stabilirsi della risonanza 2:1 tra
Giove e Saturno possono spiegare le caratteristiche orbitali e le inclinazioni assiali dei pianeti
giganti più esterni. Urano e Saturno occupano le loro posizioni attuali per via della loro reciproca
interazione e dell'interazione con Giove, mentre Nettuno occupa l'orbita attuale perché è su quella
interagente con la fascia di Kuiper.
La dispersione degli oggetti della fascia di Kuiper può spiegare il bombardamento dei corpi del
sistema solare interno avvenuto circa 4 miliardi di anni fa.
La teoria procede affermando che la fascia di Kuiper fu inizialmente una regione esterna occupata
da corpi ghiacciati dalla massa insufficiente per potersi consolidare in un pianeta. In origine il suo
bordo interno era appena oltre l'orbita del più esterno tra Urano e Nettuno, all'epoca della loro
formazione (probabilmente tra le 15 e 20 UA). Il suo bordo esterno era ad una distanza di circa 30
UA. Gli oggetti della fascia che entrarono nel sistema solare esterno causarono le migrazioni dei
pianeti. Da ricordare che in astronomia l'unità astronomica (simbolo ufficiale: UA) è un'unità di
misura pari a circa la distanza media tra il pianeta Terra e il Sole (circa 150 milioni di km). Sebbene
non rientri tra le unità di misura del Sistema internazionale il suo uso è esteso tra gli astronomi
ancora oggi.
La risonanza orbitale tra Giove e Saturno spinse Nettuno dentro la fascia di Kuiper, provocando la
dispersione di numerosi dei suoi corpi. Molti di essi furono spinti verso l'interno fino ad interagire
con la gravità gioviana che spesso li spinse su orbite molto ellittiche e a volte fuori dal sistema
solare. Gli oggetti spinti sulle orbite altamente ellittiche sono quelli che formano la nube di Oort.
Alcuni oggetti spinti verso l'esterno da Nettuno formano la porzione del "disco disperso" degli
oggetti della fascia di Kuiper.
Satelliti naturali. La maggior parte dei pianeti del sistema solare possiede delle lune. La loro
formazione può spiegarsi con una di tre possibili cause:
• formazione contemporanea al pianeta dalla condensazione di un disco proto-planetario (tipica dei
giganti gassosi);
• formazione da frammenti da impatto (con un impatto sufficientemente violento ad un angolo
poco profondo);
• cattura di un oggetto vicino.
I giganti gassosi hanno un sistema di lune interne originatesi dal disco proto-planetario. Lo
dimostrano le grandi dimensioni di tali lune e la loro vicinanza al pianeta – queste proprietà sono
incompatibili con la cattura, mentre la natura gassosa dei pianeti giganti rende impossibile la
63
formazione di satelliti per condensazione di frammenti da impatto. Le lune esterne dei giganti
gassosi sono invece piccole, con orbite molto ellittiche e dalle varie inclinazioni, questo fa pensare
che si tratti di satelliti catturati dal campo gravitazionale del pianeta.
Per i pianeti interni e per gli altri corpi del sistema solare, la collisione sembra essere il meccanismo
principale per la formazione di satelliti, in cui una parte consistente del materiale planetario, espulsa
dalla collisione, finisce in orbita attorno al pianeta e si condensa in una o più lune. La Luna terrestre
si pensa essere originata da un evento simile.
Dopo la loro formazione, i sistemi satellitari continuano ad evolvere, l’effetto più comune è la
modifica dell’orbita dovuta alle forze di marea. L’effetto è dovuto al rigonfiamento che la gravità
del satellite crea nell’atmosfera e negli oceani del pianeta (e in misura minore anche nel corpo
solido stesso). Se il periodo di rotazione del pianeta è inferiore a quello di rivoluzione della luna, il
rigonfiamento precede il satellite e la sua gravità causa un’accelerazione del satellite che tende ad
allontanarsi lentamente dal pianeta (è il caso della Luna); se invece la luna orbita più rapidamente di
quanto il pianeta ruoti su se stesso o se ha un’orbita retrograda attorno al pianeta, allora il
rigonfiamento segue il satellite e ne causa il rallentamento, provocando un restringimento
dell’orbita nel tempo. La luna marziana di Fobos sta lentamente avvicinandosi a Marte per questa
ragione.
Un pianeta può creare a sua volta un rigonfiamento nella superficie del satellite, questo rallenta la
rotazione della luna fino a quando il periodo di rotazione e di rivoluzione coincidono. In tal caso, la
luna mostrerà al pianeta sempre la stessa faccia. È il caso della Luna terrestre e di molti altri satelliti
del sistema solare, tra cui la luna di Giove, Io. Nel caso di Plutone e Caronte, sia il pianeta che il
satellite sono legati l’uno all’altro da forze di marea.
Futuro. Escludendo qualche fenomeno imprevisto, si ipotizza che il sistema solare come lo
conosciamo oggi durerà per altri 5 miliardi di anni circa. Via via che l'idrogeno andrà esaurendosi,
la zona interessata dalle reazioni nucleari tenderà a spostarsi progressivamente in una shell più
esterna all'ormai inerte nucleo di elio, che invece inizierà a restringersi innalzando la temperatura e
incrementando la velocità della fusione nel "guscio" circostante. Ciò farà lentamente crescere il
Sole sia in dimensioni che in temperatura superficiale, e perciò anche in splendore. Quando il Sole
avrà aumentato gradualmente la propria luminosità di circa il 10% oltre i livelli attuali, tra circa 1
miliardo di anni, l'aumento di radiazione renderà la superficie della Terra inabitabile, mentre la vita
potrà ancora resistere negli oceani più profondi. In questo periodo è possibile che la temperatura
della superficie di Marte aumenti gradualmente e l'anidride carbonica e l'acqua attualmente
congelate sotto la superficie del suolo vengano liberate nell'atmosfera creando un effetto serra in
grado di riscaldare il pianeta fino ad ottenere condizioni paragonabili a quelle odierne della Terra e
fornendo una futura dimora potenziale per la vita. In circa 3,5 miliardi di anni, quando il Sole avrà
incrementato il proprio splendore del 40% rispetto a quello odierno, le condizioni climatiche della
Terra saranno simili a quelle che oggi caratterizzano Venere: gli oceani saranno evaporati,
l'atmosfera attuale si sarà dispersa, poiché l'alta temperatura avrà aumentato il grado di agitazione
termica delle molecole del gas, consentendo loro di raggiungere la velocità di fuga e di conseguenza
la vita - nelle forme che oggi conosciamo - sarà impossibile.
In circa 5,4 miliardi di anni, il Sole terminerà le riserve di idrogeno, il nucleo di elio proseguirà il
collasso, mentre la shell in cui continuerà a venire combusto l'idrogeno spingerà verso l'esterno,
facendo dilatare e raffreddare la superficie della nostra stella. Si ricorda che in fisica nucleare e
chimica nucleare, il modello nucleare a shell è un modello del nucleo atomico che usa il principio
di esclusione di Pauli per descrivere la struttura del nucleo in termini dei livelli energetici. Il primo
modello a shell fu proposto da Dmitry Ivanenko (insieme a E. Gapon) e quindi sviluppato nel 1949
a seguito del lavoro indipendente di altri fisici, tra i quali in particolare Eugene Wigner, Maria
Goeppert-Mayer e J. Hans D. Jensen ai quali venne congiuntamente assegnato il premio Nobel per
la fisica nel 1963 per il loro lavoro in questo campo.
Il Sole, riprendendo il discorso, si sarà quindi avviato verso l'instabile fase di gigante rossa, nel
corso della quale sarà caratterizzato da immani dimensioni e una relativamente bassa temperatura
64
fotosferica, caratteristica quest'ultima che gli conferirà un colore tendente al rosso. Il percorso verso
tale stadio evolutivo sarà più evidente quando il Sole, tra circa 6 miliardi di anni, avrà triplicato la
sua luminosità rispetto al valore attuale e raffreddato la sua superficie fino a circa 5000 °K. A
distanza di 11,7-12,21 miliardi d'anni dall'inizio della sua sequenza principale, il Sole manifesterà
uno splendore 300 volte quello di oggi ed una temperatura superficiale di 4000 °K. La dilatazione
continuerà ad un ritmo più rapido ed in circa 7,59 miliardi di anni da oggi il Sole si sarà espanso
fino ad assumere un raggio 256 volte quello attuale (1,2 UA). Con l'espansione del Sole, Mercurio e
Venere verranno inghiottiti. Il destino della Terra è possibile che sia il medesimo, anche se ci sono
alcuni studi che parlano di un allontanamento dell'orbita terrestre dal Sole a causa della graduale
perdita di massa di quest'ultimo. Durante questo periodo è possibile che corpi esterni in orbita
attorno a Fascia di Kuiper, su cui è presente ghiaccio, ad esempio Plutone e Caronte, possano
raggiungere condizioni ambientali compatibili con quelle richieste dalla vita umana.
Successivamente l'elio prodotto nella shell cadrà nel nucleo della stella aumentandone la massa e la
densità fino a che la temperatura non raggiungerà i 100 milioni di °K, sufficienti per innescare la
fusione dei nuclei di elio in nuclei di carbonio. A questo punto il Sole dovrebbe contrarsi ad una
dimensione poco maggiore dell'attuale e consumare il proprio elio per circa altri 100 milioni di
anni, in un nucleo avvolto da una sottile shell in cui seguiterà a bruciare l'idrogeno. Tale fase è detta
del ramo orizzontale, in riferimento alla forma del diagramma H-R (Hertzsprung-Russell, i due
astronomi, Ejnar Hertzsprung e Henry Norris Russell, che verso il 1910 lo idearono
indipendentemente; è uno "strumento" teorico che mette in relazione la temperatura effettiva,
riportata in ascissa, e la luminosità, riportata in ordinata, delle stelle). All'esaurimento dell'elio nel
nucleo, il Sole risponderà con una nuova contrazione, che causerà l'innesco della fusione dell'elio e
dell'idrogeno in due shell attorno al nucleo di carbonio. Questo determinerà un ulteriore periodo di
espansione in gigante rossa, nel corso del quale la stella consumerà l'elio e l'idrogeno nelle shell più
esterne per altri 100 milioni di anni. Entro 8 miliardi di anni il Sole sarà divenuto una gigante rossa
AGB con dimensioni circa 100 volte quelle attuali, arrivando eventualmente a lambire l'orbita della
Terra e a fagocitare il nostro pianeta. Dopo appena centomila anni, il Sole si lascerà sfuggire la sua
rarefatta atmosfera, che avvolgendo il nucleo di carbonio si disperderà lentamente nello spazio
interplanetario sotto forma di "supervento", dando origine a quella che viene definita una nebulosa
planetaria.
Sarà una transizione relativamente tranquilla, niente di paragonabile ad una supernova, dato che la
massa del nostro Sole è ampiamente insufficiente per arrivare a quel livello. Se vi saranno ancora
terrestri per osservare il fenomeno, registreranno un massiccio incremento del vento solare, ma
senza che questo provochi la distruzione del pianeta (se ancora esisterà).
Ciò che infine resterà del Sole (il nucleo di carbonio) sarà una nana bianca, un oggetto
straordinariamente caldo e denso, di massa circa metà di quella originale, ma compressa in un
volume simile a quello della Terra. Visto dalla Terra apparirà come un punto di luce grande poco
più di Venere ma dalla luminosità di centinaia di soli (Pogge, 1997; Sackmann, Boothroyd e
Kraemer, 1993).
Con la morte del Sole verrà indebolita la sua attrazione gravitazionale sugli altri oggetti del sistema
solare; le orbite di Marte e degli altri corpi andranno espandendosi. La configurazione finale del
sistema solare sarà raggiunta quando il Sole avrà completato la sua trasformazione in nana bianca:
se la Terra e Marte esisteranno ancora, sarà su un'orbita approssimativamente simile a quella 1,85 e
2,80 UA. Dopo altri due miliardi di anni il nucleo del Sole, costituito da carbonio, inizierà a
cristallizzare trasformandosi in un diamante di dimensioni planetarie, destinato a spegnersi e cessare
di splendere in qualche altro miliardo di anni.
Storia delle ipotesi sulla formazione del sistema solare
Verso la fine del XIX secolo l'ipotesi della nebulosa di Kant-Laplace fu criticata da James Clerk
Maxwell, che sosteneva l'impossibilità della materia di collassare a formare pianeti coesi se la
materia fosse stata distribuita in un disco attorno al Sole, per via delle forze indotte dalla rotazione
differenziale. Un'altra obiezione era il momento angolare del Sole, inferiore a quanto previsto dal
65
modello di Kant-Laplace. Per molti decenni la maggior parte degli astronomi preferì l'ipotesi della
"mancata collisione", ovvero della formazione dei pianeti a partire dalla materia che una stella in
transito vicino al Sole avrebbe perso e avrebbe strappato al Sole per azione reciproca delle loro
forze di marea.
Furono avanzate obiezioni anche all'ipotesi della "mancata collisione" e, durante gli anni quaranta i
modelli matematici a sostegno dell'ipotesi nebulare furono migliorati e convinsero la comunità
scientifica. Nella versione modificata si assunse che la massa della protostella fosse maggiore e la
discrepanza di momento angolare attribuita alle forze magnetiche, ovvero alle onde di Alfvén,
attraverso cui il neonato Sole trasferisce parte del suo momento angolare al disco protoplanetario e
ai planetesimi, come osservato avvenire in alcune stelle, per esempio T Tauri. Quest’ultima (T Tau)
è una stella variabile situata nella costellazione del Toro, più precisamente nella Regione oscura del
Toro ed è il prototipo di una classe di oggetti noti come stelle T Tauri. L'astro fu scoperto
nell'ottobre del 1852 da John Russell Hind, vista dalla Terra sembra faccia parte dell'ammasso delle
Iadi, non molto distante da ε Tauri, in realtà si trova dietro ad esso, ad una distanza di circa 460 anni
luce dalla Terra.
Negli anni cinquanta, il russo Immanuil Velikovskij pubblicò il libro "Mondi in collisione", ripreso
molto tempo dopo dall'americano John Ackerman. I due ricercatori hanno proposto un controverso
modello secondo il quale il sistema solare avrebbe avuto origine da un impatto di enorme potenza
sul pianeta Giove.
Il modello della nebulosa, riveduto e corretto, fu basato interamente su osservazioni condotte sui
corpi del nostro sistema solare, in quanto l'unico conosciuto fino a metà degli anni '90. Non si era
del tutto certi della sua applicabilità ad altri sistemi planetari, benché la comunità scientifica fosse
ansiosa di verificare il modello a nebulosa trovando nel cosmo altri dischi protoplanetari o persino
pianeti extrasolari.
Nebulose stellari e dischi protoplanetari sono stati osservati nella nebulosa di Orione e in altre
regioni di formazione delle stelle grazie al telescopio spaziale Hubble. Alcuni di questi dischi hanno
diametri maggiori di 1000 UA.
Nel gennaio 2006 risultano scoperti 180 pianeti extrasolari, che hanno riservato numerose sorprese.
Il modello della nebulosa ha dovuto essere rivisto per spiegare le caratteristiche di questi sistemi
planetari. Non c'è consenso su come spiegare la formazione degli osservati pianeti giganti su orbite
molto vicine alla loro stella ("hot Jupiters"), anche se tra le ipotesi possibili vi sono la migrazione
planetaria e il restringimento dell'orbita dovuto ad attrito con i residui del disco protoplanetario.
In tempi recenti è stato sviluppato un modello alternativo basato sulla cattura gravitazionale, che
nelle intenzioni dei suoi propugnatori dovrebbe spiegare alcune caratteristiche del sistema solare
non spiegate dalla teoria della nebulosa
La teoria del Big Bang
Per ben comprendere l'essenza di questa teoria è necessario incominciare a trattare questo
argomento citando la frase di P. J. E. Peebles, 2001: «L'essenza della teoria del Big Bang sta nel
fatto che l'Universo si sta espandendo e raffreddando. Lei noterà che non ho detto nulla riguardo ad
una "esplosione". La teoria del Big Bang descrive come il nostro universo evolve, non come esso
iniziò».
Il Big Bang (letteralmente in inglese "Grande Scoppio") è un modello cosmologico basato sull'idea
che l'universo iniziò ad espandersi a velocità elevatissima in un tempo finito, nel passato, a partire
da una condizione di volume ridottissimo e temperatura e densità estreme e che questo processo
continui tuttora. È il modello predominante nella comunità scientifica ed ha avuto conferme basate
su prove e osservazioni astronomiche.
Se la distanza fra gli ammassi di galassie sta aumentando oggi a causa dell'espansione, ciò
suggerisce che essi fossero più vicini in passato. Andando a ritroso nel tempo, densità e temperatura
gradatamente aumentano, arrivando a un istante in cui tali valori tendono all'infinito (mentre il
volume tende a zero) e le attuali teorie fisiche non sono più applicabili (singolarità). Negli
acceleratori di particelle si studia il comportamento della materia e dell'energia in condizioni
66
estreme, assai simili a quelle in cui si sarebbe trovato l'universo durante le prime fasi del Big Bang,
senza tuttavia la possibilità di esaminare la fisica delle particelle al livello di energia all'inizio
dell'espansione. Per tali motivi la teoria non è adeguata a descrivere la condizione iniziale, ma
fornisce un'ottima descrizione dell'evoluzione dell'universo da un determinato momento in poi.
L'abbondanza degli elementi leggeri come l'idrogeno e l'elio presenti nel cosmo è in buona
corrispondenza con i valori previsti in seguito al processo di nucleosintesi, avvenuto nei primi
minuti successivi all'istante iniziale (figura 38).
Figura 38 - Secondo il modello del Big Bang, l'universo si espanse da uno stato
iniziale estremamente denso e caldo e continua ad espandersi oggi.
Una comune analogia spiega che lo spazio stesso si sta espandendo,
portando le galassie con sé, come l'uvetta in un panettone che lievita.
Questa immagine è una rappresentazione artistica che illustra
l'espansione di una porzione di un universo piatto.
Dopo la scoperta della radiazione cosmica di fondo nel 1964, e soprattutto quando il suo spettro,
cioè la quantità di radiazione emessa per ogni lunghezza d'onda, risultò corrispondere allo spettro di
corpo nero, la maggior parte degli scienziati fu convinta che i dati sperimentali confermavano che
un evento simile al Big Bang aveva veramente avuto luogo.
La teoria del Big Bang è stata dedotta dalle equazioni della Relatività Generale di Albert Einstein
inserendovi opportune ipotesi semplificative, in particolare quella di omogeneità e isotropia
dell'Universo. Questa ipotesi, nota come principio cosmologico, generalizzava all'intero universo il
principio copernicano. La teoria del Big Bang risultò subito in accordo con la nuova concezione
della struttura dell'universo, che proprio negli stessi decenni stava emergendo dall'osservazione
astronomica delle nebulose.
Nel 1912 Vesto Slipher aveva misurato il primo spostamento verso il rosso, detto "effetto redshift",
di una "nebulosa a spirale" e aveva scoperto che la maggior parte di esse si stava allontanando dalla
Terra. Egli non colse l'implicazione cosmologica di ciò, infatti in quel periodo erano in corso accesi
dibattiti sul fatto se queste nebulose fossero o non fossero degli "universi isola" esterni alla Via
Lattea.
67
Dieci anni dopo, Alexander Friedmann, matematico e cosmologo russo, ricavò le omonime
equazioni dalle equazioni della relatività generale di Albert Einstein, mostrando che l'universo
doveva essere in espansione, in contrasto con il modello di universo statico sostenuto da Einstein.
Egli, però, non comprese che la sua teoria implicava lo spostamento verso il rosso della luce stellare
e il suo contributo matematico fu completamente ignorato, sia perché privo di conferme
astronomiche sia perché poco noto nel mondo anglosassone (era scritto in tedesco).
A partire dal 1924, Edwin Hubble, utilizzando il telescopio Hooker dell'Osservatorio di Monte
Wilson, mise a punto una serie di indicatori di distanza, che sono i precursori dell'attuale scala delle
distanze cosmiche. Questo gli permise di calcolare la distanza di nebulose a spirale, il cui redshift
era già stato misurato (soprattutto da Slipher), e di mostrare che quei sistemi si trovavano ad enormi
distanze ed erano in realtà altre galassie.
Nel 1927, Georges Lemaître, fisico e sacerdote cattolico belga, sviluppò le equazioni del Big Bang
in modo indipendente da Friedmann e ipotizzò che l'allontanamento delle nebulose fosse dovuto
all'espansione del cosmo. Egli, infatti, osservò che la proporzionalità fra distanza e spostamento
spettrale (oggi nota come legge di Hubble) era parte integrante della teoria ed era confermata dai
dati di Slipher e di Hubble.
Nel 1931 Lemaître andò oltre e suggerì che l'evidente espansione del cosmo necessita di una sua
contrazione andando indietro nel tempo, continuando fino a quando esso non si possa più contrarre
ulteriormente, concentrando tutta la massa dell'universo in un singolo punto, "l'atomo primitivo",
prima del quale lo spazio e il tempo non esistono. In quell'istante, la struttura spazio-temporale
doveva ancora comparire.
Nel 1929, Hubble pubblicò la relazione tra la distanza di una galassia e la sua velocità di
allontanamento, formulando quella che oggi è conosciuta come la legge di Hubble (Christianson,
1996).
Durante gli anni trenta furono proposte altre idee (note come cosmologie non standard) per spiegare
le osservazioni di Hubble, come ad esempio il modello di Milne (Milne, 1935), l'universo
oscillante, ideata originariamente da Friedmann, ma supportato da Einstein e da Richard Tolman
(Tolman, 1987) e l'ipotesi della luce stanca di Fritz Zwicky (Zwicky, 1929).
Dopo la seconda guerra mondiale, emersero due differenti teorie cosmologiche: l a prima era la
teoria dello stato stazionario di Fred Hoyle, in base alla quale nuova materia doveva essere creata
per compensare l'espansione. In questo modello, l'universo è approssimativamente lo stesso in ogni
istante di tempo (Hoyle, 1948).
L'altra è la teoria del Big Bang di Lemaître, supportata e sviluppata da George Gamow, che
introdusse il concetto di nucleo sintesi e che predisse insieme ai suoi colleghi Ralph Alpher e
Robert Herman la radiazione cosmica di fondo (Alpher e Herman, 1948).
Il termine "Big Bang" fu coniato da Fred Hoyle nel 1949, in senso dispregiativo, riferendosi ad esso
come "questa idea del grosso botto" durante una trasmissione radiofonica della BBC Radio del
marzo 1949. Successivamente Hoyle diede un valido contributo al tentativo di comprendere il
percorso nucleare di formazione degli elementi più pesanti a partire da quelli più leggeri.
Inizialmente la comunità scientifica si divise tra queste due teorie; in seguito, grazie al maggior
numero di prove sperimentali, fu la seconda teoria ad essere più accettata. La scoperta e la conferma
dell'esistenza della radiazione cosmica di fondo a microonde nel 1964 indicarono chiaramente il Big
Bang come la migliore teoria sull'origine e sull'evoluzione dell'universo. Le conoscenze in ambito
cosmologico includono la comprensione di come le galassie si siano formate nel contesto del Big
Bang, la comprensione della fisica dell'universo negli istanti immediatamente successivi alla sua
creazione e la conciliazione delle osservazioni con la teoria di base.
Importanti passi avanti nella teoria del Big Bang sono stati fatti dalla fine degli anni novanta a
seguito di importanti progressi nella tecnologia dei telescopi, nonché dall'analisi di un gran numero
di dati provenienti da satelliti come COBE, il telescopio spaziale Hubble e il satellite WMAP,
l'erede del satellite COBE ed il secondo satellite di classe media (figura 39). Questo ha fornito ai
68
cosmologi misure abbastanza precise di molti dei parametri riguardanti il modello del Big Bang e ha
permesso di intuire che si sta avendo un'accelerazione dell'espansione dell'universo (figura 39).
Dopo il tramonto della teoria dello stato stazionario, quasi nessun scienziato nega il Big Bang come
espansione dell'universo, anche se molti ne forniscono interpretazioni diverse (vedi Formulazioni
avanzate della teoria).
Cronologia del Big Bang. La cronologia del Big Bang è la storia, in parte ipotetica, dei primi
istanti di vita dell'Universo, che vanno dalla singolarità gravitazionale all'inizio del tempo, 13,7
miliardi di anni fa, alla formazione dei primi atomi, avvenuta circa 200 secondi dopo il Big Bang.
Una singolarità gravitazionale è un punto dello spaziotempo in cui il campo gravitazionale ha
tendenza verso un valore infinito, con una densità della materia infinitamente grande. Inoltre,
secondo alcune teorie fisiche sull'origine dell'universo, l'universo stesso potrebbe avere avuto inizio
con una singolarità gravitazionale (il Big Bang) e potrebbe finire con essa (il Big Crunch).
Le principali teorie fisiche che spiegano l'inizio dell'Universo sono l'inflazione (una teoria che
ipotizza che l'universo, poco dopo il Big bang, abbia attraversato una fase di espansione
estremamente rapida, dovuta a una grande pressione negativa generata da un campo di energia
chiamato inflatone) e la teoria GUT (acronimo dell'inglese grand unification theory o grand unified
theory. E' la teoria che descrive la combinazione dell'elettromagnetismo, della forza nucleare debole
e di quella nucleare forte nella cosiddetta forza elettronucleare).
La teoria dell'inflazione ipotizza una rapida ma drastica accelerazione dell'espansione dello spazio
pochi istanti dopo la singolarità all'inizio dell'Universo. Questa rapida accelerazione portò il tessuto
spaziale ad espandersi da dimensioni miliardi di volte più piccole di quelle di un protone ad una
dimensione posta a metà fra una biglia ed un pallone da calcio. Secondo le teorie GUT, l'inflazione
potrebbe essere stata causata da una forma di campo di Higgs particolare detta "inflatone". Poco
dopo l'inizio dell'Universo, l'inflatone, a causa delle temperature estremamente elevate, oscillava sul
potenziale a sombrero (la forma caratteristica dei campi di Higgs) prima di stabilirsi in un punto del
campo a bassa energia. L'oscillazione dell'inflatone portò ad una breve ma intensa espansione dello
spazio, liberando una quantità di radiazione uniforme (se si escludono le fluttuazioni quantistiche)
che portò alla formazione di tutta la materia. Dopo l'espansione, il campo dell'inflatone, con
l'abbassarsi della temperatura, si stabilì in un punto a bassa energia.
La radiazione liberata dall'inflazione diede origine a coppie particella-antiparticella, che si
annichilirono nuovamente in radiazione. Se, in questo modo, la materia si può formare, per poi
annichilirsi istantaneamente, cosa portò alla rottura della simmetria CP (in fisica la simmetria CP è
una simmetria quasi esatta delle leggi di natura sotto l'effetto dello scambio tra particelle e le
corrispondenti antiparticelle; dove C è la coniugazione di carica e P, acronimo di parità, è
l'inversione delle coordinate spaziali), tanto evidente nell'Universo attuale? O meglio, perché
nell'Universo attuale si trova più materia rispetto all'antimateria? Il modello inflazionario classico
spiega questo fenomeno come causato da fluttuazioni quantistiche nell'inflatone, che originarono un
leggero eccesso di materia rispetto all'antimateria, oppure come causato da particelle supermassive
ipotetiche, ossia i "bosoni X" ed i "bosoni Y". Decadendo, queste particelle diedero origine ad un
leggero eccesso di particelle rispetto alle antiparticelle (tale fenomeno è presente anche nei mesoni
"K", che violano la simmetria CP).Nei primi istanti dopo l'inizio dell'Universo si ebbe anche una
rottura della simmetria SUSY (la supersimmetria, ipotizzata nel contesto delle teorie delle
superstringhe), causata probabilmente da fluttuazioni quantistiche.
In pratica un sistema o un fenomeno fisico esibisce simmetria CP quando effettuando entrambi i
summenzionati scambi si ottiene ancora un sistema o un fenomeno osservato in Natura: questa
simmetria è considerata più fondamentale delle singole C e P, che risultano essere grossolanamente
violate in tutti i fenomeni fisici dovuti all'interazione debole.
A titolo di esempio un neutrino esiste in natura (in ottima approssimazione) con un'unica direzione
possibile per il proprio spin: sotto effetto della coniugazione di carica, si otterrebbe un anti-neutrino
con la stessa direzione di spin, che in natura non esiste; analogamente, sotto effetto dell'operazione
di parità, si otterrebbe un neutrino con direzione relativa opposta dello spin, anch'esso non osservato
69
in natura; effettuando entrambe le operazioni, si ha un anti-neutrino con spin invertito, che
effettivamente esiste.
Figura 39 – Rappresentazione artistica del satellite WMAP, che sta raccogliendo dati per aiutare gli scienziati nella
comprensione del Big Bang, avvenuto 13,7 miliardi di anni fa, e dell’espansione dell’Universo.
La differenziazione delle quattro interazioni fondamentali avvenuta all'inizio dell'Universo, secondo
le teorie GUT, è dovuta alle oscillazioni di diverse forme di campi di Higgs. Con le alte
temperature, i bosoni di Higgs oscillavano sul potenziale a sombrero prima di stabilirsi su un punto
energetico fisso. La separazione della gravità dall'insieme delle altre forze più intense, che prende il
nome di "forza unificata", avvenne con un meccanismo non ancora ipotizzato. La separazione della
forza forte dalla forza elettrodebole avvenne a causa di oscillazioni di un campo di Higgs
particolare, il campo di Higgs forte, contemporaneamente all'inflazione. La separazione fra la forza
debole e quella elettromagnetica, infine, fu causata dall'oscillazione del campo di Higgs
elettrodebole (quello responsabile della massa delle particelle). La temperatura necessaria alla
separazione di ciascuna interazione sono, rispettivamente, per le tre forze più intense, 1027 kelvin
(10 seguito da 27 zeri, pari ad un miliardo di miliardi di miliardi di gradi Celsius) per la forza forte,
e, per l'interazione elettrodebole, 10.000.000.000.000.000 kelvin (pari a dieci milioni di miliardi di
gradi Celsius). Con il drastico calo delle temperature che accompagnava l'espansione dell'Universo,
le forze fondamentali, o, più precisamente, i rispettivi campi di Higgs, si "congelarono" rimanendo
immutate fino all'Universo attuale.
I cosmologi hanno suddiviso la "storia" dell'Universo in 9 ere, che variano da poche frazioni di
secondo a miliardi di anni. Ciascuna di queste ere è caratterizzata da un avvenimento particolare che può essere la separazione di una forza fondamentale dalle altre, oppure la formazione dei primi
nuclei (figura 39).
1. Era di Planck.
Nessuna delle attuali teorie fisiche può descrivere correttamente cosa sia accaduto nell'era di
Planck, che prende il nome dal fisico tedesco Max Planck e diverse teorie forniscono diverse
previsioni. In questa era le quattro forze fondamentali – elettromagnetica, nucleare debole,
70
2.
3.
4.
5.
nucleare forte e gravità – hanno la stessa intensità, e sono forse unificate in una sola forza
fondamentale. La teoria di Einstein della relatività generale prevede che l'universo abbia avuto
inizio con una singolarità gravitazionale, caratterizzata da valori infiniti di temperatura e
densità, un punto adimensionale. In tutte le applicazioni della matematica a problemi fisici il
verificarsi di una singolarità matematica identifica regioni del dominio in cui la teoria fisica
perde di validità per il presentarsi di fenomeni aggiuntivi non più trascurabili; in questo caso,
come detto sopra, i fenomeni gravitazionali sono alterati dagli effetti quantistici. I fisici
sperano che le teorie della gravità quantistica, come la teoria delle stringhe e la gravità
quantistica a loop portino ad una migliore comprensione di questa fase.
Era di grande unificazione
Diametro dell'Universo: ?
Temperatura: 1030 K
Tempo dopo il Big Bang: 1 decimiliardesimo di miliardesimo di yoctosecondo (10-43 secondi)
Durante questa era pre-inflazionaria, iniziata 1 decimiliardesimo di miliardesimo di
yoctosecondo (pari a 10-43 secondi secondi) dopo il Big Bang, le forze fondamentali, eccetto la
gravità, erano unite in una sola "superforza" costituita dalla forza elettromagnetica e dalle forze
nucleari debole e forte.
Era dell'inflazione
Diametro dell'Universo: 10-26 metri
Temperatura: 1027 K, pari ad un miliardo di miliardi di miliardi di °C
Tempo dopo il Big Bang: 1 centimiliardesimo di yoctosecondo (10-35 secondi)
Nell'era dell'inflazione, le oscillazioni dell'inflatone diedero origine ad una rapida ma drastica
espansione dell'Universo. L'energia sotto forma di radiazione liberata da questo particolare
campo di Higgs diede origine a coppie particella-antiparticella, che si annichilirono
istantaneamente. Una fluttuazione quantistica, tuttavia, potrebbe aver portato ad un leggero
eccesso di particelle rispetto alle antiparticelle, eccesso responsabile della materia presente
nell'Universo attuale.
Era elettrodebole
Diametro dell'Universo: 10 metri (l'Universo è diventato enormemente più grande a causa
dell'inflazione)
Temperatura: 1027 K, pari ad un miliardo di miliardi di miliardi di °C
Tempo dopo il Big Bang: un centimilionesimo di yoctosecondo (10-32 secondi)
In quest'era, il campo di Higgs forte aveva già separato l'interazione forte da quella
elettrodebole, determinando la formazione di gluoni e di coppie quark-antiquark dalla
radiazione liberatasi in seguito all'inflazione. Si ipotizza che i bosoni X e Y (se mai sono
esistiti) siano comparsi in questa era.
Fine dell'era elettrodebole:
Diametro dell'Universo: 1012 metri (un miliardo di chilometri)
Temperatura: 1015 K (pari ad un milione di miliardi di gradi Celsius)
Tempo dopo il Big Bang: 1 nanosecondo, ossia 10-9 secondi (un miliardesimo di secondo)
L'era elettrodebole durò circa 10-27 secondi. La sua fine fu caratterizzata dalla separazione
della forza elettrodebole in interazione debole ed elettromagnetica, fenomeno determinato dalle
oscillazioni del campo di Higgs elettrodebole. A tale separazione conseguì l'assunzione di
massa dei bosoni deboli, dei quark e dei leptoni.
Era degli adroni
Diametro dell'Universo: 100 miliardi di chilometri
Temperatura: 1013 K (pari a circa 10.000 miliardi di gradi Celsius)
Tempo dopo il Big Bang: 1 microsecondo (10-6 secondi, un milionesimo di secondo)
Durante l'era degli adroni, l'energia termica divenne sufficientemente bassa da consentire
l'interazione fra quark mediante la forza forte (l'interazione forte, così come le altre interazioni,
71
ha una caratteristica particolare: cala di intensità con l'aumento dell'energia). I quark e gli
antiquark si legarono così a formare i primi adroni.
6. Era dei leptoni
Diametro dell'universo: non noto
Temperatura: 1012 K
Tempo dopo il Big Bang: 10-4 secondi dal Big-Bang
Arrivati a questo punto della storia dell'universo la temperatura è di circa 1 trilione di gradi:
1 secondo dopo il Big-Bang: la temperatura è di 10 miliardi di gradi Celsius;
100 secondi dopo il Big-Bang: la temperatura è di 1 miliardo di gradi.
7. Era della nucleosintesi
Diametro dell'Universo: più di 1000 miliardi di chilometri
Temperatura: 1010 kelvin
Tempo dopo il Big Bang: 100 secondi
In quest'era, la maggior parte dei neutroni decaddero in protoni. L'energia si abbassò tanto da
permettere ai nucleoni di legarsi attraverso pioni formando così i primi nuclei di elio-4 e di
deuterio.
8. Era dell'opacità
Diametro dell'Universo: fra 10 e 10.000 anni luce
Temperatura: 108 kelvin
Tempo dopo il Big Bang: 200 secondi.
In quest'era, l'energia calò abbastanza da permettere la manifestazione dell'interazione
elettromagnetica. Le particelle cariche interagivano fra loro e con i fotoni rimasti
dall'inflazione e dall'annichilazione delle coppie particella-antiparticella. In quest'era si ebbe la
formazione dei primi atomi, soprattutto di idrogeno, elio, litio ed isotopi dell'idrogeno. Alla
fine dell'era dell'opacità, la temperatura calò abbastanza da ridurre la produzione di coppie
quark-antiquark o leptone-antileptone di generazioni massicce (vedi Modello Standard).
9. Era della materia (Universo attuale)
Diametro dell'Universo: 100 milioni di anni luce
Temperatura: 3000 kelvin
Tempo dopo il Big Bang: 300 000 anni
Nell'era della materia, i fotoni rimasti dall'era dell'inflazione si diffusero in tutto l'Universo,
formando la radiazione cosmica di fondo presente anche nell'Universo attuale. L'intera materia
era per lo più costituita da atomi e da leptoni di prima generazione. Tutte le particelle massive
che, con le alte temperature, continuamente si formavano a coppie particella-antiparticella dalla
radiazione erano già decadute in particelle leggere di prima generazione, quali elettroni e
neutrini e, fra gli adroni, neutroni e protoni. L'era della materia perdura ancora da circa 13,7
miliardi di anni.
In conclusione, vediamo qual’è l’epoca della formazione delle prime stelle e dell'accelerazione
dell'energia.
La formazione delle prime stelle. Le irregolarità nella distribuzione della materia da parte
dell'inflatone furono causate da fluttuazioni quantistiche in questo particolare campo di Higgs.
Verso l'inizio dell'era della materia, le irregolarità si manifestavano soprattutto in zone di materia
più condensate rispetto ad altre. La forza gravitazionale agì su queste irregolarità formando
agglomerati di materia sempre maggiori: ciò portò alla formazione delle prime stelle, 200 milioni di
anni dopo il Big Bang, e delle prime galassie attive (per lo più quasar). Gli astrofisici ipotizzano che
le prime stelle formatesi nell'Universo fossero ben più massicce di quelle attuali. I processi di
fusione nucleare innescatesi nel nucleo di queste stelle portò alla formazione di elementi pesanti
come l'ossigeno, il carbonio, il neon, il ferro e l'azoto, che si diffusero nello spazio interstellare in
seguito alle esplosioni delle stelle in supernovae, con la conseguente formazione di buchi neri. Con
la loro esplosione, le stelle massicce formatesi 200 milioni di anni fa, dette "megastelle" diedero
origine ad una radiazione elettromagnetica particolarmente intensa, responsabile, probabilmente,
72
della ionizzazione degli atomi di idrogeno che si riscontra fra gli ammassi di galassie nell'Universo
attuale.
L'accelerazione dell'energia oscura. Circa 7 miliardi di anni dopo il Big Bang, l'Universo, che
stava rallentando la sua espansione a causa della forza gravitazionale, subì un'accelerazione nella
sua espansione, tuttora rilevabile nell'Universo attuale.
Questa accelerazione potrebbe essere stata causata dall'energia oscura, la forza lambda antigravitazionale. Questa porterà probabilmente l'Universo a terminare in un Big Rip o Big Freeze.
Il Big Rip o grande strappo è un'ipotesi cosmologica sul destino ultimo dell'universo. L'ipotesi si
inquadra nella teoria del Big Bang e prevede una continua accelerazione dell'espansione
dell'Universo.
Questo modello è stato sviluppato in seguito ad osservazioni di supernovae di tipo Ia (originata
dall'esplosione di una nana bianca, cioè di una stella, di massa medio-piccola, che ha completato il
suo ciclo vitale ed al cui interno la fusione nucleare è cessata) in galassie lontane (Goldhaber e
Perlmutter, 1998; Garnavich et al., 1998).
Queste osservazioni hanno appunto rivelato come l'espansione dell'Universo stia accelerando, un
risultato inizialmente sorprendente per molti cosmologi.
Il valore da considerare è il rapporto tra la pressione dell'energia oscura e la sua densità. Se w < −1
l'Universo verrà alla fine frantumato.
Il conto alla rovescia sarebbe catastrofico: prima le galassie verrebbero separate le une dalle altre,
poi la gravità sarebbe troppo debole per tenerle assieme e le stelle si separerebbero. Circa tre mesi
prima della fine, i pianeti si separerebbero dalle stelle. Negli ultimi minuti, le stelle e i pianeti
sarebbero disintegrati, e gli atomi verrebbero distrutti una frazione di secondo prima della fine. In
seguito, l'Universo sarebbe ridotto ad una serie di particelle elementari isolate le une dalle altre, in
cui ogni attività sarebbe impossibile. Poiché ogni particella sarebbe impossibilitata a vedere le altre,
in un certo senso l'Universo osservabile si ridurrebbe effettivamente a zero. Alcuni studi hanno
mostrato che tali modelli sono compatibili con le osservazioni ed, anzi, in alcuni casi addirittura in
maggior accordo con i dati rispetto ad altri che prevedono un arresto dell'accelerazione cosmica;
tale affermazione è discussa. Secondo alcuni, la viscosità dell'universo gioca un ruolo in questo.
Il Big Freeze è la morte termica (o morte entropica) è un possibile stato finale dell'universo in cui
non vi è più energia libera per compiere lavoro. In termini fisici, l'entropia raggiunge il massimo
valore, e l'universo è in equilibrio termodinamico.
Discussa è la possibilità di esistenza dopo il Big Rip o il Big Freeze, vi sono diverse ipotesi:
• resteranno i resti della materia e sparsi fotoni, privi di massa;
• esisteranno comunque universi paralleli (Kaku, 2006);
• il tempo si fermerà e si annulleranno le dimensioni e le distanze;
• si genererà un nuovo Big Bang nel nostro universo, a causa della bassissima entropia dopo il un
periodo glaciale.
L'ultima ipotesi è quella più suggestiva e comprende due possibilità, rientranti nelle varie teorie
dell'universo oscillante o modello ciclico.
In cosmologia, una precedente ipotesi sul destino dell'Universo è il Big Crunch. Tale ipotesi
sostiene che l'Universo smetterà di espandersi ed inizierà a collassare su se stesso. È esattamente
simmetrico al Big Bang. Tale ipotesi sostiene che se la forza di gravità di tutta la materia ed energia
nell'orizzonte osservabile è abbastanza grande, allora essa può fermare l'espansione dell'Universo, e
in seguito invertirla. L'Universo si contrarrebbe, e tutta la materia e l'energia verrebbero compresse
in una singolarità gravitazionale. È impossibile dire cosa succederebbe in seguito, perché il tempo
stesso si fermerebbe in questa singolarità. La possibilità di conciliare il Big Crunch con il secondo
principio della termodinamica attende ancora una spiegazione.
Non è neppure chiaro cosa succederebbe negli istanti immediatamente precedenti. L'Universo non
sarebbe esattamente simmetrico rispetto al momento della sua nascita, perché nel frattempo le stelle
hanno emesso una notevole quantità di energia. Quest'energia in più sembra però trascurabile
rispetto al totale, e l'unica differenza sarebbe la presenza di numerosi buchi neri di varie dimensioni,
73
che tenderebbero a crescere velocemente via via che la materia verrebbe introdotta a forza nel loro
interno dalla pressione esterna. Per poter descrivere compiutamente gli eventi finali occorrerebbe
una teoria della gravità quantistica, verso la quale si orienta molto lavoro teorico ma che è ancora da
scoprire.
Perché questo accada, la densità media della materia-energia presente nell'Universo deve essere
superiore ad un certo valore critico, solitamente indicato con Ω (e stimato in 3 protoni al metro cubo
o energia equivalente), talché la curvatura complessiva dello spaziotempo risulti positiva, come la
superficie di una sfera. Se la densità è invece minore del valore della densità critica, la curvatura è
negativa (come una superficie iperbolica, simile ad una sella), e la gravità sarebbe troppo debole per
poter contrastare l'espansione. Quest'ultima sarebbe rallentata, ma non fermata. Questi due casi, e il
caso limite intermedio in cui la densità è esattamente uguale a quella critica, sono chiamati i 3
modelli di Friedmann. Tutti e tre assumono che la costante cosmologica sia uguale a zero.
Costellazioni
Prima di concludere è utile trattare questo argomento, poiché le costellazioni rappresentano un ramo
del clade Mundus. Una costellazione è ognuna delle 88 parti in cui la sfera celeste è
convenzionalmente suddivisa allo scopo di mappare le stelle. I raggruppamenti così formati sono
delle entità esclusivamente prospettiche a cui la moderna astronomia non riconosce alcun reale
significato. Infatti, nello spazio tridimensionale le stelle che formano una stessa costellazione
possono essere separate anche da distanze enormi, così come diverse possono essere le dimensioni e
la luminosità. Viceversa, due o più stelle, che sulla sfera celeste appaiono magari lontanissime tra di
loro, nello spazio tridimensionale possono essere al contrario separate da distanze minori di quelle
che le separano dalle altre stelle della propria costellazione. Durante un ipotetico viaggio
interstellare non riusciremmo più ad identificare alcuna costellazione e ogni sosta vicino a
qualunque stella ce ne farebbe identificare semmai di nuove, visibili solo da tale nuova prospettiva.
Nel corso del tempo sono state definite costellazioni differenti, alcune sono state aggiunte, altre
sono state unite tra di loro.
L'uomo eccelle nel trovare schemi regolari (pareidolia) e attraverso la storia ha raggruppato le stelle
che appaiono vicine in costellazioni.
Una costellazione "ufficiosa", ossia un allineamento di stelle che formano semplici figure
geometriche, si chiama asterismo.
Quella delle costellazioni, sopra riferito, è una ramificazione del clade Mundus. L'Unione
Astronomica Internazionale (UAI) divide il cielo in 88 costellazioni ufficiali con confini precisi, di
modo che ogni punto della sfera celeste appartenga ad una ed una sola costellazione. Queste sono
basate principalmente sulle costellazioni della tradizione dell'antica Grecia, tramandate attraverso il
Medioevo.
Le 88 costellazioni si dividono, secondo un criterio storico e di importanza, in tre gruppi:
le 12 costellazioni dello Zodiaco, che si trovano lungo l'eclittica, e vengono quindi percorse dal Sole
nel suo moto apparente sulla volta celeste durante l'anno; le altre 36 costellazioni elencate da
Tolomeo nel suo Almagesto, oggi diventate 38 con la suddivisione di una di esse (la Nave Argo) in
tre costellazioni distinte; le rimanenti 38 costellazioni, definite in epoca moderna (a partire dal 1600
circa) negli spazi vuoti tra le costellazioni tolemaiche e nell'emisfero meridionale.
Queste nuove costellazioni sono generalmente composte da stelle poco brillanti (quelle brillanti
erano, ovviamente, già state incluse nelle costellazioni dello Zodiaco e di Tolomeo), e possono
essere difficili da osservare dalle città.
Inoltre si dividono anche in base alla loro posizione nel cielo:
• 18 costellazioni boreali (settentrionali);
• 34 costellazioni equatoriali;
• 36 costellazioni australi (meridionali).
Segue l’elenco delle 88 costellazioni note (tabella 2).
74
Tabella 2 – Elenco delle costellazioni note, espresse con i nomi in italiano e latino.
N.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
Nome italiano
Nome latino
Acquario
Altare
Andromeda
Aquila
Ariete
Auriga
Balena
Bilancia
Boote
Bulino
Bussola
Camaleonte
Cancro
Cane maggiore
Cane minore
Cani da caccia
Carena
Capricorno
Cassiopea
Cavallino
Cefeo
Centauro
Chioma di Berenice
Cigno
Colomba
Compasso
Corona australe
Corona boreale
Corvo
Cratere
Croce del Sud
Delfino
Dorado
Dragone
Ercole
Eridano
Fenice
Fornace
Freccia
Gemelli
Giraffa
Gru
Idra
Idra maschio
Indiano
Leone
Leone minore
Lepre
Lince
Lira
Lucertola
Lupo
Macchina pneumatica
Aquarius Thales, VI secolo aC
Ara
Andromeda
Aquila
Aries Cleostratus 6 ° secolo aC
Auriga
Cetus
Libra
Boötes
Caelum N.L. de Lacaille 1763
Pyxis N.L. de Lacaille 1763
Chamaeleon P.D.Keyser et F. de Houtman, 1595-1597 ex J.Bayer 1603
Cancer
Canis Maior
Canis Minor
Canes Venatici Hevelius 1690
Carina N.L. de Lacaille 1763
Capricornus
Cassiopeia
Equuleus
Cepheus
Centaurus
Coma Berenices T. Brahe 1602
Cygnus
Columba A. Royer 1679
Circinus N.L. de Lacaille 1763
Corona Australis
Corona Borealis
Corvus
Crater
Crux
Delphinus
Dorado P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603
Draco
Hercules
Eridanus
Phoenix P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603
Fornax N.L. de Lacaille 1763
Sagitta
Gemini
Camelopardalis Bartsch 1624
Grus P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603
Hydrus P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603
Hydrus M A
Indus P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603
Leo
Leo Minor Hevelius 1690
Lepus
Lynx Hevelius 1690
Lyra
Lacerta Hevelius 1690
Lupus
Antlia N.L. de Lacaille 1763
Sigla *
ZE
TA
TB
TE
ZE
TB
TE
ZE
TE
MA
MA
MA
ZE
TE
TE
MB
TA
ZE
TB
TE
TB
TA
ME
TB
MA
MA
TA
TB
TE
TE
MA
TE
MA
TB
TB
TE
MA
MA
TE
ZE
MB
MA
TE
MA
MA
ZE
MB
TE
MB
TB
MB
TA
MA
75
Mensa
Mensa N.L. de Lacaille 1763
MA
Microscopio
Microscopium N.L. de Lacaille 1763
MA
Mosca
Musca P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603
MA
Ofiuco
Ophiuchus
TE
Orione
Orion
TE
Orologio
Horologium N.L. de Lacaille 1763
MA
Orsa maggiore
Ursa Maior
TB
Orsa minore
Ursa Minor
TB
Ottante
Octans N.L. de Lacaille 1763
MA
Pavone
Pavo P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603
MA
Pegaso
Pegasus
TE
Perseo
Perseus
TB
Pesce australe
Piscis austrinus
TA
Pesce volante
Volans P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603
MA
Pesci
Pisces
ZE
Pittore
Pictor N.L. de Lacaille 1763
MA
Poppa
Puppis N.L. de Lacaille 1763
TA
Regolo
Norma N.L. de Lacaille 1763
MA
Reticolo
Reticulum N.L. de Lacaille 1763
MA
Sagittario
Sagittarium Cleostratus 6 ° secolo aC
ZE
Scorpione
Scorpius
ZE
Scudo
Scutum Hevelius 1690
ME
Scultore
Sculptor N.L. de Lacaille 1763
MA
Serpente[1]
Serpens
TE
Sestante
Sextans Hevelius 1690
ME
Telescopio
Telescopium N.L. de Lacaille 1763
MA
Toro
Taurus
ZE
Triangolo
Triangulum
TB
Triangolo australe
Triangulum australe Keyser et de Houtman, 1595-1597 ex J.Bayer 1603 M A
Tucano
Tucana P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603
MA
Uccello del Paradiso
Apus P.D. Keyser et F. de Houtman, 1595-1597 ex J. Bayer 1603
MA
Unicorno
Monoceros Bartsch 1624
ME
Vele
Vela N.L. de Lacaille 1763
T[2]A
Vergine
Virgo
ZE
Volpetta
Vulpecula Hevelius 1690
ME
*Legenda: Z = costellazione dello Zodiaco;
T = costellazione di Tolomeo;
M = costellazione moderna
B = costellazione boreale;
E = costellazione equatoriale;
A = costellazione australe.
[1] Il Serpente è l'unica costellazione divisa in due parti: la Testa del Serpente e la Coda del Serpente
[2] Tolomeo riuniva la Carena, la Poppa e le Vele in un'unica costellazione chiamata Nave Argo (Argo
Navis). L'albero della nave occupava la zona attualmente associato alla Bussola.
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
L'Unione Astronomica Internazionale (IAU) divide il cielo in 88 costellazioni ufficiali con confini
precisi, di modo che ogni punto della sfera celeste appartenga ad una ed una sola costellazione. Le
costellazioni visibili dalle latitudini settentrionali sono basate principalmente su quelle della
tradizione dell'Antica Grecia, e i loro nomi richiamano figure mitologiche come Pegaso o Ercole;
quelle visibili dall'emisfero australe sono state invece battezzate in età illuministica ed i loro nomi
sono spesso legati ad invenzioni del tempo, come l'Orologio o il Microscopio.
Le dodici costellazioni che intersecano l'eclittica compongono lo zodiaco. In aggiunta a queste 12,
già in età antica Tolomeo ne elencò altre 36 (che ora sono 38, a causa della suddivisione della Nave
Argo in tre nuove costellazioni). In tempi più recenti, a questa lista sono state fatte delle aggiunte, in
primo luogo per riempire i buchi fra i tracciati tolemaici (i greci consideravano il cielo come
76
comprendente costellazioni e spazi vuoti tra di esse), e in secondo luogo per riempire l'emisfero
meridionale, quando gli esploratori europei, nei loro viaggi, riuscirono a vederlo.
Nel 1543 fu poi Alessandro Piccolomini, molti anni prima di Johann Bayer, a contrassegnare le
stelle in base alla loro luminosità con delle lettere (alfabeto latino). Il libro del Piccolomini dal titolo
De le stelle fisse, è da molti considerato il primo atlante celeste moderno. Le 47 mappe contenute
nell'opera presentano tutte le costellazioni tolemaiche (ad eccezione di quella del Puledro) e
mostrano le stelle senza le corrispondenti figure mitologiche; per la prima volta in un libro a stampa
venivano quindi riportate le mappe astronomiche complete con le costellazioni tolemaiche. Il De le
stelle fisse (1543) e un altro libro sempre del Piccolomini dal titolo
Della sfera del mondo (1540) vennero pubblicati in un unico e rarissimo volume, per la prima volta
nel 1548.
Uranometria, titolo abbreviato di un catalogo stellare prodotto da Johann Bayer, è stato il primo
atlante a coprire l'intera sfera celeste.
Le stelle più luminose di una costellazione prendono il nome usando una lettera greca più il genitivo
della costellazione in cui si trovano; questa nomenclatura, chiamata Nomenclatura di Bayer, viene
utilizzata per tutte le costellazioni.
Un esempio è α Centauri. La Nomenclatura di Flamsteed segue invece una numerazione
progressiva delle stelle di una costellazione procedendo da ovest verso est, cui si aggiunge il
genitivo della costellazione di appartenenza; questa nomenclatura, assente per le stelle di
costellazioni poste a sud dei 30° di declinazione sud, produce risultati come 61 Cygni. Un'altra
numerazione che utilizza il genitivo della costellazione è la nomenclatura delle stelle variabili, che
procede assegnando lettere, come per RR Lyrae.
Le stelle meno luminose seguono altre numerazioni progressive, senza seguire però la divisione in
costellazioni.
Costellazioni di nubi oscure. Nell'emisfero celeste australe è possibile distinguere un gran numero
di nebulose oscure che attraversano la scia luminosa della Via Lattea; alcune culture vissute
nell'emisfero australe hanno individuato fra queste macchie oscure alcune figure, identificabili
come "costellazioni di nubi oscure".
Fra queste culture vi è quella Inca, che identificò sagome di animali fra le nubi oscure, associando
la loro apparizione con l'arrivo della stagione delle piogge. Anche gli aborigeni australiani erano
soliti individuare fra queste nubi figure di animali, fra le quali la più famosa è l'"Emu celeste", la cui
testa coincide con la Nebulosa Sacco di Carbone.
Alcune costellazioni visibili. Sono sommariamente descritte alcune delle costellazioni riportate in
tabella 2.
L'Aquario è una costellazione dello zodiaco, una delle più antiche conosciute; si trova fra il
Capricorno a sud-ovest e i Pesci a nord-est
è una costellazione di grandi dimensioni, attraversata dal Sole da fine febbraio a metà marzo; è
formata da un vasto insieme di stelle poco luminose, specialmente nella parte orientale,
caratteristica che avrebbe suggerito l'idea di un'autentica "cascata" di stelline, che in effetti
rappresentano l'acqua che scende a fiotti da un'urna. La parte più settentrionale della costellazione
giace sull'equatore celeste, mentre gran parte di essa si trova nell'emisfero australe; nonostante ciò,
è osservabile con facilità da quasi tutte le aree popolate della Terra. Nell'emisfero boreale è una
figura tipica dei cieli autunnali, mentre a sud dell'equatore la sua presenza nel cielo dopo il tramonto
indica l'avvicinarsi della stagione estiva.
L'Aquario contiene stelle relativamente poco luminose nonostante la sua estensione, le più brillanti
delle quali sono dislocate nella parte nordoccidentale; la parte sudorientale viene a trovarsi al centro
di una regione di cielo povera di stelle appariscenti, così dalle aree urbane appare come una zona di
cielo "vuota". Sotto un cielo buio sono invece osservabili fino a un centinaio di stelle deboli, per lo
più di quinta grandezza, molte delle quali disposte a concatenazioni non rettilinee di tre (figura 40).
Dall'Aquario si originano due sciami meteorici: le Eta Aquaridi (4 maggio) e le Delta Aquaridi (28
giugno), entrambi composti da circa 20 meteore all'ora.
77
Figura 40 – Costellazione dell’Acquario, le cui stelle più luminose sono dislocate nella parte nordoccidentale.
L'Altare è una piccola ma relativamente appariscente costellazione dell'emisfero sud. Non è visibile
da quasi tutta l'Europa, mentre le sue stelle principali sono tutte visibili a sud dei 30°N; nonostante
non abbia stelle particolarmente luminose, è individuabile con estrema facilità proprio a sud della
coda dello Scorpione.
L'Altare è una costellazione caratteristica dei cieli del sud; gran parte di essa giace sulla Via Lattea,
in un campo molto brillante; la scia luminosa ne attraversa il lato nordoccidentale, ma il chiarore
diffuso è visibile in una notte buia anche su quasi tutta la costellazione. Di conseguenza sono
presenti ricchi campi stellari e associazioni di stelle.
La costellazione si presenta come una sorta di farfalla a sud della coda dello Scorpione; le sue stelle
principali sono di terza magnitudine. La stella più brillante della costellazione, β Arae, presenta una
magnitudine apparente da Terra pari a 2,84. La γ Arae è una stella doppia.
La costellazione diventa ben visibile per un osservatore posto a sud del venticinquesimo parallelo
nord. Si individua con facilità, a sud dello Scorpione, per via di una concatenazione di stelle di terza
magnitudine, disposte in senso nord-sud. Due di queste stelle formano un coppia apparente molto
larga e ben osservabile ad occhio nudo, dai colori contrastanti: si tratta delle β Arae e γ Arae.
A causa della precessione degli equinozi, la costellazione era ben visibile dalle latitudini
mediterranee all'epoca dei Romani e soprattutto dei Greci; fu infatti elencata da Tolomeo.
Le stelle principali di questa costellazione sono (figura 41):
78
β Arae (nota talvolta come Karnot Mizbeach) è una stella arancione di magnitudine 2,84,
distante 603 anni luce.
• α Arae (nota come Choo), è una stella azzurra di magnitudine 2,84, distante 242 anni luce.
• ζ Arae (Korban), è una stella arancione di magnitudine 3,12, distante 574 anni luce.
• γ Arae (Zadok), è una stella azzurra di magnitudine 3,31, distante 1136 anni luce; forma con la
stella β una bella coppia dai colori contrastanti da osservare ad occhio nudo.
Tra le altre, la stella giallo-arancione (di classe spettrale G3IV-V) µ Arae è la prima stella attorno
alla quale, secondo dati osservativi, esiste un sistema planetario che ospiti dei pianeti rocciosi.
La costellazione è ricca di stelle doppie, alcune delle quali sono alla portata di piccoli strumenti
amatoriali. Grazie alla presenza dei campi stellari della Via Lattea, nell'Altare sono note diverse
centinaia di stelle variabili (stelle, la cui luminosità apparente, cambia nel tempo).
•
Figura 41 – Mappa della costellazione dell’altare.
L'Orsa maggiore (figura 42) è una costellazione tipica dei cieli boreali; le sue sette stelle più
luminose, raggruppate nel famoso asterismo del Grande carro, sono visibili per tutto l'anno
nell'emisfero nord, e non tramontano mai a nord del 41°N (la latitudine di Napoli, Madrid e New
York).
Il riferimento all'asterismo come un orso (le quattro stelle orientali) inseguito da tre cacciatori (le tre
di coda) è probabilmente il più antico mito a cui l'umanità faccia ancora riferimento. In altre parti
del mondo vengono usati nomi diversi, in Nord America è il Grande mestolo, nel Regno Unito è
l'Aratro, Septem triones, cioè i sette buoi, è invece il termine con cui gli antichi Romani definivano
le sette stelle dell'Orsa maggiore, descrivendone il loro lento movimento attorno alla stella polare.
Da qui l'origine del termine settentrione, cioè nord.
Il Grande carro o Gran carro è uno degli asterismi più classici e più conosciuti della volta celeste; è
formato dalle sette stelle più brillanti della costellazione dell'Orsa maggiore, che formano una
caratteristica figura a forma di carro o di un aratro. Per molte civiltà, antiche e no, questa figura è
considerata una vera e propria costellazione a sé stante.
79
Figura 42 – Mappa e immagine della costellazione dell’Orsa maggiore (grande carro).
Le stelle del Grande carro (figura 42) sono chiamate, in ordine da ovest ad est, Dubhe, Merak,
Phecda, Megrez, Alioth, Mizar e Alkaid (o Benetnasch), e sono state assegnate loro le lettere greche
da α ad η (vedi nomenclatura di Bayer), nello stesso ordine. Mizar ha una stella compagna chiamata
Alcor, appena visibile ad occhio nudo, che è un tradizionale test della vista. Entrambe le stelle sono
in realtà doppie e sono state, rispettivamente, la prima binaria visuale e la prima binaria
spettroscopica scoperte.
La Stella polare può essere trovata disegnando una linea tra Dubhe e Merak, all'estremo del Gran
Carro, e prolungandola di cinque volte. Altre stelle come Arturo (α Boötis) e Spica (α Virginis)
possono essere trovate prolungando invece il lato lungo.
Nel 1869, Richard. A. Proctor notò che, eccetto per Dubhe e Alkaid, le stelle del Gran Carro hanno
tutte lo stesso moto proprio, che le porta verso un punto comune del Sagittario. Questo gruppo, noto
ora come Associazione dell'Orsa maggiore (Cr 285), del quale sono stati identificati alcuni altri
membri, formava in passato un ammasso aperto.
Da allora le stelle dell'ammasso si sono disperse in una regione di circa 30 per 18 anni luce, posta a
circa 75 anni luce di distanza, che è quindi il più vicino oggetto simile ad un ammasso. Altre 100
stelle circa, inclusa Sirio, formano una "corrente" che ha lo stesso moto proprio, ma la loro
relazione con l'ex-ammasso non è chiara. Il nostro Sistema Solare si trova sul bordo esterno di
questa corrente, ma non ne fa parte, avendo un'età 40 volte superiore.
L'Orsa minore (figura 43) è una costellazione del cielo settentrionale. È una delle 88 costellazioni
moderne, ma era già tra le 48 costellazioni elencate da Tolomeo. È particolarmente nota perché al
suo interno si trova il polo nord celeste, anche se la sua posizione è soggetta ad un continuo, lento
spostamento a causa della precessione dell'asse di rotazione terrestre.
L'Orsa minore è individuabile con facilità, sia perché le sue stelle più brillanti sono di seconda
magnitudine, sia perché, una volta individuato il Grande carro, si può raggiungere la Stella polare,
la stella più luminosa dell'Orsa minore, utilizzando le due stelle più occidentali dell'asterismo dello
stesso Grande Carro. Dall'emisfero boreale è una costellazione circumpolare, ossia non tramonta
mai, restando visibile in ogni periodo dell'anno; dall'emisfero australe invece è sempre invisibile,
tranne che in prossimità dell'equatore (eccetto la Stella Polare).
L'Orsa minore contiene un asterismo chiamato colloquialmente Piccolo carro, perché le sue stelle
più brillanti formano un disegno simile a quello del Gran carro nell'Orsa maggiore. La stella
all'estremo del Piccolo carro è la Stella polare, che si trova in posizione quasi coincidente col polo
nord celeste. Le sue stelle possono essere anche utilizzate come scala per determinare la
80
magnitudine limite di una notte: due stelle sono infatti di seconda magnitudine, una è di terza, tre di
quarta e una di quinta; quando le stelle della costellazione sono tutte visibili, il cielo può definirsi in
condizioni molto buone per l'osservazione.
Figura 43 – Mappa e immagine della costellazione dell’Orsa minore (piccolo carro).
Ulteriori approfondimenti di questo capitolo saranno contenuti su specifiche posizioni
Bibliografia
1. Adamo A., 2002. La vita su altri mondi nella storia del pensiero, in La vita nell'Universo, Provincia di
Torino, 30 marzo 2002.
2. Alley R. et al. 2007. Climate change 2007: The physical science basis: Summary for policymakers.
Intergovernmental Panel on Climate Change.
3. allowing married clergy members. New York Times, April 28, B5.
4. Alpher R.A. e Herman R., 1948. Evolution of the Universe. Nature, 162, 1948, p. 774.
5. American Association of Petroleum Geologists Statements, Climate Change (PDF), dpa.aapg.org, giugno
2007.
6. American Geophysical Union Council, 2003. Human impacts of climate. American Geophysical Union,
Washington, DC.
7. American Meteorological Society, 2003. Climate change research: Issues for the atmospheric and related
sciences. Bulletin of the American Meteorological Society 84.
8. American Philosophical Society, 2006. The Past History of the Earth as Inferred from the Mode of
Formation of the Solar System.
9. Ammann C. et al., 2007. Solar influence on climate during the past millennium: Results from ransient
simulations with the NCAR Climate Simulation Model. Proceedings of the National Academy of
Sciences of the United States of America, vol. 104, nº 10, 6 aprile 2007, pp. 3713-3718.
10. Angelo Adamo, La vita su altri mondi nella storia del pensiero, su La vita nell'Universo, Provincia di
Torino, TorinoScienza.it, 30 marzo 2002. URL consultato il 19 novembre 2011.
11. Anonimo, 2007. L'età precisa del sistema solare. Le Scienze, 20 dicembre 2007.
12. Anonimo, 2011. La fine del sistema solare. Costruire il sistema solare, 4, Eaglemoss, 2011, p. 9.
13. Arctic Council, 2004. Arctic climate impact assessment. Arctic Council, Oslo, Norway.
14. At-a-glance, 2006. The Stern Review, BBC, 30 ottobre 2006.
15. Barker T., 2008. Full quote from IPCC on costs of climate change, Financial Times, 14 aprile 2008.
16. Bero L., 2003. Implications of the tobacco industry documents for public health and policy. Annual
Review of Public Health 24: 267–88.
17. Bertschinger E., 1998.Simulations of Structure Formation in the Universe, in Annual Review of
Astronomy and Astrophysics, vol. 36, 1998, pp. 599–654.
18. Bertschinger E., 2001. Cosmological Perturbation Theory and Structure Formation, 2001.
81
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
Botkin D.B. et al., 2007. Forecasting the Effects of Global Warming on Biodiversity (PDF), in
BioScience, vol. 57, nº 3, marzo 2007, pp. 227-236.
Boykoff, M. T. e Boykoff J. M., 2004. Balance as bias: Global warming and the U.S. prestige press.
Global Environmental Change 14: 125–36.
Briffa, K. R. e Osborn T. J., 2002. Blowing hot and cold. Science 295: 2227–28.
Browne E.J.P., 1997. Climate change: The new agenda. Paper presented at Stanford University, May
19, Group Media and Publications, British Petroleum Company.
Bruce J. P., Hoesung L. e Haites E.F., 1996. Climate change 1995: Economic and social dimensions of
climate change. Intergovernmental Panel on Climate Change. Cambridge: Cambridge
Brunini A., 2006. Origin of the obliquities of the giant planets in mutual interactions in the early Solar
System. Nature, 440, 7088, pp. 1163-1165.
Budyko M.I., 1969. The effect of solar radiation variations on the climate of the Earth. Tellus vol. 21,
(1969) pp. 611–619.
Buesseler K.O. et al., 2007. Revisiting Carbon Flux Through the Ocean's Twilight Zone. Science, 316,
5824, 27 aprile 2007, pp. 567-570.
Caldeira K., Wickett M.E., 2005. Ocean model predictions of chemistry changes from carbon dioxide
emissions to the atmosphere and ocean, in Journal of Geophysical Research, vol. 110, C09S04, 21
settembre 2005, pp. 1-12.
Cameron A.G.W. e Ward W.R., 1976. The Origin of the Moon, Abstracts of the Lunar and Planetary
Science Conference, volume 7, page 120.
Camille Flammarion, 1962. La pluralité des mondes habitus. (1862; testo originale). Prima edizione
italiana: La pluralità dei mondi abitati, Milano: Carlo Simonetti, 1880.
Campanini M., 1989. L’intelligenza della fede: filosofia e religione in Averroè e nell’averroismo,
Bergamo 1989 (Quodlibet).
Climate Change, 2001. Impacts, Adaptation and Vulnerability. Contribution of Working Group II to
the Third Assessment Report of the Intergovernmental Panel on Climate Change, Intergovernmental
Panel on Climate Change, 16 febbraio 2001.
Climate Change, 2001. The Scientific Basis. Contribution of Working Group I to the Third
Assessment Report of the Intergovernmental Panel on Climate Change, Summary for Policymakers,
Intergovernmental Panel on Climate Change, 20 gennaio 2001.
Conrad V., 1925. Laufzeitkurven des Tauernbebens vom 28. Nov. 1923. Mitteilungen der ErdbebenKommission, Akademie der Wissenschaften Wien, Neue Folge 59:1-23.
Crutzen C., 2005. Benvenuti nell'Antropocene. L'uomo ha cambiato il clima; la Terra entra in una
nuova era. Mondadori, 2005.
Curtis S., 1920. Why the `Great Debate' Was Important, in The Shapley - Curtis Debate in 1920,
Astronomy Picture of the Day - NASA.
Darling D., 2014. Plurality of worlds (pluralism). The Internet Encyclopedia of Science.
Dauncey G. e Mazza P., 2004. Clima tempestoso. 101 soluzioni per ridurre l'effetto serra. Muzzio
editore, 2004.
Deming D., 2005. How ‘‘consensus’’ on global warming is used to justify draconian reform.
Investor’s Business Daily, March 18, A16. Environmental Defense. 2005.
Denman K.L. et al., 2007. Couplings between changes in Climate System and the Biogeochemistry,
7.5.3. IPCC, 2007.
Dlugolecki A. et al., 2002. Climate Risk to Global Economy. CEO Briefing: UNEP FI Climate
Change Working Group, United Nations Environment Programme, 2002.
Dokken D. J.e White K.S., 2001. Climate change 2001: Impacts, adaptation and vulnerability.
Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press.
Doran P.T., 2009. Examining the Scientific Consensus on Climate Change, EOS Eos Trans AGU
90:22–23 (2009); 90, 3.
Duffy P.B., Santer B.D. e Wigley T.M.L., 2009. Solar variability does not explain late-20th-century
warming. January, pp 48-49.
EPA, 2009. Recent Climate Change: Atmosphere Changes, su Climate Change Science Program,
United States Environmental Protection Agency, 2007. URL consultato il 21 aprile 2009.
82
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
69.
70.
Esper J., Cook E.R. e. Schweingruber H., 2003. Low-frequency signals in long tree-ring chronologies
for reconstructing past temperature variability. Science 295: 2250–53.
Ferrara V. e Farruggia A., 2007. Clima: istruzioni per l'uso, Edizioni Ambiente, 2007.
Flannery T., 2006. The weather makers: How man is changing the climate and what it means for life
on earth. New York: Atlantic Monthly Press.
Fleming J.R., 1998. Historical Perspectives on Climate Change. New York: Oxford University Press.
Fonti critiche utilizzate
Frame D. J., J. A. Kettleborough, S. Knight, A. Martin, J. M. Murphy, C. Gavin Schmidt, 2009. Water
vapour: feedback or forcing? RealClimate, 6 aprile 2005.
Gelbspan R., 1997. The heat is on: The high stakes battle over earth’s threatened climate. Reading,
MA: Addison-Wesley.
Gelbspan R., 2004. Boiling point: How politicians, big oil and coal, journalists, and activists are
fueling the climate crisis and what we can do to avert disaster. New York: Basic Books.
George W. Bush, 2001. Text of a Letter from the President to Senators Hagel, Helms, Craig, and
Roberts, Office of the Press Secretary, 13 marzo 2001.
Gilliland E.J.A., Ronald L. e Hoyt D.V., 1982. Changes in the solar constant and climatic effects.
Nature, vol. 300, 23 dicembre 1982, pp. 689–693.
Gillispie C.C., 1975. Semmelweis. In Dictionary of scientific biography. Vol. 12. New York: Scribner.
Gillispie C.C., 1981. Dictionary of scientific biography. Vol. 12. New York: Scribner.
Giuseppe Tanzella-Nitti, Pluralità dei mondi e teologia, disf.org, ottobre 2007. URL consultato il 2
novembre 2011.
Greene B., 2004. La trama del cosmo, Torino, Einaudi, 2004.
Hack M., 2004. Dove nascono le stelle, Sperling & Kupfer, 2004, pp. 88, 89, ISBN 978-88-6061-6173.
Hansen J., 2002. Climate. Journal of Geophysical Research, 107, p. 4347.
Hansen J., 2005. Efficacy of climate forcings. Journal of Geophysical Research, 110, D18104.
Harrison P. e Pearce F.,. 2000. AAAS atlas of population and environment. Berkeley: University of
California Press.
Hegerl G.C. et al., 2007. Understanding and Attributing Climate Change. Climate Change 2007: The
Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the
Intergovernmental Panel on Climate Change, IPCC, 2007.
Hegerl G.C., Zwiers F.W., Braconnot P., Gillett N.P., Luo Y., Marengo Orsini J.A.,Nicholls N.,
Penner J.E. e Stott P.A., 2007. Chapter 9, Understanding and Attributing Climate Change – Section
9.2.2 Spatial and Temporal Patterns of the Response to Different Forcings and their Uncertainties, in
Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor e H.L. Miller (a cura
di), Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth
Assessment Report of the Intergovernmental Panel on Climate Change. Intergovernmental Panel on
Climate Change, Cambridge, United Kingdom and New York, NY, USA., Cambridge University
Press, 2007.
Hempel C., 1965. Aspects of scientific explanation, and other essays in the philosophy of science.
New York: Free Press.
Holland M.M. e Bitz C. M., 2003. Polar amplification of climate change in coupled models. Climate
Dynamics 21: 221–32.
Houghton J.T., Ding Y., Griggs, Noguer D. J., van der Linden P.J., Dai X., Maskell K. e Johnson
C.A., 2001. Climate change 2001: The scientific basis (Third Assessment Report). Intergovernmental
Panel on Climate Change. Cambridge: Cambridge University Press.
Houghton J.T., Jenkins G. J. e Ephraums J. J., 1990. Scientific assessment of climate change: Report
of Working Group I. Intergovernmental Panel on Climate Change. Cambridge: Cambridge University
Press.
Hoyle F., 1948. A New Model for the Expanding Universe, in Monthly Notices of the Royal
Astronomical Society, vol. 108, 1948, p. 372.
IPCC, 2001. Summary for Policymakers. Climate Change 2001: The Scientific Basis. Contribution of
Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change,
IPCC, 2001.
83
71.
72.
73.
74.
75.
76.
77.
78.
79.
80.
81.
82.
83.
84.
85.
86.
87.
88.
89.
90.
91.
92.
93.
94.
95.
96.
IPCC, 2007. Chapter 1: Historical Overview of Climate Change Science. IPCC WG1 AR4 Report,
IPCC, 2007.
IPCC, 2007. Climate Change: Synthesis Report. Contribution of Working Groups I, II and III to the
Fourth Assessment Report of the Intergovernmental Panel on Climate Change, [Core Writing Team,
Pachauri, R. K. and Reisinger, A. (eds.)], Geneva, Switzerland, IPCC, 2007.
IPCC, 2007. Summary for Policymakers. In: Climate Change 2007: The Physical Science Basis.
Contribution of working Group I to the Fourth Assessment Report of the Intergovernmental Panel on
Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and
H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY,
USA.
Jacobson M.Z., 2005. Studying ocean acidification with conservative, stable numerical schemes for
nonequilibrium air-ocean exchange and ocean equilibrium chemistry. Journal of Geophysical
Research, vol. 110, D7, 2 aprile 2005.
Jarrett T.H., 2004. Large Scale Structure in the Local Universe: The 2MASS Galaxy Catalog, in
PASA, vol. 21, 2004, p. 396.
Jian Lu, Vecchi G. A., Reichler T., 2007. Expansion of the Hadley cell under global warming.
Geophysical Research Letters, vol. 34, 2007.
Joint statement of sixteen national academies of science, 2001. The Science of Climate Change, The
Royal Society, 18 maggio 2001.
Jones E.M., 1985. Where is everybody? An account of Fermi's question. Los Alamos Technical report.
Los Alamos National Laboratory, marzo 1985.
Kaku M., 2006. Mondi paralleli. Un viaggio attraverso la creazione, le dimensioni superiori ed il
futuro del cosmo, Torino, Ed. Codice, 2006.
Kearey P., Klepeis K.A. e Vine F.J., 2009. Global Tectonics, 3ª ed., John Wiley & Sons, 2009, pp. 19–
21.
Kiehl J.T. e Trenberth K.E., 1997. Earth's Annual Global Mean Energy Budget. Bulletin of the
American Meteorological Society, 78, 2, , pp. 197–208.
Kiehl J.T. e Trenberth K.E., 1997. Earth's Annual Global Mean Energy Budget. Bulletin of the
American Meteorological Society, 78, 2, pp. 197–208.
Knutso T.R., 2008. Simulated reduction in Atlantic hurricane frequency under twenty-first-century
warming conditions. Nature Geoscience, vol. 1, 2008, p. 359.
Kolbert E., 2006. Field notes from a catastrophe. New York: Bloomsbury.
Kyoto Protocol, 2006. Status of Ratification, United Nations Framework Convention on Climate
Change, 10 luglio 2006.
Kyoto Protocol: Status of Ratification, 2009. United Nations Framework Convention on Climate
Change, 14 gennaio 2009.
Launder B. e. Thompson J.M.T, 2008. Global and Arctic climate engineering: numerical model
studies. Phil. Trans. R. Soc. A, 366, 1882, 2008, pp. 4039–4056.
Le Bovier de Fontenelle B., 1896. Entretiens sur la pluralité des mondes.
Lemaître G., 1931. The Evolution of the Universe: Discussion, in Nature, vol. 128, 1931, pp. 699–701,
The Evolution of the Universe: Discussion, in Nature, vol. 128, 1931, pp. 699–701
Liepert B. et al., 1994. Solar radiation in Germany - Observed trends and an assessment of their
causes. Contrib. atmos. phys., 1994, vol. 67, 1, pp. 15-29.
Lipton P., 1991. Inference to the best explanation. Oxford: Routledge.
Lipton P.,. 2004. Inference to the best explanation. 2nd ed. Oxford: Routledge.
Lockwood M. e Fröhlich C., 2008. Recent oppositely directed trends in solar climate forcings and the
global mean surface air temperature. II. Different reconstructions of the total solar irradiance variation
and dependence on response time scale. Proc. R. Soc. A,. 464, 2094, 8 giugno 2008, pp. 1367–85.
Lockwood M., Fröhlich C., 2007. Recent oppositely directed trends in solar climate forcings and the
global mean surface air temperature. Proceedings of the Royal Society A, vol. 463, 2007, p. 2447.
LockwoodJ.G., 1979. Causes of Climate, Lecture notes in mathematics 1358, New York: John Wiley
& Sons, 1979, p. 162.
Lowrie W., 1997. Fundamentals of Geophysics, Cambridge University Press, 1997, pp. 149.
84
97.
98.
99.
100.
101.
102.
103.
104.
105.
106.
107.
108.
109.
110.
111.
112.
113.
114.
115.
116.
117.
118.
119.
120.
121.
122.
Manabe S. e Stouffer R. J., 1994. Multiple-century response of a coupled ocean-atmosphere model to
an increase of atmospheric carbon dioxide. Journal of Climate 7(1): 5–23.
Manabe S. e Stouffer R.J. 1980. Sensitivity of a global climate model to an increase of CO2
concentration in the atmosphere. Journal of Geophysical Research 85(C10): 5529–54.
Marsh N., Svensmark H., 2000. Cosmic Rays, Clouds, and Climate. Space Science Reviews, vol. 94,
1–2, novembre 2000, pp. 215–230.
McCarthy J.J., Canziani O., Leary N.A., McLaughlin J.F., et al., 2002. Climate change hastens
population extinctions. Proceedings of the National Academy of Sciences, vol. 99, nº 9, 30 aprile
2002, pp. 6070-6074.
Metz B., Ogunlade D., Swart R. e Jiahua Pan, 2001. Climate change 2001. Mitigation.
Intergovernmental Panel on Climate Change. Cambridge University Press.
Muundjua M., Hart R.J., Golder S.A., Carporzen L. e Galdeano A., 2007. Magnetic imaging of the
Vredefort impact crater, South Africa, vol. 261, 3-4, Elsevier, 2007, pp. 456–468.
Nakicenovic. N. et al., 2001. An Overview of Scenarios: Resource Availability, su IPCC Special
Report on Emissions Scenarios, IPCC, 2001.
NASA, 2005. The Ocean and the Carbon Cycle, , 21 giugno 2005.
NASA, 2011. Ninth-Warmest Year on Record
National Academy of Sciences, Committee on the Science of Climate Change. 2001. Climate change
science: An analysis of some key questions. Washington, DC: National Academy Press.
National Research Council, 1994. Solar Influences On Global Change, Washington, D.C., National
Academy Press, 1994, p. 36.
NRC, 2008. Understanding and Responding to Climate Change (PDF), Board on Atmospheric
Sciences and Climate, US National Academy of Sciences, 2008, p. 2.
Ohmura A. e Lang H., 1988. Secular variation of global radiation in Europe. International Radiation
Symposium 1988, Lille, August 1988, 165.
Oreskes N., 2004. Beyond the ivory tower: The scientific consensus on climate change. Science
306(5702): 1686.
Orgel L.E. e Crick F.H.C., Anticipating an RNA world. Some past speculations on the origin of life:
where are they today? FASEB J., vol. 7, 1993, pp. 238-239.
Panel on Climate Change Feedbacks, 2003. Climate Research Committee, National Research Council,
Understanding Climate Change Feedbacks, The National Academies Press, 2003, p. 166.
Parlamento europeo, 2009. Meno uno alla fine di Copenaghen: accordo ancora possibile? 17-12-2009.
Parry M.L., Canziani O.F., Palutikof J.P., van der Linden P.J., Hanson C.E., 2007. Human Health, in
Climate Change: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the
Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge (UK), New
York (USA), Cambridge University Press, .
Pearson P.N. e Palmer M.R., 2000. Atmospheric carbon dioxide concentrations over the past 60
million years. Nature, vol. 406, nº 6797, 2000, pp. 695–699.
Petit,J. R. et al., 1999. Climate and atmospheric history of the past 420,000 years from the Vostok ice
core, Antarctica. Nature, vol. 399, nº 6735, 3 giugno 1999, pp. 429–436.
Piani, D. Sexton, L. A. Smith, R. A. Spicer, A. J. Thorpe, e Allen M. R., 2005. Uncertainty in
predictions of the climate response to rising levels of greenhouse gases. Nature 433: 403–06.
Pierce J.R. e Adams P.J., 2009. Can cosmic rays affect cloud condensation nuclei by altering new
particle formation rates? Geophysical Research Letters, 36.
Pinker R.T. et al., 2005. Do Satellites Detect Trends in Surface Solar Radiation?", Science, 2005, Vol.
308. no. 5723, pp. 850-854.
Pogge R.W., 1997. The Once & Future Sun. New Vistas in Astronomy.
Popper K.R., 1959. The logic of scientific discovery. London: Hutchinson.
Prentice I.C, Farquhar G.D., Fasham M.J.R., Goulden M.L., Heimann M., Jaramillo V.J., H.S.
Kheshgi, C. Le Quéré, R.J. Scholes, D.W.R. Wallace (lead authors). D. Archer, M.R. Ashmore, O.
Aumont, D. Baker, M. Battle, M. Bender, L.P. Bopp, P. Bousquet, K. Caldeira, P. Ciais, P.M. Cox, W.
Cramer, F. Dentener, I.G. Enting, C.B. Field, P. Friedlingstein, E.A. Holland, R.A. Houghton, J.I.
House, A. Ishida, A.K. Jain, I.A. Janssens, F. Joos, T. Kaminski, C.D. Keeling, R.F. Keeling, D.W.
Kicklighter, K.E. Kohfeld, W. Knorr, R. Law, T. Lenton, K. Lindsay, E. Maier-Reimer, A.C.
85
123.
124.
125.
126.
127.
128.
129.
130.
131.
132.
133.
134.
135.
136.
137.
138.
139.
140.
141.
142.
143.
144.
Manning, R.J. Matear, A.D. McGuire, J.M. Melillo, R. Meyer, M. Mund, J.C. Orr, S. Piper, K.
Plattner, P.J. Rayner, S. Sitch, R. Slater, S. Taguchi, P.P. Tans, H.Q. Tian, M.F. Weirig, T. Whorf,
Pitelka A.Yool. L., Ramirez Rojas A., 2001. Executive Summary. In (book chapter): 3. The Carbon
Cycle and Atmospheric Carbon Dioxide. In: Climate Change 2001: The Scientific Basis. Contribution
of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate
Change (J.T. Houghton, Y. Ding, D.J. Griggs, M. Noguer, P.J. van der Linden, X. Dai, K. Maskell,
C.A. Johnson (eds)), Print version: Cambridge University Press.
Price D., de Solla G., 1986. Little science, big science and beyond. New York: Columbia University
Press.
Ramaswamy V., Schwarzkopf M.D. e Shine K.P., 1992. Radiative forcing of climate from
halocarbon-induced global stratospheric ozone loss, in Nature, vol. 355, , pp. 810–812,
DOI:10.1038/355810a0.
Randel W. J., Keith P. Shine, John Austin, John Barnett, Chantal Claud, Nathan P. Gillett, Philippe
Keckhut, Ulrike Langematz e Roger Lin, 2009. An update of observed stratospheric temperature
trends, in Journal of Geophysical Research, vol. 114, 2009, pp. D02107.
Randy Russell, The Greenhouse Effect & Greenhouse Gases, University Corporation for Atmospheric
Research Windows to the Universe, 16 maggio 2007. URL consultato il 27 dicembre 2009.
Rasool I.S. and Schneider S.H., 1971. Atmospheric Carbon Dioxide and Aerosols: Effects of Large
Increases on Global Climate. Science, 173, 3992, luglio 1971, pp. 138–141.
Raven J.A. et al., Ocean acidification due to increasing atmospheric carbon dioxide, Royal Society, 30
giugno 2005.
Revelle R., 1965. Atmospheric carbon dioxide. In Restoring the quality of our environment: A report
of the Environmental Pollution Panel, 111–33. Washington, DC: President’s Science Advisory
Committee.
Riezzo V., 2011. Astronomia, in Tutto. Novara, DeAgostini, 2011, p. 191, ISBN 978-88-418-7011-2.
Roach J., 2004. The year global warming got respect. National Geographic, December 29.
Russak V., 1990. Trends of solar radiation, cloudiness and atmospheric transparency during recent
decades in Estonia. Tellus B, vol. 42, issue 2, p. 206
Sackmann I.J, Boothroyd A.I., Kraemer K.E., 1993. Our Sun. III. Present and Future. Astrophysical
Journal 418: 457.
Sackmann, I.-Juliana, Boothroyd A.I., Kraemer K.E., 1993. Our Sun. III. Present and Future, in
Astrophysical Journal, vol. 418, , pp. 457–468.
Sample I., 2005. Warming Hits Tipping Point. The Guardian, 11 agosto 2005.
Shindell Drew, Faluvegi G., Lacis A., Hansen J., Reto Ruedy e Elliot Aguilar, 2006. Role of
tropospheric ozone increases in 20th-century climate change, in Journal of Geophysical Research, vol.
111, 2006.
Siegenthaler U. et al., 2005. Stable Carbon Cycle–Climate Relationship During the Late Pleistocene
(PDF), in Science, vol. 310, nº 5752, novembre 2005, pp. 1313–1317.
Sloan T. e Wolfendale A W, 2008. Testing the proposed causal link between cosmic rays and cloud
cover, in Environ. Res. Lett., vol. 3, 2008, p. 024001.
Smith L. A. 2002. What might we learn from climate forecasts? Proceedings of the National Academy
of Sciences 99 (suppl. 1): 2487–92.
Soden B.J., Held I.M., 2005. An Assessment of Climate Feedbacks in Coupled Ocean-Atmosphere
Models. Journal of Climate, vol. 19, nº 14, 1º novembre 2005.
Soon W., Baliunas S. , Idso S. B., Kondratyev K. Y. e Posmentier E. S., 2002. Modeling climatic
effects of anthropogenic carbon dioxide emissions: Unknowns and uncertainties, reply to Risbey.
Climate Research 22: 187–88.
Soon W., Baliunas S., Idso S.B., Kondratyev K.Y. e Posmentier E. S., 2001. Modeling climatic effects
of anthropogenic carbon dioxide emissions: Unknowns and uncertainties. Climate Research 18: 259–
75.
Sorge V., 1999. L’aristotelismo averroistico negli studi recenti. Paradigmi, 50.
Spahni R. et al., 2005. Atmospheric Methane and Nitrous Oxide of the Late Pleistocene from
Antarctic Ice Cores, in Science, vol. 310, nº 5752, novembre 2005, pp. 1317–1321.
86
145. Srinivasan et al., 2002. Asian Brown Cloud – fact and fantasy." Current Science, 2002, Vol. 83, No. 5,
586-592.
146. Stainforth D., Aina T., Christensen C., Collins M., Faull N.,
147. Stanhill G. e Moreshet S., 2004. Global radiation climate changes in Israel. Climatic Change, vol. 22,
6 novembre 2004, pp. 121–138.
148. Steigman G., 2005. Primordial Nucleosynthesis: Successes And Challenges, 2005
149. Stocker T.F. et al., 2001. Sea Ice, su Climate Change 2001: The Scientific Basis. Contribution of
150.
151.
152.
153.
154.
155.
156.
157.
158.
159.
160.
161.
162.
163.
164.
165.
166.
167.
168.
169.
170.
171.
172.
Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change,
Intergovernmental Panel on Climate Change, 20 gennaio 2001.
Szwast Mark A., Richardson M.I. e Vasavada A.R., 2006. Surface dust redistribution on Mars as
observed by the Mars Global Surveyor and Viking orbiters, in Journal of Geophysical Research, vol.
111, 2006.
Tanzella-Nitti G., 2007. Pluralità dei mondi e teologia, Documentazione Interdisciplinare di Scienza e
Fede, ottobre 2007.
Thomas C.D. et al., 2004. Extinction risk from climate change. Nature, 427, 6970, 8 gennaio 2004,
pp. 138-145.
Todisco O., 1999.Averroè nel dibattito medievale: verità o bontà?, Milano, ed. 1999 (Collana di
filosofia, 102).
Travis D.J. et al., 2002. Contrails reduce daily temperature range. Nature vol. 418, p. 601.
Tsiganis K., Gomes R., Morbidelli A. e Levison H. F., 2005. Origin of the orbital architecture of the
giant planets of the Solar System. Nature, vol. 435, nº 7041, maggio 2005, pp. 459-461.
University Press.
Van den Hove, Sybille, Marc Le Menestrel, e de Bettignies H.C., 2003. The oil industry and climate
change: Strategies and ethical dilemmas. Climate Policy 2: 3–18.
Watkin D.J. 2004. Roman Catholic priests’ group calls for
Watson R.T., 2001. Climate change 2001: Synthesis report. Intergovernmental Panel on Climate
Change. Cambridge: Cambridge University Press.
Watson R.T., Zinyowera M.C. e Moss R.H., 1996. Climate change 1995: Impacts, adaptations and
mitigation of climate change. Scientific-technical analyses. Intergovernmental Panel on Climate
Change. Cambridge: Cambridge University Press.
Weart S., 2008. The Carbon Dioxide Greenhouse Effect, su The Discovery of Global Warming,
American Institute of Physics.
Weart S.R. 2003. The discovery of global warming. Cambridge, MA: Harvard University Press.
Weart S.R., 2008. The Discovery of Global Warming, Harvard University Press, 2008.
Wiker B.D., 2002. Alien Ideas: Christianity and the Search for Extraterrestrial Life, su Crisis
Magazine, 4 novembre 2002.
Wild M. et al., 2005. From Dimming to Brightening: Decadal Changes in Solar Radiation at Earth's
Surface", Science, 2005, Vol. 308. no. 5723, pp. 847-850.
Wild M., Ohmura A. e Makowski K., 2007. Impact of global dimming and brightening on global
warming, Geophys. Res. Lett., 34.
Wilson E.O. 1998. Consilience: The unity of knowledge. New York: Alfred A. Knopf.
Woolfson M.M., 1969. Rep. Prog. Phys. 32 135-185
Woolfson M.M., 1999, Mon. Not. R. Astr. Soc. 304, 195-198.
World Bank, 2010. World Development Report 2010: Development and Climate Change, The
International Bank for Reconstruction and Development / The World Bank, 1818 H Street NW,
Washington DC 20433, 2010.
WWF, 2008. Generazione Clima, generazioneclima.wwf.it. URL consultato il 5 novembre 2008.
Zichichi A., 2007. Il clima non è matematico. Italia chiama Italia, 19 febbraio 2007, 01:44:00.
87
Scarica