Cosmologia e Darwinismo in ambito teologico

Quaglino Alessio
V Scientifico A
Fede e scienza
FEDE
E
SCIENZA
Cosmologia e Darwinismo
in ambito teologico
1
Quaglino Alessio
V Scientifico A
Fede e scienza
Quello che veramente mi interessa è sapere se Dio, quando ha creato il mondo,
aveva qualche possibilità di scelta.
ALBERT EINSTEIN
Quando uno scienziato osserva le cose, non prende minimamente in considerazione
l’incredibile.
LOUIS I. KAHN
L'ovvio é quel che non si vede mai, finché qualcuno non lo esprime con la
massima semplicità.
KAHLIL GIBRAN
Tutte le generalizzazioni sono pericolose, perfino questa.
ALEXANDRE DUMAS FIGLIO
Il caso è forse lo pseudonimo di Dio quando non vuole firmare.
ANATOLE FRANCE
Nei domini del caos, piccole variazioni della struttura causano quasi sempre
grandi modifiche del comportamento. Sembra impossibile controllare un
comportamento complesso.
STUART KAUFFMAN
Tutti i mali di cui soffre oggi l'America si possono far risalire alla teoria
dell'evoluzione. Sarebbe meglio distruggere tutti i libri che sono stati
scritti e salvare unicamente i primi tre versetti della Genesi.
W.J. BRYAN (1924)
Scienza e Fede entrambi doni di Dio
GIOVANNI PAOLO II
2
Quaglino Alessio
V Scientifico A
Fede e scienza
PREFAZIONE
Nel mondo scientifico è presente sempre una grande distanza fra ciò che il sapere umano ha
raggiunto e fatto proprio e le notizie diffuse al grande pubblico dai mass media, spesso si
ritengono valide semplici congetture o teorie non dimostrate, mentre si ignorano scoperte ben
più importanti.
Due sono i casi più emblematici del panorama scientifico che evidenziano un fraintendimento
della realtà e causano accesi dibattiti con il mondo religioso, anch’esso non immune da una
conoscenza errata sia dei propri dogmi sia delle teorie scientifiche, che lamenta un eccessivo
coinvolgimento della figura dello scienziato in ambiti metafisici, come nel caso della cosmologia
e della biologia.
Partendo dalle scoperte della fisica moderna del XX secolo, che hanno causato un totale
spostamento dell’ottica deterministica, è possibile evidenziare il cammino che ha portato i
cosmologi a diventare pseudo-teologi che formulano le teorie più improbabili e disparate
sull’universo, ignorandone la sua dipendenza da una Realtà Trascendente.
Successivamente, a causa dello sviluppo della genetica, l’interesse si è spostato nella biologia,
dove le osannate teorie di Darwin, in realtà solo teorie, e per questo non ancora dimostrate,
troppo spesso vengono date per scontate, in realtà, fin dalla loro formulazione esse hanno
subito aspre critiche dal mondo religioso che forzatamente ha rivisto più volte la propria
posizione in relazione alle nuove scoperte.
Si è resa quindi necessaria una trattazione più approfondita del ruolo dello scienziato e
dell’analisi di teorie ritenute ovvie e banali, ma che a un esame più specifico lasciano
trasparire dei punti deboli, ancora in attesa di una risoluzione definitiva. È un discorso che non
può trovare una risposta certa, proprio per la sua natura strettamente connessa con un
concetto, quale la Fede cristiana, in grado di confortare l’esistenza umana, ma ponendo
domande piuttosto che conferire risposte.
3
Quaglino Alessio
V Scientifico A
Fede e scienza
FISICA
MODERNA
4
Quaglino Alessio
V Scientifico A
Fede e scienza
RELATIVITÀ E SPAZIO-TEMPO
PREMESSE
Verso la fine del XIX secolo lo scientismo1 era convinto che le leggi fondamentali della
natura fossero state ormai scoperte, credenza che si andava diffondendo anche fra molti
fisici. Ma un primo sintomo dell’immanente rivoluzione si poteva già riscontrare nelle
equazioni di Maxwell, in cui le forze elettromagnetiche si propagano con una velocità
finita, corrispondente a quella della luce, a differenza delle reazioni istantanee
tipiche della meccanica newtoniana (si pensi alla forza di interazione gravitazionale).
Le premesse erano quindi mature per le due grandi rivelazioni di inizio secolo:
meccanica quantistica e relatività.
DALLA RELATIVITÀ RISTRETTA ALLA GENERALE
Spesso si ignora l’esistenza di un principio di relatività classico, detto anche
galileiano o newtoniano, che afferma: “Tutti i sistemi di riferimento che si muovono con
velocità costante rispetto a un sistema di riferimento inerziale sono anch’essi
inerziali2”.
Tuttavia questo principio non era valido per l’elettromagnetismo, forzando la fisica a
formulare alcune bizzarre teorie, come quella dell’etere3, per giustificare fenomeni
apparentemente inspiegabili.
Tutte le contraddizioni alle quali conduceva il modo di ragionare della fisica classica
furono finalmente spazzate via nel 1905 quando Einstein pubblicò la teoria della
relatività ristretta, valida nel caso di sistemi in moto rettilineo uniforme l’uno
rispetto all’altro:
I postulato: le leggi della fisica sono le stesse in tutti i sistemi inerziali
Questo
enunciato
estende
la
formulazione
classica
anche
ai
fenomeni
elettromagnetici, ripudiando il concetto di tempo assoluto
II postulato: la velocità della luce nel vuoto è c=300000km/s indipendentemente dal moto
della sorgente e dell’osservatore
È bene ricordare in proposito che gli insoliti fenomeni relativistici si
manifestano solo a velocità prossime a quella della luce, la massima velocità
raggiungibile
La relatività generale (1916) generalizza le leggi, inizialmente valide solo per i
sistemi in moto rettilineo uniforme l’uno rispetto all’altro, e le estende anche a
quelli non inerziali, qualunque sia il moto degli osservatori.
Come la relatività galileiana è un caso particolare di quella ristretta, quest’ultima
rappresenta un caso particolare della generale.
SPAZIO E TEMPO
Il filosofo Immanuel Kant considerava spazio e tempo entità assolute, unici parametri in
base ai quali venivano classificate le intuizioni sensibili dell’uomo. Fino alle soglie
del XX secolo anche in fisica c’era la concezione di spazio e tempo come realtà mediante
le quali i potevano effettuare misurazioni ripetibili in qualsiasi condizione con il
medesimo risultato.
Già in passato Galileo intuì il problema della relatività delle osservazioni e Newton
affermò che solamente il tempo era assoluto, mentre lo spazio era relativo al sistema
dell’osservatore. Lo scienziato pisano arrivò addirittura a sfiorare le idee di
Einstein, potendole applicare soltanto a sistemi inerziali meccanici, data l’inesistenza
di studi elettromagnetici.
La teoria einsteiniana si prefiggeva infatti come scopo quello di poter permettere a
ogni osservatore di trasferire la rappresentazione della realtà da un sistema di
riferimento
a
un
altro,
semplicemente
eliminando
l’idea
di
tempo
assoluto,
considerandolo invece una quarta dimensione misurata nelle stesse unità di misura delle
prime tre, moltiplicando la velocità della luce per il tempo, ottenendo una sorta di
legge oraria del moto (T misurato in m/km = c·(t misurato in sec)): persa la loro
assolutezza, spazio e tempo esistono solamente come unione inscindibile, dimensioni di
una nuova realtà. Avendo infatti la luce una velocità fissa ed essendo gli osservatori
in
diversi
sistemi
in
disaccordo
dallo
spazio
percorso
da
questa,
devono
conseguentemente essere in disaccordo anche sul tempo impiegato.
Avendo la luce una velocità finita, insieme al concetto di tempo cambia conseguentemente
anche quello di simultaneità essendo impossibile osservare due eventi a distanze diverse
dall’osservatore, in quanto giungerebbero in istanti diversi: solamente sincronizzando
due orologi situati nei rispettivi sistemi di riferimento, è possibile verificare la
simultaneità di due avvenimenti. La situazione si complica maggiormente se i due sistemi
Gli scientisti sono coloro che interpretano (erroneamente) il sapere scientifico in un’ottica
positivistica, credendo che il la scienza sia sempre prossima alla conoscenza totale della natura.
2 I sistemi inerziali sono tutti quelli in cui è valido il principio d’inerzia, o primo principio
della dinamica, ovvero quei sistemi sui quali non agiscono forze (o la risultante di queste è
nulla).
3 Al tempo si riteneva che, come per le onde meccaniche, la luce potesse propagarsi solo in
presenza di un mezzo, non nel vuoto. Quest’ipotetico mezzo sarebbe dovuto essere l’etere.
1
5
Quaglino Alessio
V Scientifico A
Fede e scienza
non sono in quiete, bensì in moto; in questo caso due eventi sono contemporanei quando,
misurati da orologi sincronizzati nei siti dove gli eventi si manifestano, avvengono
esattamente alla stessa ora. Ciò sembra estremamente banale, ma tutto si complica quando
uno dei sistemi considerati si muove alla velocità della luce: nascono così il paradosso
dei gemelli e del garage. Il primo, probabilmente il più noto, afferma che se due
gemelli vengono separati e uno di questi viaggia alla velocità della luce per un
consistente intervallo di tempo nello spazio, al suo ritorno sulla Terra sarà
notevolmente più giovane del fratello che è rimasto in uno stato approssimativamente di
quiete. Questo paradosso (tale solo in relazione al senso comune) ha poi trovato più di
una conferma in sperimentazioni effettuate con precise misurazioni mediante orologi
atomici. Nel secondo paradosso si considera un’automobile lunga quanto un garage
lanciata alla velocità della luce, a colui che osserva la scena l’auto sembrerà
restringersi mentre il guidatore otterrà la percezione opposta4; il paradosso consiste
nell’impossibilità di giudicare chi sia in errore: infatti entrambi hanno ragione perché
entrambi pensano di essere in quiete e vedono l’altro in movimento. Tutto questo porta
alla considerazione che qualsiasi rappresentazione figurata non sarà mai in grado di
descrivere un fenomeno relativistico neanche mediante espedienti, come un pittore che
usa la prospettiva per simulare la tridimensionalità, solamente perché non esiste una
realtà universale ma soltanto individuali, associate ai singoli osservatori.
Per comodità d’ora in poi si adotterà come piano di riferimento quello individuato
dall’asse delle ordinate del tempo e da quello delle ascisse dello spazio. In questo
sistema un evento rappresenta un punto qualsiasi del piano, e la linea di universo non è
altro che il succedersi degli eventi a partire da un punto chiamato, appunto, di
universo. L’inclinazione di questa linea determina la velocità del moto, è quindi
immediata l’individuazione di due sistemi in quiete relativa fra loro, sono infatti
paralleli.
PASSATO, PRESENTE E FUTURO
Già dalle equazioni di Maxwell si deduceva, com’è stato poi confermato da verifiche
sperimentali, che la velocità della luce doveva essere la medesima qualsiasi fosse
quella della sorgente. Ne segue che, se un impulso di luce viene emesso in un tempo
particolare in un particolare punto dello spazio, esso si propagherà verso l’esterno
nella forma di una sfera di luce le cui dimensioni e posizione sono indipendenti dalla
velocità della sorgente, un fenomeno simile alle onde generate dalla caduta di un sasso
in uno stagno. Se si pensa a un modello tridimensionale formato dalla superficie
bidimensionale dei cerchi di luce (sezioni della sfera) e dalla dimensione unica del
tempo, il cerchio in espansione delimiterà un cono il cui vertice si trova nel punto di
universo della sorgente. Questo cono è chiamato cono di luce del futuro dell’evento.
Nello stesso modo è possibile disegnare il cono di luce del passato, che è l’insieme di
eventi da cui un impulso di luce può raggiungere l’evento dato. Lo spazio tempo risulta
così diviso fra futuro assoluto, passato assoluto e l’“altrove”, ovvero l’insieme degli
eventi che non possono influire o non subiscono conseguenze da ciò che accade nel punto
di universo. Essendo c la velocità massima possibile, tutte le linee di universo
generate in quel punto devono essere contenute nel cono. In questo contesto si diffuse
la credenza (peraltro valida prima di Heisenberg) che, conoscendo gli eventi
appartenenti al passato assoluto, si può predire con esattezza ciò che accadrà
nell’origine. Sempre seguendo solo questa teoria si deve arrivare alla conclusione che
l’Universo abbia avuto un inizio (Big Bang), e che qualunque cosa sia successa
precedentemente sia irrilevante per il suo futuro (si tratta quindi di una singolarità).
LA CURVATURA DELLO SPAZIO-TEMPO
Quest’ultima
scoperta,
chiamata
principio
di
equivalenza
implica
una
novità
sconvolgente: non c’è più bisogno di una forza gravitazionale (in ogni caso valida se le
forza in gioco non sono molto intense), questa diventa solamente una proprietà
geometrica dello spazio-tempo. La sola presenza di un corpo dotato di massa modifica le
proprietà dello spazio che lo circonda, incurvandolo. Ogni qualvolta che un corpo entra
in un campo gravitazionale, esso si muove come una particella libera lungo la
traiettoria più breve possibile, detta geodetica; come se ponessimo delle palle da
biliardo su di un lenzuolo. La forza newtoniana è quindi soltanto apparente, conseguenza
delle modificate caratteristiche dello spazio: sempre nel nostro lenzuolo, due gravi
sferici, dopo averlo deformato localmente, cercheranno di andare uno nella zona
dell’altro. Queste teorie formulate da Einstein sembrarono assurde ai contemporanei, ma
successivamente furono provate dai fatti: lenti gravitazionali, redshift degli spettri,
rallentamento degli orologi sono ipotesi oramai confermate e condivise da tutto il
panorama scientifico. All’appello mancano solamente le onde gravitazionali, ipotizzate
dal fisico ma non ancora individuate dalle apparecchiature odierne, sebbene alcuni loro
effetti indiretti siano stati osservati e misurati da Hulse e Taylor, vincitori del
Nobel nel 1993 per queste loro scoperte, in un sistema formato da una pulsar e una
stella di neutroni. La loro reale individuazione resta tuttavia una delle principali
sfide della fisica moderna.
Reciprocità evitata nel paradosso dei gemelli, perché quello che viaggia allontanandosi dalla
Terra per poi ritornare risulta soggetto a forze
4
6
Quaglino Alessio
V Scientifico A
Fede e scienza
MECCANICA QUANTISTICA
FENOMENI INSPIEGABILI DELLA FISICA CLASSICA
Già dalla creazione del modello atomico di Bohr-Rutherford si era dovuto postulare
l’esistenza di particolari caratteristiche degli atomi (come la disposizione degli
elettroni negli orbitali), derivanti dall’esperienza ma inspiegabili mediante le leggi
della fisica classica. Fu così che grazie alla risoluzione di due problemi
apparentemente isolati, il corpo nero e l’effetto fotoelettrico, si pervenne alla più
grande rivoluzione scientifica del novecento. Nell’esame dello spettro di un corpo nero,
infatti, le teorie classiche prevedevano un comportamento diametralmente opposto a
quello riscontrato in laboratorio, mettendo in crisi la teoria dell’irraggiamento. Per
ovviare a questa contraddizione Max Planck (1900) propose un’idea basata sul fatto che
la radiazione emessa dal corpo nero sia costituita da una serie discontinua5 di atti
elementari, a ognuno dei quali è associato una specie di pacchetto di energia
proporzionale alla frequenza della radiazione (E=hv), quantità molto piccola in grado di
influire solamente in una dimensione microscopica. Nonostante questa sconvolgente
scoperta, i quanti furono dimenticati per qualche anno, sino a quando Albert Einstein li
introdusse ufficialmente per spiegare l’effetto fotoelettrico e per sviluppare
l’interazione fra la radiazione e la materia, divenendo un concetto fondamentale insito
in qualsiasi tipo di radiazione.
CREAZIONE DELLA MECCANICA QUANTISTICA
Con l’affermazione della teoria di Planck, nasceva la necessità di costruire una nuova
meccanica atomica mediante una revisione delle teorie di Bohr, così come si era già
operato per la meccanica relativistica, che tendesse alla fisica classica per i fenomeni
macroscopici, non intaccati dall’esiguo valore della costante h. Si arrivò alla
formulazione di due teorie, due diverse rappresentazioni, in grado di sostituire
completamente l’impostazione classica, per esprimere il medesimo concetto: la meccanica
ondulatoria di Schrödinger e la meccanica delle matrici di Heisenberg. La prima utilizza
il calcolo differenziale, mentre la seconda usa le matrici, note già da tempo ma non
utilizzate dalla fisica classica.
DUALITÀ ONDA-CORPUSCOLO DELLA MATERIA
Uno degli aspetti della teoria più difficili da accettare, introdotto per spiegare
l’effetto fotoelettrico, consiste nella dualità onda-corpuscolo, ovvero le radiazioni
elettromagnetiche devono essere considerate caratterizzate da un duplice aspetto in
evidente contraddizione. Ciò viene in parte risolto (ma complicato) dal fatto che in
nessun fenomeno è necessario far intervenire simultaneamente entrambi gli aspetti, che
sono quindi complementari. Quello corpuscolare è più cospicuo per le alte frequenze
(energia maggiore) mentre quello ondulatorio si manifesta a quello più basse (maggiori
fenomeni di interferenza). Questi aspetti, inizialmente riferiti alle radiazioni
luminose, furono poi estesi da De Broglie anche per gli elettroni, arrivando così a
esprimere in forma analitica una relazione fra massa, velocità e lunghezza d’onda grazie
alla mediazione della costante di Planck. Grazie a questi risultati Schrödinger riuscì a
costruire una meccanica ondulatoria che riusciva a motivare gli aspetti precedentemente
inspiegabili della teoria atomica di Bohr. Questa doppia personalità aveva però lasciato
il mondo fisico in uno stato di tale sgomento che causò il diffondersi di numerosi
esperimenti che portarono però alla conclusione di considerare i fotoni indefiniti fino
all’istante in cui, in seguito a un intervento strumentale diretto, vengono evidenziati
come onde o come corpuscoli. Questo paradosso, in seguito esteso a tutti gli oggetti
macroscopici dotati di massa, fu poi ampiamente dimostrato nei fenomeni di interferenza
e diffrazione degli elettroni, trasformando così gli orbitali definiti dell’atomo in
nuvole elettroniche, indicanti la densità di probabilità di esistenza dell’elettrone
attorno al nucleo. Richard Feynman spiega che l’incomprensione di questi fenomeni di
interferenza derivano dall’impostazione classica di supporre che le particelle abbiano
una singola storia nello spazio-tempo, se invece supponiamo che percorrano ogni
traiettoria possibile fra due punti, tramite alcuni calcoli (talmente complessi da
divenire irrealizzabili), sarebbe possibile verificare le probabilità che compiano il
loro percorso.
Si può riassumere il discorso con le parole di Bohr: “ogni esperienza capace di
evidenziare una particella da un punto di vista corpuscolare esclude la possibilità di
determinare il suo aspetto ondulatorio” (principio di complementarietà). Risulta quindi
evidente come nella logica di Bohr i due concetti, apparentemente contrastanti, sono ora
compatibili e i risultati dipendono solamente dalle apparecchiature utilizzate; quindi
per cogliere appieno alcuni aspetti del mondo microfisico occorrono due descrizioni che
singolarmente si escludono ma che insieme si completano.
Una grandezza si definisce continua quando non può essere espressa da un numero intero, ma solo
reale. Così in un intervallo fra due punti si può sempre trovare un altro punto. Una quantità si
definisce invece discontinua (o discreta) quando può essere espressa per mezzo di un numero intero,
cosicché è pensabile farla variare in termini di unità.
5
7
Quaglino Alessio
V Scientifico A
Fede e scienza
IL PRINCIPIO DI INDETERMINAZIONE
In realtà, la meccanica quantistica non è in grado di fornire un’informazione completa
quando si considera un singolo evento prodotto da una singola particella, ma può
soltanto comunicare informazioni di tipo statistico. Fino a quando non viene osservata,
la particella non si trova in nessuno degli stati probabili, è solo l’intervento esterno
di un osservatore che ne determina la condizione.
Il contesto si complica maggiormente quando un fisco della cosiddetta “scuola di
Copenaghen”, Werner Heisenberg nel 1926 afferma, e dimostra, che conoscere significa
misurare, e misurare significa sempre perturbare il sistema e, quindi, le grandezze che
lo caratterizzano. Questo perché, a seguito di una particolare interazione con
conseguenze imprevedibili, chiamata effetto Compton, esiste fra l’oggetto e lo strumento
di misura uno stato correlato che si estrinseca in uno scambio energetico, ovvero in una
modifica delle sue grandezze cinematiche. L’agente usato nella misura (concettualmente
non minore di un fotone) è altrettanto grande quanto l’oggetto, ed anche con metodi di
misura perfezionati all’infinito la determinazione simultanea di due grandezze
coniugate6 fra loro, come la posizione e la velocità, sono sempre stabilite con una
certa indeterminazione. Da qui il principio di indeterminazione di Heisenberg afferma
che le possibilità di conoscenza delle grandezze sono inversamente proporzionali, e
l’incertezza sarà maggiore o tutt’al più uguale alla costante di Planck. Per la profonda
coerenza della teoria quantistica, questa relazione è valida per ogni fenomeno che
avviene in natura, solo che nel mondo macroscopico il margine di errore è così piccolo
(h) che appare trascurabile in relazione agli errori sperimentali delle misure. Tutto
ciò è una diretta conseguenza della dualità onda-corpuscolo, e l’indeterminazione, che
lo vogliamo o meno, è insita nella natura delle cose.
Questa
nuova
epistemologia7
cambiò
completamente
la
concezione
deterministica
dell’epoca, influenzata da Laplace e dalla particolare interpretazione dello spaziotempo einsteiniano, secondo cui, conoscendo lo stato di un sistema (posizione e
velocità) e le forze agenti su di esso, fosse possibile determinare coerentemente
l’evolversi dello stesso mediante la meccanica newtoniana. Si giustificava la temporanea
impossibilità di questa facoltà affermando che ciò sarebbe stato possibile solamente
perfezionando all’infinito gli strumenti di misura, in modo da eliminare le imperfezioni
sperimentali. Ma, essendo il calcolo delle probabilità, grazie ad Heisenberg, diventato
una nozione basilare della nuova meccanica, è evidente che le nostre possibilità di
osservazioni sono limitate indipendentemente dagli strumenti utilizzati. La rigorosa e
ovvia causalità della fisica classica crolla per una sua impossibilità concettuale.
Nonostante i molti tentativi, anche da parte dei suoi fautori (come Einstein e
Schrödinger), nessuno è riuscito a sostituire questa nuova fisica con un’altra teoria
migliore, anzi si ritiene che le scoperte più sensazionali siano quelle che non sono
ancora state fatte.
In generale due grandezze sono coniugate quando la prima descrive un sistema in termini di spazio
e tempo, mentre la seconda precisa il suo stato dinamico.
7 L’epistemologia è la disciplina che si occupa dello studio delle condizioni di validità del sapere
scientifico.
6
8
Quaglino Alessio
V Scientifico A
Fede e scienza
I COSTITUENTI ULTIMI DELLA MATERIA E LA GRANDE
UNIFICAZIONE
DIVERGENZE E INCONCILIABILITÀ
La teoria della relatività generale di Einstein sembra governare la struttura su vasta
scala dell’Universo. Essa è una cosiddetta teoria classica, ciò significa che non tiene
conto del principio di indeterminazione; la ragione per cui non conduce ad alcuna
discrepanza con l’osservazione è che tutti i campi gravitazionali da noi sperimentati
sono molto deboli. Ci sono però alcuni casi (buchi neri e big bang) in cui dovrebbero
giungere a livelli tali da essere considerevolmente influenzati dalla meccanica
quantistica: così la relatività predicendo punti a densità infinita, predisse al tempo
stesso il proprio crollo, esattamente come era già successo alla meccanica classica.
Purtroppo la scienza non possiede ancora una teoria coerente completa che unifichi la
relatività con i quanti, ma già conosce le caratteristiche che dovrebbe possedere.
ESPLOSIONE DEMOGRAFICA DELLE PARTICELLE
La ricerca dei costituenti ultimi e indivisibili della materia, iniziata dai filosofi
greci, continua ininterrotta da oltre venti secoli. La maggior parte degli studiosi,
infatti, è convinta che ogni cosa esistente in natura sia composta da un numero limitato
di “mattoni fondamentali”. La prima particella che verso la fine dell’Ottocento fu
creduta elementare fu l’atomo (dal greco atomos indivisibile), poi la scoperta dei
nucleoni (protone neutrone ed elettrone)e del fotone, al momento attuale si ritiene
ufficialmente che siano i quark, nonostante sussistano ancora numerose e fondate
motivazioni per dubitarne l’elementarità. Per elementare, concetto sempre in evoluzione,
si deve intendere ogni elemento di materia di cui al momento attuale non si conosce la
struttura; anche il concetto di particella, apparentemente scontato per secoli come
qualcosa di indivisibile e non modificabile, deve essere sostituito in quanto esse
possono trasformarsi ed essere create l’una dall’altra. Furono pertanto la scoperta
dello spin8, che fece perdere la simmetria geometrica dei corpuscoli, dell’antimateria,
che fece mutare la concezione materialistica della natura, e la relatività, che fornì la
possibilità di creare particelle mediante grandi quantità di energia, gli spunti da cui
si originò il Modello Standard basato sui quark, oggi teoria ufficiale della fisica
subnucleare. L’incredibile aumento di numero delle particelle create negli acceleratori
di particelle, raddoppiato dall’ulteriore esistenza dell’antimateria, demolì l’apparente
semplicità della concezione dell’epoca.
MATERIA O ANTIMATERIA?
Al momento tutto lo spazio cosmico sembra strutturato da materia ordinaria, e questa è
composta particelle sempre più piccole, anche se non sempre più semplici. Per ogni tipo
di particella esiste però un corpuscolo, identico in massa e vita media ma opposto in
alcune proprietà come la carica elettrica, chiamato antiparticella: questo accoppiamento
è stato introdotto a livello teorico da Dirac e poi confermato sul campo. Nonostante le
leggi della natura non esprimano alcuna preferenza nei confronti dell’una o dell’altra,
al di fuori dei laboratori di fisica l’antimateria è del tutto assente e sconosciuta e
l’ipotesi che esistano settori dell’universo costituiti da antimateria non è suffragata
dal rilevamento di radiazioni, causate dall’annichilirsi delle loro zone di confine.
Questo mancato equilibrio è dunque originario o si è prodotto nel corso degli anni? I
segnali del cosmo non indicano nulla in proposito, ma alcune teorici affermano che
l’equilibrio si sarebbe rotto durante i processi iniziali di decadimento negli istanti
successivi al Big Bang; tuttavia queste teorie non sono state ancora verificate e questo
ha portato alcuni scienziati (o scientisti?) a formulare divertenti congetture. Se,
infatti, l’antimateria fosse respinta dalle masse conosciute, si potrebbe ipotizzare
l’esistenza di un antimodo, popolato da antiuomini e antidonne. Una cosa è certa: se
fosse stata l’antimateria a prevalere alla nascita dell’universo, noi la chiameremmo
materia, sempre che il principio antropico ce lo permetta9.
Il concetto di spin, introdotto da Pauli, in termini classici è spiegabile come il momento
angolare della rotazione di una particella attorno al proprio asse. Questa quantità è inoltre in
grado di conferire particolari tipi di simmetrie in relazione al valore che assume.
9 Secondo Carter tutto ciò che esiste, fra le infinite possibilità, è così e non altrimenti proprio
perché possiamo porci la domanda: <<Perché l’universo è così e non altrimenti?>>. Ovvero, se non
fosse così non ci sarebbe nessuno a porsi questo interrogativo.
8
9
Quaglino Alessio
V Scientifico A
Fede e scienza
LE QUATTRO FORZE FONDAMENTALI
Elettromagnetica, gravitazionale, interazione forte e debole. Queste sono le colonne su
cui si regge la materia e da cui derivano tutte le leggi della natura. Le ultime due
sono le cosiddette interazioni nucleari, esistenti solamente a piccolissime distanze, ma
indispensabili poiché permettono la solidità dei nuclei atomici (interazione forte) e i
processi nucleari che avvengono nelle stelle, senza di esse la materia e la vita non
potrebbero quindi esistere. Per quanto riguarda la forza elettromagnetica, nonostante
sia stata ampiamente studiata e quantizzata a livello dell’elettrone, non si è ancora in
grado di poter spiegare la vera origine di quest’attrazione (o repulsione) fra le
cariche, così come la loro origine ed eterna conservazione.
Nella moderna teoria dei campi è opinione diffusa che ogni processo d’interazione si
svolge attraverso lo scambio di una particella intermedia, chiamata quanto mediatore, la
cui massa è inversamente proporzionale alla distanza d’interazione. In base a questa
previsione, verificata da una numerosa serie di fatti sperimentali, la forza
elettromagnetica, ad esempio, si esplica mediante la trasmissione e l’assorbimento di
fotoni10 creati dalle cariche, quindi a velocità finita; anche i bosoni e i gluoni
(particelle virtuali11), rispettivamente portatori delle interazioni nucleari deboli e
forti, sono stati osservati, all’appello mancano solo i gravitoni, probabilmente a causa
della debole intensità dell’attrazione gravitazionale.
MODELLO STANDARD
Premesso che allo stato attuale non esiste ancora una teoria completa e coerente12 capace
di spiegare e predire ogni fenomeno subnucleare e ammessa l’esistenza di un numero
limitato di oggetti elementari da cui si originano le altre particelle, il modello che
per ora permette di compiere previsioni il più possibile in accordo con i dati
sperimentali, è quello detto “a quark” (o Standard). Il 26 Aprile 1994 si è conclusa la
ricerca dei 6 quark (3+3 antiquark) ipotizzati per la formazione di tutte le particelle
conosciute ma, a causa della continua scoperta di nuove particelle il loro numero è
probabilmente destinato ad aumentare. Come insegna la storia della fisica, con l’aumento
delle unità ritenute fondamentali si perde il requisito stesso di elementarità,
preannunciando il salto a un livello ulteriore. Infatti, a causa del principio di
esclusione di Pauli, si è dovuto introdurre un nuovo fattore discriminante fra i quark,
chiamato metaforicamente “colore” che ha portato alla creazione della cromodinamica
quantistica, ovvero a una nuova complicazione di queste particelle (teoricamente)
“semplici”. Il modello comincia quindi a mostrare gli stessi sintomi che avrebbe dovuto
curare; anche se tutti i dati sperimentali sono in accordo con le previsioni del M.S.,
manca accora all’appello la particella fondamentale: quella che, per così dire, inventa
la materia, ovvero che fornisce e differenzia la massa delle particelle, la cosiddetta
“particella di Higgs”, dal nome di colui che per primo ne teorizzò l’esistenza. La
ricerca del bosone di Higgs è al giorno d’oggi uno degli scopi principali degli
esperimenti ad alta energia che vedono impegnati i più potenti acceleratori presenti al
mondo.
Un’ulteriore teoria ha ipotizzato i costituenti dei quark, individuati in soli due
rishoni che, aggregati in triplette (come il DNA per la codifica delle proteine), sono
in grado di formare tutti i quark e gli antiquark esistenti; le differenze fra questi
non sono più di natura intrinseca, ma dovute a una metodologia combinatoria. Si
spiegherebbe così la carica elettrica come direttamente correlata alla carica di colore,
propria anche dei rishoni. Nonostante questo modello riesca a spiegare nella teoria le
proprietà delle “ex” particelle elementari, è però prematuro assegnare una struttura
interna ai quark, quando questi non sono ancora stati dimostrati. Inoltre attribuendo
una sottostruttura all’elettrone si metterebbe in crisi il modello standard,
dimostratosi capace di ottime previsioni fondamentali.
10 In questo caso i fotoni sono particelle virtuali in quanto non possono essere operativamente
osservati ma solo ipotizzati.
11
A causa dell’indeterminismo l’incertezza della misurazione è superiore alla massa della
particella, della cui esistenza non si avrà mai certezza sperimentale.
12 Si vedrà più avanti il significato filosofico-matematico e l’importanza di questi due termini
apparentemente noti e semplici.
10
Quaglino Alessio
V Scientifico A
Fede e scienza
LA LONGEVITÀ DEL PROTONE
Alcune recenti teorie elaborate al fine di stabilire le condizioni necessarie per
tentare di unificare le forze fondamentali portano come conseguenza la non stabilità
della materia ordinaria; l’universo (e il vuoto) è pieno di particelle instabili che
vengono continuamente create e dopo breve tempo decadono. Sorgono quindi spontanei
alcuni interrogativi: perché fra tutte le particelle pesanti il protone, costituente
fondamentale della materia, dovrebbe essere immortale? La materia è quindi creata per
l’eternità? Per il solo fatto che strutturati da protoni, esistono l’uomo e gli oggetti,
è possibile dire che la vita media dei protoni è maggiore di quella dell’universo; da
dati sperimentali si può dedurre che dovrebbe essere compresa fra 1031 e 1034 anni,
ovvero l’attuale età dell’Universo corrisponde alla loro prima infanzia. Ma, anche se la
vita media fosse quella presunta, sulla base dei concetti della meccanica quantistica si
potrebbe osservare una singola particella decadere solamente osservando una grande
quantità di materia. Nonostante i molti tentativi, ostacolati inoltre dalla difficoltà
di schermatura per evitare decadimenti spuri (non spontanei), questo evento non è stato
ancora verificato e lascia un grosso interrogativo sulla materia in quanto, nonostante
la teoria dei quark sia ufficialmente accettata, nessuno è ancora stato in grado di
scindere un protone per un’osservazione diretta; questo problema ha addirittura portato
alcuni fisici ad affermare che la loro esistenza deve essere accettata come è stato
fatto con i principi della termodinamica. A tale scopo sono stati costruiti numerosi
acceleratori di particelle ma, nonostante esperimenti di diffusione ne abbiano rivelato
l’esistenza, gli esiti sono tuttora negativi; medianti gli acceleratori si è riusciti a
distruggere una coppia positrone-elettrone ma questo ha portato alla formazione di una
coppia quark-antiquark assolutamente inscindibile o, meglio, scindibile mediante
un’energia che porta alla formazione di due nuove coppie, così come accade con
l’esperimento della calamita spezzata.
L’UNIFICAZIONE DELLA FISICA
Einstein cercò, purtroppo invano, di sviluppare una teoria unificata di campo al fine di
raccordare la gravità, intesa come proprietà geometrica dello spazio-tempo, con la
teoria elettromagnetica di Maxwell; quest’impresa divenne ancora più difficile con la
scoperta delle altre due forze di tipo nucleare. La difficoltà nel combinare relatività
con la meccanica quantistica è dovuta al fatto che la prima è una teoria “classica”,
ovvero non include il principio di indeterminazione, che sembra essere uno degli
ingredienti fondamentali dell’universo in cui viviamo.
Ci sono inoltre dei punti ancora poco chiari del modello standard: la crescente
numerosità delle particelle elementari, l’esistenza degli sfuggenti bosoni di Higgs e i
numerosi
adattamenti
della
teoria
che
ricordano
gli
epicicli
dell’astronomia
precopernicana. Altre due domande, apparentemente solo speculative, assillano gli
scienziati e i filosofi: perché le forze fondamentali sono quattro e assumono proprio
quei valori? È evidente che noi viviamo in una sola delle possibili realtà che sarebbero
potute esistere grazie solo a una piccolissima variazione di queste intensità, ma non ci
spiegano come mai sia stata scelta proprio questa13.
Nonostante queste limitazioni, la maggior parte dei fisici è convinta che in futuro sarà
possibile la costruzione di una Grande Teoria Unificata (GUT), in grado di spiegare in
maniera omnicomprensiva tutte le forze fondamentali. Ci sono tuttavia degli scienziati
che obiettano a quest’eventualità affermando che le teorie non rappresentano principi
naturali preesistenti, bensì un processo di elaborazione mentale, strettamente connesso
con lo schema con cui gli uomini costruiscono le domande da porre alla natura14. La GUT è
basata sul presupposto che le forze, simmetriche al momento del Big Bang, abbiano perso
questa loro proprietà negli istanti successivi: per eliminare ogni differenza sarebbe
quindi necessario ripristinare le condizioni iniziali dell’universo. I risultati
sperimentali ottenuti da Rubbia sembrano confermare queste ipotesi, tuttavia l’energia
richiesta per arrivare a compiere un simile esperimento sono al di fuori delle
possibilità tecnologiche sia attuali sia future15. Per esplorare la materia a livello
sempre più piccolo, occorrono quindi energie sempre più grandi. Pare quindi che la
sequenza di particella elementari debba essere finita, in quanto se avessimo una
particella tanto piccola da possedere un’energia superiore alla cosiddetta energia di
Planck (dieci trilioni di GeV), la sua massa sarebbe concentrata da diventare un buco
nero: energie inarrivabili se paragonate alle tecnologie attuali.
Gli interessi dei fisici si sono pertanto spostati sul decadimento del protone, che
potrebbe confermare l’equivalenza a grandi energie fra i quanti di materia e i quanti di
forza; ma, ammessa la possibilità di questo evento, sarebbe ancora lontana
l’unificazione fra meccanica quantistica e gravitazione einsteiniana.
Ancora una volta la spiegazione sembra affidata al principio antropico.
A questo proposito si ricordino gli studi di K.Gödel, che verranno analizzati in seguito.
15 Con le attuali tecnologie l’energia è direttamente proporzionale al diametro degli acceleratori
di particelle, ovvero per un esperimento simile sarebbe necessario un acceleratore del diametro
della Via Lattea.
13
14
11
Quaglino Alessio
V Scientifico A
Fede e scienza
LA STRING-THEORY
La stasi che aveva portato l’adottamento del modello a quark e gluoni, portò alla
formulazione di nuove leggi di Supersimmetria che hanno sostituito la “supergravità” in
voga negli anni settanta, non ancora confermate dalla scoperta degli ipotizzati
“fratelli supersimmetrici”; questa teoria descrive le particelle come stati eccitati di
sottilissime corde quantistiche (avente solo una dimensione pari a 10-35m) che nessun
esperimento potrà mai rivelare in maniera diretta. Si è già visto che la storia di una
particella, che occupa in ogni istante un punto dello spazio, può essere rappresentata
da una linea di universo; una corda invece, occupando una linea (aperta o chiusa),
individuerà una superficie bidimensionale chiamata foglio d’universo. Le predizioni di
questa teoria si sono dimostrate identiche a quelle effettuate con la relatività, tranne
che a distanze molto piccole, per questo la teoria fu trascurata fino al 1984 quando, in
seguito ad alcuni studi sulla chiralità16 delle particelle, ne fu sviluppata una nuova
versione, detta eterotica, che sembra essere in accordo con tutti i tipi di particelle.
Quest’ipotesi può però essere formulata in maniera corretta solo a condizione che lo
spazio-tempo abbia almeno dieci dimensioni, di cui sei sono inosservabili per l’uomo.
Alcuni ipotizzano che queste potrebbero contenere la materia oscura, elemento
introvabile di cui si percepisce la presenza, che tanto fa disperare gli astronomi nella
sua ricerca. L’idea di avere molte dimensioni è già nota da tempo alla fantascienza, in
quanto permetterebbe, come teorizzato anche da molti fisici, di superare la velocità
della luce percorrendo traiettorie non permesse a elementi che si muovono in uno spazio
quadridimensionale. La nostra percezione limitata può dipendere dal fatto che su grande
scala lo spazio-tempo sembri piatto e a quattro dimensioni, mentre nel dettaglio (su
scale di un pentilione di millimetro) potrebbe essere altamente incurvato e
decadimensionale: in quest’ottica sarebbe comunque impossibile sfruttare le troppo
piccole dimensioni extra per viaggi spaziali. Ancora senza risposta è la motivazione per
cui solo quattro dimensioni si sono spianate dopo la genesi dell’universo mentre le
altre restano nascoste come arrotolate in una palla, per questo ci si appella ancora una
volta al principio antropico per colmare questa lacuna: il mondo in cui viviamo sembra
quindi l’alternativa migliore (nonché l’unica) per la nostra sopravvivenza. Però la
teoria delle corde non esclude la possibile esistenza di zone dell’universo formate
diversamente, ma in queste regioni non ci sarebbero esseri intelligenti che osservano la
diversa struttura del loro spazio-tempo locale. Quest’ipotesi può essere formulata in
maniera corretta solo ipotizzando che lo spazio-tempo abbia almeno dieci dimensioni, di
cui sei sono inosservabili per l’uomo e potrebbero contenere la materia oscura, elemento
introvabile di cui si percepisce la presenza, che tanto fa disperare gli astronomi nella
sua ricerca. Nonostante i primi successi, la teoria delle corde presenta ancora diversi
problemi che devono essere risolti prima che si possa affermare di aver finalmente
trovato la teoria unificata, se mai questo sarà possibile.
Tuttavia, anche se raggiungessimo questo traguardo, non saremmo mai sicuri di aver
ottenuto la teoria unificata che, in quanto tale, non può essere dimostrata. Essa
dovrebbe fornire previsioni in accordo con le osservazioni, permettendo un errore pari a
quello consentito dal principio di Heisenberg.
16 La chiralità riguarda studi sulla simmetria delle particelle. Queste possono essere identiche ma
avere una chiralità sinistrorsa (come è nella maggior parte dei casi) o destrorsa, esattamente come
la mano destra rispetto la sinistra.
12
Quaglino Alessio
V Scientifico A
Fede e scienza
Cosmologia
teologica
13
Quaglino Alessio
V Scientifico A
Fede e scienza
Nel dibattito fra le diverse concezioni della scienza e del suo ruolo in una cultura,
non è possibile prescindere dalla cosmologia, una disciplina che in questo secolo ha
conosciuto uno sviluppo straordinario. La cosmologia è una scienza fondamentale, non
perché si tratti della forma della scienza più elementare, ma piuttosto perché è la
forma con un carattere di maggiore globalità. Si suppone, infatti, che tutte le leggi
genuinamente scientifiche abbiano una validità universale, cioè che a esse siano
soggetti tutti i corpi dell’universo.
Gli studi sulla "nuova religiosità" hanno contribuito in modo rilevante a svelare il
carattere profondamente ambiguo della modernità. In particolare, hanno mostrato come
modernità scientifico-positivista e credenze mitiche non siano affatto, come comunemente
si crede, due mondi fra loro irriducibili, ma piuttosto due facce della stessa medaglia,
fra le quali si dipana una fitta rete di rapporti psicologici, storici e sociologici. È
quanto appare nell’opera di uno dei maggiori storici della scienza viventi, il monaco
benedettino Stanley L. Jaki, e, in particolare, nello studio “Dio e i cosmologi”, in cui
l’analisi delle scoperte più recenti nel campo della cosmologia è occasione per una
riflessione sul rapporto fra il significato dell’impresa scientifica e la nozione di Dio
nel contesto culturale in cui essa si svolge. Questo lavoro nasce dalla necessità di
rimuovere le cause anti-teologiche o pseudo-teologiche alla base dei conflitti fra la
teologia cattolica e la scienza. Una causa anti-teologica è sicuramente lo sforzo fatto
proprio periodicamente da alcuni che vorrebbero usare la scienza per veicolare il
materialismo filosofico. Questo accadde, per esempio, quando, durante il secolo XVIII,
il meccanicismo determinista della fisica newtoniana fu usato per negare l’esistenza
dell’anima e del libero arbitrio. Veniva ampiamente ignorato il fatto che la fisica di
Newton riguardasse il mondo fisico, la materia e il moto e non questioni come quella
relativa al libero arbitrio o all’esistenza dell’anima, che non possono certo essere
oggetto di misurazioni. Allo stesso modo veniva ignorato il fatto che mai Newton fece
propria l’opinione secondo cui è vero solo quanto può essere esaminato dalla fisica.
Qualcosa di simile ebbe luogo nel XX secolo. Sebbene la teoria della relatività di
Einstein sia la più "assolutistica" di tutte le ipotesi scientifiche mai proposte, viene
fatta passare come una prova a sostegno del principio secondo cui tutto è relativo. Lo
stesso tipo di abuso si compie quando si invoca la teoria dei quanti a sostegno della
tesi secondo cui, almeno al livello atomico e a quello subatomico, le cose avvengono
senza una causa.
Per smascherare tali abusi della scienza e del metodo scientifico lo studio della storia
della scienza è molto efficace. Si noti come i nemici della Chiesa abbiano sempre
ritenuto opportuno pubblicizzare per i loro scopi le deduzioni erronee fatte proprie da
alcuni ecclesiastici. Perché allora non fare lo stesso nei confronti di quanti
promuovono lo scientismo in nome della scienza? La teologia cattolica non ha motivo di
aver paura di una scienza non contaminata dallo scientismo. Essa dovrebbe piuttosto aver
paura alcuni di pseudo-teologi, di quanti non fanno proprio completamente il principio
secondo cui la Rivelazione non consiste nel descrivere come vadano i cieli, ma
piuttosto… nel come si possa andare in Cielo.
L’UNIVERSO RICONQUISTATO
Il travaglio culturale che portò, nel volgere di trecento anni, dalla fine del
Cinquecento all’inizio del secolo XX, all’identificazione dell’universo come oggetto
d’indagine scientifica. Che si sia trattato di un travaglio e non di una nascita
improvvisa è prova il fatto che solo dal 1917, con la pubblicazione da parte di Albert
Einstein di un saggio sulle conseguenze cosmologiche della sua teoria della relatività
generale, si può parlare dell’universo come di un oggetto indagabile scientificamente.
Al contrario, nei tre secoli che vanno dalle prime osservazioni celesti con il
telescopio fino ai primi anni del Novecento, la nozione scientifica di universo ha più
volte rischiato di abortire e certo non per colpa dell’oscurantismo clericale. A
costituire una minaccia per la nascita scientifica dell’universo furono l’idea della sua
infinità e, conseguentemente, della sua eternità, ciò che lo avrebbe sottratto a ogni
possibile "misura" scientifica in quanto privo di limite e di durata, le due qualità
indispensabili perché la scienza possa operare secondo il proprio statuto gnoseologico.
Una condizione fondamentale risiede nel riconoscimento di una caratteristica speciale,
posseduta da tutte le leggi universalmente valide e utilizzabili a fini scientifici: il
carattere quantitativo. Finché si considererà l’universo come un animale vivente,
mancherà
lo
slancio
intellettuale
necessario
all’individuazione
del
carattere
quantitativo di tali leggi. Ogniqualvolta nella storia prevalsero forme di panteismo, e
questo fu il caso delle culture antiche, il mondo fu considerato come un’entità vivente.
E le entità viventi sono regolate da appetiti, da atti di volizione che non possono
essere descritti in termini quantitativi o, comunque, che ispirano quasi sempre leggi
quantitative che si rivelano poi completamente false. Per un pagano colto, la
conversione al cristianesimo implicava una scelta fra due tipi di monogenes: il primo
era un essere in corpo e sangue, Cristo, il secondo era l’universo. Questa è anche la
ragione per cui la fede in Cristo è un utile baluardo contro le sempre presenti
tentazioni di panteismo. E il panteismo è fortemente presente oggi in diverse correnti
ecologiste. Fra le conseguenze di questo argomento vi era anche la confutazione di una
visione pagana secondo cui solo le leggi delle sfere celesti sopra-lunari erano
precisamente razionali mentre sotto il cielo della Luna le cose sembravano regolate da
una certa mescolanza di razionalità e di irrazionalità. L’argomento di Newton secondo
cui la caduta di una mela e il procedere della Luna nella sua orbita erano governati
dalle stesse leggi sarebbe stato inconcepibile per i panteisti dell’antichità.
14
Quaglino Alessio
V Scientifico A
Fede e scienza
Il "partito" dell’infinità cosmica, poco numeroso nel corso del secolo XVIII, era
tuttavia fortemente caratterizzato: ben pochi intorno al 1700, o anche più tardi,
proposero un universo infinito, coloro che appoggiarono quest’idea, filosofi per la
maggior parte, quasi invariabilmente vi videro una comoda scusa per fare a meno di un
Dio veramente trascendente. E si tratta di Giordano Bruno, di Baruch Spinoza, degli
illuministi tedeschi, di Immanuel Kant e degli idealisti. Naturalmente questa ansia di
infinito, che in Immanuel Kant si spinse fino a ipotizzare un numero infinito di
universi, non era dettata da zelo religioso, ma dal postulato idealistico della
inconoscibilità del reale. Secondo dom Stanley L. Jaki, in questo consiste propriamente
la minaccia portata dall’infinità cosmica: la sostituzione del mondo reale con gli enti
prodotti dalla ragione, una ragione libera da ogni sottomissione a un Creatore che, al
contrario, può essere conosciuto solo se vi è un universo reale. Naturalmente ciò non
impedì che l’universo tornasse ad essere un concetto valido, ma il disagio idealistico
nei confronti di un cosmo reale fece sì che gli uomini di scienza e di filosofia dei
primi decenni del secolo XX non apprezzassero adeguatamente il ritrovamento. Del resto
ancora oggi scienziati e filosofi, ma il discorso riguarda anche "[…] preti,
ecclesiastici e cristiani in generale, devono rendersi conto che il maggior sviluppo
nella
cosmologia scientifica sta nella testimonianza
che
l’universo è
stato
riconquistato".
NEBULOSITÀ DISSIPATA
Il fatto che l’universo fisico sia caratterizzato da grandezze in qualche modo
misurabili, quali la massa totale e il raggio massimo, pone immediatamente la domanda
sul perché questi valori e non altri, equivalente alla domanda sul perché questo
universo e non un altro. La specificità del nostro universo rimanda, in altri termini,
alla sua contingenza perché, essendo sempre possibile immaginarne uno diverso da quello
che conosciamo, non vi sono ragioni apparenti perché esista, appunto, questo e non un
altro. Solo relativamente all’universo è possibile chiedersi: perché questo universo e
non un altro? Se si riflette seriamente su tale domanda si arriva inevitabilmente a
riconoscere la natura contingente di questo universo, dipendente cioè da una scelta
compiuta metafisicamente "fuori" di esso. In breve, a meno che non si abbia una visione
contingente dell’universo, non sarà possibile fare di esso oggetto di una qualsivoglia
indagine cosmologica.
Per quanto semplice possa essere descritto, un universo, dimostrato dalla scienza come
reale e specificamente tale, indicherà un’origine al di là delle sue fasi specifiche, un
fattore metafisicamente oltre l’universo.
LO SPETTRO DEL TEMPO
La transitorietà del cosmo si affacciò sulla scena scientifica verso la fine degli anni
1920, quando, dalle equazioni di campo gravitazionale, si cominciarono a ricavare
soluzioni non statiche, ovvero dipendenti dal tempo, e le osservazioni astronomiche
rivelarono che l’universo era di fatto soggetto ad uno specifico moto globale, e ad
un’espansione, che è sempre un segno di transitorietà. "Da allora l’universo è stato
ossessionato dallo spettro dello scorrere del tempo verificabile scientificamente, e gli
sforzi che ebbero la pubblicità più ampia nella cosmologia scientifica moderna furono
quelli che miravano a dissolvere quello spettro". Questo fatto fu particolarmente
evidente nei paesi a regime comunista, e specialmente in Unione Sovietica, dove i
cosmologi scientifici non potevano far altro che adottare la linea del partito. Secondo
quell’ideologia l’eternità della materia era un dogma "scientifico" fin dalla
pubblicazione della prima autorevole interpretazione comunista della scienza, e come
tale condizionò la ricerca cosmologica fino alla fine degli anni 1970. In Occidente, al
contrario, la sollecitudine con cui molti cosmologi appoggiarono la causa dell’eternità
della materia non poteva essere il riflesso di una paura di ritorsioni politiche.
Secondo dom Stanley L. Jaki, questa disponibilità "riflette la logica secondo la quale
un occidente che progressivamente si allontana dal cristianesimo opta naturalmente per
il materialismo", la cui adozione implica altrettanto “naturalmente il desiderio di
avere notizie "scientifiche" che annuncino che l’universo non avrà mai un giorno del
giudizio”. La teoria dello stato stazionario, proposta nel 1947 da Thomas Gold e da
Hermann Bondi rispondeva a questo desiderio. Il cuore della teoria è la creazione
continua di materia: atomi di idrogeno comparirebbero continuamente dal nulla in
quantità
tale da
bilanciare
la diminuzione
di densità
dovuta
all’espansione
dell’universo. In questo modo il paesaggio cosmico, pur allargando il proprio orizzonte
a causa dell’espansione, rimane identico a sé stesso e, quindi, immune al trascorrere
del tempo. La teoria ebbe una notevole diffusione negli anni 1950, soprattutto grazie a
una massiccia propaganda attraverso opere divulgative, per poi tramontare all’inizio
degli anni 1960, di fronte all’incalzare dell’evidenza sperimentale — nessuno osservò
mai un protone apparire dal nulla —, ma non, come ci si sarebbe atteso, sotto il peso
della sua povertà metafisica. Tanto è vero che l’eternalismo, lungi dall’essere
abbandonato, continua ancor oggi a rappresentare la speranza soggiacente di molte
ricerche e il tema dominante delle teorie cosmologiche che comportano un universo
chiuso.
15
Quaglino Alessio
V Scientifico A
Fede e scienza
L’OMBRA DI GÖDEL
Le cosiddette "teorie del tutto" o "teorie definitive", nella loro versione estrema,
tentano di ridurre a un’unica formula l’intera fenomenologia fisica, essendo fondate sul
duplice postulato che l’universo non può non esistere e non può non essere quello che è.
In altri termini, secondo tali teorie, l’universo avrebbe in sé le ragioni della propria
esistenza e questa autoconsistenza dovrebbe emergere dallo stesso apparato fisicomatematico con cui viene descritto il mondo fisico.
La ricerca di una teoria definitiva è il tema conduttore di un’opera, Dal Big Bang ai
buchi neri, divenuta ben presto un successo mondiale sia per la fama del suo autore, il
fisico-matematico inglese Stephen W. Hawking, titolare della cattedra di matematica a
Cambridge,
sia
per
l’imponente
pubblicità
che
ne
ha
accompagnato
l’uscita,
accreditandola come l’ultima parola in materia di questioni fondamentali come lo spazio,
il tempo, la creazione e Dio. La critica che lo studioso benedettino muove a
quest’opera, esemplare di una pubblicistica scientifico-divulgativa molto diffusa, è
costruita intorno alla confusione che il suo autore compie fra il piano della fisica e
quello della filosofia nel corso dell’indagine cosmologica: si tratta di una confusione
che rovescia l’ordine della conoscenza e lo stesso statuto ontologico degli enti e dei
sistemi oggetto dell’indagine. Ignorando che "l’universo esiste anche quando i cosmologi
non scrivono equazioni su di esso", avviene che le equazioni, anziché presupporre
l’esistenza dell’universo, finiscono per diventarne garanti. Di qui, le domande,
invariabilmente lasciate senza risposta, di cui è disseminato il libro di Stephen
Hawking: perché l’universo esiste? La teoria definitiva può non esistere? Oppure ha
bisogno di un Creatore? E chi ha creato il Creatore? Domande che testimoniano come anche
la mente più brillante possa smarrirsi se rifiuta di compiere quel passo fondamentale
verso la metafisica cui dovrebbe spingerla la ricerca della comprensione completa
dell’universo. Tale ricerca costituisce infatti una "domanda metafisica sull’esistenza
di un Creatore che, scegliendo un mondo specifico, decide perché il mondo diventi quello
che è, quale sia il motivo per cui esiste". Fra gli obiettivi dichiarati della scienza
moderna vi è quello di svelare anche il senso della vita dell’uomo e in questo modo essa
viene a occupare ambiti propri della metafisica e della teologia. Il modo più semplice
per smascherare i sofismi di Hawking, Sagan, Davies e di altri è osservare come i
presupposti dei loro ragionamenti non possono essere provati scientificamente. Per
esempio, essi presuppongono che l’universo fisico sia in senso letterale un universo,
ovvero la totalità delle cose. Proprio il carattere totale non può essere provato
scientificamente siccome non è permesso all’osservatore di uscire al di fuori
dell’universo per poterlo studiare.
Una teoria, come quella "definitiva", che avanzi la pretesa di essere completa17, cioè di
spiegare tutto, e, quindi, anche sé stessa, non può non confrontarsi con i teoremi di
Gödel. Kurt Gödel, studioso austriaco di logica naturalizzato statunitense, pubblicò nel
1931 un articolo sulla completezza dei sistemi non banali di proposizioni aritmetiche:
secondo quello studio, divenuto celebre, nessun sistema di tale natura può contenere la
prova della sua coerenza18. Un sistema coerente non è completo, mentre uno completo non è
coerente: solo uscendo dal sistema è possibile dimostrare entrambi gli aspetti. Solo
successivamente, però, si cominciò ad apprezzare l’enorme portata della "prova di Gödel"
e a capire che il suo campo di applicazione andava ben oltre l’aritmetica, potendosi
estendere a ogni insieme non banale di proposizioni, quindi anche alle "teorie del
Tutto", relative alla comprensione dell’universo. Ma tale estensione condanna
irrevocabilmente ogni teoria definitiva: infatti, come può una teoria che si definisce
necessariamente vera non contenere in sé la prova della propria coerenza, come appunto
vietato dai teoremi di Gödel? Si tratta di una "contraddizione in termini" da cui deriva
la principale conseguenza dei teoremi di Gödel sulla cosmologia, ossia che la
contingenza del cosmo non può essere contraddetta.
GLI IDOLI DELLA "NUOVA FISICA": IL NULLA, IL CASO, IL CAOS
Si afferma, ed è quasi universalmente accettato, che la fisica dei quanti avrebbe
dimostrato la non validità del principio di causalità, o del principio secondo cui
l’effetto non può contenere qualcosa di più della sua causa. Fin tanto che la meccanica
è una scienza esatta non può servire per negare la validità di proposizioni che, se non
essenzialmente filosofiche, non sono comunque di natura quantitativa. Come altre forme
di scienza esatta, anche la meccanica quantistica ha a che fare con la misurabilità.
L’interpretazione antirealista del principio d’indeterminazione, caposaldo concettuale
di tutta la meccanica quantistica, ha causato diverse interpretazioni e intrusioni della
scienza in ambiti che non le sono propri. Non si tratta dell’imprecisione o
indeterminazione, inevitabile, dovuta allo strumento di misura: il principio intende
sancire un’indeterminazione intrinseca al mondo subatomico, una specie di "soglia", che
divide il mondo osservabile da un mondo dove sono possibili anche comportamenti non
fisici. La critica che dom Stanley L. Jaki muove alla meccanica quantistica non mette in
discussione gli innegabili successi operativi della teoria, quanto piuttosto le
interpretazioni che uomini di scienza e di filosofia hanno dato del quadro concettuale
da essa implicato.
Il suo formalismo implica che le cosiddette variabili coniugate, come il momento e la
posizione, non possono essere entrambe misurate con assoluta precisione numerica. Da ciò
17 Un sistema è completa quando un qualsiasi enunciato (teorema) può essere dimostrato nell’ambito
della costruzione logica che ha come verità gli assiomi, da cui si parte.
18 Si definisce coerente una costruzione matematica che non porti a contraddizione.
16
Quaglino Alessio
V Scientifico A
Fede e scienza
gli interpreti della meccanica quantistica della Scuola di Copenaghen, con a capo Bohr e
Heisenberg, inferirono che non si può dire con sicurezza che abbia veramente luogo
un’interazione che non possa essere misurata esattamente. Questa deduzione è erronea, un
evidente non sequitur. Il sofisma consiste nel salto che si compie da un contesto fatto
di misurazioni a un contesto ontologico. Secondo la Scuola di Copenaghen il fattore
quantico rende priva di senso ogni domanda sulla realtà del mondo atomico e subatomico,
mentre
il
principio
di
indeterminazione
sancirebbe,
almeno
a
quel
livello,
l’inapplicabilità
di
ogni
rapporto
causale.
Il
misconoscimento
del
"fatto
importantissimo che la teoria fisica non riguarda l’"essere" di per sé, ovvero
l’ontologia, ma solo gli aspetti quantitativi delle cose che esistono già" è all’origine
della radicalità antimetafisica dell’interpretazione della Scuola di Copenaghen e delle
sue aberranti conseguenze, anche in campo cosmologico. Infatti, una volta ammesso che
"la causalità di un processo fisico dipende dalla sua esatta misurabilità", ovvero che
"l’incapacità dei fisici di misurare la natura con esattezza dimostra che la natura è
incapace di agire con esattezza", è stato possibile nascondere dentro il cilindro
dell’indeterminazione tutto quanto la fisica non è in grado di spiegare.
A questo proposito dom Stanley L. Jaki attira l’attenzione sull’importanza che la
nozione di nulla ha assunto nella teoria quantistica: dal nulla quantistico possono
infatti apparire materia, energia e perfino lo stesso universo, anzi infiniti universi.
L’esito di un simile modo di pensare è la fantascienza, come suggerisce lo studioso
benedettino commentando una sentenza divenuta celebre negli ambienti della cosmologia
scientifica, e cioè che "l’universo in definitiva potrebbe essere un pasto gratis":
quasi a dire che l’apparizione dell’universo non è poi un fatto così singolare come si
potrebbe credere. L’affermazione è del noto cosmologo statunitense Alan Guth, autore
della teoria inflazionaria dell’universo, il quale, molto coerentemente, sostiene pure
che, per quel che ne sappiamo, "il nostro universo potrebbe essere stato creato nello
scantinato di uno scienziato di un altro universo". Queste farneticazioni, soprattutto
quando provengono da scienziati di grido, sono avvertite non come tali, ma come
un’espressione dell’"umiltà" con cui la scienza, nel corso degli ultimi secoli, avrebbe
rivelato agli uomini la marginalità della terra nell’universo.
Secondo questa prospettiva, che trasforma inopinatamente la reale marginalità cosmica
della terra in una marginalità assoluta, neppure l’universo può godere di uno statuto
particolare e pertanto deve essere considerato un incidente del "caso". Si tratta, con
ogni evidenza di una dimostrazione di umiltà che nasconde il " disprezzo per la capacità
dell’uomo di dedurre dalla natura il Dio della natura". Il dibattito aperto
dall’irruzione dei concetti di caso e di caos nella fisica contemporanea, che i mass
media orientano costantemente in senso antirealista, attribuisce al caso e al caos
possibilità ordinatrici e sorvolando sul fatto che un caos non può mai essere un tutto,
ovvero una coordinazione delle parti, senza con questo cessare di essere un caos degno
di questo nome. Quindi non stupisce la conclusione del monaco benedettino, secondo cui
quel "creatore" non dice che tutto è andato molto bene, ma semplicemente: <<Speriamo che
funzioni>>. E ciò che è peggio, lo dice solo dopo che ha fatto due dozzine di tentativi
e di sbagli per creare un universo".
DALLA TERRA AL COSMO
Dopo la critica circostanziata, dom Stanley L. Jaki guida alla ricerca degli elementi
sui quali è possibile fondare una cosmologia scientifica, che sia autentica scienza del
cosmo e non occasione di esercitazioni filosofiche di basso profilo. Per questa impresa
egli parte dalla terra e dalle sue immediate vicinanze cosmiche: solamente da qui,
infatti, gli uomini possono occuparsi di cosmologia e, a partire da qui, cioè dalla
terra, dalla luna e dal sistema solare, possono riscoprire quelle caratteristiche di
specificità il cui riconoscimento è la condizione necessaria per lo sviluppo della
scienza.
Fortunato è il punto in cui il sistema terra-luna rivela tutta la sua misteriosa
specificità, esso presenta vistose anomalie rispetto agli altri sistemi satellitari,
soprattutto in termini di dimensioni e di rapporti di massa. Ora, proprio questa
diversità infligge un colpo mortale alla spiegazione del nostro sistema solare come un
fatto tipico che si presenterebbe in ogni cantuccio dell’universo. Naturalmente potrebbe
essere proprio così, ma tutte le prove offerte dalla teoria e dall’osservazione negli
ultimi cent’anni indicano il contrario. Se, da un lato, la teoria della collisione
gigantesca "funziona" come spiegazione della formazione lunare, dall’altro essa
suggerisce pure che un simile fenomeno è estremamente improbabile e che, a maggior
ragione, è estremamente improbabile anche la formazione di un intero sistema planetario.
Se ne deduce che è essenzialmente aprioristica la "convinzione che i sistemi planetari
debbano essere un aspetto onnipresente in tutto l’universo".
Tutto ciò non è più soltanto una conferma dell’unicità del "fenomeno terra" dal punto di
vista astronomico, ma lo è anche da quello biologico: a fare le spese di questa unicità
è l’evoluzione darwiniana, ovvero l’idea di un processo generalizzato e costante che
pervaderebbe tutto l’universo e che ha necessariamente come risultato degli esseri
intelligenti. A questo proposito, la prospettiva scientifica moderna è a tal punto
asservita al dogma culturale dell’evoluzione da assecondarne anche gli sviluppi più
fantasiosi. Solo così, infatti, si possono spiegare i novanta milioni di dollari
destinati dal Congresso americano, sul finire degli anni 1980, per finanziare un
ambizioso progetto di "ascolto" di emissioni radio intelligenti provenienti dallo
spazio. Ma "all’interno di una prospettiva genuinamente darwinista non ci sono i
fondamenti per presumere che degli extra-terrestri possano comunicare, se non con i loro
17
Quaglino Alessio
V Scientifico A
Fede e scienza
consanguinei. Di fatto, all’interno di questa prospettiva non ci sono i fondamenti per
presupporre che svilupperebbero strumenti scientifici che, per come li conosciamo noi,
sono intrinsecamente collegati con il nostro modo di concettualizzare e verbalizzare le
nostre percezioni del mondo esterno". D’altra parte non vi sono neppure i presupposti
per immaginare che lo stesso sviluppo scientifico sia un esito inevitabile
dell’evoluzione, tanto della specie umana quanto delle presunte civiltà extra-terrestri.
Al contrario, l’unico sviluppo scientifico osservabile, cioè quello avvenuto presso la
specie umana, è a tal punto costellato di coincidenze, di casualità e di "fortuna", che
parlare di una sua inevitabilità sarebbe quanto mai temerario.
Da qualche anno ha fatto irruzione sulla scena scientifica il concetto di caos, nato
dall’approfondimento degli studi sui sistemi dinamici non lineari. Si tratta certamente
di un’intuizione felice e di un filone promettente, ma si ha .l’impressione che questa
nozione venga giocata, soprattutto a livello divulgativo, con una buona dose di
ambiguità, soprattutto nelle questioni evolutive che, si dice, troverebbero nel caos una
possibilità di spiegazione. La parola caos è usata comunemente malgrado essa non venga
mai definita in maniera rigorosa. L’imprecisione con cui la parola caos è usata dagli
scienziati è la stessa con cui la parola casuale viene utilizzata da ormai un secolo a
questa parte, in particolare dai propugnatori delle teorie evoluzionistiche dai tempi di
Darwin in poi.
Ma ciò che rende assolutamente inaccettabile questa tesi è, secondo il monaco
benedettino, la constatazione che la scienza, anche prescindendo dalle "fortune" di cui
si è detto, non sarebbe stata possibile senza la conversione di un’intera cultura alla
religione cristiana, introducendo la distinzione fra il soprannaturale ed il naturale in
luogo della distinzione fra le regioni celesti e quelle terrestri, propria di tutti i
paganesimi, permise di considerare le regioni celesti allo stesso livello del resto, e
quindi governate dalle stesse leggi. In ciò risiede il motivo principale per cui gli
antichi greci, sicuramente creativi da molti punti di vista, non riuscirono a inventare
la scienza. È questa fede “la più grande fortuna della scienza", ed essendo fondata in
"Cristo, cioè "su un evento che certamente si qualifica come l’esatto contrario
dell’inevitabilità", essa rende conto dello "sviluppo del tutto inaspettato, per cui un
sottoprodotto che si potrebbe presumere accidentale di cieche forze materiali, ha una
mente che gli permette di avere la padronanza intellettuale del cosmo".
DAL COSMO A DIO
Scienza, filosofia & teologia si interrogano sulla finalità intende affermare
l’esistenza di una finalità dell’universo. Nessun senso di scopo o senso di finalità dei
processi fisici, biologici può essere desunto né dall’ideologia del progresso, né dalla
biologia evoluzionistica, né dal principio antropico, né dalla teologia o dalla
filosofia progressive, né tantomeno dalle varie filosofie di emergenza. La rinascita di
un senso genuino circa i fini è intimamente legato alla corretta dottrina del libero
arbitrio, di cui gli antichi greci non erano in possesso. La convinzione relativa al
libero arbitrio nacque all’interno della prospettiva di una rivelazione soprannaturale
circa un destino eterno, o una scelta a disposizione dell’uomo. L’idea di progresso è
nata all’interno di questa prospettiva. Una volta fuori da questo schema, spesso copre
semplicemente puro egoismo teso alla tutela dei vantaggi del benessere, a detrimento di
un numero molto maggiore di indigenti e di non privilegiati. Un reale e durevole senso
di finalità comporta la fede nella vita eterna, in cui sarà posto rimedio a tutte le
orrende ingiustizie e le disuguaglianze che tormentano la nostra esistenza.
"Che il riconoscimento di una totalità rigorosa e coerente di tutte le cose, ovvero
dell’universo, spinga logicamente verso un culto" nei confronti del Creatore è "una
storia con molte pagine rivelatrici". Infatti, se "uno dei due culti che l’universo può
ispirare" è il panteismo, in cui è l’universo stesso ad assumere connotazioni divine;
l’altro, "che adora il Creatore dell’universo, forma la base di tutte le religioni
monoteistiche, ma con differenze considerevoli: tutte professano di essere le
destinatarie di una rivelazione particolare riguardo al coinvolgimento diretto di Dio
nella storia dell’uomo; tutte hanno la loro storia particolare della salvezza, da cui
deriva
la
loro
forza
principale;
sono
invece
notevolmente
differenti
nella
specificazione della misura in cui una visione dell’universo puramente razionale può
essere una fonte per il riconoscimento dell’esistenza del Creatore e quindi una parte
integrante di un culto monoteistico".
L’osservazione appare assai evidente se si considera l’accoglienza che l’argomento
cosmologico ha ricevuto nelle diverse culture religiose monoteistiche. Secondo l’autore,
"il solo luogo all’interno della cristianità in cui il culto del Creatore basato
sull’argomento cosmologico è stato sistematicamente evidenziato è la Chiesa Cattolica".
Il movimento verso Dio, per essere sicuro, non deve essere una separazione
dall’universo. Il movimento consiste piuttosto nell’avvertire la contingenza cosmica, il
fatto che l’universo indica implacabilmente qualcosa al di là di se stesso".
Tale, del resto è l’esperienza di conversione che sant’Agostino riporta nel decimo libro
delle Confessioni: "ho chiesto del mio Dio a tutta la massa dell’universo, e mi ha
risposto: "Io non sono Dio. Dio è colui che mi ha fatto".
18
Quaglino Alessio
V Scientifico A
19
Fede e scienza
Quaglino Alessio
V Scientifico A
LA VITA
20
Fede e scienza
Quaglino Alessio
V Scientifico A
Fede e scienza
EVOLUZIONISMO
L’ORIGINE DEL PENSIERO EVOLUZIONISTA
La visione del mondo che l’uomo di oggi ha, è dominata dalla consapevolezza che
l’universo, le stelle, la Terra e tutti gli esseri viventi si sono evoluti attraverso
una lunga storia, non preordinata o programmata, ma, al contrario, in continuo graduale
cambiamento, modellato da processi naturali conformi alle leggi fisiche. Questo tratto è
ciò che accomuna l’evoluzione cosmica con quella biologica. Il concetto di universo in
evoluzione ha sostituito la visione, a lungo incontrastata, di un mondo statico,
identico nella sua essenza alla perfetta opera del Creatore. Nel corso del XIX secolo
questo cambiamento di prospettiva ha fatto il suo ingresso nella biologia, mutando il
suo ruolo per secoli fisso a catalogare gli anelli della grande catena vivente.
Cominciava però a farsi strada l’idea che la realtà poteva essere spiegata senza
ricorrere all’ambito metafisico, bensì mediante la prolungata azione di forze fisiche
che hanno modellato l’universo e lo hanno reso così come noi oggi lo vediamo.
PROVE DELL’EVOLUZIONE
L’evoluzione non è solo una teoria. La scienza è in grado di fornire una serie di prove
e di documentare alcune tappe del processo evolutivo compiutosi sulla Terra. Ciò che è
discusso è il modo in cui l’evoluzione si è compiuta, mentre l’evoluzione in sé è
considerata un’oggettiva realtà. Fra le varie prove le più significative sono:
•
Prove della paleontologia - Mediante la datazione dei fossili si è potuto
constatare che, in genere, i fossili più antichi hanno struttura meno complessa di
quelli recenti. Inoltre, si è passati da organismi vissuti in un ambiente
acquatico alla comparsa di vegetali e animali adatti all’ambiente terrestre
•
Prove dell’anatomia comparata – Mettendo a confronto le strutture di vari
organismi, ad esempio gli arti, si può notare che essi corrispondono tutti a uno
stesso schema generale, come se questi animali avessero avuto un progenitore
comune, un “modello base” da cui hanno poi avuto origine diverse specializzazioni
•
Prove dell’embriologia comparata – Osservando gli embrioni di organismi
differenti, nei primi stadi si constata una notevole somiglianza nel loro aspetto;
tuttavia, con il procedere dello sviluppo, le differenze diventano sempre più
marcate, in quanto essi tendono ad assumere le caratteristiche della forma adulta.
Si potrebbe dire che lo sviluppo dell’individuo rappresenti la ricapitolazione
dello sviluppo evolutivo della specie cui appartiene.
•
Prove della citologia – La citologia è la scienza che studia la morfologia e la
fisiologia della cellula: ad eccezione dei virus e degli organismi procarioti
(unicellulari), tutti gli esseri viventi sono costituiti da cellule con strutture
molto simili. Ciò implica un rapporto di parentela fra gli organismi.
•
Prove della biochimica – Le strutture degli esseri viventi sono costituite dalle
stesse molecole di base (aminoacidi, basi azotate, zuccheri) che formano
macromolecole come le proteine e gli acidi nucleici. Inoltre, i percorsi
metabolici utilizzati sono sostanzialmente gli stessi e le informazioni genetiche,
sebbene siano diverse, sono scritte tutte con il medesimo codice.
LO SVILUPPO DEL PENSIERO EVOLUZIONISTICO: DA LAMARCK AL NEODARWINISMO
Uno dei primi e più interessanti tentativi di spiegare l’evoluzione delle specie si deve
a J.B. de Lamarck nel 1809. La sua idea è stata contraddetta da studi successivi che
mettono in evidenza la non ereditarietà dei caratteri acquisiti; in base alle moderne
conoscenze, infatti, è il DNA che determina e dirige la comparsa di certi caratteri
piuttosto di altri ed esso non può accettare istruzioni che provengono dall’ambiente
esterno. Fu grazie agli studi di Weismann (1883) che si dedusse che in ogni organismo
complesso si possono individuare due gruppi cellulari distinti: il soma, ovvero le
cellule che costituiscono il corpo, e i gameti, ovvero i caratteri che verranno
trasmessi ai discendenti; ciò significa la non ereditabilità dei caratteri acquisiti.
Già prima di questa conferma, nel 1859 Charles Darwin aveva pubblicato “L’origine della
specie per selezione naturale”. Egli, partendo da contemporanee teorie economiche
sull’accrescimento delle popolazioni umane19 e dall’osservazione diretta della fauna
delle Galapagos, egli si accorse che nella maggior parte delle specie il numero degli
individui generati è tale che se tutti riuscissero a sopravvivere non troverebbero cibo
in quantità adeguata: questo dato è confermato dalla numerosità della progenie degli
organismi, molto più elevata di quella che sarebbe necessaria per la conservazione della
specie. Ciò accade perché di tutti i nuovi organismi che nascono solo pochi raggiungono
la maturità e riescono a loro volta a riprodursi. Era evidente come in ogni popolazione
ci sono moltissime differenza di caratteri fra i singoli individui, generalmente
ereditabili, e nell’abito della variabilità individuale non tutti hanno lo stesso
valore: possono essere vantaggiose, indifferenti o addirittura dannose. L’uomo,
inconsciamente, aveva per secoli operato una selezione artificiale nell’allevamento,
scegliendo per la riproduzione quegli individui dotati dei caratteri desiderati nella
discendenza.
19
T.R. Malthus aveva compiuto degli studi in cui si sottolineava lo squilibrio esistente tra i ritmi di produzione e i mezzi di sussistenza.
21
Quaglino Alessio
V Scientifico A
Fede e scienza
La natura, analogamente, agisce mediante una selezione naturale che seleziona gli
individui più adatti a sopravvivere e riprodursi, nasce così il concetto di “lotta per
l’esistenza”: la selezione naturale, vera grande intuizione di Darwin, è la forza
creatrice dell’evoluzione. Inoltre ritenendo la Terra molto antica, egli poté supporre
senza difficoltà che mediante un lento e graduale processo tutti gli organismi viventi,
uomo incluso, derivassero da un’unica origine. La variabilità postulata da Darwin era
quindi già presente nella popolazione come caratteristica intrinseca, prima che
l’ambiente si modificasse e che la selezione naturale avesse il compito di scegliere le
caratteristiche più adatte: il processo evolutivo riunisce il caso (variabilità) e la
necessità (selezione). A differenza del sistema lamarckiano, esso non è incanalato nella
direzione che ha come traguardo un maggior adattamento all’ambiente. La variazione da
sola non produce evoluzione, ma fornisce soltanto il materiale su cui agisce la
selezione naturale; gli organismi che variano in direzione vantaggiosa rispetto alle
esigenze dell’ambiente, tendono ad avere prole più numerosa, quindi più successo
rispetto agli altri membri della stessa specie. Inoltre è bene ricordare che il
darwinismo è basato sul concetto di popolazione come unità della modificazione
evolutiva, ovvero è il patrimonio ereditario della popolazione, considerata nel suo
complesso, ad evolversi, non soltanto quello del singolo individuo.
All’epoca della sua formulazione, Darwin non fu però in grado di spiegare l’origine di
questa misteriosa fonte della variabilità, i cui cambiamenti vennero chiamati
“mutazioni” da H.De Vries, ma soltanto nel XX secolo, con la riscoperta delle leggi di
Mendel, si è riusciti a conciliare l’evoluzionismo con la genetica nella cosiddetta
teoria sintetica dell’evoluzione, o neodarwinismo. Da qui in poi il dibattito si
incentrò sulla gradualità del fenomeno: secondo alcuni essa si verifica mediante
“mutazioni sistematiche”, cioè con salti che spiegherebbero i grandi cambiamenti
evolutivi; questo processo prese il nome di macroevoluzione, contrapposto alla
microevoluzione che si riferisce solo ai cambiamenti nell’ambito della specie. Nel 1972
fu proposta la teoria degli equilibri punteggiati, la quale afferma, basandosi su dati
paleontologici, che l’evoluzione delle forme viventi sarebbe avvenuta in rapide fasi di
transizione intervallate da lunghe stasi.
L’AFFERMARSI DELLA VITA
A prescindere dalla genesi della vita, è un dato di fatto che le specie che vivono oggi,
dal batterio all’uomo, non sono altro che un piccolo gruppo di vincitori temporanei. Una
specie tende ad espandersi finchè non viene a trovarsi in condizioni naturali avverse,
ed essendo dotata di una certa variabilità può adattarsi alle varie condizioni che
l’ambiente offre. Quanto più numerosi sono i tipi di organismi di una specie, tanto
maggiori sono le possibilità che alcuni di essi sopravvivano agli eventi sfavorevoli,
perpetuando la specie; non solo: una certa variabilità degli organismi che compongono
una popolazione, e quindi una specie, permette di sfruttare meglio le risorse che
l’ambiente offre. La diversità dei caratteri all’interno di una specie è determinata da
due meccanismi biologici: la riproduzione sessuale e le mutazioni.
L’effetto più significativo della riproduzione sessuale è quello di poter creare con
materiale già esistente una nuova variabilità ogni generazione: quando una specie è
dotata al suo interno di una grande variabilità, significa che dispone di molte
combinazioni geniche e, per questo, può adattarsi più rapidamente a condizioni
ambientali sempre nuove. Risulta sempre più evidente che l’evoluzione non è una gara tra
singoli individui, ma fra gruppi della stessa specie che, incrociandosi tra loro, si
scambiano i geni. Negli organismi che si riproducono non sessualmente, invece, non
avviene alcuna ricombinazione di geni e il genotipo tende a rimanere invariato: la
riproduzione asessuata è dunque conservativa e svantaggiosa, in quanto la variabilità è
rappresentata unicamente dalle mutazioni. La selezione naturale ha agito anche sul tipo
di riproduzione scegliendo quello più efficace.
La riproduzione crea quindi la diversità all’interno della specie, ma senza imporre
modificazioni nelle frequenze dei geni: in altre parole, da sola potrebbe portare solo
una microevoluzione. Le mutazioni sono la materia prima su cui agisce l’evoluzione, ma
non sono in grado di dirigerla: da sole possono soltanto modificare a poco a poco le
frequenze geniche, poiché in genere hanno frequenze troppo basse, sufficienti a creare
la variabilità necessaria, ma mai tali da provocare un balzo riproduttivo.
Fattore determinante per l’espressione di alcuni genotipi è l’ambiente (interno o
esterno), arrivando addirittura a contribuire ad aumentare il tasso di mutazione se esso
presenta radiazioni o contiene particolari sostanze.
IL PROGRESSO EVOLUTIVO
Nel corso di milioni di anni, la vita ha continuato a evolvere verso livelli di
complessità sempre maggiore. Più gli organismi si fanno complessi, più complesso si fa
il controllo dei geni su strutture e funzioni. Con il passare del tempo, il pool genico
di una popolazione tende tuttavia a modificarsi, sotto l’azione di molteplici fattori.
Alle mutazioni e alla selezione naturale, si aggiungono l’immigrazione e l’emigrazione
di individui e l’isolamento. Quest’ultima è una delle cause principali delle
modificazione delle specie: popolazioni molto vaste tendono spesso a suddividersi in
popolazioni più piccole, isolate tra loro: tra di esse si interrompe il libero flusso
genico, spesso a causa dell’insorgere di barriere naturali. Ogni frazione della
popolazione di partenza evolve in modo indipendente e lentamente i patrimoni genetici
delle popolazioni isolate si differenziano a tal punto che non è più possibile
22
Quaglino Alessio
V Scientifico A
Fede e scienza
l’incrocio (e quindi lo scambio di geni) fra due individui appartenenti a popolazioni
diverse. A questo punto i due individui in questione non si possono più considerare
appartenenti alla stessa specie: le due popolazioni inizialmente identiche si sono
evolute tramite il cosiddetto fenomeno di speciazione.
Mentre questo fenomeno può definirsi in larga misura compreso, molto più difficile
risulta immaginare i grandi processi evolutivi che hanno avuto luogo nell’arco di tempi
geologici e che hanno prodotto organismi con grado di complessità sempre maggiore. Le
opinioni a tal proposito sono, difatti, discordi. La paleontologia dimostra che i vari
gruppi di esseri viventi sono apparsi in un ordine di complessità crescente:
l’evoluzione degli esseri viventi procede dunque da forme semplici ad altre più
complesse, attraverso un processo che porta ad un progresso sempre maggiore. La biologia
evoluzionistica neodarwiniana non ha quindi ancora risolto alcuni problemi che, anzi,
con l’enorme aumento di conoscenze sulla vita sono diventati sempre più numerosi.
Alcune problematiche di carattere generale riguardano il rispettivo ruolo giocato dalla
selezione naturale e dal caso: secondo alcuni, il caso influirebbe in maniera
determinante, le mutazioni sarebbero cioè in gran parte né utili né dannose, bensì
neutre; si parla infatti di teoria della neutralità. Un’altra questione concerne
l’esistenza di “percorsi multipli”, cioè di diverse risposte evolutive allo stesso
problema, come ad esempio la comparsa dello scheletro esterno negli artropodi e dello
scheletro interno nei vertebrati.
La comunità scientifica è oggi in gran parte neodarwinista; esiste tuttavia una piccola
minoranza di scienziati che ritiene variabilità e selezione insufficienti a spigare
l’apparizione di forme di organizzazione sempre più complesse: in particolare, l’evento
casuale è ritenuto insufficiente ad aver determinato la comparsa di quei caratteri
nuovi, che sono stati tali da permettere importanti innovazioni evolutive.
DNA
L’acido deossiribonucleico si sta rivelando sempre più una molecola dinamica. Sembra
ormai certa la presenza, in molti diversi organismi, uomo compreso, di geni non
essenziali, detti geni trasponibili, i quali, variando la loro posizione nel genoma,
influenzano il Dna cellulare in modi complessi, provocando nel contempo modificazioni
simultanee (ereditabili) di molte caratteristiche dell’organismo; si è rilevato inoltre
che il fenomeno è influenzato dall’ambiente, perché la velocità di trasposizione può
aumentare in caso di stress ambientale. Queste osservazioni suggeriscono che, in
particolari periodi o in particolari ambienti, i geni trasponibili abbiano potuto
giocare un ruolo importante nel processo evolutivo, producendo molti cambiamenti in
tempi brevi. Ciò fornirebbe una base concreta alla teoria degli equilibri punteggiati.
Vi sono inoltre altre ipotesi non confermate fra cui l’eventuale trasferimento, a mezzo
di virus, fra geni di diversi individui, le “mutazioni pilotate” (una forma moderna di
lamarckismo) e la teoria della simbiosi che si focalizza sul passaggio da procarioti ed
eucarioti offendo una nuove chiave di lettura dei fenomeni evolutivi basata sulla
cooperazione fra gli individui.
Il ruolo del Dna è quindi l’aspetto fondamentale e, attualmente, lacunoso delle conferme
che il neodarwinismo va cercando, ciò è testimoniato dal proliferare di studi e ipotesi
che gravitano attorno a questo aspetto ancora oscuro della biologia, una situazione
emblematica e tipica del periodo che storicamente precede le scoperte fondamentali
necessarie per una nuova interpretazione della storia evolutiva. Nuovi ritrovamenti
fossili potrebbero essere decisivi, come pure molto promettenti sembrano essere gli
studi biochimici del dna e delle proteine che fra breve saranno possibili su ossa
fossili di antica data.
L’EVOLUZIONE UMANA
Le indagini fino ad ora effettuate lasciano supporre che l’origine degli ominidi sia
databile a un periodo compreso fra gli 8 e i 6 milioni di anni fa; tuttavia, in seguito
alla scarsezza delle testimonianze relative a questo periodo, il fantomatico
“progenitore comune” non è ancora stato identificato con alcun fossile conosciuto. La
stretta parentela fra l’uomo e i primati è suggerita, oltre che dalla paleontologia,
anche dalla genetica: lo scimpanzé possiede 48 cromosomi che si sarebbero ridotti a 46
nell’uomo, si suppone infatti che ciò sia stato dovuto all’unione di due cromosomi: ciò
è indice di una stretta parentela fra l’uomo e le scimmie antrpomorfe, che può essere
spiegata soltanto ammettendo che la separazione delle due linee evolutive sia
relativamente recente.
Oltre alla nota evoluzione biologica che ha condotto dall’Australopithecus (o chi prima
di lui) all’homo sapiens sapiens, ciò che differenzia l’uomo da tutte le altre forme
viventi è stata la sua evoluzione culturale. La prima manifestazione di questo carattere
distintivo avvenne 100.000 anni fa con l’uomo di Neandertal, iniziatore delle prime
pratiche funerarie, una tappa essenziale nello sviluppo della coscienza umana. Come sia
poi avvenuto il passaggio dall’uomo di Neandertal a quello moderno è ancora oggetto di
discussione tra gli antropologi, divisi tra ipotesi al momento egualmente attendibili;
il problema dell’uomo moderno è quindi tuttora oggetto di accese controversie fra gli
scienziati. Pare certo però che gli ominidi fossili non siano derivati uno dall’altro,
bensì si sono soppiantati a vicenda attraverso una successione di tappe fondamentali: la
verticalizzazione, la manipolazione, la cerebralizzazione e, infine, la comunicazione.
Le differenze morfologiche attuali hanno portato l’immaginario collettivo a suddividere
l’homo sapiens in varie razze, in realtà molte tali differenze visibili non
23
Quaglino Alessio
V Scientifico A
Fede e scienza
rappresentano altro che adattamenti al diverso ambiente, in particolare al clima: le
differenza tra i diversi gruppi umani sono lievi rispetto alle differenze che esistono
all’interno di ciascun gruppo. L’evoluzione nell’ambito della specie umana non è stata
un cambiamento dei geni, bensì uno spostamento di frequenze relative agli stessi geni.
Oggi le più importanti differenze fra gruppi di uomini sono culturali e sociali, più che
biologiche; la specie umana presenta dunque soltanto una grande variabilità: non
esistono al suo interno patrimoni genetici diversi o razze distinte. Questa uniformità
genetica indica inoltre una origine unitaria recente: ogni individuo racchiude in sé la
conclusione provvisoria di un cammino evolutivo, conclusione da cui dipende il suo
essere e che egli non può rifiutare né modificare; l’uomo civile ha però il grande
privilegio di poter scegliere come vuole la propria eredità culturale, questa libertà
introduce nella società umana una dimensione inesistente nell’evoluzione biologica.
A differenza degli altri “abitanti” della Terra, l’uomo è sempre stato dotato di
un’intelligenza che gli ha permesso di fabbricare utili strumenti inorganici, ed
inoltre, fin dall’inizio della sua storia, ha sentito il bisogno di vivere in società
valorizzando l’importanza della famiglia. Nella società umana, le funzioni sociali
devono essere apprese; mentre per gli animali il comportamento è insito nel codice
genetico che ne determina l’istinto, ogni generazione umana si trova ad affrontare lo
sviluppo culturale del suo passato e può contribuire così al progresso collettivo.
Questo passaggio è stato reso possibile dall’invenzione della scrittura: la cultura non
è altro che una conseguenza dell’adattamento biologico, che permette all’individuo di
fare uso dell’esperienza accumulata da altri. La selezione culturale è infatti molto più
rapida di quella biologica e, soprattutto, ha comportato un veloce aumento della
velocità di riproduzione che ha permesso all’uomo, sotto molti aspetti, di sfuggire alla
selezione naturale.
MICROEVOLUZIONE E MACROEVOLUZIONE
Fino ad ora si è considerata la teoria evoluzionistica come pura “verità effettuale”, ma
è bene ricordare che, fino a quando non saranno riproducibili le mutazioni
sperimentalmente, è e resterà una teoria. Vi è infatti un folto gruppo di
antievoluzionisti che muovono delle obiezioni ad essa, cui va soprattutto il merito di
portare chiarezza fra i concetti di macro- e microevoluzione.
La selezione naturale è un fatto di osservazione, definitivamente acquisito alla
scienza. Le sue modalità di azione, quando possono esplicarsi, sono estremamente
incisive. Per esempio, se in una coltura di un milione di batteri compare un individuo
mutato, o mutante, il cui ritmo di duplicazione è superiore dell'1% rispetto agli altri,
dopo 4000 generazioni, cioè qualche giorno su scala batterica, il rapporto di
popolazione sarà invertito: un individuo originale per milione di mutanti. La selezione
naturale, utilizzando i prodotti delle mutazioni e con l'effetto dell'isolamento
geografico delle popolazioni, rende perfettamente conto di quelle modificazioni limitate
in seno alle specie, note da sempre ai naturalisti, che talvolta prendono il nome di
microevoluzione. Una delle sue manifestazioni più conosciute è la formazione di razze
all'interno di una specie.
La microevoluzione, però, non ha nulla a che vedere con l'evoluzionismo: tra essi esiste
una differenza di natura. Quasi sempre gli evoluzionisti trascurano tale differenza con
disinvoltura colpevole, così che fenomeni microevolutivi vengono interpretati come
esempi di macroevoluzione. La microevoluzione implica modificazioni organiche limitate
ed esclude completamente la comparsa di nuovi organi o di nuove funzioni;
l'evoluzionismo, invece, per rendere conto delle differenze organiche e funzionali tra i
gruppi di viventi passati e attuali, deve postularle: la microevoluzione è indifferente
o regressiva, l'evoluzionismo è progressivo.
La teoria evoluzionistica dunque, parte da basi concrete — le mutazioni, la selezione —,
in grado di rendere conto delle modificazioni limitate dei viventi, realmente
riscontrabili in natura, per spiegare la comparsa di nuovi gruppi della classificazione
sistematica attraverso modifiche profonde e apparizioni di funzioni e di organi nuovi
negli esseri viventi.
Un esempio di microevoluzione realmente verificatasi e osservata nel XIX secolo è quella
riguardante la Biston betularia, una piccola farfalla notturna cha durante il giorno si
posa sulla corteccia degli alberi. Attorno al 1850 nei dintorni di Manchester, città di
recente industrializzazione, queste falene erano prevalentemente chiare e si posano sui
tronchi di betulla, anch’essi bianchi; circa un secolo dopo, si può notare che sia i
tronchi, a causa della fuliggine, sia le falene sono mutati, diventando molto più scuri.
È avvenuto un cambiamento di popolazione delle farfalle. Poiché l’ambiente (betulle
annerite) era mutato, le poche farfalle scure, precedentemente facile preda degli
uccelli, si erano trovate improvvisamente in una situazione vantaggiosa, essendo ora più
difficilmente individuabili, e il loro genotipo si era trasmesso sempre più
numerosamente nelle generazioni successive. La selezione naturale, nell’arco di un
secolo, aveva cambiato il fenotipo di una specie.
La microevoluzione è a tutti gli effetti dimostrata e verificata.
Purtroppo però nessuno è vissuto tanto (e la teoria darwiniana è ancora troppo giovane)
da aver documentato anche esempi così lampanti di macroevoluzione, e al giorno d’oggi le
tecniche di manipolazioni genetica e la nostra conoscenza del genoma sono ancora acerbe
per poter approvare o confutare il darwinismo nel suo complesso.
24
Quaglino Alessio
V Scientifico A
Fede e scienza
L’ORIGINE DELLA VITA
L’EVOLUZIONE PREBIOTICA
I dati in possesso della paleontologia dicono che la vita era già presente sulla Terra
3,5 miliardi di anni fa, sotto forma di cellule procariote simili agli attuali batteri,
ma non consentono di conoscere come le prime cellule si siano formate. Attualmente la
maggior parte degli scienziati propende per un’origine terrestre della vita, che si
sarebbe realizzata a partire da semplici sostanze inorganiche presenti sul nostro
pianeta nelle prime fasi della sua evoluzione. Il pianeta Terra si sarebbe formato circa
4,6 miliardi di anni fa, dallo scontro e dalla successiva aggregazione di corpi di più
piccole dimensioni. Su questo scenario si basa l’ipotesi di due biochimici, Oparin e
Haldane, che prevede una prima fase di evoluzione biochimica, durante la quale dai
composti dell’atmosfera primitiva, ad opera di fonti di energia quali le radiazioni
ultraviolette, le scariche elettriche e il calore, sarebbero stati sintetizzati composti
organici in grande quantità. Questa ipotesi trovò sostegno nell’esperimento Urey-Miller
in cui si riuscì a ottenere, in condizioni simili a quelle della Terra primitiva, la
formazione spontanea di alcuni aminoacidi. Questi composti si sarebbero poi accumulati
nelle acque della Terra primordiale, probabilmente in mari poco profondi o in pozze
d’acqua vicine alla riva, dando origine al cosiddetto “brodo primordiale”. Da queste
molecole inorganiche si sarebbero in seguito formate macromolecole. Ben poco si può dire
in relazione all’origine degli acidi nucleici: si tratta, a differenza delle proteine,
di polimeri molto complessi, la cui sintesi spontanea appare ancora un avvenimento
estremamente improbabile. Alcuni studiosi hanno ipotizzato che un qualche substrato
inorganico possa aver “guidato” l’organizzazione dei singoli monomeri, fungendo da
stampo: secondo alcuni ciò potrebbe essere stato svolto da minerali argillosi, altri,
più verosimilmente, hanno proposto l’intervento di cristalli di pirite, ma il problema
resta ancora aperto.
METABOLISMO E RIPRODUZIONE
Il primo gradino verso l’evoluzione di forme cellulari deve essere stato la formazione
di aggregati di macromolecole separati dall’ambiente circostante: lo stesso Oparin si
accorse delle proprietà dei coacervati: gocce di polimeri che si formano spontaneamente
in ambiente acquoso, e hanno la proprietà di dividersi qualora le loro dimensioni
divengano troppo grosse. Esse sembrano presentare un’elementare forma di metabolismo.
Recenti studi hanno
inoltre
dimostrato alcune
proprietà meno
note dell’Rna,
evidenziandone alcune doti enzimatiche, come la possibilità di “tagliarsi” e “ricucirsi”
producendo copie di se stessa. Questo ha indotto a pensare a un ipotetico mondo
primordiale a Rna: successivamente l’Rna avrebbe imparato a dirigere la sintesi di
alcune proteine e infine avrebbe dato origine a catene a doppio filamento di Dna, il
depositario stabile e definitivo dell’informazione biologica. In questo modo sarebbe
nata la riproduzione, secondo aspetto fondamentale degli organismi viventi.
C’è tuttavia un problema: gli acidi nucleici sono sì in grado di riprodursi, ma tale
processo può avvenire soltanto in presenza di specifiche proteine enzimatiche; le
proteine, d’altra parte, richiedono l’informazione genetica per essere sintetizzate. La
domanda <<Si sono formati prima gli acidi nucleici o le proteine?>> affligge tuttora gli
scienziati.
Le già citate pozze contenenti il brodo primordiale non potevano però formarsi in
superficie, a causa delle avverse condizioni ambientali, come le elevate temperature e
le frequenti collisioni con meteoriti, in cui si trovava il nostro pianeta: per questo
alcuni hanno avanzato l’ipotesi che l’ecosistema adatto fosse rappresentato dalle bocche
idrotermali, sorgenti di acqua calda situate nelle profondità oceaniche. La scoperta di
organismi procarioti detti archibatteri (o termofili), che preferiscono vivere in acque
calde e presentano strutture molto primitive, avvalora questa ipotesi.
Ammettendo che la vita si sia originata in ambiente acquatico, appare credibile che il
primo organismo possa essere stato eterotrofo: le prime cellule si nutrirono delle
stesse sostanze di cui erano formate. Con l’andare del tempo, il proliferare delle
cellule avrebbe portato a una carestia di sostanze organiche, favorendo organismi in
grado di sfruttare forme esterne di energia: sarebbe nato il metabolismo autotrofo.
Inizialmente la presenza di ossigeno (comunque successiva) sarebbe stata d’impedimento
alla formazione delle prime molecole, tuttavia in seguito la vita imparò a sfruttare
anche questa sostanza: nacque così il metabolismo aerobico e la capacità di respirare
ossigeno divenne un importante fattore di vantaggio evolutivo. La liberazione di
ossigeno mediante la fotosintesi causò la formazione dello strato protettivo di ozono,
che permise alla vita, ora schermata dalle radiazioni più pericolose, di uscire
dall’acqua e di colonizzare le terre emerse.
25
Quaglino Alessio
V Scientifico A
Fede e scienza
LA PANSPERMIA
Un’ulteriore obiezione a queste ipotesi riguarda il fattore tempo: l’intervallo che
questa complessa serie di fenomeni avrebbe avuto a disposizione per verificarsi
(inferiore al miliardo di anni) sembra ad alcuni ricercatori troppo breve, tanto da far
ritenere più probabile che la vita sia giunta dallo spazio. Ricerche condotte in campo
astrofisico hanno infatti dimostrato che le molecole organiche sono alquanto diffuse in
tutto l’universo, e potrebbero essere giunti sulla Terra mediante meteoriti o frammenti
di comete.
Questa suggestiva ipotesi, che in alcuni casi si spinge ad teorizzare
l’arrivo di vere e proprie strutture viventi, è detta della panspermia, formulata da
fisico inglese Hoyle.
Paul Davies, per sottolineare l’incertezza attuale, dopo aver dimostrato la possibile
resistenza di semplici forme viventi unicellulari a bordo delle comete, formula diversi
scenari, tutti ugualmente possibili, riguardo alla vita su Marte e la Terra:
•
La vita è iniziata una volta sola, su Marte, ed è giunta sulla Terra con le
meteoriti marziane. Può darsi che sul pianeta d’origine esista ancora o si sia
estinta
•
La vita è iniziata una volta sola, sulla Terra, e si è propagata su Marte, dove
forse si è insediata
•
La vita è nata sia su Marte sia sulla Terra, in maniera indipendente. In seguito
può esserci stata una colonizzazione reciproca
•
La vita ha avuto origine sia sulla Terra sia su Marte ma, nonostante gli scambi di
rocce e polveri, non c’è mai stato scambio di organismi vivi
•
La vita non è nata né sulla Terra né su Marte, ma in un luogo del tutto diverso,
addirittura un corpo esterno al sistema solare. È arrivata sulla Terra, e forse su
Marte, grazie a un meccanismo di panspermia
•
La vita è comparsa solo sulla Terra e non ha finora colonizzato con successo altri
pianeti. Marte è, ed è sempre stato, inanimato
Il pianeta preso in considerazione è proprio Marte a causa di recenti analisi di alcune
rocce marziani che presentano delle (dubbie) tracce fossili di batteri.
UN UNIVERSO PREDISPOSTO ALLA VITA?
Questa teorie sottintendono la possibilità che la vita abbia avuto origine non solo
sulla Terra, ma che sia un fenomeno relativamente comune nell’universo. Anche sul nostro
pianeta, afferma Paul Davies, la vita deve aver avuto origine più volte 3,8 miliardi di
anni fa, in quanto le situazioni in cui verteva la Terra in quel periodo avrebbero
portato ad estinzioni di massa ogniqualvolta fosse precipitato un meteorite, evento
assai frequente a quell’epoca. Ma tale inevitabilità della vita implicherebbe che nelle
leggi fisiche sia riscontrabile la necessità dello sviluppo dell’intelligenza che le ha
formulate: sarebbe come aver dimostrato il perché della nostra esistenza. Una teoria
scientifico-matematica della vita, con la possibilità di avere intelligenza e
consapevolezza in altre forme oltre il cervello umano, significherebbe inoltre la
possibilità
di
raggiungere
il
“metafisico”
apice
tecnologico:
un’intelligenza
autoriproducentesi. A tal proposito, alcuni matematici affermano provocatoriamente che
l’uomo sia solamente un anello di congiunzione fra la scimmia e il robot: l’uomo può
essere considerato come l’entità, che in quanto tale sarebbe potuto essere non così ma
altrimenti, che meglio si è adattato alla natura e ogni suo comportamento non potrebbe
essere altro che una necessità meccanicistica. Tuttavia l’uomo è in possesso di
ulteriori facoltà irrazionali, fra cui è annoverato ad esempio il suicidio (e, quindi,
la consapevolezza di esistere), per ora considerate scelte improbabili per una macchina,
che il senso comune tende ad identificare con un semplice strumento.
26
Quaglino Alessio
V Scientifico A
Fede e scienza
CREAZIONISMO
Un destino quasi comune caratterizza la diffusione delle teorie scientifiche: tranne
poche eccezioni, esse sono state accolte, per lo più, con indifferenza, tra critiche e
incomprensioni. Una di queste eccezioni, forse la più problematica, è rappresentata
dalla teoria dell'evoluzione di Charles Darwin.
PROBLEMI ETICI DELL’EVOLUZIONISMO
Francois Jacob, evoluzionista, premio Nobel per la medicina nel 1965, afferma: "Quello
che Darwin ha mostrato è che per rendere conto dello stato attuale del mondo vivente non
c'era affatto bisogno di ricorrere ad un Ingegnere Supremo. Tuttavia se l'idea di un
progetto, di un piano generale del mondo vivente, stabilito da un creatore è scomparsa
con il darwinismo, questo ha conservato un alone di armonia universale". Quindi, per
evitare che l'"Ingegnere Supremo", cacciato dalla porta principale più di cento anni fa,
rientri per quella di servizio attraverso la oggettiva constatazione della "armonia"
della sua opera, ovvero della perfezione e della finalità delle sue parti, si rende
necessario un costante rilancio della teoria evoluzionistica, nel quale non siano
discussi e criticati i dubbi e le prove, ma sia posto l'accento sull'impatto
rivoluzionario che essa ha avuto e continua ad avere su ogni concezione del mondo che
faccia ricorso a un creatore. Un creatore presuppone una volontà, e una volontà esprime
una intenzione, un progetto: ebbene, continua Jacob, "la teoria della selezione naturale
consiste precisamente nel capovolgere questa affermazione. In questo rovesciamento, in
questa specie di rivoluzione copernicana sta l'importanza di Darwin per la nostra
rappresentazione dell'universo e della sua storia" sul piano religioso, su quello
politico-sociale-istituzionale, su quello economico, fino a colpire, da ultimo, i legami
microsociali e l'individuo stesso.
Per il suo carattere intellettuale e accademico, l'evoluzionismo si pone innanzitutto su
di un piano non immediatamente legato ai fatti e ai comportamenti delle persone:
l'evoluzionismo è una rivoluzione nelle idee. Cionondimeno, analogamente ai grandi
sistemi ideologici del passato, esso aspira a fornire una giustificazione al
comportamento individuale e sociale. Ciò è tanto più vero in un'epoca come la nostra che
"si è lasciata gradatamente persuadere che l'essere umano, analizzato, scomposto,
scandagliato dalle varie direttive di ricerca non è altro che una macchina, di volta in
volta meccanica, chimica, elettrica o cibernetica". Il loro carattere sovversivo
generale risiede nell'affermazione di una visione del mondo che fa a meno di un
creatore. Tuttavia non è difficile constatare che esse si spingono ben oltre, negando
anche l'ordine morale che deriva dall’esistenza di un creatore e che, per questo, è
vincolante. L'evoluzionismo, infatti, traendo l'uomo dal caso e facendone un
prolungamento delle cose sullo stesso piano degli animali, lo sottrae a ogni
responsabilità: la storia diventa storia della biologia, dove tutto è permesso e dove
non vi sono più leggi divine che assegnino limiti all'esperimento.
Una volta esclusi Dio e la sua volontà, cioè una volta rotto il legame Creatorecreatura, rimane la constatazione del puro divenire. Da esso gli esseri emergono non in
vista di un fine secondo un progetto, ancorché immanenti al movimento stesso, bensì in
virtù del puro gioco delle fluttuazioni statistiche. "L'evoluzione — scrive Jacob —
mette in gioco intere serie di contingenze storiche", così che "il mondo vivente avrebbe
potuto essere diverso da quello che è o, addirittura, non esistere affatto". Ancora:
"Finché l'Universo era opera di un Divino Creatore, tutti gli elementi erano stati da
lui creati per accordarsi in un insieme armonioso, accuratamente preparato al servizio
del componente più nobile: l'uomo. Era un modo di concepire il mondo che aveva
importanti conseguenze politiche e sociali, in quanto legittimava l'ordine e la
gerarchia della società". Ora, invece, perde di senso qualunque tentativo di fondare un
ordine e una gerarchia: "il migliore di tutti i mondi possibili è diventato
semplicemente il mondo che si trova a esistere".
In questo emergere prepotente del "caso" come fonte ed essenza della realtà, in questa
dissolvenza dell'essere umano, della sua libertà e della sua volontà nel movimento
evolutivo, risiede il carattere originale della rivoluzione darwiniana: anche il mondo
di domani, come quello di oggi, uscirà "alla cieca" dall'urna dei "mondi possibili".
Abbattute le barriere tra le specie, in una visione del mondo vivente nel quale gli
organismi perdono la loro tipicità e la loro fissità strutturale, dove oggetto effettivo
di conoscenza è la popolazione nel suo insieme", l'avanguardia evoluzionistica propone,
da ultimo, il programma di ricostruzione della società e degli individui sulle basi
delle indicazioni della sociobiologia e dell’ingegneria genetica, e attraverso la
tecnica della clonazione, realizza il sogno utopico della uguaglianza assoluta: quella
relativa al patrimonio ereditario degli individui. Scrive a riguardo Jacob: "[…] ma
tutto questo non ha più a che fare soltanto con la biologia".
27
Quaglino Alessio
V Scientifico A
Fede e scienza
L’EVOLUZIONE DEGLI ORGANI
La filosofia insegna che l'unità è un carattere della verità. La verità è compatta:
negandone un aspetto, prima o poi si dovrà negarla tutta. L'errore, al contrario, è
molteplice, nel senso che il contrario di una affermazione vera non è una affermazione
falsa, ma possono essere infinite affermazioni false. Ciò rende, evidentemente, più
ardua la difesa della verità, tuttavia ogni errore presenta sempre uno o più punti
particolarmente deboli, sui quali intraprendere l'opera di demolizione completa. In
altri
termini,
la
rivoluzione
evoluzionistica
pretende
di
essere
fondata
scientificamente, per cui è sul terreno scientifico che può cominciare una seria opera
di confutazione nei suoi confronti. Merita particolare attenzione, per il prestigio
dell'autore e per la completezza e il rigore della trattazione, lo studio dello
scienziato francese Georges Salet, docente universitario, profondo conoscitore delle
maggiori questioni scientifiche del nostro tempo, cattolico. Il pregio del volume di
Salet consiste nell'andare direttamente al cuore della questione evoluzionistica,
attaccando i due cardini della teoria: il ruolo della selezione naturale e quello del
caso come fonti del mondo vivente, della sua varietà, e della sua pretesa evoluzione.
Per la teoria evoluzionistica "mutazioni-selezione", le mutazioni costituiscono la fonte
della variabilità del mondo vivente, alla quale attinge la selezione naturale per
trattenere gli individui nei quali le mutazioni hanno incrementato il tasso di natalità
o diminuito quello di mortalità, cioè gli individui favoriti dalle mutazioni. Spiega
Salet che la reale variabilità del mondo vivente può riassumersi nella seguente
proposizione: "Gli organismi si modificano a caso. Ogni modificazione (mutazione) che
corrisponde al MIGLIORAMENTO di un organo è automaticamente selezionata" Ed ecco,
invece, ciò che gli evoluzionisti, al seguito di Darwin, continuano a insinuare: "Gli
organismi si modificano a caso. Le modificazioni (mutazioni) che corrispondono
all'APPARIZIONE di una nuova funzione (e quindi, in senso lato, di un nuovo organo) SONO
automaticamente selezionate". Le due proposizioni, come si vede, differiscono per le
parole scritte in maiuscolo: "mutazione", che era singolare, è diventata plurale;
"miglioramento" è diventato "apparizione".
Questi cambiamenti, apparentemente banali, sono tali da trasformare una proposizione
esatta in un sofisma. Infatti è chiaro che la selezione naturale può intervenire sul
mutante soltanto dopo che si sono verificate tutte le mutazioni necessarie alla comparsa
del nuovo organo o della nuova funzione, cioè soltanto dopo che il nuovo organo è
completamente costituito ed è in grado di esplicare perfettamente la nuova funzione: la
selezione non può in alcun modo trattenere mutazioni intermedie perché non corrispondono
ad alcunché di compiuto nell'organismo; anzi, un individuo in un simile stato sarebbe
svantaggiato rispetto agli individui originali e la selezione naturale provvederebbe a
cancellarlo in breve tempo dalla faccia della Terra.
Un esempio è costituito dagli organismi termofili, cioè quegli organismi che vivono tra
i 60° e i 100° C. Gli organismi termofili trovano le migliori condizioni di vita, di
sviluppo e di riproduzione a temperature che per altri organismi sono letali, cioè a
temperature che denaturano le proteine di altri organismi. L'evoluzione non può spiegare
la comparsa di tali organismi. La termofilia non dipende da un solo gene, ma da più
geni, in quanto sono numerose le strutture proteiche che devono essere adatte a
temperature superiori a quelle dei cosiddetti mesofili, per cui non è possibile
ammettere la comparsa di tale carattere con la mutazione di un solo gene. Inoltre, non è
neanche possibile una lenta evoluzione di organismi sempre più resistenti al calore, in
quanto questi organismi possono svilupparsi solamente a temperature elevate. Anche nel
caso degli organismi termofili ci troviamo di fronte a organismi perfettamente adattati
a condizioni di vita molto particolari, per i quali è impossibile ammettere l'esistenza
di forme intermedie. Anche in campo evoluzionista viene riconosciuta una tale
difficoltà: "Aumentare quindi nell'evoluzione la temperatura cui può vivere un organismo
vuol dire aumentare la resistenza al calore di tutte le proteine contemporaneamente,
perché aumentare la stabilità alla temperatura di una singola specie molecolare è
perfettamente inutile. In teoria servono quindi numerosissime mutazioni contemporanee,
il che è praticamente impossibile". Come ha fatto il processo di selezione naturale a
portare alla formazione di una funzione che nel suo stato finale è utile o
indispensabile, ma nei suoi stati intermedi è inutile o dannosa? Salet ribadisce che
“non basta un poco di organo per avere assicurata anche un poco di funzione". Gli
evoluzionisti dimenticano che il "diagramma" della funzione svolta da un organo è del
tipo "tutto o niente", proprio come accade per le macchine: nessun funzionamento fino a
quando non sono a posto tutti i dispositivi componenti della macchina.
Di fatto, una via di uscita esiste, ed è quella di ritenere che le mutazioni relative
alla comparsa di un organo nuovo e di una nuova funzione avvengano tutte
simultaneamente, così che la selezione può intervenire subito per conservare il
risultato finale.
28
Quaglino Alessio
V Scientifico A
Fede e scienza
MATEMATICA ED EVOLUZIONE
La genetica mostra che il patrimonio ereditario di ciascun individuo è strutturato
secondo unità microscopiche perfettamente individuate, dette geni. I geni sono
localizzati nei cromosomi, situati nel nucleo di ogni cellula, secondo un ordine ben
determinato: ciascun gene, o una data sequenza di essi, corrisponde a una serie
complessa di funzioni, che la cellula è o sarà chiamata a svolgere. Il corredo di geni
di ogni individuo contiene, in altri termini, la descrizione dell'individuo stesso, il
suo progetto o piano di montaggio: è questo corredo di geni che, per esempio, è
all'origine dello sviluppo dell'uomo così come di ogni animale pluricellulare. Esso
stabilisce i tempi e le modalità della crescita del feto: quando e come si deve formare
il tessuto nervoso, quando e come quello osseo, quando e come gli occhi, i capelli, e
così via. Accade, tuttavia, che nel corso dello sviluppo di un individuo, o durante la
sua vita, il suo patrimonio genetico subisca mutazioni, cioè alterazioni di struttura.
Ricorrendo di nuovo alla immagine del piano di montaggio, è come se le linee di esso
fossero state in qualche modo alterate.
Come si comprende, il problema si sposta verso il calcolo delle probabilità, poiché
occorre stabilire che valore di probabilità hanno mutazioni casuali di verificarsi
simultaneamente e di costruire qualcosa di nuovo. Quella che sembra una via di uscita
pone, in realtà, quesiti ancora più gravi dei precedenti.
Fino dai tempi di Darwin, ancora prima di individuare nelle mutazioni la fonte della
variabilità del mondo vivente, i biologi avevano intuito le connessioni tra matematica
ed evoluzione, ma nessuno tentò mai di impostare rigorosamente il problema. Ancora oggi
l'atteggiamento evoluzionistico è quello di una certa "sufficienza": avendo avuto a
disposizione un periodo dell'ordine di due miliardi di anni, si ritiene sostanzialmente
inutile chiedersi cosa sia possibile o impossibile per la evoluzione in un tempo tanto
lungo. Basta attendere: il tempo compirà da solo il miracolo della creazione della vita
e della sua trasformazione.
Salet si è invece cimentato in un difficile calcolo che, a causa della lunghezza e della
difficoltà, non è possibile riportare per intero, ottenendo il seguente risultato: in un
periodo di un miliardo di anni la probabilità che sia apparso un solo vertebrato munito
di 5 nuovi geni funzionali, è di 1 su 100.000, ovvero che occorrono 100.000 miliardi di
anni per avere la quasi certezza di vederne uno. Queste cifre danno solo una pallida
idea del tipo di problema che sorge quando si vuole assegnare al caso la genesi e la
complessità del mondo vivente. Basta supporre, per esempio, che i geni interessati alla
novità siano 6 anzichè 5, perché la certezza della comparsa di un mutante risulti di 1
su 100 miliardi di miliardi di anni! Dato che la cosmologia più recente assegna
all'Universo una età di circa 20 miliardi di anni, si può ritenere assurda ogni ipotesi
che faccia ricorso al caso come a fonte di variabilità vantaggiosa, sia in ambiente previvente che in ambiente vivente.
Salet riassume quanto succintamente esposto nel seguente principio generale: "Se una
costruzione nuova necessita di n nuovi geni, il tempo necessario perché mutazioni
geniche conferiscono loro il carattere voluto è una funzione esponenziale di n
rapidamente crescente. Tempi largamente superiori a quelli delle ere geologiche sono
raggiunti per valori di n molto modesti".
Ovviamente è bene evidenziare che questi calcoli, ignorati nel mondo scientifico, sono
molto difficili da confutare data l’arbitrarietà implicita nell’assegnazione dei valori.
Salet afferma di essere stato “fin troppo generoso con l’evoluzione”, ma non ci sono
osservazioni sperimentali che possono negare o affermare che abbia compiuto una scelta
adeguata. Quindi questa non può essere ancora considerata una dimostrazione sufficiente
per distruggere il darwinismo, ma sarebbe opportuno per gli scienziati prenderne atto e
tentare di scardinarla, in modo tale che le loro posizioni acquistino ulteriormente
validità.
DATAZIONE
Per molto tempo gli evoluzionisti si sono serviti, per la datazione di rocce e di
fossili, di un metodo assolutamente inattendibile: assegnata, in modo del tutto
arbitrario, una determinata età a un certo fossile, questo consentiva di datare le rocce
che lo contenevano; a sua volta l'età delle rocce, stabilita con il metodo accennato,
serviva a determinare l'età di altri fossili in una sorta di circolo vizioso.
Particolarmente adatti per questo metodo sembravano essere i fossili di animali estinti
o ritenuti tali. Questo è stato il caso della latimeria, una specie di pesce ritenuto
estinto circa 300 milioni di anni fa. Nella datazione delle rocce, tutte quelle
contenenti latimerie fossili venivano considerate vecchie per lo meno di 300 milioni di
anni. Recentemente, però, sono stati pescati, al largo delle coste del Madagascar,
esemplari viventi di latimeria. Perciò, tutte le datazioni effettuate sulla base di
fossili di latimeria sono prive di valore.
Ma esistono altri esempi che non solo mettono in dubbio la validità di questo metodo, ma
fanno vacillare addirittura tutta la teoria dell'evoluzione. Qualche anno fa è stata
fatta una interessante scoperta nel letto di un fiume del Texas, il Paluxy River: in una
formazione di gesso si trovano impronte, estremamente nitide, di brontosauro e di uomo.
L'unica spiegazione possibile è che il brontosauro e l'essere umano, notoriamente divisi
da 60 milioni di anni, che hanno lasciato quelle impronte, siano stati contemporanei.
Infatti, se il gesso si fosse solidificato dopo avere ricevuto le impronte di
brontosauro e fosse diventato di nuovo molle dopo 70 milioni di anni, le impronte di
29
Quaglino Alessio
V Scientifico A
Fede e scienza
brontosauro sarebbero andate perdute. Quello del Paluxy River è senz'altro uno dei più
significativi, ma non è l'unico esempio di tale genere. Non sono rari i ritrovamenti di
tracce umane in strati geologici che dovrebbero risalire a periodi molto anteriori alla
comparsa dell'uomo sulla terra. Ma la scienza ufficiale ignora tali ritrovamenti.
Per sopperire ai limiti della datazione con i fossili, si è utilizzata la tecnica degli
isotopi radioattivi e soprattutto del C14, isotopo radioattivo del carbonio. Nell'aria è
presente una certa quantità di C14, che entra nell'organismo tramite la respirazione e
viene utilizzato per costruire i tessuti. Dopo la morte, con la cessazione della
respirazione, cessa anche l'assunzione di nuovo C14, mentre quello presente nei tessuti
si trasforma in carbonio non radioattivo con una velocità conosciuta. Conoscendo la
concentrazione di C14 nei tessuti al momento della morte di un organismo e potendo
misurare quanto ne è ancora presente, è possibile calcolare con una certa
approssimazione l'età del fossile. Questa tecnica presuppone però la costanza del C14
nell'aria e quindi nei tessuti. Il C14 si forma dal bombardamento di atomi di azoto da
parte di raggi cosmici. La intensità di tale bombardamento, e quindi la concentrazione
del C14, dipende dal campo magnetico terrestre: quanto maggiore è il campo magnetico,
tanto minore è la quantità di raggi cosmici che riescono a penetrare nell'atmosfera. È
da poco più di un secolo che gli scienziati sono in grado di misurare il campo magnetico
terrestre, e in questo periodo il campo magnetico è considerevolmente diminuito. Ciò ha
notevoli conseguenze: se in passato il campo magnetico terrestre era superiore
all'attuale, allora la concentrazione di C14 nell'aria era inferiore e, di conseguenza,
la quantità di isotopo presente negli organismi viventi, per cui già al momento della
morte la concentrazione era inferiore a quella ammessa oggi. Perciò la bassa
concentrazione di C14 nei fossili non può essere considerata solo come dipendente dalla
considerevole età, poiché dipende anche dalla minore concentrazione di C14 presente nei
tessuti già al momento della morte.
Questi fatti hanno un'altra ripercussione sulla teoria della evoluzione, se si tiene
presente il ruolo svolto dalle radiazioni cosmiche nell'accelerare le mutazioni geniche.
In tempi primitivi, con una scarsa irradiazione cosmica, saranno avvenute meno mutazioni
che non in tempi di più intensa irradiazione. Se, dunque, le mutazioni sono la vera
fonte dell'evoluzione darwiniana (come viene sostenuto quasi unanimemente) allora questo
tipo di evoluzione sarà stato meno veloce con un forte campo magnetico terrestre
l'evoluzione dovrebbe essere avvenuta molto più lentamente in tempi preistorici con una
debole irradiazione cosmica rispetto a oggi con una elevata irradiazione e frequenti
mutazioni.
Ma neanche enormi periodi di tempo riescono a spiegare alcuni fenomeni: se l'evoluzione
fosse avvenuta come gli evoluzionisti si immaginano, si dovrebbero trovare molti fossili
di forme intermedie e dovrebbe essere possibile dimostrare la comparsa successiva degli
animali più complessi nei vari strati. I ritrovamenti fossili dimostrano spesso il
contrario. "In breve tempo compaiono praticamente tutti i grandi gruppi di animali oggi
viventi, sia pure con forme diverse dalle attuali". Le grandi trasformazioni che hanno
portato alla formazione dei grandi gruppi animali oggi esistenti sarebbero avvenute in
breve tempo e non sono documentate da fossili, mentre i ritrovamenti fossili
dimostrerebbero piuttosto una considerevole stabilità delle specie nel corso delle
"decine e centinaia di milioni di anni"!
LA POSIZIONE DELLA CHIESA
Perché l’accanimento contro la teoria dell’evoluzione è così acceso solo negli Stati
Uniti? Perché la religione è prevalentemente protestante, non cattolica. E per i
protestanti, la Bibbia è l’unica fonte di verità e lo Spirito Santo assiste ogni singolo
credente nella lettura ed interpretazione del testo sacro. La teoria dell’evoluzione fu
considerata, al suo nascere, antagonista del Dogma cattolico, per cui suscitò violente
polemiche. Ma è anche vero che la Chiesa Cattolica, nel 1951, riconobbe che solo
l’origine della vita e dell’uomo riguardano la Fede e che l'evoluzione non era
contrastante con il Cattolicesimo. Nell’enciclica Humani generis, il pontefice Pio XII
chiarì che mentre l’anima è frutto diretto dell’atto creativo, nulla è riportato nella
Bibbia circa la creazione del corpo, per cui la scienza è libera di discutere l’origine
dell’uomo.
Nel 1996 la posizione della dottrina cattolica sul cosiddetto "evoluzionismo” trae
spunto dal messaggio di Papa Giovanni Paolo II alla Pontificia Accademia delle Scienze,
datato 22 ottobre. Nel documento viene ribadito come "punto essenziale "che, se il corpo
umano ha la sua origine nella materia viva che esisteva prima di esso, l’anima
spirituale è immediatamente creata da Dio". Papa Giovanni Paolo II afferma che "oggi
nuove conoscenze conducono a non considerare più la teoria dell’evoluzione una mera
ipotesi”, perché si tratta di una teoria, cioè a suo proposito sono avanzate diverse
teorie, cioè sono stati proposti diversi insiemi di ipotesi. Quindi, il Papa si chiede
che cosa sia una teoria: "La teoria dimostra la sua validità nella misura in cui è
suscettibile di verifica; è costantemente valutata a livello dei fatti; laddove non
viene più dimostrata dai fatti, manifesta i suoi limiti e la sua inadeguatezza. Deve
allora essere ripensata”. Dunque, se l’ipotesi evoluzionistica deve passare al vaglio
cui sono sottoposte tutte le scoperte scientifiche, quello dei fatti, la teoria
evoluzionistica deve superare anche l’esame della filosofia e della teologia.
E il Magistero della Chiesa è direttamente interessato alla questione dell’evoluzione,
perché concerne la concezione dell’uomo, del quale la Rivelazione biblica dice che è
stato creato a immagine e somiglianza di Dio. "Di conseguenza — conclude Papa Giovanni
Paolo II —, le teorie dell’evoluzione che, in funzione delle filosofie che le ispirano,
30
Quaglino Alessio
V Scientifico A
Fede e scienza
considerano lo spirito come emergente dalle forze della materia viva o come un semplice
fenomeno di questa materia, sono incompatibili con la verità dell’uomo. Esse sono
inoltre incapaci di fondare la dignità della persona". Come si vede, la novità
dottrinale sfugge perché non esiste. Non deve però sfuggire l’atteggiamento di dialogo
con la comunità scientifica e con le sue conquiste, dal momento che il creato è opera
dello stesso Dio che si è rivelato, per cui la Chiesa, veicolo della Tradizione
soprannaturale, lo è anche della tradizione naturale.
In effetti, la Chiesa Cattolica ha sempre chiesto grande cautela nell’accostarsi alla
Bibbia, ed ha richiesto che ogni edizione divulgativa avesse note esplicative,
distinguendosi in questo dalle varie Confessioni protestanti, che sono rimaste fedeli ad
un'interpretazione prevalentemente letterale del libro di Dio. La Bibbia non può essere
presa alla lettera in ogni senso, in qualsiasi espressione; occorre anche tener presenti
gli usi e i costumi, il livello di istruzione e di sensibilità dei popoli ai quali Dio,
attraverso l’agiografo, si rivolgeva. L’importante è individuare la sostanza del
messaggio divino, al di là della forma in cui esso è espresso. E quanto a questo, molti
cattolici e protestanti non hanno ancora individuato, o rifiutano d’individuare, la
natura del messaggio divino.
LA VITA NON È NATA PER CASO
La teoria secondo cui la vita sarebbe sorta casualmente dalla materia inorganica non è,
in fondo, che la versione moderna di una credenza vecchia quanto la osservazione
superficiale della natura, la "generazione spontanea": quella, per intenderci, in base
alla quale gli antichi credevano che le anguille nascessero dalla melma dei fiumi, le
zanzare dai miasmi delle paludi e le mosche dalla carne putrefatta. La loro
inconsistenza fu sperimentalmente dimostrata da Francesco Redi nel 1668 per gli insetti,
dall'abate Lazzaro Spallanzani nel 1748 per i protozoi e da Louis Pasteur nel 1861 per i
batteri. Tutti e tre gli scienziati dovettero faticare molto per fare accettare le loro
scoperte; ma, mentre Redi dovette lottare solo contro i pregiudizi di sedicenti
"conservatori", Spallanzani e più ancora Pasteur si trovarono di fronte la opposizione
dei "progressisti", che della generazione spontanea facevano il supporto "scientifico"
di una filosofia materialistica.
È chiaro che, partendo da un simile preconcetto, non si poteva fare a meno di cercare il
modo di riaffermare quello che la esperienza scientifica aveva negato. E il modo è stato
trovato, e contrabbandato per "prova scientifica", ricorrendo a due accorgimenti: primo,
la sostituzione del vecchio e screditato termine "generazione spontanea" con espressioni
altisonanti, quali "abiogenesi", "fase prebiotica della evoluzione", "evoluzione
chimica", e simili; secondo, la retrodatazione della presunta "abiogenesi" a
lontanissime ere geologiche, in condizioni ambientali non verificate né verificabili, ma
"ricostruibili in laboratorio", in cui - si afferma - sarebbe potuto avvenire quello che
oggi è impossibile.
Fra le numerose "teorie abiogenetiche" oggi disponibili la più accreditata rimane quella
delineata una cinquantina di anni fa, dal biologo sovietico Oparin. Questa teoria (o,
meglio, ipotesi) postula l’esistenza - necessaria per l'"abiogenesi" - di un'atmosfera
primitiva a carattere fortemente riducente, composta di idrogeno, vapore acqueo, metano,
azoto e ammoniaca. In tale atmosfera le radiazioni ultraviolette solari e le scariche
elettriche dei fulmini avrebbero provocato la sintesi di composti organici, tra cui gli
amminoacidi. Tali composti, disperdendosi negli oceani, avrebbero formato il cosiddetto
"brodo prebiotico", nel quale, per reazioni chimiche successive, si sarebbero formate,
sempre casualmente, le prime biomolecole - soprattutto proteine – e, infine, i primi
organismi viventi.
I risultati di Miller, successivamente confermati ed estesi, sia pure con qualche lieve
modifica per quanto riguarda la composizione dell'"atmosfera primordiale", da
esperimenti successivi, diedero un grande impulso alla "ipotesi abiogenetica": gli
amminoacidi sono i componenti fondamentali delle proteine di cui sono costituiti i
tessuti biologici; altri composti organici identificati da Miller nella sua miscela di
prodotti si ritrovano, in gran parte, tra i prodotti del metabolismo di organismi
viventi. Altri amminoacidi e supposti "precursori prebiotici" di altri costituenti
fondamentali della cellula, quali gli acidi nucleici, sono sintetizzabili in condizioni
che, secondo gli autori, ricordano da vicino quelle dell'ipotetico "brodo prebiotico".
Se i lavori riportati nelle memorie scientifiche sopra citate hanno in sé e per sé, come
metodi per la sintesi di alcuni composti chimici, una loro indubbia validità
scientifica,
tuttavia
non
ne
hanno
invece
nessuna
come
"prove
sperimentali
dell'abiogenesi". Dato che i risultati di simili esperimenti vengono quotidianamente
sbandierati come "prove" non solo in scritti "divulgativi", ma anche in rispettabili
testi universitari, sarà bene esaminarli più approfonditamente. In tutti gli esperimenti
sopra riportati si otteneva, al termine della scarica o della irradiazione, una grande
varietà di composti, da cui i supposti "elementi prebiotici" andavano estratti e
purificati con procedure spesso assai sofisticate. Anche le rese erano bassissime. Ma vi
è di più: negli esperimenti di "sintesi prebiotica" sono stati ottenuti anche parecchi
amminoacidi che non si ritrovano nelle proteine, talvolta con rese più alte che quelli
proteici. Inoltre, la proporzione tra i vari amminoacidi nelle proteine è quasi inversa
che tra i prodotti di sintesi; per risolvere questa difficoltà, Miller è costretto a
supporre un’ulteriore "condizione necessaria", cioè una precipitazione frazionata di
amminoacidi per evaporazione in qualche laguna, con formazione di polipeptidi nella fase
solida: e tutto questo a conclusione di una serie di esperimenti in cui la resa totale
31
Quaglino Alessio
V Scientifico A
Fede e scienza
in amminoacidi "utili" e no, era in media l'1,90%. Analoghe critiche potrebbero essere
mosse alle varie sintesi di "precursori prebiotici" degli acidi nucleici.
Tutte queste teorie, come si è già visto, presuppongono la presenza, sulla terra, di una
atmosfera riducente all'epoca della "evoluzione prebiotica" e "protobiotica". Tuttavia,
le teorie più recenti sulla formazione della terra e della sua atmosfera escludono
proprio questa ipotesi fondamentale, affermando che all'epoca della comparsa dei primi
viventi la terra aveva un'atmosfera neutra o debolmente ossidante, non molto diversa
dall'attuale, salvo, forse, per la mancanza di ossigeno. Un tentativo di ovviare a
questo inconveniente è stato fatto in America da Allen J. Bard e dai suoi collaboratori.
Costoro, dopo avere scoperto che, irradiando con luce ultravioletta una soluzione
acquosa di ammoniaca satura di metano in presenza di biossido di titanio platinato cioè ricoperto di platino finemente suddiviso - si ottiene una miscela di amminoacidi,
superano l’obiezione relativa alla composizione dell'atmosfera primordiale osservando
che il biossido di titanio catalizza la riduzione dell'azoto ad ammoniaca e
dell'anidride carbonica a metano, formaldeide e metanolo, sia pure con basse rese.
Peccato che, per la formazione di amminoacidi sia indispensabile l'uso del biossido di
titanio platinato, un catalizzatore sintetico, inesistente in natura. Siamo, come si può
vedere, ancora al punto di partenza.
DALLE MOLECOLE ORGANICHE ALLE BIOMOLECOLE: ULTERIORI DIFFICOLTÀ
Passando poi alla seconda fase della "evoluzione chimica" quella in cui le "molecole
prebiotiche" avrebbero reagito tra di loro per formare polisaccaridi, polipeptidi - e
poi proteine - e polinucleotidi - e poi acidi nucleici -, che unendosi insieme avrebbero
formato i primi organismi, le difficoltà salgono alle stelle. Qui il "caso", invocato
dagli abiogenisti, si rivela molto intelligente.
La prima difficoltà è data dalla attività ottica delle sostanze di origine biologica,
dovuta alla dissimmetria sterica delle molecole. Gran parte delle molecole organiche
sono dissimmetriche, ossia prive di piani di simmetria, così che possono esistere in due
forme distinte, che differiscono tra di loro per essere l'una la immagine speculare
dell'altra così come la mano destra differisce dalla sinistra, donde il nome di molecole
chirali - dal greco chéir, mano. La possibilità di distinguerle è data, appunto, dalla
loro attività ottica. Tutte le molecole chirali che fanno parte degli organismi
biologici sono pure, e tutti della stessa configurazione destrorsa o sinistrorsa, a
seconda della classe di molecole a cui appartengono. Invece, tutte le sintesi di
amminoacidi compiute dagli abiogenisti dànno luogo a miscele simmetriche, dato che, per
obbedienza al presupposto di partenza, sono compiute su reagenti non chirali, senza
impiegare catalizzatori otticamente attivi. Ora, è difficile capire perché da reazioni
casuali tra amminoacidi statisticamente distribuiti tra le due forme si sarebbero
formati polipeptidi puri; lo stesso dicasi per i "precursori prebiotici" dei
polisaccaridi e degli acidi nucleici.
Ma non basta. Nelle proteine, non solo la chiralità, ma anche la sequenza degli
amminoacidi è tutt'altro che casuale, come pure la sequenza delle basi negli acidi
nucleici:
entrambe
sono
strettamente
ordinate
alle
funzioni
biologiche
della
macromolecola all'interno dell'organismo; tra le sequenze di basi negli acidi nucleici e
le sequenze di amminoacidi nelle proteine esiste una correlazione valida per tutto il
mondo biologico - il codice genetico - così che la struttura dei primi determina quella
delle seconde. Polipeptidi statistici sono stati ottenuti riscaldando a 170°C una
miscela di amminoacidi posti su un pezzo di roccia vulcanica o mediante esperimenti
simili a quelli di Miller, ma condotti sotto vuoto alle temperature "siberiane" di -40°C
e -60°C, anziché a pressione e a temperatura ambiente. I prodotti ottenuti, posti in
soluzioni acquose, si aggregano in microsfere, talvolta delimitate da una membrana
polisaccaridica, chiamate dagli autori modelli di "protocellule", ma che con le cellule
autentiche hanno poco a che vedere: sono prive di attività metaboliche e riproduttive,
in altre parole non vivono.
Per quanto riguarda, poi, la sintesi delle catene proteiche, vi sono ulteriori
difficoltà. Le reazioni chimiche non avvengono a caso, ma sono soggette a una serie di
leggi: una di queste è la legge di azione di massa. Se dalla reazione A+B si originano
le sostanze C e D, la reazione può andare anche in senso inverso, cioè da C+D si possono
formare A e B. La direzione della reazione, o il suo equilibrio, dipende da una serie di
fattori. Nel caso della sintesi di due aminoacidi si ha la produzione di una molecola di
acqua: se dal sistema ove avviene la reazione si toglie acqua, la reazione di sintesi
viene facilitata; se invece nel sistema è presente molta acqua, gli aminoacidi
tenderanno a rimanere in soluzione. Ma dove vi è più acqua che nell'oceano? Eppure gli
evoluzionisti ammettono che la sintesi delle grosse molecole proteiche sia avvenuta
proprio nell'oceano, nonostante la legge di azione di massa.
32
Quaglino Alessio
V Scientifico A
Fede e scienza
L’ORDINE NON NASCE DAL CAOS
Tutte le precedenti obiezioni alla "teoria abiogenetica" sono riconducibili a un
semplice principio: l'ordine non può nascere spontaneamente dal caos. Un organismo
vivente è molto di più che un aggregato di molecole e di macromolecole organiche: è una
forma organizzatrice, che costruisce e ordina queste molecole secondo un progetto
strutturale, è un sistema cibernetico dotato di un grado di informazione superiore a
quello delle singole parti che lo compongono. Prendiamo come esempio il codice genetico,
il quale non ha senso se non è tradotto. Il meccanismo traduttore della cellula moderna
comporta almeno cinquanta costituenti macromolecolari, anch'essi codificati nel DNA. Il
codice genetico può dunque essere tradotto solo dai prodotti stessi della traduzione. Ma
quando e come questo anello si è chiuso su se stesso? È molto difficile anche solo
immaginarlo.
Allo scopo di rompere il circolo vizioso dell'uovo-DNA e della gallina-proteine, è stata
recentemente proposta una nuova teoria sulla origine della vita, la "teoria ribotipica",
che fa originare la cellula dalle ribonucleoproteine attraverso un meccanismo a catena
di "quasi-replicazione". Essa, tuttavia, dà per scontata la "evoluzione chimica", ossia
la formazione spontanea di acido ribonucleico - RNA, diverso dal DNA - e di proteine.
Ma, come si è visto precedentemente, tale "evoluzione chimica" è tutt'altro che
scontata. In ogni caso, il "messaggio" contenuto nella struttura degli acidi nucleici
costituisce uno "schema" ben preciso che non può essere riducibile a una sequenza
statistica di nucleotidi. È assai improbabile considerare lo schema attraverso il quale
il DNA diffonde informazione come parte delle sue proprietà chimiche. Il suo schema
funzionale deve essere riconosciuto come una condizione al contorno posta all'interno
della molecola del DNA.
L'informazione per la vita è contenuta in acidi nucleici per la teoria dell'evoluzione
si sarebbero quindi formati per puro caso. Battendo a caso sulla tastiera di una
macchina da scrivere è possibile che a un certo punto venga scritta una parola che abbia
un senso, per esempio "pani". A questo punto si potrebbe andare in visibilio per il
fatto che il caso ha creato informazione. Ma, se all'esperimento fossero presenti
stranieri che non conoscono l'italiano, questi rimarrebbero perplessi, perché per loro
la parola "pani" non significa assolutamente nulla. Però, se vi fosse un polacco, anche
questo potrebbe essere stupefatto dall'esperimento, giacché "pani" in polacco significa
"signora". Questo esempio mostra chiaramente come la trasmissione di una informazione
necessiti di un codice e di una convenzione preesistenti. La successione degli acidi
nucleici fornisce il substrato all'informazione, così come la successione delle lettere
fornisce il substrato alla parola, però il significato della parola dipende da un
codice, e a seconda del codice una sequenza può non avere alcun significato oppure
averne anche di differenti.
Inoltre, è necessaria anche l'esistenza di un sistema capace di leggere, interpretare ed
eventualmente mettere in pratica le informazioni codificate nella sequenza degli acidi
nucleici, cioè "una relazione fra acidi nucleici e la formazione di proteine specifiche.
Purtroppo a questo punto non è facile trovare una soluzione al problema.
Un postulato dell'evoluzione è costituito dalla mutazione: cioè, da errori di
trascrizione del patrimonio genetico delle cellule si avrebbe, in alcuni casi, la
formazione di esseri viventi, che meglio si adattano all'ambiente di quelli originari.
Anche questa concezione contraddice le attuali teorie dell'informazione, secondo cui da
un
errore
della
trasmissione
di
un’informazione
scaturirebbe
un
aumento
dell'informazione.
È come ammettere che, facendo copiare infinite volte lo schema di una radio, venga
commessa una serie di errori. Le radio costruite in base a questi schemi "mutati"
sarebbero in alcuni casi addirittura migliori di quelle costruite secondo lo schema
originale e avrebbero maggiore successo sul mercato (selezione). Da una serie di errori
di copiatura (mutazioni) e dalla situazione di mercato (selezione) si svilupperebbero
radio sempre più complesse, e, ovviamente dopo un congruo numero di sbagli, ne uscirebbe
addirittura un televisore!
33
Quaglino Alessio
V Scientifico A
Fede e scienza
DIBATTITO CONTEMPORANEO
Recentemente Zichichi, uno dei più illustri fisici italiani contemporanei, si è espresso
con parole dure nei confronti dell’evoluzionismo che, secondo la sua opinione “[…] è
presentato come l’ultima frontiera della Scienza galileiana. In diverse occasioni ho
posto una domanda semplicissima: qual è l’equazione che descrive l’evoluzione biologica
della specie umana e quali sono i risultati degli esperimenti di stampo galileiano che
corroborano la validità di quella equazione? Una domanda semplicissima che rimane,
ancora oggi, senza risposta. […] L’evoluzione è come pretendere di avere scoperto una
civiltà capace di volare con jet supersonici senza avere ancora capito cos’è il suono.
[…] Un argomento forte dell’evoluzionismo sono le caratteristiche comuni alle
innumerevoli forme di vita animale. C’è una caratteristica di gran lunga più importante.
Essa è comune, non solo alle forme di vita animale, ma anche a quelle di vita vegetale,
e addirittura della stessa materia inerte. Questa radice comune non l’hanno scoperta gli
evoluzionisti. Siamo stati noi fisici a scoprirla, seguendo l’insegnamento galileiano.
Una pietra, un albero, un’aquila, un uomo sono fatti con le stesse particelle: protoni,
neutroni ed elettroni. Non per questo noi fisici concludiamo dicendo che pietre, alberi,
aquile e uomo sono realtà identiche. La diversità della nostra specie è nell’esistenza
della Ragione: nessuno la sa dedurre in modo rigoroso da principi fondamentali legati a
equazioni e ad esperimenti riproducibili. Ecco perché nessuno si può arrogare il diritto
di avere scoperto la vera origine della nostra specie. Nessuno che sappia cosa vuol dire
Scienza oserebbe fare simili affermazioni. […] E Galilei insegna che dove non ci sono né
formalismo matematico né risultati riproducibili, non c’è Scienza”.
Tuttavia
questa
posizione
non
è
propriamente
corretta.
Galileo
Galilei,
è
tradizionalmente il fondatore del metodo sperimentale, ma certo non di quello
matematico. Infatti, con i suoi esperimenti a proposito del moto dei corpi, Galilei
capovolse i termini della questione: «non dobbiamo chiederci perché i corpi si muovono,
piuttosto perché si fermano». Un'osservazione oggi ovvia, ma foriera di fondamentali
conseguenze. I sostenitori del sistema tolemaico, affermavano infatti che la terra era
immobile al centro dell'universo, con il Sole ed i pianeti che gli orbitavano attorno
seguendo complicate traiettorie. Dunque, non è vero in generale che la teoria deve
precedere l'osservazione sperimentale. Una teoria è la sintesi di osservazioni
sperimentali, e può essere una traccia per suggerire nuove osservazioni, alle quali può
seguire una nuova teoria che comprenda la precedente (la Relatività, ad esempio,
comprende le equazioni di Newton), oppure anche una teoria del tutto differente.
Non esiste l'equazione del pensiero astratto. Però, a meno che per pensiero astratto
s'intenda la capacità di comprendere il teorema di Pitagora, questo non significa che
gli animali ne siano privi. Gli animali, come è stato provato con inconfutabili
34
Quaglino Alessio
V Scientifico A
Fede e scienza
esperimenti, sanno quello che fanno in quanto le loro azioni non sono sempre
esclusivamente istintive; gli uomini anche, ma spesso non sembra che se ne preoccupino
molto! In realtà, Galilei ha dimostrato l'importanza del metodo induttivo rispetto a
quello deduttivo (di Aristotele). Precisamente, il metodo deduttivo non è realmente
conoscitivo in quanto le conclusioni che permette di ottenere sono contenute nelle
premesse, che possono essere corrette, ipotetiche o sbagliate. Al contrario, il metodo
induttivo (Galilei), che comporta generalizzazioni a partire dalle osservazioni
sperimentali, permette di ottenere risposte non legate alle premesse e dunque, pur
essendo una sorta di "salto nel vuoto" (in quanto le previsioni potrebbero rivelarsi
sbagliate alla prova dei fatti), porta per lo più ad esplorare strade diverse.
Certo, la teoria dell'evoluzione - sebbene corroborata da adeguate prove sperimentali non è formalizzata in termini matematici, ma una simulazione al calcolatore non è
impossibile. Per esempio, esistono programmi il cui scopo è controllare l'evoluzione di
nuove specie animali - immaginate dal giocatore - in rapporto all'ambiente. Si obietterà
che è un gioco, certo sofisticato, ma pur sempre un gioco. E' vero, ma lo scopo non è
provare la teoria dell'evoluzione, bensì mostrare come si comportano differenti
organismi (anche improbabili) in rapporto all'ambiente.
D'altra parte, le prove dell'evoluzione sono frammentarie: mancano tutti gli elementi
che hanno portato alla formazione della specie umana a partire da un progenitore comune
anche alle scimmie. Questa discontinuità delle prove, offre ai creazionisti alcune
argomentazioni contro l'evoluzionismo:
•
La prima obiezione: la nostra ipotetica scimmia progenitrice ha originato altre
scimmie differenti per caratteristiche, ma questa era la sua attività: generare
altre scimmie, non uomini. Una catena di montaggio progettata per costruire
bottiglie, ne produrrà con tappo a vite, a corona, in sughero... ma certo non
produrrà lattine!
I creazionisti, dunque, sostengono che le varie specie di proscimmie siano state create
insieme e non discendano una dall'altra. D'altra parte, gli evoluzionisti affermano la
discendenza di una scimmia da un'altra, e dell'uomo da altre scimmie, sebbene non
abbiamo trovato traccia di tutte le specie intermedie. Ed è proprio su queste
manchevolezza che i creazionisti puntano il dito. Quanto alle lattine, è vero: una
bottiglia non è una lattina! Tuttavia, l'uomo - senza citare le particelle elementari non solo è fatto delle stesse molecole organiche comuni a tutte le specie viventi, è
anche il risultato della stessa catena di montaggio: il DNA.
•
Un'altra obiezione suggerisce di rifiutare l'evoluzionismo perché non vi sono
prove dirette: dopotutto, nessuno ha mai assistito alla nascita di una nuova
specie. Al più, si sono osservate mutazioni genetiche, ma che certo non possono
provare inequivocabilmente la nascita di una nuova specie.
Qui, occorre precisare che per nuova specie s'intende un organismo incapace di procreare
accoppiandosi con organismi della specie dalla quale ha avuto origine. Per esempio,
sebbene tutti i cànidi derivino dal lupo, cani e lupi appartengono alla stessa specie in
quanto possono avere unioni fertili. La speciazione, in realtà non può essere verificata
sperimentalmente nell'arco di uno o due secoli… occorrono millenni!
•
Da ultimo, il fine. Perché una scimmia, essere con modeste capacità mentali
dovrebbe voler diventare un qualcosa che non può nemmeno concepire? Una specie
capace di sviluppare il pensiero astratto!
In realtà, l'evoluzione non è proiettiva: è cieca, produce nuove specie che sopravvivono
e sostituiscono la precedente se sono più adatte all'ambiente in cui vivono. Alla
"natura" non interessa un fine ultimo (le scimmie, per il loro ambiente, vanno bene come
sono), bensì la sopravvivenza di un organismo, anche se questo si differenzia sempre più
marcatamente fino a dare origine ad una nuova specie.
Se queste precisazioni non sono sufficienti, proviamo ad affrontare la questione da un
altro punto di vista. Isaac Asimov (1920-92), biologo e noto divulgatore scientifico,
propose un interessante paragone a proposito dell’evoluzione, particolarmente adatto per
riassumere e rispondere alle obiezioni citate. Eccolo: «Io guido un’automobile e voi
anche. Io, per esempio, non conosco esattamente il funzionamento del motore. Forse
neanche voi. E può darsi che le nostre idee confuse e approssimate sul funzionamento di
un’automobile siano un po’ contraddittorie. Dobbiamo dedurre da questo disaccordo che
l’automobile non funziona o non esiste? O, se i nostri sensi ci obbligano ad ammettere
che l’automobile esiste e funziona, dobbiamo concludere che è spinta da un cavallo
invisibile perché la nostra teoria sul motore è imperfetta?».
Allora, perché rifiutare la teoria dell’evoluzione? Proprio perché è una teoria, ossia
una congettura come un’altra, che magari ha una certa probabilità di essere vera, si
risponde. Una teoria nasce per spiegare un insieme di fenomeni osservati in natura o
prodotti nei laboratori scientifici. Tuttavia, una teoria non è un teorema matematico,
che può essere dimostrato a partire da certi presupposti, non importa se siano veri o
falsi. E proprio perché una teoria non è un teorema matematico, secondo il filosofo Karl
Popper, non si può provare che sia "vera", giacché non si può escludere che la vera
descrizione della realtà risieda in un’altra teoria. In effetti, nel formulare una
teoria, teniamo sotto osservazione i soli fenomeni che riteniamo significativi. Ad
esempio, per la teoria dell’evoluzione di Darwin, non è significativa l’influenza delle
macchie solari: se le macchie solari hanno (in tempi lunghi) qualche influenza
sull’evoluzione, non potremo spiegare completamente i fatti osservati finché non
troveremo
il
modo
di
includerne
gli
effetti
nella
teoria
dell’evoluzione.
Ma se non si può provare che una teoria è vera, dice ancora Popper, si può sempre
provare che è falsa. Ad esempio, la teoria della “Terra vuota" si è dimostrata falsa;
35
Quaglino Alessio
V Scientifico A
Fede e scienza
invece, la "teoria della relatività ristretta" ha superato tutte le verifiche
sperimentali. Anche la "teoria di Darwin", finora, si è rivelata abbastanza
soddisfacente ed in grado di spiegare moltissime osservazioni. Quanto alla ragione… Si
ricordi che - come ha chiarito la Chiesa - l'evoluzione è accettabile, purché si ammetta
l'intervento divino per spiegare l'intelligenza umana.
RECENTI SCOPERTE A FAVORE DELL’EVOLUZIONE
Un' importante scoperta, appena pubblicata su Nature, sembra in grado di sconvolgere il
dibattito sullo sviluppo della vita, lasciando senza risposta solo l’interogativo della
sua origine. A detta dei creazionisti la cieca lotteria genetica delle piccole mutazioni
successive sarebbe incapace di produrre grandi cambiamenti in una specie biologica. Un
gamberetto, per esempio, sempre a detta loro, può solo diventare più grande, o più scuro
o sviluppare delle zampe più robuste, ma non può dare origine ad una mosca, nè questa
può poi dare origine, attraverso molti mutamenti intermedi, poniamo, ad un topo.
Tuttavia in un laboratorio della California, sono state riprodotte in dettaglio due
piccolissime mutazioni, portatrici di grandi effetti, grazie alle quali si passò di
colpo da un artropode, l'Artemia (detta anche scampetto della salamoia), al moscerino
dell'aceto (la celeberrima drosofila, cara ai genetisti che identificarono, grazie a
lei, i cromosomi). L'artemia ha undici paia di zampe e una sorta di coda che batte
vigorosamente mentre nuota, mentre il moscerino ha ali per volare, solo tre paia di
zampe, e nessuna coda. Come queste due minime e antichissime mutazioni spontanee in un
gene "maestro" siano riuscite a produrre tanto cambiamento è stato ricostruito, sequenza
per sequenza e molecola per molecola, dai genetisti Matthew Ronshaugen, Nadine McGinnis
e William McGinnis, dell'Università della California a San Diego.
Come già da tempo i biologi sospettavano, una piccola, rara e fortunata mutazione in un
gene di regolazione, uno di quelli che ho sopra chiamato geni "maestri" (ma nel gergo
dei genetisti sono detti omeotici, e in questo caso particolare si tratta del ben
studiato gene "Hox"), può d'un tratto produrre una specie nuova, assai diversa da quella
di partenza. Le raffinate manipolazioni genetiche descritte nell'articolo di Nature,
probabilmente identiche a ciò che spontaneamente deve essere avvenuto milioni di anni
addietro, confermano adesso sperimentalmente che il sospetto era ben fondato. I normali
meccanismi di mutazione genetica, poi seguiti dalla selezione naturale, sono, quindi,
genuinamente capaci di generare delle assolute novità biologiche, cioè delle specie
nuove. Se uno di questi geni muta, spontaneamente o in seguito ad un intervento di
laboratorio, si può avere una mosca con due toraci, con 4 ali invece di due o con più
zampe del dovuto. Non si tratta di magia, ma del fatto che questi geni controllano
l'attività di molti altri e una loro alterazione equivale a quella di centinaia di geni
diversi. Nel 1983 furono isolati e caratterizzati e l'anno dopo si scoprì che geni
simili esistevano in tutti gli animali superiori, dalla sanguisuga all'uomo. In ogni
organismo esistono geni molto simili a quelli del moscerino che vennero chiamati Hox.
Questi geni controllano la forma complessiva del corpo in tutti gli animali superiori.
Una loro alterazione può avere effetti sconvolgenti e probabilmente li ha avuti nel
passato. Un insetto normale ha solo sei zampe, che si trovano confinate nella sua
regione toracica, perché il suo addome non porta zampe. Alterando un gene Hox gli si
possono fare crescere anche le zampe toraciche come in un crostaceo e come nell'antenato
comune di insetti e crostacei. Può bastare una mutazione in un singolo gene quindi a far
comparire un'intera nuova categoria di animali.
Questa importante conferma viene a corroborare, tra l'altro, le ipotesi "discontinuiste"
propugnate da decenni soprattutto dai notissimi (ma spesso criticati) evoluzionisti
Stephen Jay Gould e Richard Lewontin di Harvard. Una loro azzeccata analogia può forse
aiutarci a capir meglio: l'evoluzione biologica non è una sfera liscia che rotola nel
tempo con continuità, bensì un poliedro sfaccettato che, di tanto in tanto, procede
scattando di colpo da una faccia a un' altra contigua, senza soste intermedie. Il
passaggio dallo scampetto della salamoia al moscerino dell'aceto è stato uno di questi
scatti.
Queste scoperte sono state accompagnate da affermazioni quali “Darwin aveva ragione” che
hanno suscitato le ire di alcuni etologi, fra cui Danilo Mainardi, noto al grande
pubblico per i suoi interventi nelle trasmissioni di Piero Angela, che citano degli
esempi per confermare la variabilità evolutiva. Alcuni di questi, forse i più chiari
sono l'origine dei polmoni dei vertebrati superiori e quella delle penne degli uccelli.
Nella storia della vita, spesso si rinvengono organi che si sono evoluti per una certa
funzione ma le cui complesse strutture sono poi state, con pochi cambiamenti, utilizzate
per scopi totalmente differenti. E' grazie a loro che sembrano comparire improvvisamente
(secondo i tempi della biologia) organi già compiuti per le nuove funzioni. E' al
proposito davvero entusiasmante la ricostruzione del breve tragitto percorso dalla
vescica natatoria, in origine organo idrostatico dei pesci, fino al suo trasformarsi nel
polmone dei vertebrati terrestri. Pochi riadattamenti e il vecchio organo è pronto per
la
nuova funzione di
respirare aria. Parallelamente
s'assiste al
riutilizzo
dell'irrorazione sanguigna derivata da quella branchiale, che diventa la piccola
circolazione polmonare, e al riuso delle branchie stesse (i cosiddetti derivati
branchiali). In questo caso davvero tutto si comprende con la comparazione delle
anatomie di poche specie. Recente è infine la scoperta che ha consentito di conoscere il
motivo del gran salto che dalle semplici squame cornee dei rettili ha portato fino alle
raffinate e complesse penne degli uccelli. Non era facile immaginare quale vantaggio
potessero avere offerto le fasi intermedie, prima cioè di essere in grado di svolgere il
loro ruolo di sostegno per il volo. A che potevano servire delle «vie di mezzo» tra
36
Quaglino Alessio
V Scientifico A
Fede e scienza
squame e penne? Ebbene, alcuni piccoli dinosauri da poco rinvenuti in Cina, in
particolare Caudipteryx zoui, sono risultati presentare penne quasi perfette la cui
funzione però non era il volo, ma l'attrazione sessuale. Erano loro i preadattamenti che
consentirono, con qualche piccolo ritocco, il gran salto che fece decollare quei
dinosauri che divennero gli uccelli.
CONCLUSIONE
Talvolta i creazionisti si sono spinti ad affermare che i reperti provenienti dal
passato sarebbero stati posti da Dio stesso, allo scopo di giustificare una storia
geologica e biologica del nostro pianeta. Questa posizione, tipicamente scettica, è
inaccettabile sia perché nega alla radice qualsiasi analisi scientifica, sia perché un
Dio ingannatore sarebbe inaccettabile e in contrasto con le Sacre Scritture, che essi
affermano di voler salvaguardare dall’evoluzionismo, ma soprattutto rende manifesto un
chiaro tentativo di autodifesa tipico di chi si trova con le spalle al muro in mancanza
di valide argomentazioni.Tale posizione non è infatti confutabile. Operiamo una
dimostrazione per assurdo: immaginiamo per un attimo che le prove a favore del
creazionismo siano schiaccianti, la scoperta che l’Universo ha 20000 anni di vita e che
l’uomo è stato contemporaneo dei dinosauri hanno oramai mostrato la loro evidenza, in
uno scenario simile a che servirebbe la Fede? Quando lascio cadere un corpo nel vuoto,
prevedo che si muoverà di moto rettilineo uniformemente accelerato, la verifica
sperimentale non mi lascia libero di decidere se crederci o meno. La Fede consiste
proprio nell’accettare il mistero divino mediante un’interpretazione non necessariamente
letterale della Bibbia; proprio per quest’ultimo aspetto i crezionisti contano nelle
loro fila soprattutto protestanti, ovvero coloro che non sono capaci, o non vogliono
accettare il Testo Sacro nella sua chiave anagogica, bensì si soffermano su di esso come
il Tutto, mentre esiste un altro libro scritto da Dio, il libro aperto da Galileo
Galilei e ancora oggi non ancora letto completamente: il libro della natura. Egli,
credente convinto, affermò in proposito: “La Bibbia è la parola di Dio. La natura è
invece la sua scrittura”.
37
Quaglino Alessio
V Scientifico A
Fede e scienza
INDICE
PREFAZIONE
3
FISICA MODERNA
RELATIVITÀ E SPAZIO-TEMPO
MECCANICA QUANTISTICA
I COSTITUENTI ULTIMI DELLA MATERIA E LA GRANDE UNIFICAZIONE
4
5
7
9
COSMOLOGIA TEOLOGICA
13
LA VITA
EVOLUZIONISMO
L’ORIGINE DELLA VITA
CREAZIONISMO
DIBATTITO CONTEMPORANEO
20
21
25
27
34
NOTE BIBLIOGRAFICHE
39
38
Quaglino Alessio
V Scientifico A
Fede e scienza
NOTE BIBLIOGRAFICHE
ERMANNO PAVESI, Cristianità n. 56 (1979)
"Le scienze naturali non conoscono l'evoluzione"
LUCIANO BENASSI, Cristianità n. 95 (1983)
“Mistificazioni evoluzionistiche e matematica”
CARDINALE GIUSEPPE SIRI, Cristianità n. 95 (1983)
“Fede ed evoluzione”
GIULIO DANTE GUERRA, Cristianità n. 97 (1983)
“La vita non è nata per caso”
STEPHEN HAWKING, ed. Rizzoli (1988)
“Dal big bang ai buchi neri”
LUCIANO BENASSI, Cristianità n. 224 (1993)
“Fede, scienza e falsi miti nella cosmologia contemporanea”
Intervista a cura di Luciano Benassi e Maurizio Brunetti, Cristianità n. 239 (1995)
STANLEY L. JAKI
“Fede e ragione fra scienza e scientismo “
GIOVANNI CANTONI, Cristianità n. 259 (1996)
“Dottrina della Chiesa, ipotesi evoluzionistica e teoria dell’evoluzione”
IVO NEVIANI, ed. Sei (1998)
“Biologia”
ANTONINO ZICHICHI, ed. Il Saggiatore (1999)
“Perché io credo in colui che ha fatto il mondo”
ANTONIO CAFORIO – ALDO FERILLI, ed. Le Monnier(2000)
“Nuova physica 2000”
MARCO CASARETO, Focus (2000)
“Ultimissime dal cosmo”
PAUL DAVIES, ed. Mondolibri (2000)
“Da dove viene la vita”
ANTONINO ZICHIHI, Il Messaggero (11 febbraio 2001)
“L'evoluzione umana: annose polemiche”
MASSIMO PIATTELLI PALMARINI,
(28 febbraio 2002)
“Darwin aveva ragione. E il gambero diventò mosca”
BONCINELLI EDOARDO,
(11 febbraio 2002)
“Trovato il gene dell' evoluzione, Darwin aveva ragione”
MAINARDI DANILO,
(21 aprile 2002)
“I geni di Hox e l'evoluzione di Darwin”
39