Quaglino Alessio V Scientifico A Fede e scienza FEDE E SCIENZA Cosmologia e Darwinismo in ambito teologico 1 Quaglino Alessio V Scientifico A Fede e scienza Quello che veramente mi interessa è sapere se Dio, quando ha creato il mondo, aveva qualche possibilità di scelta. ALBERT EINSTEIN Quando uno scienziato osserva le cose, non prende minimamente in considerazione l’incredibile. LOUIS I. KAHN L'ovvio é quel che non si vede mai, finché qualcuno non lo esprime con la massima semplicità. KAHLIL GIBRAN Tutte le generalizzazioni sono pericolose, perfino questa. ALEXANDRE DUMAS FIGLIO Il caso è forse lo pseudonimo di Dio quando non vuole firmare. ANATOLE FRANCE Nei domini del caos, piccole variazioni della struttura causano quasi sempre grandi modifiche del comportamento. Sembra impossibile controllare un comportamento complesso. STUART KAUFFMAN Tutti i mali di cui soffre oggi l'America si possono far risalire alla teoria dell'evoluzione. Sarebbe meglio distruggere tutti i libri che sono stati scritti e salvare unicamente i primi tre versetti della Genesi. W.J. BRYAN (1924) Scienza e Fede entrambi doni di Dio GIOVANNI PAOLO II 2 Quaglino Alessio V Scientifico A Fede e scienza PREFAZIONE Nel mondo scientifico è presente sempre una grande distanza fra ciò che il sapere umano ha raggiunto e fatto proprio e le notizie diffuse al grande pubblico dai mass media, spesso si ritengono valide semplici congetture o teorie non dimostrate, mentre si ignorano scoperte ben più importanti. Due sono i casi più emblematici del panorama scientifico che evidenziano un fraintendimento della realtà e causano accesi dibattiti con il mondo religioso, anch’esso non immune da una conoscenza errata sia dei propri dogmi sia delle teorie scientifiche, che lamenta un eccessivo coinvolgimento della figura dello scienziato in ambiti metafisici, come nel caso della cosmologia e della biologia. Partendo dalle scoperte della fisica moderna del XX secolo, che hanno causato un totale spostamento dell’ottica deterministica, è possibile evidenziare il cammino che ha portato i cosmologi a diventare pseudo-teologi che formulano le teorie più improbabili e disparate sull’universo, ignorandone la sua dipendenza da una Realtà Trascendente. Successivamente, a causa dello sviluppo della genetica, l’interesse si è spostato nella biologia, dove le osannate teorie di Darwin, in realtà solo teorie, e per questo non ancora dimostrate, troppo spesso vengono date per scontate, in realtà, fin dalla loro formulazione esse hanno subito aspre critiche dal mondo religioso che forzatamente ha rivisto più volte la propria posizione in relazione alle nuove scoperte. Si è resa quindi necessaria una trattazione più approfondita del ruolo dello scienziato e dell’analisi di teorie ritenute ovvie e banali, ma che a un esame più specifico lasciano trasparire dei punti deboli, ancora in attesa di una risoluzione definitiva. È un discorso che non può trovare una risposta certa, proprio per la sua natura strettamente connessa con un concetto, quale la Fede cristiana, in grado di confortare l’esistenza umana, ma ponendo domande piuttosto che conferire risposte. 3 Quaglino Alessio V Scientifico A Fede e scienza FISICA MODERNA 4 Quaglino Alessio V Scientifico A Fede e scienza RELATIVITÀ E SPAZIO-TEMPO PREMESSE Verso la fine del XIX secolo lo scientismo1 era convinto che le leggi fondamentali della natura fossero state ormai scoperte, credenza che si andava diffondendo anche fra molti fisici. Ma un primo sintomo dell’immanente rivoluzione si poteva già riscontrare nelle equazioni di Maxwell, in cui le forze elettromagnetiche si propagano con una velocità finita, corrispondente a quella della luce, a differenza delle reazioni istantanee tipiche della meccanica newtoniana (si pensi alla forza di interazione gravitazionale). Le premesse erano quindi mature per le due grandi rivelazioni di inizio secolo: meccanica quantistica e relatività. DALLA RELATIVITÀ RISTRETTA ALLA GENERALE Spesso si ignora l’esistenza di un principio di relatività classico, detto anche galileiano o newtoniano, che afferma: “Tutti i sistemi di riferimento che si muovono con velocità costante rispetto a un sistema di riferimento inerziale sono anch’essi inerziali2”. Tuttavia questo principio non era valido per l’elettromagnetismo, forzando la fisica a formulare alcune bizzarre teorie, come quella dell’etere3, per giustificare fenomeni apparentemente inspiegabili. Tutte le contraddizioni alle quali conduceva il modo di ragionare della fisica classica furono finalmente spazzate via nel 1905 quando Einstein pubblicò la teoria della relatività ristretta, valida nel caso di sistemi in moto rettilineo uniforme l’uno rispetto all’altro: I postulato: le leggi della fisica sono le stesse in tutti i sistemi inerziali Questo enunciato estende la formulazione classica anche ai fenomeni elettromagnetici, ripudiando il concetto di tempo assoluto II postulato: la velocità della luce nel vuoto è c=300000km/s indipendentemente dal moto della sorgente e dell’osservatore È bene ricordare in proposito che gli insoliti fenomeni relativistici si manifestano solo a velocità prossime a quella della luce, la massima velocità raggiungibile La relatività generale (1916) generalizza le leggi, inizialmente valide solo per i sistemi in moto rettilineo uniforme l’uno rispetto all’altro, e le estende anche a quelli non inerziali, qualunque sia il moto degli osservatori. Come la relatività galileiana è un caso particolare di quella ristretta, quest’ultima rappresenta un caso particolare della generale. SPAZIO E TEMPO Il filosofo Immanuel Kant considerava spazio e tempo entità assolute, unici parametri in base ai quali venivano classificate le intuizioni sensibili dell’uomo. Fino alle soglie del XX secolo anche in fisica c’era la concezione di spazio e tempo come realtà mediante le quali i potevano effettuare misurazioni ripetibili in qualsiasi condizione con il medesimo risultato. Già in passato Galileo intuì il problema della relatività delle osservazioni e Newton affermò che solamente il tempo era assoluto, mentre lo spazio era relativo al sistema dell’osservatore. Lo scienziato pisano arrivò addirittura a sfiorare le idee di Einstein, potendole applicare soltanto a sistemi inerziali meccanici, data l’inesistenza di studi elettromagnetici. La teoria einsteiniana si prefiggeva infatti come scopo quello di poter permettere a ogni osservatore di trasferire la rappresentazione della realtà da un sistema di riferimento a un altro, semplicemente eliminando l’idea di tempo assoluto, considerandolo invece una quarta dimensione misurata nelle stesse unità di misura delle prime tre, moltiplicando la velocità della luce per il tempo, ottenendo una sorta di legge oraria del moto (T misurato in m/km = c·(t misurato in sec)): persa la loro assolutezza, spazio e tempo esistono solamente come unione inscindibile, dimensioni di una nuova realtà. Avendo infatti la luce una velocità fissa ed essendo gli osservatori in diversi sistemi in disaccordo dallo spazio percorso da questa, devono conseguentemente essere in disaccordo anche sul tempo impiegato. Avendo la luce una velocità finita, insieme al concetto di tempo cambia conseguentemente anche quello di simultaneità essendo impossibile osservare due eventi a distanze diverse dall’osservatore, in quanto giungerebbero in istanti diversi: solamente sincronizzando due orologi situati nei rispettivi sistemi di riferimento, è possibile verificare la simultaneità di due avvenimenti. La situazione si complica maggiormente se i due sistemi Gli scientisti sono coloro che interpretano (erroneamente) il sapere scientifico in un’ottica positivistica, credendo che il la scienza sia sempre prossima alla conoscenza totale della natura. 2 I sistemi inerziali sono tutti quelli in cui è valido il principio d’inerzia, o primo principio della dinamica, ovvero quei sistemi sui quali non agiscono forze (o la risultante di queste è nulla). 3 Al tempo si riteneva che, come per le onde meccaniche, la luce potesse propagarsi solo in presenza di un mezzo, non nel vuoto. Quest’ipotetico mezzo sarebbe dovuto essere l’etere. 1 5 Quaglino Alessio V Scientifico A Fede e scienza non sono in quiete, bensì in moto; in questo caso due eventi sono contemporanei quando, misurati da orologi sincronizzati nei siti dove gli eventi si manifestano, avvengono esattamente alla stessa ora. Ciò sembra estremamente banale, ma tutto si complica quando uno dei sistemi considerati si muove alla velocità della luce: nascono così il paradosso dei gemelli e del garage. Il primo, probabilmente il più noto, afferma che se due gemelli vengono separati e uno di questi viaggia alla velocità della luce per un consistente intervallo di tempo nello spazio, al suo ritorno sulla Terra sarà notevolmente più giovane del fratello che è rimasto in uno stato approssimativamente di quiete. Questo paradosso (tale solo in relazione al senso comune) ha poi trovato più di una conferma in sperimentazioni effettuate con precise misurazioni mediante orologi atomici. Nel secondo paradosso si considera un’automobile lunga quanto un garage lanciata alla velocità della luce, a colui che osserva la scena l’auto sembrerà restringersi mentre il guidatore otterrà la percezione opposta4; il paradosso consiste nell’impossibilità di giudicare chi sia in errore: infatti entrambi hanno ragione perché entrambi pensano di essere in quiete e vedono l’altro in movimento. Tutto questo porta alla considerazione che qualsiasi rappresentazione figurata non sarà mai in grado di descrivere un fenomeno relativistico neanche mediante espedienti, come un pittore che usa la prospettiva per simulare la tridimensionalità, solamente perché non esiste una realtà universale ma soltanto individuali, associate ai singoli osservatori. Per comodità d’ora in poi si adotterà come piano di riferimento quello individuato dall’asse delle ordinate del tempo e da quello delle ascisse dello spazio. In questo sistema un evento rappresenta un punto qualsiasi del piano, e la linea di universo non è altro che il succedersi degli eventi a partire da un punto chiamato, appunto, di universo. L’inclinazione di questa linea determina la velocità del moto, è quindi immediata l’individuazione di due sistemi in quiete relativa fra loro, sono infatti paralleli. PASSATO, PRESENTE E FUTURO Già dalle equazioni di Maxwell si deduceva, com’è stato poi confermato da verifiche sperimentali, che la velocità della luce doveva essere la medesima qualsiasi fosse quella della sorgente. Ne segue che, se un impulso di luce viene emesso in un tempo particolare in un particolare punto dello spazio, esso si propagherà verso l’esterno nella forma di una sfera di luce le cui dimensioni e posizione sono indipendenti dalla velocità della sorgente, un fenomeno simile alle onde generate dalla caduta di un sasso in uno stagno. Se si pensa a un modello tridimensionale formato dalla superficie bidimensionale dei cerchi di luce (sezioni della sfera) e dalla dimensione unica del tempo, il cerchio in espansione delimiterà un cono il cui vertice si trova nel punto di universo della sorgente. Questo cono è chiamato cono di luce del futuro dell’evento. Nello stesso modo è possibile disegnare il cono di luce del passato, che è l’insieme di eventi da cui un impulso di luce può raggiungere l’evento dato. Lo spazio tempo risulta così diviso fra futuro assoluto, passato assoluto e l’“altrove”, ovvero l’insieme degli eventi che non possono influire o non subiscono conseguenze da ciò che accade nel punto di universo. Essendo c la velocità massima possibile, tutte le linee di universo generate in quel punto devono essere contenute nel cono. In questo contesto si diffuse la credenza (peraltro valida prima di Heisenberg) che, conoscendo gli eventi appartenenti al passato assoluto, si può predire con esattezza ciò che accadrà nell’origine. Sempre seguendo solo questa teoria si deve arrivare alla conclusione che l’Universo abbia avuto un inizio (Big Bang), e che qualunque cosa sia successa precedentemente sia irrilevante per il suo futuro (si tratta quindi di una singolarità). LA CURVATURA DELLO SPAZIO-TEMPO Quest’ultima scoperta, chiamata principio di equivalenza implica una novità sconvolgente: non c’è più bisogno di una forza gravitazionale (in ogni caso valida se le forza in gioco non sono molto intense), questa diventa solamente una proprietà geometrica dello spazio-tempo. La sola presenza di un corpo dotato di massa modifica le proprietà dello spazio che lo circonda, incurvandolo. Ogni qualvolta che un corpo entra in un campo gravitazionale, esso si muove come una particella libera lungo la traiettoria più breve possibile, detta geodetica; come se ponessimo delle palle da biliardo su di un lenzuolo. La forza newtoniana è quindi soltanto apparente, conseguenza delle modificate caratteristiche dello spazio: sempre nel nostro lenzuolo, due gravi sferici, dopo averlo deformato localmente, cercheranno di andare uno nella zona dell’altro. Queste teorie formulate da Einstein sembrarono assurde ai contemporanei, ma successivamente furono provate dai fatti: lenti gravitazionali, redshift degli spettri, rallentamento degli orologi sono ipotesi oramai confermate e condivise da tutto il panorama scientifico. All’appello mancano solamente le onde gravitazionali, ipotizzate dal fisico ma non ancora individuate dalle apparecchiature odierne, sebbene alcuni loro effetti indiretti siano stati osservati e misurati da Hulse e Taylor, vincitori del Nobel nel 1993 per queste loro scoperte, in un sistema formato da una pulsar e una stella di neutroni. La loro reale individuazione resta tuttavia una delle principali sfide della fisica moderna. Reciprocità evitata nel paradosso dei gemelli, perché quello che viaggia allontanandosi dalla Terra per poi ritornare risulta soggetto a forze 4 6 Quaglino Alessio V Scientifico A Fede e scienza MECCANICA QUANTISTICA FENOMENI INSPIEGABILI DELLA FISICA CLASSICA Già dalla creazione del modello atomico di Bohr-Rutherford si era dovuto postulare l’esistenza di particolari caratteristiche degli atomi (come la disposizione degli elettroni negli orbitali), derivanti dall’esperienza ma inspiegabili mediante le leggi della fisica classica. Fu così che grazie alla risoluzione di due problemi apparentemente isolati, il corpo nero e l’effetto fotoelettrico, si pervenne alla più grande rivoluzione scientifica del novecento. Nell’esame dello spettro di un corpo nero, infatti, le teorie classiche prevedevano un comportamento diametralmente opposto a quello riscontrato in laboratorio, mettendo in crisi la teoria dell’irraggiamento. Per ovviare a questa contraddizione Max Planck (1900) propose un’idea basata sul fatto che la radiazione emessa dal corpo nero sia costituita da una serie discontinua5 di atti elementari, a ognuno dei quali è associato una specie di pacchetto di energia proporzionale alla frequenza della radiazione (E=hv), quantità molto piccola in grado di influire solamente in una dimensione microscopica. Nonostante questa sconvolgente scoperta, i quanti furono dimenticati per qualche anno, sino a quando Albert Einstein li introdusse ufficialmente per spiegare l’effetto fotoelettrico e per sviluppare l’interazione fra la radiazione e la materia, divenendo un concetto fondamentale insito in qualsiasi tipo di radiazione. CREAZIONE DELLA MECCANICA QUANTISTICA Con l’affermazione della teoria di Planck, nasceva la necessità di costruire una nuova meccanica atomica mediante una revisione delle teorie di Bohr, così come si era già operato per la meccanica relativistica, che tendesse alla fisica classica per i fenomeni macroscopici, non intaccati dall’esiguo valore della costante h. Si arrivò alla formulazione di due teorie, due diverse rappresentazioni, in grado di sostituire completamente l’impostazione classica, per esprimere il medesimo concetto: la meccanica ondulatoria di Schrödinger e la meccanica delle matrici di Heisenberg. La prima utilizza il calcolo differenziale, mentre la seconda usa le matrici, note già da tempo ma non utilizzate dalla fisica classica. DUALITÀ ONDA-CORPUSCOLO DELLA MATERIA Uno degli aspetti della teoria più difficili da accettare, introdotto per spiegare l’effetto fotoelettrico, consiste nella dualità onda-corpuscolo, ovvero le radiazioni elettromagnetiche devono essere considerate caratterizzate da un duplice aspetto in evidente contraddizione. Ciò viene in parte risolto (ma complicato) dal fatto che in nessun fenomeno è necessario far intervenire simultaneamente entrambi gli aspetti, che sono quindi complementari. Quello corpuscolare è più cospicuo per le alte frequenze (energia maggiore) mentre quello ondulatorio si manifesta a quello più basse (maggiori fenomeni di interferenza). Questi aspetti, inizialmente riferiti alle radiazioni luminose, furono poi estesi da De Broglie anche per gli elettroni, arrivando così a esprimere in forma analitica una relazione fra massa, velocità e lunghezza d’onda grazie alla mediazione della costante di Planck. Grazie a questi risultati Schrödinger riuscì a costruire una meccanica ondulatoria che riusciva a motivare gli aspetti precedentemente inspiegabili della teoria atomica di Bohr. Questa doppia personalità aveva però lasciato il mondo fisico in uno stato di tale sgomento che causò il diffondersi di numerosi esperimenti che portarono però alla conclusione di considerare i fotoni indefiniti fino all’istante in cui, in seguito a un intervento strumentale diretto, vengono evidenziati come onde o come corpuscoli. Questo paradosso, in seguito esteso a tutti gli oggetti macroscopici dotati di massa, fu poi ampiamente dimostrato nei fenomeni di interferenza e diffrazione degli elettroni, trasformando così gli orbitali definiti dell’atomo in nuvole elettroniche, indicanti la densità di probabilità di esistenza dell’elettrone attorno al nucleo. Richard Feynman spiega che l’incomprensione di questi fenomeni di interferenza derivano dall’impostazione classica di supporre che le particelle abbiano una singola storia nello spazio-tempo, se invece supponiamo che percorrano ogni traiettoria possibile fra due punti, tramite alcuni calcoli (talmente complessi da divenire irrealizzabili), sarebbe possibile verificare le probabilità che compiano il loro percorso. Si può riassumere il discorso con le parole di Bohr: “ogni esperienza capace di evidenziare una particella da un punto di vista corpuscolare esclude la possibilità di determinare il suo aspetto ondulatorio” (principio di complementarietà). Risulta quindi evidente come nella logica di Bohr i due concetti, apparentemente contrastanti, sono ora compatibili e i risultati dipendono solamente dalle apparecchiature utilizzate; quindi per cogliere appieno alcuni aspetti del mondo microfisico occorrono due descrizioni che singolarmente si escludono ma che insieme si completano. Una grandezza si definisce continua quando non può essere espressa da un numero intero, ma solo reale. Così in un intervallo fra due punti si può sempre trovare un altro punto. Una quantità si definisce invece discontinua (o discreta) quando può essere espressa per mezzo di un numero intero, cosicché è pensabile farla variare in termini di unità. 5 7 Quaglino Alessio V Scientifico A Fede e scienza IL PRINCIPIO DI INDETERMINAZIONE In realtà, la meccanica quantistica non è in grado di fornire un’informazione completa quando si considera un singolo evento prodotto da una singola particella, ma può soltanto comunicare informazioni di tipo statistico. Fino a quando non viene osservata, la particella non si trova in nessuno degli stati probabili, è solo l’intervento esterno di un osservatore che ne determina la condizione. Il contesto si complica maggiormente quando un fisco della cosiddetta “scuola di Copenaghen”, Werner Heisenberg nel 1926 afferma, e dimostra, che conoscere significa misurare, e misurare significa sempre perturbare il sistema e, quindi, le grandezze che lo caratterizzano. Questo perché, a seguito di una particolare interazione con conseguenze imprevedibili, chiamata effetto Compton, esiste fra l’oggetto e lo strumento di misura uno stato correlato che si estrinseca in uno scambio energetico, ovvero in una modifica delle sue grandezze cinematiche. L’agente usato nella misura (concettualmente non minore di un fotone) è altrettanto grande quanto l’oggetto, ed anche con metodi di misura perfezionati all’infinito la determinazione simultanea di due grandezze coniugate6 fra loro, come la posizione e la velocità, sono sempre stabilite con una certa indeterminazione. Da qui il principio di indeterminazione di Heisenberg afferma che le possibilità di conoscenza delle grandezze sono inversamente proporzionali, e l’incertezza sarà maggiore o tutt’al più uguale alla costante di Planck. Per la profonda coerenza della teoria quantistica, questa relazione è valida per ogni fenomeno che avviene in natura, solo che nel mondo macroscopico il margine di errore è così piccolo (h) che appare trascurabile in relazione agli errori sperimentali delle misure. Tutto ciò è una diretta conseguenza della dualità onda-corpuscolo, e l’indeterminazione, che lo vogliamo o meno, è insita nella natura delle cose. Questa nuova epistemologia7 cambiò completamente la concezione deterministica dell’epoca, influenzata da Laplace e dalla particolare interpretazione dello spaziotempo einsteiniano, secondo cui, conoscendo lo stato di un sistema (posizione e velocità) e le forze agenti su di esso, fosse possibile determinare coerentemente l’evolversi dello stesso mediante la meccanica newtoniana. Si giustificava la temporanea impossibilità di questa facoltà affermando che ciò sarebbe stato possibile solamente perfezionando all’infinito gli strumenti di misura, in modo da eliminare le imperfezioni sperimentali. Ma, essendo il calcolo delle probabilità, grazie ad Heisenberg, diventato una nozione basilare della nuova meccanica, è evidente che le nostre possibilità di osservazioni sono limitate indipendentemente dagli strumenti utilizzati. La rigorosa e ovvia causalità della fisica classica crolla per una sua impossibilità concettuale. Nonostante i molti tentativi, anche da parte dei suoi fautori (come Einstein e Schrödinger), nessuno è riuscito a sostituire questa nuova fisica con un’altra teoria migliore, anzi si ritiene che le scoperte più sensazionali siano quelle che non sono ancora state fatte. In generale due grandezze sono coniugate quando la prima descrive un sistema in termini di spazio e tempo, mentre la seconda precisa il suo stato dinamico. 7 L’epistemologia è la disciplina che si occupa dello studio delle condizioni di validità del sapere scientifico. 6 8 Quaglino Alessio V Scientifico A Fede e scienza I COSTITUENTI ULTIMI DELLA MATERIA E LA GRANDE UNIFICAZIONE DIVERGENZE E INCONCILIABILITÀ La teoria della relatività generale di Einstein sembra governare la struttura su vasta scala dell’Universo. Essa è una cosiddetta teoria classica, ciò significa che non tiene conto del principio di indeterminazione; la ragione per cui non conduce ad alcuna discrepanza con l’osservazione è che tutti i campi gravitazionali da noi sperimentati sono molto deboli. Ci sono però alcuni casi (buchi neri e big bang) in cui dovrebbero giungere a livelli tali da essere considerevolmente influenzati dalla meccanica quantistica: così la relatività predicendo punti a densità infinita, predisse al tempo stesso il proprio crollo, esattamente come era già successo alla meccanica classica. Purtroppo la scienza non possiede ancora una teoria coerente completa che unifichi la relatività con i quanti, ma già conosce le caratteristiche che dovrebbe possedere. ESPLOSIONE DEMOGRAFICA DELLE PARTICELLE La ricerca dei costituenti ultimi e indivisibili della materia, iniziata dai filosofi greci, continua ininterrotta da oltre venti secoli. La maggior parte degli studiosi, infatti, è convinta che ogni cosa esistente in natura sia composta da un numero limitato di “mattoni fondamentali”. La prima particella che verso la fine dell’Ottocento fu creduta elementare fu l’atomo (dal greco atomos indivisibile), poi la scoperta dei nucleoni (protone neutrone ed elettrone)e del fotone, al momento attuale si ritiene ufficialmente che siano i quark, nonostante sussistano ancora numerose e fondate motivazioni per dubitarne l’elementarità. Per elementare, concetto sempre in evoluzione, si deve intendere ogni elemento di materia di cui al momento attuale non si conosce la struttura; anche il concetto di particella, apparentemente scontato per secoli come qualcosa di indivisibile e non modificabile, deve essere sostituito in quanto esse possono trasformarsi ed essere create l’una dall’altra. Furono pertanto la scoperta dello spin8, che fece perdere la simmetria geometrica dei corpuscoli, dell’antimateria, che fece mutare la concezione materialistica della natura, e la relatività, che fornì la possibilità di creare particelle mediante grandi quantità di energia, gli spunti da cui si originò il Modello Standard basato sui quark, oggi teoria ufficiale della fisica subnucleare. L’incredibile aumento di numero delle particelle create negli acceleratori di particelle, raddoppiato dall’ulteriore esistenza dell’antimateria, demolì l’apparente semplicità della concezione dell’epoca. MATERIA O ANTIMATERIA? Al momento tutto lo spazio cosmico sembra strutturato da materia ordinaria, e questa è composta particelle sempre più piccole, anche se non sempre più semplici. Per ogni tipo di particella esiste però un corpuscolo, identico in massa e vita media ma opposto in alcune proprietà come la carica elettrica, chiamato antiparticella: questo accoppiamento è stato introdotto a livello teorico da Dirac e poi confermato sul campo. Nonostante le leggi della natura non esprimano alcuna preferenza nei confronti dell’una o dell’altra, al di fuori dei laboratori di fisica l’antimateria è del tutto assente e sconosciuta e l’ipotesi che esistano settori dell’universo costituiti da antimateria non è suffragata dal rilevamento di radiazioni, causate dall’annichilirsi delle loro zone di confine. Questo mancato equilibrio è dunque originario o si è prodotto nel corso degli anni? I segnali del cosmo non indicano nulla in proposito, ma alcune teorici affermano che l’equilibrio si sarebbe rotto durante i processi iniziali di decadimento negli istanti successivi al Big Bang; tuttavia queste teorie non sono state ancora verificate e questo ha portato alcuni scienziati (o scientisti?) a formulare divertenti congetture. Se, infatti, l’antimateria fosse respinta dalle masse conosciute, si potrebbe ipotizzare l’esistenza di un antimodo, popolato da antiuomini e antidonne. Una cosa è certa: se fosse stata l’antimateria a prevalere alla nascita dell’universo, noi la chiameremmo materia, sempre che il principio antropico ce lo permetta9. Il concetto di spin, introdotto da Pauli, in termini classici è spiegabile come il momento angolare della rotazione di una particella attorno al proprio asse. Questa quantità è inoltre in grado di conferire particolari tipi di simmetrie in relazione al valore che assume. 9 Secondo Carter tutto ciò che esiste, fra le infinite possibilità, è così e non altrimenti proprio perché possiamo porci la domanda: <<Perché l’universo è così e non altrimenti?>>. Ovvero, se non fosse così non ci sarebbe nessuno a porsi questo interrogativo. 8 9 Quaglino Alessio V Scientifico A Fede e scienza LE QUATTRO FORZE FONDAMENTALI Elettromagnetica, gravitazionale, interazione forte e debole. Queste sono le colonne su cui si regge la materia e da cui derivano tutte le leggi della natura. Le ultime due sono le cosiddette interazioni nucleari, esistenti solamente a piccolissime distanze, ma indispensabili poiché permettono la solidità dei nuclei atomici (interazione forte) e i processi nucleari che avvengono nelle stelle, senza di esse la materia e la vita non potrebbero quindi esistere. Per quanto riguarda la forza elettromagnetica, nonostante sia stata ampiamente studiata e quantizzata a livello dell’elettrone, non si è ancora in grado di poter spiegare la vera origine di quest’attrazione (o repulsione) fra le cariche, così come la loro origine ed eterna conservazione. Nella moderna teoria dei campi è opinione diffusa che ogni processo d’interazione si svolge attraverso lo scambio di una particella intermedia, chiamata quanto mediatore, la cui massa è inversamente proporzionale alla distanza d’interazione. In base a questa previsione, verificata da una numerosa serie di fatti sperimentali, la forza elettromagnetica, ad esempio, si esplica mediante la trasmissione e l’assorbimento di fotoni10 creati dalle cariche, quindi a velocità finita; anche i bosoni e i gluoni (particelle virtuali11), rispettivamente portatori delle interazioni nucleari deboli e forti, sono stati osservati, all’appello mancano solo i gravitoni, probabilmente a causa della debole intensità dell’attrazione gravitazionale. MODELLO STANDARD Premesso che allo stato attuale non esiste ancora una teoria completa e coerente12 capace di spiegare e predire ogni fenomeno subnucleare e ammessa l’esistenza di un numero limitato di oggetti elementari da cui si originano le altre particelle, il modello che per ora permette di compiere previsioni il più possibile in accordo con i dati sperimentali, è quello detto “a quark” (o Standard). Il 26 Aprile 1994 si è conclusa la ricerca dei 6 quark (3+3 antiquark) ipotizzati per la formazione di tutte le particelle conosciute ma, a causa della continua scoperta di nuove particelle il loro numero è probabilmente destinato ad aumentare. Come insegna la storia della fisica, con l’aumento delle unità ritenute fondamentali si perde il requisito stesso di elementarità, preannunciando il salto a un livello ulteriore. Infatti, a causa del principio di esclusione di Pauli, si è dovuto introdurre un nuovo fattore discriminante fra i quark, chiamato metaforicamente “colore” che ha portato alla creazione della cromodinamica quantistica, ovvero a una nuova complicazione di queste particelle (teoricamente) “semplici”. Il modello comincia quindi a mostrare gli stessi sintomi che avrebbe dovuto curare; anche se tutti i dati sperimentali sono in accordo con le previsioni del M.S., manca accora all’appello la particella fondamentale: quella che, per così dire, inventa la materia, ovvero che fornisce e differenzia la massa delle particelle, la cosiddetta “particella di Higgs”, dal nome di colui che per primo ne teorizzò l’esistenza. La ricerca del bosone di Higgs è al giorno d’oggi uno degli scopi principali degli esperimenti ad alta energia che vedono impegnati i più potenti acceleratori presenti al mondo. Un’ulteriore teoria ha ipotizzato i costituenti dei quark, individuati in soli due rishoni che, aggregati in triplette (come il DNA per la codifica delle proteine), sono in grado di formare tutti i quark e gli antiquark esistenti; le differenze fra questi non sono più di natura intrinseca, ma dovute a una metodologia combinatoria. Si spiegherebbe così la carica elettrica come direttamente correlata alla carica di colore, propria anche dei rishoni. Nonostante questo modello riesca a spiegare nella teoria le proprietà delle “ex” particelle elementari, è però prematuro assegnare una struttura interna ai quark, quando questi non sono ancora stati dimostrati. Inoltre attribuendo una sottostruttura all’elettrone si metterebbe in crisi il modello standard, dimostratosi capace di ottime previsioni fondamentali. 10 In questo caso i fotoni sono particelle virtuali in quanto non possono essere operativamente osservati ma solo ipotizzati. 11 A causa dell’indeterminismo l’incertezza della misurazione è superiore alla massa della particella, della cui esistenza non si avrà mai certezza sperimentale. 12 Si vedrà più avanti il significato filosofico-matematico e l’importanza di questi due termini apparentemente noti e semplici. 10 Quaglino Alessio V Scientifico A Fede e scienza LA LONGEVITÀ DEL PROTONE Alcune recenti teorie elaborate al fine di stabilire le condizioni necessarie per tentare di unificare le forze fondamentali portano come conseguenza la non stabilità della materia ordinaria; l’universo (e il vuoto) è pieno di particelle instabili che vengono continuamente create e dopo breve tempo decadono. Sorgono quindi spontanei alcuni interrogativi: perché fra tutte le particelle pesanti il protone, costituente fondamentale della materia, dovrebbe essere immortale? La materia è quindi creata per l’eternità? Per il solo fatto che strutturati da protoni, esistono l’uomo e gli oggetti, è possibile dire che la vita media dei protoni è maggiore di quella dell’universo; da dati sperimentali si può dedurre che dovrebbe essere compresa fra 1031 e 1034 anni, ovvero l’attuale età dell’Universo corrisponde alla loro prima infanzia. Ma, anche se la vita media fosse quella presunta, sulla base dei concetti della meccanica quantistica si potrebbe osservare una singola particella decadere solamente osservando una grande quantità di materia. Nonostante i molti tentativi, ostacolati inoltre dalla difficoltà di schermatura per evitare decadimenti spuri (non spontanei), questo evento non è stato ancora verificato e lascia un grosso interrogativo sulla materia in quanto, nonostante la teoria dei quark sia ufficialmente accettata, nessuno è ancora stato in grado di scindere un protone per un’osservazione diretta; questo problema ha addirittura portato alcuni fisici ad affermare che la loro esistenza deve essere accettata come è stato fatto con i principi della termodinamica. A tale scopo sono stati costruiti numerosi acceleratori di particelle ma, nonostante esperimenti di diffusione ne abbiano rivelato l’esistenza, gli esiti sono tuttora negativi; medianti gli acceleratori si è riusciti a distruggere una coppia positrone-elettrone ma questo ha portato alla formazione di una coppia quark-antiquark assolutamente inscindibile o, meglio, scindibile mediante un’energia che porta alla formazione di due nuove coppie, così come accade con l’esperimento della calamita spezzata. L’UNIFICAZIONE DELLA FISICA Einstein cercò, purtroppo invano, di sviluppare una teoria unificata di campo al fine di raccordare la gravità, intesa come proprietà geometrica dello spazio-tempo, con la teoria elettromagnetica di Maxwell; quest’impresa divenne ancora più difficile con la scoperta delle altre due forze di tipo nucleare. La difficoltà nel combinare relatività con la meccanica quantistica è dovuta al fatto che la prima è una teoria “classica”, ovvero non include il principio di indeterminazione, che sembra essere uno degli ingredienti fondamentali dell’universo in cui viviamo. Ci sono inoltre dei punti ancora poco chiari del modello standard: la crescente numerosità delle particelle elementari, l’esistenza degli sfuggenti bosoni di Higgs e i numerosi adattamenti della teoria che ricordano gli epicicli dell’astronomia precopernicana. Altre due domande, apparentemente solo speculative, assillano gli scienziati e i filosofi: perché le forze fondamentali sono quattro e assumono proprio quei valori? È evidente che noi viviamo in una sola delle possibili realtà che sarebbero potute esistere grazie solo a una piccolissima variazione di queste intensità, ma non ci spiegano come mai sia stata scelta proprio questa13. Nonostante queste limitazioni, la maggior parte dei fisici è convinta che in futuro sarà possibile la costruzione di una Grande Teoria Unificata (GUT), in grado di spiegare in maniera omnicomprensiva tutte le forze fondamentali. Ci sono tuttavia degli scienziati che obiettano a quest’eventualità affermando che le teorie non rappresentano principi naturali preesistenti, bensì un processo di elaborazione mentale, strettamente connesso con lo schema con cui gli uomini costruiscono le domande da porre alla natura14. La GUT è basata sul presupposto che le forze, simmetriche al momento del Big Bang, abbiano perso questa loro proprietà negli istanti successivi: per eliminare ogni differenza sarebbe quindi necessario ripristinare le condizioni iniziali dell’universo. I risultati sperimentali ottenuti da Rubbia sembrano confermare queste ipotesi, tuttavia l’energia richiesta per arrivare a compiere un simile esperimento sono al di fuori delle possibilità tecnologiche sia attuali sia future15. Per esplorare la materia a livello sempre più piccolo, occorrono quindi energie sempre più grandi. Pare quindi che la sequenza di particella elementari debba essere finita, in quanto se avessimo una particella tanto piccola da possedere un’energia superiore alla cosiddetta energia di Planck (dieci trilioni di GeV), la sua massa sarebbe concentrata da diventare un buco nero: energie inarrivabili se paragonate alle tecnologie attuali. Gli interessi dei fisici si sono pertanto spostati sul decadimento del protone, che potrebbe confermare l’equivalenza a grandi energie fra i quanti di materia e i quanti di forza; ma, ammessa la possibilità di questo evento, sarebbe ancora lontana l’unificazione fra meccanica quantistica e gravitazione einsteiniana. Ancora una volta la spiegazione sembra affidata al principio antropico. A questo proposito si ricordino gli studi di K.Gödel, che verranno analizzati in seguito. 15 Con le attuali tecnologie l’energia è direttamente proporzionale al diametro degli acceleratori di particelle, ovvero per un esperimento simile sarebbe necessario un acceleratore del diametro della Via Lattea. 13 14 11 Quaglino Alessio V Scientifico A Fede e scienza LA STRING-THEORY La stasi che aveva portato l’adottamento del modello a quark e gluoni, portò alla formulazione di nuove leggi di Supersimmetria che hanno sostituito la “supergravità” in voga negli anni settanta, non ancora confermate dalla scoperta degli ipotizzati “fratelli supersimmetrici”; questa teoria descrive le particelle come stati eccitati di sottilissime corde quantistiche (avente solo una dimensione pari a 10-35m) che nessun esperimento potrà mai rivelare in maniera diretta. Si è già visto che la storia di una particella, che occupa in ogni istante un punto dello spazio, può essere rappresentata da una linea di universo; una corda invece, occupando una linea (aperta o chiusa), individuerà una superficie bidimensionale chiamata foglio d’universo. Le predizioni di questa teoria si sono dimostrate identiche a quelle effettuate con la relatività, tranne che a distanze molto piccole, per questo la teoria fu trascurata fino al 1984 quando, in seguito ad alcuni studi sulla chiralità16 delle particelle, ne fu sviluppata una nuova versione, detta eterotica, che sembra essere in accordo con tutti i tipi di particelle. Quest’ipotesi può però essere formulata in maniera corretta solo a condizione che lo spazio-tempo abbia almeno dieci dimensioni, di cui sei sono inosservabili per l’uomo. Alcuni ipotizzano che queste potrebbero contenere la materia oscura, elemento introvabile di cui si percepisce la presenza, che tanto fa disperare gli astronomi nella sua ricerca. L’idea di avere molte dimensioni è già nota da tempo alla fantascienza, in quanto permetterebbe, come teorizzato anche da molti fisici, di superare la velocità della luce percorrendo traiettorie non permesse a elementi che si muovono in uno spazio quadridimensionale. La nostra percezione limitata può dipendere dal fatto che su grande scala lo spazio-tempo sembri piatto e a quattro dimensioni, mentre nel dettaglio (su scale di un pentilione di millimetro) potrebbe essere altamente incurvato e decadimensionale: in quest’ottica sarebbe comunque impossibile sfruttare le troppo piccole dimensioni extra per viaggi spaziali. Ancora senza risposta è la motivazione per cui solo quattro dimensioni si sono spianate dopo la genesi dell’universo mentre le altre restano nascoste come arrotolate in una palla, per questo ci si appella ancora una volta al principio antropico per colmare questa lacuna: il mondo in cui viviamo sembra quindi l’alternativa migliore (nonché l’unica) per la nostra sopravvivenza. Però la teoria delle corde non esclude la possibile esistenza di zone dell’universo formate diversamente, ma in queste regioni non ci sarebbero esseri intelligenti che osservano la diversa struttura del loro spazio-tempo locale. Quest’ipotesi può essere formulata in maniera corretta solo ipotizzando che lo spazio-tempo abbia almeno dieci dimensioni, di cui sei sono inosservabili per l’uomo e potrebbero contenere la materia oscura, elemento introvabile di cui si percepisce la presenza, che tanto fa disperare gli astronomi nella sua ricerca. Nonostante i primi successi, la teoria delle corde presenta ancora diversi problemi che devono essere risolti prima che si possa affermare di aver finalmente trovato la teoria unificata, se mai questo sarà possibile. Tuttavia, anche se raggiungessimo questo traguardo, non saremmo mai sicuri di aver ottenuto la teoria unificata che, in quanto tale, non può essere dimostrata. Essa dovrebbe fornire previsioni in accordo con le osservazioni, permettendo un errore pari a quello consentito dal principio di Heisenberg. 16 La chiralità riguarda studi sulla simmetria delle particelle. Queste possono essere identiche ma avere una chiralità sinistrorsa (come è nella maggior parte dei casi) o destrorsa, esattamente come la mano destra rispetto la sinistra. 12 Quaglino Alessio V Scientifico A Fede e scienza Cosmologia teologica 13 Quaglino Alessio V Scientifico A Fede e scienza Nel dibattito fra le diverse concezioni della scienza e del suo ruolo in una cultura, non è possibile prescindere dalla cosmologia, una disciplina che in questo secolo ha conosciuto uno sviluppo straordinario. La cosmologia è una scienza fondamentale, non perché si tratti della forma della scienza più elementare, ma piuttosto perché è la forma con un carattere di maggiore globalità. Si suppone, infatti, che tutte le leggi genuinamente scientifiche abbiano una validità universale, cioè che a esse siano soggetti tutti i corpi dell’universo. Gli studi sulla "nuova religiosità" hanno contribuito in modo rilevante a svelare il carattere profondamente ambiguo della modernità. In particolare, hanno mostrato come modernità scientifico-positivista e credenze mitiche non siano affatto, come comunemente si crede, due mondi fra loro irriducibili, ma piuttosto due facce della stessa medaglia, fra le quali si dipana una fitta rete di rapporti psicologici, storici e sociologici. È quanto appare nell’opera di uno dei maggiori storici della scienza viventi, il monaco benedettino Stanley L. Jaki, e, in particolare, nello studio “Dio e i cosmologi”, in cui l’analisi delle scoperte più recenti nel campo della cosmologia è occasione per una riflessione sul rapporto fra il significato dell’impresa scientifica e la nozione di Dio nel contesto culturale in cui essa si svolge. Questo lavoro nasce dalla necessità di rimuovere le cause anti-teologiche o pseudo-teologiche alla base dei conflitti fra la teologia cattolica e la scienza. Una causa anti-teologica è sicuramente lo sforzo fatto proprio periodicamente da alcuni che vorrebbero usare la scienza per veicolare il materialismo filosofico. Questo accadde, per esempio, quando, durante il secolo XVIII, il meccanicismo determinista della fisica newtoniana fu usato per negare l’esistenza dell’anima e del libero arbitrio. Veniva ampiamente ignorato il fatto che la fisica di Newton riguardasse il mondo fisico, la materia e il moto e non questioni come quella relativa al libero arbitrio o all’esistenza dell’anima, che non possono certo essere oggetto di misurazioni. Allo stesso modo veniva ignorato il fatto che mai Newton fece propria l’opinione secondo cui è vero solo quanto può essere esaminato dalla fisica. Qualcosa di simile ebbe luogo nel XX secolo. Sebbene la teoria della relatività di Einstein sia la più "assolutistica" di tutte le ipotesi scientifiche mai proposte, viene fatta passare come una prova a sostegno del principio secondo cui tutto è relativo. Lo stesso tipo di abuso si compie quando si invoca la teoria dei quanti a sostegno della tesi secondo cui, almeno al livello atomico e a quello subatomico, le cose avvengono senza una causa. Per smascherare tali abusi della scienza e del metodo scientifico lo studio della storia della scienza è molto efficace. Si noti come i nemici della Chiesa abbiano sempre ritenuto opportuno pubblicizzare per i loro scopi le deduzioni erronee fatte proprie da alcuni ecclesiastici. Perché allora non fare lo stesso nei confronti di quanti promuovono lo scientismo in nome della scienza? La teologia cattolica non ha motivo di aver paura di una scienza non contaminata dallo scientismo. Essa dovrebbe piuttosto aver paura alcuni di pseudo-teologi, di quanti non fanno proprio completamente il principio secondo cui la Rivelazione non consiste nel descrivere come vadano i cieli, ma piuttosto… nel come si possa andare in Cielo. L’UNIVERSO RICONQUISTATO Il travaglio culturale che portò, nel volgere di trecento anni, dalla fine del Cinquecento all’inizio del secolo XX, all’identificazione dell’universo come oggetto d’indagine scientifica. Che si sia trattato di un travaglio e non di una nascita improvvisa è prova il fatto che solo dal 1917, con la pubblicazione da parte di Albert Einstein di un saggio sulle conseguenze cosmologiche della sua teoria della relatività generale, si può parlare dell’universo come di un oggetto indagabile scientificamente. Al contrario, nei tre secoli che vanno dalle prime osservazioni celesti con il telescopio fino ai primi anni del Novecento, la nozione scientifica di universo ha più volte rischiato di abortire e certo non per colpa dell’oscurantismo clericale. A costituire una minaccia per la nascita scientifica dell’universo furono l’idea della sua infinità e, conseguentemente, della sua eternità, ciò che lo avrebbe sottratto a ogni possibile "misura" scientifica in quanto privo di limite e di durata, le due qualità indispensabili perché la scienza possa operare secondo il proprio statuto gnoseologico. Una condizione fondamentale risiede nel riconoscimento di una caratteristica speciale, posseduta da tutte le leggi universalmente valide e utilizzabili a fini scientifici: il carattere quantitativo. Finché si considererà l’universo come un animale vivente, mancherà lo slancio intellettuale necessario all’individuazione del carattere quantitativo di tali leggi. Ogniqualvolta nella storia prevalsero forme di panteismo, e questo fu il caso delle culture antiche, il mondo fu considerato come un’entità vivente. E le entità viventi sono regolate da appetiti, da atti di volizione che non possono essere descritti in termini quantitativi o, comunque, che ispirano quasi sempre leggi quantitative che si rivelano poi completamente false. Per un pagano colto, la conversione al cristianesimo implicava una scelta fra due tipi di monogenes: il primo era un essere in corpo e sangue, Cristo, il secondo era l’universo. Questa è anche la ragione per cui la fede in Cristo è un utile baluardo contro le sempre presenti tentazioni di panteismo. E il panteismo è fortemente presente oggi in diverse correnti ecologiste. Fra le conseguenze di questo argomento vi era anche la confutazione di una visione pagana secondo cui solo le leggi delle sfere celesti sopra-lunari erano precisamente razionali mentre sotto il cielo della Luna le cose sembravano regolate da una certa mescolanza di razionalità e di irrazionalità. L’argomento di Newton secondo cui la caduta di una mela e il procedere della Luna nella sua orbita erano governati dalle stesse leggi sarebbe stato inconcepibile per i panteisti dell’antichità. 14 Quaglino Alessio V Scientifico A Fede e scienza Il "partito" dell’infinità cosmica, poco numeroso nel corso del secolo XVIII, era tuttavia fortemente caratterizzato: ben pochi intorno al 1700, o anche più tardi, proposero un universo infinito, coloro che appoggiarono quest’idea, filosofi per la maggior parte, quasi invariabilmente vi videro una comoda scusa per fare a meno di un Dio veramente trascendente. E si tratta di Giordano Bruno, di Baruch Spinoza, degli illuministi tedeschi, di Immanuel Kant e degli idealisti. Naturalmente questa ansia di infinito, che in Immanuel Kant si spinse fino a ipotizzare un numero infinito di universi, non era dettata da zelo religioso, ma dal postulato idealistico della inconoscibilità del reale. Secondo dom Stanley L. Jaki, in questo consiste propriamente la minaccia portata dall’infinità cosmica: la sostituzione del mondo reale con gli enti prodotti dalla ragione, una ragione libera da ogni sottomissione a un Creatore che, al contrario, può essere conosciuto solo se vi è un universo reale. Naturalmente ciò non impedì che l’universo tornasse ad essere un concetto valido, ma il disagio idealistico nei confronti di un cosmo reale fece sì che gli uomini di scienza e di filosofia dei primi decenni del secolo XX non apprezzassero adeguatamente il ritrovamento. Del resto ancora oggi scienziati e filosofi, ma il discorso riguarda anche "[…] preti, ecclesiastici e cristiani in generale, devono rendersi conto che il maggior sviluppo nella cosmologia scientifica sta nella testimonianza che l’universo è stato riconquistato". NEBULOSITÀ DISSIPATA Il fatto che l’universo fisico sia caratterizzato da grandezze in qualche modo misurabili, quali la massa totale e il raggio massimo, pone immediatamente la domanda sul perché questi valori e non altri, equivalente alla domanda sul perché questo universo e non un altro. La specificità del nostro universo rimanda, in altri termini, alla sua contingenza perché, essendo sempre possibile immaginarne uno diverso da quello che conosciamo, non vi sono ragioni apparenti perché esista, appunto, questo e non un altro. Solo relativamente all’universo è possibile chiedersi: perché questo universo e non un altro? Se si riflette seriamente su tale domanda si arriva inevitabilmente a riconoscere la natura contingente di questo universo, dipendente cioè da una scelta compiuta metafisicamente "fuori" di esso. In breve, a meno che non si abbia una visione contingente dell’universo, non sarà possibile fare di esso oggetto di una qualsivoglia indagine cosmologica. Per quanto semplice possa essere descritto, un universo, dimostrato dalla scienza come reale e specificamente tale, indicherà un’origine al di là delle sue fasi specifiche, un fattore metafisicamente oltre l’universo. LO SPETTRO DEL TEMPO La transitorietà del cosmo si affacciò sulla scena scientifica verso la fine degli anni 1920, quando, dalle equazioni di campo gravitazionale, si cominciarono a ricavare soluzioni non statiche, ovvero dipendenti dal tempo, e le osservazioni astronomiche rivelarono che l’universo era di fatto soggetto ad uno specifico moto globale, e ad un’espansione, che è sempre un segno di transitorietà. "Da allora l’universo è stato ossessionato dallo spettro dello scorrere del tempo verificabile scientificamente, e gli sforzi che ebbero la pubblicità più ampia nella cosmologia scientifica moderna furono quelli che miravano a dissolvere quello spettro". Questo fatto fu particolarmente evidente nei paesi a regime comunista, e specialmente in Unione Sovietica, dove i cosmologi scientifici non potevano far altro che adottare la linea del partito. Secondo quell’ideologia l’eternità della materia era un dogma "scientifico" fin dalla pubblicazione della prima autorevole interpretazione comunista della scienza, e come tale condizionò la ricerca cosmologica fino alla fine degli anni 1970. In Occidente, al contrario, la sollecitudine con cui molti cosmologi appoggiarono la causa dell’eternità della materia non poteva essere il riflesso di una paura di ritorsioni politiche. Secondo dom Stanley L. Jaki, questa disponibilità "riflette la logica secondo la quale un occidente che progressivamente si allontana dal cristianesimo opta naturalmente per il materialismo", la cui adozione implica altrettanto “naturalmente il desiderio di avere notizie "scientifiche" che annuncino che l’universo non avrà mai un giorno del giudizio”. La teoria dello stato stazionario, proposta nel 1947 da Thomas Gold e da Hermann Bondi rispondeva a questo desiderio. Il cuore della teoria è la creazione continua di materia: atomi di idrogeno comparirebbero continuamente dal nulla in quantità tale da bilanciare la diminuzione di densità dovuta all’espansione dell’universo. In questo modo il paesaggio cosmico, pur allargando il proprio orizzonte a causa dell’espansione, rimane identico a sé stesso e, quindi, immune al trascorrere del tempo. La teoria ebbe una notevole diffusione negli anni 1950, soprattutto grazie a una massiccia propaganda attraverso opere divulgative, per poi tramontare all’inizio degli anni 1960, di fronte all’incalzare dell’evidenza sperimentale — nessuno osservò mai un protone apparire dal nulla —, ma non, come ci si sarebbe atteso, sotto il peso della sua povertà metafisica. Tanto è vero che l’eternalismo, lungi dall’essere abbandonato, continua ancor oggi a rappresentare la speranza soggiacente di molte ricerche e il tema dominante delle teorie cosmologiche che comportano un universo chiuso. 15 Quaglino Alessio V Scientifico A Fede e scienza L’OMBRA DI GÖDEL Le cosiddette "teorie del tutto" o "teorie definitive", nella loro versione estrema, tentano di ridurre a un’unica formula l’intera fenomenologia fisica, essendo fondate sul duplice postulato che l’universo non può non esistere e non può non essere quello che è. In altri termini, secondo tali teorie, l’universo avrebbe in sé le ragioni della propria esistenza e questa autoconsistenza dovrebbe emergere dallo stesso apparato fisicomatematico con cui viene descritto il mondo fisico. La ricerca di una teoria definitiva è il tema conduttore di un’opera, Dal Big Bang ai buchi neri, divenuta ben presto un successo mondiale sia per la fama del suo autore, il fisico-matematico inglese Stephen W. Hawking, titolare della cattedra di matematica a Cambridge, sia per l’imponente pubblicità che ne ha accompagnato l’uscita, accreditandola come l’ultima parola in materia di questioni fondamentali come lo spazio, il tempo, la creazione e Dio. La critica che lo studioso benedettino muove a quest’opera, esemplare di una pubblicistica scientifico-divulgativa molto diffusa, è costruita intorno alla confusione che il suo autore compie fra il piano della fisica e quello della filosofia nel corso dell’indagine cosmologica: si tratta di una confusione che rovescia l’ordine della conoscenza e lo stesso statuto ontologico degli enti e dei sistemi oggetto dell’indagine. Ignorando che "l’universo esiste anche quando i cosmologi non scrivono equazioni su di esso", avviene che le equazioni, anziché presupporre l’esistenza dell’universo, finiscono per diventarne garanti. Di qui, le domande, invariabilmente lasciate senza risposta, di cui è disseminato il libro di Stephen Hawking: perché l’universo esiste? La teoria definitiva può non esistere? Oppure ha bisogno di un Creatore? E chi ha creato il Creatore? Domande che testimoniano come anche la mente più brillante possa smarrirsi se rifiuta di compiere quel passo fondamentale verso la metafisica cui dovrebbe spingerla la ricerca della comprensione completa dell’universo. Tale ricerca costituisce infatti una "domanda metafisica sull’esistenza di un Creatore che, scegliendo un mondo specifico, decide perché il mondo diventi quello che è, quale sia il motivo per cui esiste". Fra gli obiettivi dichiarati della scienza moderna vi è quello di svelare anche il senso della vita dell’uomo e in questo modo essa viene a occupare ambiti propri della metafisica e della teologia. Il modo più semplice per smascherare i sofismi di Hawking, Sagan, Davies e di altri è osservare come i presupposti dei loro ragionamenti non possono essere provati scientificamente. Per esempio, essi presuppongono che l’universo fisico sia in senso letterale un universo, ovvero la totalità delle cose. Proprio il carattere totale non può essere provato scientificamente siccome non è permesso all’osservatore di uscire al di fuori dell’universo per poterlo studiare. Una teoria, come quella "definitiva", che avanzi la pretesa di essere completa17, cioè di spiegare tutto, e, quindi, anche sé stessa, non può non confrontarsi con i teoremi di Gödel. Kurt Gödel, studioso austriaco di logica naturalizzato statunitense, pubblicò nel 1931 un articolo sulla completezza dei sistemi non banali di proposizioni aritmetiche: secondo quello studio, divenuto celebre, nessun sistema di tale natura può contenere la prova della sua coerenza18. Un sistema coerente non è completo, mentre uno completo non è coerente: solo uscendo dal sistema è possibile dimostrare entrambi gli aspetti. Solo successivamente, però, si cominciò ad apprezzare l’enorme portata della "prova di Gödel" e a capire che il suo campo di applicazione andava ben oltre l’aritmetica, potendosi estendere a ogni insieme non banale di proposizioni, quindi anche alle "teorie del Tutto", relative alla comprensione dell’universo. Ma tale estensione condanna irrevocabilmente ogni teoria definitiva: infatti, come può una teoria che si definisce necessariamente vera non contenere in sé la prova della propria coerenza, come appunto vietato dai teoremi di Gödel? Si tratta di una "contraddizione in termini" da cui deriva la principale conseguenza dei teoremi di Gödel sulla cosmologia, ossia che la contingenza del cosmo non può essere contraddetta. GLI IDOLI DELLA "NUOVA FISICA": IL NULLA, IL CASO, IL CAOS Si afferma, ed è quasi universalmente accettato, che la fisica dei quanti avrebbe dimostrato la non validità del principio di causalità, o del principio secondo cui l’effetto non può contenere qualcosa di più della sua causa. Fin tanto che la meccanica è una scienza esatta non può servire per negare la validità di proposizioni che, se non essenzialmente filosofiche, non sono comunque di natura quantitativa. Come altre forme di scienza esatta, anche la meccanica quantistica ha a che fare con la misurabilità. L’interpretazione antirealista del principio d’indeterminazione, caposaldo concettuale di tutta la meccanica quantistica, ha causato diverse interpretazioni e intrusioni della scienza in ambiti che non le sono propri. Non si tratta dell’imprecisione o indeterminazione, inevitabile, dovuta allo strumento di misura: il principio intende sancire un’indeterminazione intrinseca al mondo subatomico, una specie di "soglia", che divide il mondo osservabile da un mondo dove sono possibili anche comportamenti non fisici. La critica che dom Stanley L. Jaki muove alla meccanica quantistica non mette in discussione gli innegabili successi operativi della teoria, quanto piuttosto le interpretazioni che uomini di scienza e di filosofia hanno dato del quadro concettuale da essa implicato. Il suo formalismo implica che le cosiddette variabili coniugate, come il momento e la posizione, non possono essere entrambe misurate con assoluta precisione numerica. Da ciò 17 Un sistema è completa quando un qualsiasi enunciato (teorema) può essere dimostrato nell’ambito della costruzione logica che ha come verità gli assiomi, da cui si parte. 18 Si definisce coerente una costruzione matematica che non porti a contraddizione. 16 Quaglino Alessio V Scientifico A Fede e scienza gli interpreti della meccanica quantistica della Scuola di Copenaghen, con a capo Bohr e Heisenberg, inferirono che non si può dire con sicurezza che abbia veramente luogo un’interazione che non possa essere misurata esattamente. Questa deduzione è erronea, un evidente non sequitur. Il sofisma consiste nel salto che si compie da un contesto fatto di misurazioni a un contesto ontologico. Secondo la Scuola di Copenaghen il fattore quantico rende priva di senso ogni domanda sulla realtà del mondo atomico e subatomico, mentre il principio di indeterminazione sancirebbe, almeno a quel livello, l’inapplicabilità di ogni rapporto causale. Il misconoscimento del "fatto importantissimo che la teoria fisica non riguarda l’"essere" di per sé, ovvero l’ontologia, ma solo gli aspetti quantitativi delle cose che esistono già" è all’origine della radicalità antimetafisica dell’interpretazione della Scuola di Copenaghen e delle sue aberranti conseguenze, anche in campo cosmologico. Infatti, una volta ammesso che "la causalità di un processo fisico dipende dalla sua esatta misurabilità", ovvero che "l’incapacità dei fisici di misurare la natura con esattezza dimostra che la natura è incapace di agire con esattezza", è stato possibile nascondere dentro il cilindro dell’indeterminazione tutto quanto la fisica non è in grado di spiegare. A questo proposito dom Stanley L. Jaki attira l’attenzione sull’importanza che la nozione di nulla ha assunto nella teoria quantistica: dal nulla quantistico possono infatti apparire materia, energia e perfino lo stesso universo, anzi infiniti universi. L’esito di un simile modo di pensare è la fantascienza, come suggerisce lo studioso benedettino commentando una sentenza divenuta celebre negli ambienti della cosmologia scientifica, e cioè che "l’universo in definitiva potrebbe essere un pasto gratis": quasi a dire che l’apparizione dell’universo non è poi un fatto così singolare come si potrebbe credere. L’affermazione è del noto cosmologo statunitense Alan Guth, autore della teoria inflazionaria dell’universo, il quale, molto coerentemente, sostiene pure che, per quel che ne sappiamo, "il nostro universo potrebbe essere stato creato nello scantinato di uno scienziato di un altro universo". Queste farneticazioni, soprattutto quando provengono da scienziati di grido, sono avvertite non come tali, ma come un’espressione dell’"umiltà" con cui la scienza, nel corso degli ultimi secoli, avrebbe rivelato agli uomini la marginalità della terra nell’universo. Secondo questa prospettiva, che trasforma inopinatamente la reale marginalità cosmica della terra in una marginalità assoluta, neppure l’universo può godere di uno statuto particolare e pertanto deve essere considerato un incidente del "caso". Si tratta, con ogni evidenza di una dimostrazione di umiltà che nasconde il " disprezzo per la capacità dell’uomo di dedurre dalla natura il Dio della natura". Il dibattito aperto dall’irruzione dei concetti di caso e di caos nella fisica contemporanea, che i mass media orientano costantemente in senso antirealista, attribuisce al caso e al caos possibilità ordinatrici e sorvolando sul fatto che un caos non può mai essere un tutto, ovvero una coordinazione delle parti, senza con questo cessare di essere un caos degno di questo nome. Quindi non stupisce la conclusione del monaco benedettino, secondo cui quel "creatore" non dice che tutto è andato molto bene, ma semplicemente: <<Speriamo che funzioni>>. E ciò che è peggio, lo dice solo dopo che ha fatto due dozzine di tentativi e di sbagli per creare un universo". DALLA TERRA AL COSMO Dopo la critica circostanziata, dom Stanley L. Jaki guida alla ricerca degli elementi sui quali è possibile fondare una cosmologia scientifica, che sia autentica scienza del cosmo e non occasione di esercitazioni filosofiche di basso profilo. Per questa impresa egli parte dalla terra e dalle sue immediate vicinanze cosmiche: solamente da qui, infatti, gli uomini possono occuparsi di cosmologia e, a partire da qui, cioè dalla terra, dalla luna e dal sistema solare, possono riscoprire quelle caratteristiche di specificità il cui riconoscimento è la condizione necessaria per lo sviluppo della scienza. Fortunato è il punto in cui il sistema terra-luna rivela tutta la sua misteriosa specificità, esso presenta vistose anomalie rispetto agli altri sistemi satellitari, soprattutto in termini di dimensioni e di rapporti di massa. Ora, proprio questa diversità infligge un colpo mortale alla spiegazione del nostro sistema solare come un fatto tipico che si presenterebbe in ogni cantuccio dell’universo. Naturalmente potrebbe essere proprio così, ma tutte le prove offerte dalla teoria e dall’osservazione negli ultimi cent’anni indicano il contrario. Se, da un lato, la teoria della collisione gigantesca "funziona" come spiegazione della formazione lunare, dall’altro essa suggerisce pure che un simile fenomeno è estremamente improbabile e che, a maggior ragione, è estremamente improbabile anche la formazione di un intero sistema planetario. Se ne deduce che è essenzialmente aprioristica la "convinzione che i sistemi planetari debbano essere un aspetto onnipresente in tutto l’universo". Tutto ciò non è più soltanto una conferma dell’unicità del "fenomeno terra" dal punto di vista astronomico, ma lo è anche da quello biologico: a fare le spese di questa unicità è l’evoluzione darwiniana, ovvero l’idea di un processo generalizzato e costante che pervaderebbe tutto l’universo e che ha necessariamente come risultato degli esseri intelligenti. A questo proposito, la prospettiva scientifica moderna è a tal punto asservita al dogma culturale dell’evoluzione da assecondarne anche gli sviluppi più fantasiosi. Solo così, infatti, si possono spiegare i novanta milioni di dollari destinati dal Congresso americano, sul finire degli anni 1980, per finanziare un ambizioso progetto di "ascolto" di emissioni radio intelligenti provenienti dallo spazio. Ma "all’interno di una prospettiva genuinamente darwinista non ci sono i fondamenti per presumere che degli extra-terrestri possano comunicare, se non con i loro 17 Quaglino Alessio V Scientifico A Fede e scienza consanguinei. Di fatto, all’interno di questa prospettiva non ci sono i fondamenti per presupporre che svilupperebbero strumenti scientifici che, per come li conosciamo noi, sono intrinsecamente collegati con il nostro modo di concettualizzare e verbalizzare le nostre percezioni del mondo esterno". D’altra parte non vi sono neppure i presupposti per immaginare che lo stesso sviluppo scientifico sia un esito inevitabile dell’evoluzione, tanto della specie umana quanto delle presunte civiltà extra-terrestri. Al contrario, l’unico sviluppo scientifico osservabile, cioè quello avvenuto presso la specie umana, è a tal punto costellato di coincidenze, di casualità e di "fortuna", che parlare di una sua inevitabilità sarebbe quanto mai temerario. Da qualche anno ha fatto irruzione sulla scena scientifica il concetto di caos, nato dall’approfondimento degli studi sui sistemi dinamici non lineari. Si tratta certamente di un’intuizione felice e di un filone promettente, ma si ha .l’impressione che questa nozione venga giocata, soprattutto a livello divulgativo, con una buona dose di ambiguità, soprattutto nelle questioni evolutive che, si dice, troverebbero nel caos una possibilità di spiegazione. La parola caos è usata comunemente malgrado essa non venga mai definita in maniera rigorosa. L’imprecisione con cui la parola caos è usata dagli scienziati è la stessa con cui la parola casuale viene utilizzata da ormai un secolo a questa parte, in particolare dai propugnatori delle teorie evoluzionistiche dai tempi di Darwin in poi. Ma ciò che rende assolutamente inaccettabile questa tesi è, secondo il monaco benedettino, la constatazione che la scienza, anche prescindendo dalle "fortune" di cui si è detto, non sarebbe stata possibile senza la conversione di un’intera cultura alla religione cristiana, introducendo la distinzione fra il soprannaturale ed il naturale in luogo della distinzione fra le regioni celesti e quelle terrestri, propria di tutti i paganesimi, permise di considerare le regioni celesti allo stesso livello del resto, e quindi governate dalle stesse leggi. In ciò risiede il motivo principale per cui gli antichi greci, sicuramente creativi da molti punti di vista, non riuscirono a inventare la scienza. È questa fede “la più grande fortuna della scienza", ed essendo fondata in "Cristo, cioè "su un evento che certamente si qualifica come l’esatto contrario dell’inevitabilità", essa rende conto dello "sviluppo del tutto inaspettato, per cui un sottoprodotto che si potrebbe presumere accidentale di cieche forze materiali, ha una mente che gli permette di avere la padronanza intellettuale del cosmo". DAL COSMO A DIO Scienza, filosofia & teologia si interrogano sulla finalità intende affermare l’esistenza di una finalità dell’universo. Nessun senso di scopo o senso di finalità dei processi fisici, biologici può essere desunto né dall’ideologia del progresso, né dalla biologia evoluzionistica, né dal principio antropico, né dalla teologia o dalla filosofia progressive, né tantomeno dalle varie filosofie di emergenza. La rinascita di un senso genuino circa i fini è intimamente legato alla corretta dottrina del libero arbitrio, di cui gli antichi greci non erano in possesso. La convinzione relativa al libero arbitrio nacque all’interno della prospettiva di una rivelazione soprannaturale circa un destino eterno, o una scelta a disposizione dell’uomo. L’idea di progresso è nata all’interno di questa prospettiva. Una volta fuori da questo schema, spesso copre semplicemente puro egoismo teso alla tutela dei vantaggi del benessere, a detrimento di un numero molto maggiore di indigenti e di non privilegiati. Un reale e durevole senso di finalità comporta la fede nella vita eterna, in cui sarà posto rimedio a tutte le orrende ingiustizie e le disuguaglianze che tormentano la nostra esistenza. "Che il riconoscimento di una totalità rigorosa e coerente di tutte le cose, ovvero dell’universo, spinga logicamente verso un culto" nei confronti del Creatore è "una storia con molte pagine rivelatrici". Infatti, se "uno dei due culti che l’universo può ispirare" è il panteismo, in cui è l’universo stesso ad assumere connotazioni divine; l’altro, "che adora il Creatore dell’universo, forma la base di tutte le religioni monoteistiche, ma con differenze considerevoli: tutte professano di essere le destinatarie di una rivelazione particolare riguardo al coinvolgimento diretto di Dio nella storia dell’uomo; tutte hanno la loro storia particolare della salvezza, da cui deriva la loro forza principale; sono invece notevolmente differenti nella specificazione della misura in cui una visione dell’universo puramente razionale può essere una fonte per il riconoscimento dell’esistenza del Creatore e quindi una parte integrante di un culto monoteistico". L’osservazione appare assai evidente se si considera l’accoglienza che l’argomento cosmologico ha ricevuto nelle diverse culture religiose monoteistiche. Secondo l’autore, "il solo luogo all’interno della cristianità in cui il culto del Creatore basato sull’argomento cosmologico è stato sistematicamente evidenziato è la Chiesa Cattolica". Il movimento verso Dio, per essere sicuro, non deve essere una separazione dall’universo. Il movimento consiste piuttosto nell’avvertire la contingenza cosmica, il fatto che l’universo indica implacabilmente qualcosa al di là di se stesso". Tale, del resto è l’esperienza di conversione che sant’Agostino riporta nel decimo libro delle Confessioni: "ho chiesto del mio Dio a tutta la massa dell’universo, e mi ha risposto: "Io non sono Dio. Dio è colui che mi ha fatto". 18 Quaglino Alessio V Scientifico A 19 Fede e scienza Quaglino Alessio V Scientifico A LA VITA 20 Fede e scienza Quaglino Alessio V Scientifico A Fede e scienza EVOLUZIONISMO L’ORIGINE DEL PENSIERO EVOLUZIONISTA La visione del mondo che l’uomo di oggi ha, è dominata dalla consapevolezza che l’universo, le stelle, la Terra e tutti gli esseri viventi si sono evoluti attraverso una lunga storia, non preordinata o programmata, ma, al contrario, in continuo graduale cambiamento, modellato da processi naturali conformi alle leggi fisiche. Questo tratto è ciò che accomuna l’evoluzione cosmica con quella biologica. Il concetto di universo in evoluzione ha sostituito la visione, a lungo incontrastata, di un mondo statico, identico nella sua essenza alla perfetta opera del Creatore. Nel corso del XIX secolo questo cambiamento di prospettiva ha fatto il suo ingresso nella biologia, mutando il suo ruolo per secoli fisso a catalogare gli anelli della grande catena vivente. Cominciava però a farsi strada l’idea che la realtà poteva essere spiegata senza ricorrere all’ambito metafisico, bensì mediante la prolungata azione di forze fisiche che hanno modellato l’universo e lo hanno reso così come noi oggi lo vediamo. PROVE DELL’EVOLUZIONE L’evoluzione non è solo una teoria. La scienza è in grado di fornire una serie di prove e di documentare alcune tappe del processo evolutivo compiutosi sulla Terra. Ciò che è discusso è il modo in cui l’evoluzione si è compiuta, mentre l’evoluzione in sé è considerata un’oggettiva realtà. Fra le varie prove le più significative sono: • Prove della paleontologia - Mediante la datazione dei fossili si è potuto constatare che, in genere, i fossili più antichi hanno struttura meno complessa di quelli recenti. Inoltre, si è passati da organismi vissuti in un ambiente acquatico alla comparsa di vegetali e animali adatti all’ambiente terrestre • Prove dell’anatomia comparata – Mettendo a confronto le strutture di vari organismi, ad esempio gli arti, si può notare che essi corrispondono tutti a uno stesso schema generale, come se questi animali avessero avuto un progenitore comune, un “modello base” da cui hanno poi avuto origine diverse specializzazioni • Prove dell’embriologia comparata – Osservando gli embrioni di organismi differenti, nei primi stadi si constata una notevole somiglianza nel loro aspetto; tuttavia, con il procedere dello sviluppo, le differenze diventano sempre più marcate, in quanto essi tendono ad assumere le caratteristiche della forma adulta. Si potrebbe dire che lo sviluppo dell’individuo rappresenti la ricapitolazione dello sviluppo evolutivo della specie cui appartiene. • Prove della citologia – La citologia è la scienza che studia la morfologia e la fisiologia della cellula: ad eccezione dei virus e degli organismi procarioti (unicellulari), tutti gli esseri viventi sono costituiti da cellule con strutture molto simili. Ciò implica un rapporto di parentela fra gli organismi. • Prove della biochimica – Le strutture degli esseri viventi sono costituite dalle stesse molecole di base (aminoacidi, basi azotate, zuccheri) che formano macromolecole come le proteine e gli acidi nucleici. Inoltre, i percorsi metabolici utilizzati sono sostanzialmente gli stessi e le informazioni genetiche, sebbene siano diverse, sono scritte tutte con il medesimo codice. LO SVILUPPO DEL PENSIERO EVOLUZIONISTICO: DA LAMARCK AL NEODARWINISMO Uno dei primi e più interessanti tentativi di spiegare l’evoluzione delle specie si deve a J.B. de Lamarck nel 1809. La sua idea è stata contraddetta da studi successivi che mettono in evidenza la non ereditarietà dei caratteri acquisiti; in base alle moderne conoscenze, infatti, è il DNA che determina e dirige la comparsa di certi caratteri piuttosto di altri ed esso non può accettare istruzioni che provengono dall’ambiente esterno. Fu grazie agli studi di Weismann (1883) che si dedusse che in ogni organismo complesso si possono individuare due gruppi cellulari distinti: il soma, ovvero le cellule che costituiscono il corpo, e i gameti, ovvero i caratteri che verranno trasmessi ai discendenti; ciò significa la non ereditabilità dei caratteri acquisiti. Già prima di questa conferma, nel 1859 Charles Darwin aveva pubblicato “L’origine della specie per selezione naturale”. Egli, partendo da contemporanee teorie economiche sull’accrescimento delle popolazioni umane19 e dall’osservazione diretta della fauna delle Galapagos, egli si accorse che nella maggior parte delle specie il numero degli individui generati è tale che se tutti riuscissero a sopravvivere non troverebbero cibo in quantità adeguata: questo dato è confermato dalla numerosità della progenie degli organismi, molto più elevata di quella che sarebbe necessaria per la conservazione della specie. Ciò accade perché di tutti i nuovi organismi che nascono solo pochi raggiungono la maturità e riescono a loro volta a riprodursi. Era evidente come in ogni popolazione ci sono moltissime differenza di caratteri fra i singoli individui, generalmente ereditabili, e nell’abito della variabilità individuale non tutti hanno lo stesso valore: possono essere vantaggiose, indifferenti o addirittura dannose. L’uomo, inconsciamente, aveva per secoli operato una selezione artificiale nell’allevamento, scegliendo per la riproduzione quegli individui dotati dei caratteri desiderati nella discendenza. 19 T.R. Malthus aveva compiuto degli studi in cui si sottolineava lo squilibrio esistente tra i ritmi di produzione e i mezzi di sussistenza. 21 Quaglino Alessio V Scientifico A Fede e scienza La natura, analogamente, agisce mediante una selezione naturale che seleziona gli individui più adatti a sopravvivere e riprodursi, nasce così il concetto di “lotta per l’esistenza”: la selezione naturale, vera grande intuizione di Darwin, è la forza creatrice dell’evoluzione. Inoltre ritenendo la Terra molto antica, egli poté supporre senza difficoltà che mediante un lento e graduale processo tutti gli organismi viventi, uomo incluso, derivassero da un’unica origine. La variabilità postulata da Darwin era quindi già presente nella popolazione come caratteristica intrinseca, prima che l’ambiente si modificasse e che la selezione naturale avesse il compito di scegliere le caratteristiche più adatte: il processo evolutivo riunisce il caso (variabilità) e la necessità (selezione). A differenza del sistema lamarckiano, esso non è incanalato nella direzione che ha come traguardo un maggior adattamento all’ambiente. La variazione da sola non produce evoluzione, ma fornisce soltanto il materiale su cui agisce la selezione naturale; gli organismi che variano in direzione vantaggiosa rispetto alle esigenze dell’ambiente, tendono ad avere prole più numerosa, quindi più successo rispetto agli altri membri della stessa specie. Inoltre è bene ricordare che il darwinismo è basato sul concetto di popolazione come unità della modificazione evolutiva, ovvero è il patrimonio ereditario della popolazione, considerata nel suo complesso, ad evolversi, non soltanto quello del singolo individuo. All’epoca della sua formulazione, Darwin non fu però in grado di spiegare l’origine di questa misteriosa fonte della variabilità, i cui cambiamenti vennero chiamati “mutazioni” da H.De Vries, ma soltanto nel XX secolo, con la riscoperta delle leggi di Mendel, si è riusciti a conciliare l’evoluzionismo con la genetica nella cosiddetta teoria sintetica dell’evoluzione, o neodarwinismo. Da qui in poi il dibattito si incentrò sulla gradualità del fenomeno: secondo alcuni essa si verifica mediante “mutazioni sistematiche”, cioè con salti che spiegherebbero i grandi cambiamenti evolutivi; questo processo prese il nome di macroevoluzione, contrapposto alla microevoluzione che si riferisce solo ai cambiamenti nell’ambito della specie. Nel 1972 fu proposta la teoria degli equilibri punteggiati, la quale afferma, basandosi su dati paleontologici, che l’evoluzione delle forme viventi sarebbe avvenuta in rapide fasi di transizione intervallate da lunghe stasi. L’AFFERMARSI DELLA VITA A prescindere dalla genesi della vita, è un dato di fatto che le specie che vivono oggi, dal batterio all’uomo, non sono altro che un piccolo gruppo di vincitori temporanei. Una specie tende ad espandersi finchè non viene a trovarsi in condizioni naturali avverse, ed essendo dotata di una certa variabilità può adattarsi alle varie condizioni che l’ambiente offre. Quanto più numerosi sono i tipi di organismi di una specie, tanto maggiori sono le possibilità che alcuni di essi sopravvivano agli eventi sfavorevoli, perpetuando la specie; non solo: una certa variabilità degli organismi che compongono una popolazione, e quindi una specie, permette di sfruttare meglio le risorse che l’ambiente offre. La diversità dei caratteri all’interno di una specie è determinata da due meccanismi biologici: la riproduzione sessuale e le mutazioni. L’effetto più significativo della riproduzione sessuale è quello di poter creare con materiale già esistente una nuova variabilità ogni generazione: quando una specie è dotata al suo interno di una grande variabilità, significa che dispone di molte combinazioni geniche e, per questo, può adattarsi più rapidamente a condizioni ambientali sempre nuove. Risulta sempre più evidente che l’evoluzione non è una gara tra singoli individui, ma fra gruppi della stessa specie che, incrociandosi tra loro, si scambiano i geni. Negli organismi che si riproducono non sessualmente, invece, non avviene alcuna ricombinazione di geni e il genotipo tende a rimanere invariato: la riproduzione asessuata è dunque conservativa e svantaggiosa, in quanto la variabilità è rappresentata unicamente dalle mutazioni. La selezione naturale ha agito anche sul tipo di riproduzione scegliendo quello più efficace. La riproduzione crea quindi la diversità all’interno della specie, ma senza imporre modificazioni nelle frequenze dei geni: in altre parole, da sola potrebbe portare solo una microevoluzione. Le mutazioni sono la materia prima su cui agisce l’evoluzione, ma non sono in grado di dirigerla: da sole possono soltanto modificare a poco a poco le frequenze geniche, poiché in genere hanno frequenze troppo basse, sufficienti a creare la variabilità necessaria, ma mai tali da provocare un balzo riproduttivo. Fattore determinante per l’espressione di alcuni genotipi è l’ambiente (interno o esterno), arrivando addirittura a contribuire ad aumentare il tasso di mutazione se esso presenta radiazioni o contiene particolari sostanze. IL PROGRESSO EVOLUTIVO Nel corso di milioni di anni, la vita ha continuato a evolvere verso livelli di complessità sempre maggiore. Più gli organismi si fanno complessi, più complesso si fa il controllo dei geni su strutture e funzioni. Con il passare del tempo, il pool genico di una popolazione tende tuttavia a modificarsi, sotto l’azione di molteplici fattori. Alle mutazioni e alla selezione naturale, si aggiungono l’immigrazione e l’emigrazione di individui e l’isolamento. Quest’ultima è una delle cause principali delle modificazione delle specie: popolazioni molto vaste tendono spesso a suddividersi in popolazioni più piccole, isolate tra loro: tra di esse si interrompe il libero flusso genico, spesso a causa dell’insorgere di barriere naturali. Ogni frazione della popolazione di partenza evolve in modo indipendente e lentamente i patrimoni genetici delle popolazioni isolate si differenziano a tal punto che non è più possibile 22 Quaglino Alessio V Scientifico A Fede e scienza l’incrocio (e quindi lo scambio di geni) fra due individui appartenenti a popolazioni diverse. A questo punto i due individui in questione non si possono più considerare appartenenti alla stessa specie: le due popolazioni inizialmente identiche si sono evolute tramite il cosiddetto fenomeno di speciazione. Mentre questo fenomeno può definirsi in larga misura compreso, molto più difficile risulta immaginare i grandi processi evolutivi che hanno avuto luogo nell’arco di tempi geologici e che hanno prodotto organismi con grado di complessità sempre maggiore. Le opinioni a tal proposito sono, difatti, discordi. La paleontologia dimostra che i vari gruppi di esseri viventi sono apparsi in un ordine di complessità crescente: l’evoluzione degli esseri viventi procede dunque da forme semplici ad altre più complesse, attraverso un processo che porta ad un progresso sempre maggiore. La biologia evoluzionistica neodarwiniana non ha quindi ancora risolto alcuni problemi che, anzi, con l’enorme aumento di conoscenze sulla vita sono diventati sempre più numerosi. Alcune problematiche di carattere generale riguardano il rispettivo ruolo giocato dalla selezione naturale e dal caso: secondo alcuni, il caso influirebbe in maniera determinante, le mutazioni sarebbero cioè in gran parte né utili né dannose, bensì neutre; si parla infatti di teoria della neutralità. Un’altra questione concerne l’esistenza di “percorsi multipli”, cioè di diverse risposte evolutive allo stesso problema, come ad esempio la comparsa dello scheletro esterno negli artropodi e dello scheletro interno nei vertebrati. La comunità scientifica è oggi in gran parte neodarwinista; esiste tuttavia una piccola minoranza di scienziati che ritiene variabilità e selezione insufficienti a spigare l’apparizione di forme di organizzazione sempre più complesse: in particolare, l’evento casuale è ritenuto insufficiente ad aver determinato la comparsa di quei caratteri nuovi, che sono stati tali da permettere importanti innovazioni evolutive. DNA L’acido deossiribonucleico si sta rivelando sempre più una molecola dinamica. Sembra ormai certa la presenza, in molti diversi organismi, uomo compreso, di geni non essenziali, detti geni trasponibili, i quali, variando la loro posizione nel genoma, influenzano il Dna cellulare in modi complessi, provocando nel contempo modificazioni simultanee (ereditabili) di molte caratteristiche dell’organismo; si è rilevato inoltre che il fenomeno è influenzato dall’ambiente, perché la velocità di trasposizione può aumentare in caso di stress ambientale. Queste osservazioni suggeriscono che, in particolari periodi o in particolari ambienti, i geni trasponibili abbiano potuto giocare un ruolo importante nel processo evolutivo, producendo molti cambiamenti in tempi brevi. Ciò fornirebbe una base concreta alla teoria degli equilibri punteggiati. Vi sono inoltre altre ipotesi non confermate fra cui l’eventuale trasferimento, a mezzo di virus, fra geni di diversi individui, le “mutazioni pilotate” (una forma moderna di lamarckismo) e la teoria della simbiosi che si focalizza sul passaggio da procarioti ed eucarioti offendo una nuove chiave di lettura dei fenomeni evolutivi basata sulla cooperazione fra gli individui. Il ruolo del Dna è quindi l’aspetto fondamentale e, attualmente, lacunoso delle conferme che il neodarwinismo va cercando, ciò è testimoniato dal proliferare di studi e ipotesi che gravitano attorno a questo aspetto ancora oscuro della biologia, una situazione emblematica e tipica del periodo che storicamente precede le scoperte fondamentali necessarie per una nuova interpretazione della storia evolutiva. Nuovi ritrovamenti fossili potrebbero essere decisivi, come pure molto promettenti sembrano essere gli studi biochimici del dna e delle proteine che fra breve saranno possibili su ossa fossili di antica data. L’EVOLUZIONE UMANA Le indagini fino ad ora effettuate lasciano supporre che l’origine degli ominidi sia databile a un periodo compreso fra gli 8 e i 6 milioni di anni fa; tuttavia, in seguito alla scarsezza delle testimonianze relative a questo periodo, il fantomatico “progenitore comune” non è ancora stato identificato con alcun fossile conosciuto. La stretta parentela fra l’uomo e i primati è suggerita, oltre che dalla paleontologia, anche dalla genetica: lo scimpanzé possiede 48 cromosomi che si sarebbero ridotti a 46 nell’uomo, si suppone infatti che ciò sia stato dovuto all’unione di due cromosomi: ciò è indice di una stretta parentela fra l’uomo e le scimmie antrpomorfe, che può essere spiegata soltanto ammettendo che la separazione delle due linee evolutive sia relativamente recente. Oltre alla nota evoluzione biologica che ha condotto dall’Australopithecus (o chi prima di lui) all’homo sapiens sapiens, ciò che differenzia l’uomo da tutte le altre forme viventi è stata la sua evoluzione culturale. La prima manifestazione di questo carattere distintivo avvenne 100.000 anni fa con l’uomo di Neandertal, iniziatore delle prime pratiche funerarie, una tappa essenziale nello sviluppo della coscienza umana. Come sia poi avvenuto il passaggio dall’uomo di Neandertal a quello moderno è ancora oggetto di discussione tra gli antropologi, divisi tra ipotesi al momento egualmente attendibili; il problema dell’uomo moderno è quindi tuttora oggetto di accese controversie fra gli scienziati. Pare certo però che gli ominidi fossili non siano derivati uno dall’altro, bensì si sono soppiantati a vicenda attraverso una successione di tappe fondamentali: la verticalizzazione, la manipolazione, la cerebralizzazione e, infine, la comunicazione. Le differenze morfologiche attuali hanno portato l’immaginario collettivo a suddividere l’homo sapiens in varie razze, in realtà molte tali differenze visibili non 23 Quaglino Alessio V Scientifico A Fede e scienza rappresentano altro che adattamenti al diverso ambiente, in particolare al clima: le differenza tra i diversi gruppi umani sono lievi rispetto alle differenze che esistono all’interno di ciascun gruppo. L’evoluzione nell’ambito della specie umana non è stata un cambiamento dei geni, bensì uno spostamento di frequenze relative agli stessi geni. Oggi le più importanti differenze fra gruppi di uomini sono culturali e sociali, più che biologiche; la specie umana presenta dunque soltanto una grande variabilità: non esistono al suo interno patrimoni genetici diversi o razze distinte. Questa uniformità genetica indica inoltre una origine unitaria recente: ogni individuo racchiude in sé la conclusione provvisoria di un cammino evolutivo, conclusione da cui dipende il suo essere e che egli non può rifiutare né modificare; l’uomo civile ha però il grande privilegio di poter scegliere come vuole la propria eredità culturale, questa libertà introduce nella società umana una dimensione inesistente nell’evoluzione biologica. A differenza degli altri “abitanti” della Terra, l’uomo è sempre stato dotato di un’intelligenza che gli ha permesso di fabbricare utili strumenti inorganici, ed inoltre, fin dall’inizio della sua storia, ha sentito il bisogno di vivere in società valorizzando l’importanza della famiglia. Nella società umana, le funzioni sociali devono essere apprese; mentre per gli animali il comportamento è insito nel codice genetico che ne determina l’istinto, ogni generazione umana si trova ad affrontare lo sviluppo culturale del suo passato e può contribuire così al progresso collettivo. Questo passaggio è stato reso possibile dall’invenzione della scrittura: la cultura non è altro che una conseguenza dell’adattamento biologico, che permette all’individuo di fare uso dell’esperienza accumulata da altri. La selezione culturale è infatti molto più rapida di quella biologica e, soprattutto, ha comportato un veloce aumento della velocità di riproduzione che ha permesso all’uomo, sotto molti aspetti, di sfuggire alla selezione naturale. MICROEVOLUZIONE E MACROEVOLUZIONE Fino ad ora si è considerata la teoria evoluzionistica come pura “verità effettuale”, ma è bene ricordare che, fino a quando non saranno riproducibili le mutazioni sperimentalmente, è e resterà una teoria. Vi è infatti un folto gruppo di antievoluzionisti che muovono delle obiezioni ad essa, cui va soprattutto il merito di portare chiarezza fra i concetti di macro- e microevoluzione. La selezione naturale è un fatto di osservazione, definitivamente acquisito alla scienza. Le sue modalità di azione, quando possono esplicarsi, sono estremamente incisive. Per esempio, se in una coltura di un milione di batteri compare un individuo mutato, o mutante, il cui ritmo di duplicazione è superiore dell'1% rispetto agli altri, dopo 4000 generazioni, cioè qualche giorno su scala batterica, il rapporto di popolazione sarà invertito: un individuo originale per milione di mutanti. La selezione naturale, utilizzando i prodotti delle mutazioni e con l'effetto dell'isolamento geografico delle popolazioni, rende perfettamente conto di quelle modificazioni limitate in seno alle specie, note da sempre ai naturalisti, che talvolta prendono il nome di microevoluzione. Una delle sue manifestazioni più conosciute è la formazione di razze all'interno di una specie. La microevoluzione, però, non ha nulla a che vedere con l'evoluzionismo: tra essi esiste una differenza di natura. Quasi sempre gli evoluzionisti trascurano tale differenza con disinvoltura colpevole, così che fenomeni microevolutivi vengono interpretati come esempi di macroevoluzione. La microevoluzione implica modificazioni organiche limitate ed esclude completamente la comparsa di nuovi organi o di nuove funzioni; l'evoluzionismo, invece, per rendere conto delle differenze organiche e funzionali tra i gruppi di viventi passati e attuali, deve postularle: la microevoluzione è indifferente o regressiva, l'evoluzionismo è progressivo. La teoria evoluzionistica dunque, parte da basi concrete — le mutazioni, la selezione —, in grado di rendere conto delle modificazioni limitate dei viventi, realmente riscontrabili in natura, per spiegare la comparsa di nuovi gruppi della classificazione sistematica attraverso modifiche profonde e apparizioni di funzioni e di organi nuovi negli esseri viventi. Un esempio di microevoluzione realmente verificatasi e osservata nel XIX secolo è quella riguardante la Biston betularia, una piccola farfalla notturna cha durante il giorno si posa sulla corteccia degli alberi. Attorno al 1850 nei dintorni di Manchester, città di recente industrializzazione, queste falene erano prevalentemente chiare e si posano sui tronchi di betulla, anch’essi bianchi; circa un secolo dopo, si può notare che sia i tronchi, a causa della fuliggine, sia le falene sono mutati, diventando molto più scuri. È avvenuto un cambiamento di popolazione delle farfalle. Poiché l’ambiente (betulle annerite) era mutato, le poche farfalle scure, precedentemente facile preda degli uccelli, si erano trovate improvvisamente in una situazione vantaggiosa, essendo ora più difficilmente individuabili, e il loro genotipo si era trasmesso sempre più numerosamente nelle generazioni successive. La selezione naturale, nell’arco di un secolo, aveva cambiato il fenotipo di una specie. La microevoluzione è a tutti gli effetti dimostrata e verificata. Purtroppo però nessuno è vissuto tanto (e la teoria darwiniana è ancora troppo giovane) da aver documentato anche esempi così lampanti di macroevoluzione, e al giorno d’oggi le tecniche di manipolazioni genetica e la nostra conoscenza del genoma sono ancora acerbe per poter approvare o confutare il darwinismo nel suo complesso. 24 Quaglino Alessio V Scientifico A Fede e scienza L’ORIGINE DELLA VITA L’EVOLUZIONE PREBIOTICA I dati in possesso della paleontologia dicono che la vita era già presente sulla Terra 3,5 miliardi di anni fa, sotto forma di cellule procariote simili agli attuali batteri, ma non consentono di conoscere come le prime cellule si siano formate. Attualmente la maggior parte degli scienziati propende per un’origine terrestre della vita, che si sarebbe realizzata a partire da semplici sostanze inorganiche presenti sul nostro pianeta nelle prime fasi della sua evoluzione. Il pianeta Terra si sarebbe formato circa 4,6 miliardi di anni fa, dallo scontro e dalla successiva aggregazione di corpi di più piccole dimensioni. Su questo scenario si basa l’ipotesi di due biochimici, Oparin e Haldane, che prevede una prima fase di evoluzione biochimica, durante la quale dai composti dell’atmosfera primitiva, ad opera di fonti di energia quali le radiazioni ultraviolette, le scariche elettriche e il calore, sarebbero stati sintetizzati composti organici in grande quantità. Questa ipotesi trovò sostegno nell’esperimento Urey-Miller in cui si riuscì a ottenere, in condizioni simili a quelle della Terra primitiva, la formazione spontanea di alcuni aminoacidi. Questi composti si sarebbero poi accumulati nelle acque della Terra primordiale, probabilmente in mari poco profondi o in pozze d’acqua vicine alla riva, dando origine al cosiddetto “brodo primordiale”. Da queste molecole inorganiche si sarebbero in seguito formate macromolecole. Ben poco si può dire in relazione all’origine degli acidi nucleici: si tratta, a differenza delle proteine, di polimeri molto complessi, la cui sintesi spontanea appare ancora un avvenimento estremamente improbabile. Alcuni studiosi hanno ipotizzato che un qualche substrato inorganico possa aver “guidato” l’organizzazione dei singoli monomeri, fungendo da stampo: secondo alcuni ciò potrebbe essere stato svolto da minerali argillosi, altri, più verosimilmente, hanno proposto l’intervento di cristalli di pirite, ma il problema resta ancora aperto. METABOLISMO E RIPRODUZIONE Il primo gradino verso l’evoluzione di forme cellulari deve essere stato la formazione di aggregati di macromolecole separati dall’ambiente circostante: lo stesso Oparin si accorse delle proprietà dei coacervati: gocce di polimeri che si formano spontaneamente in ambiente acquoso, e hanno la proprietà di dividersi qualora le loro dimensioni divengano troppo grosse. Esse sembrano presentare un’elementare forma di metabolismo. Recenti studi hanno inoltre dimostrato alcune proprietà meno note dell’Rna, evidenziandone alcune doti enzimatiche, come la possibilità di “tagliarsi” e “ricucirsi” producendo copie di se stessa. Questo ha indotto a pensare a un ipotetico mondo primordiale a Rna: successivamente l’Rna avrebbe imparato a dirigere la sintesi di alcune proteine e infine avrebbe dato origine a catene a doppio filamento di Dna, il depositario stabile e definitivo dell’informazione biologica. In questo modo sarebbe nata la riproduzione, secondo aspetto fondamentale degli organismi viventi. C’è tuttavia un problema: gli acidi nucleici sono sì in grado di riprodursi, ma tale processo può avvenire soltanto in presenza di specifiche proteine enzimatiche; le proteine, d’altra parte, richiedono l’informazione genetica per essere sintetizzate. La domanda <<Si sono formati prima gli acidi nucleici o le proteine?>> affligge tuttora gli scienziati. Le già citate pozze contenenti il brodo primordiale non potevano però formarsi in superficie, a causa delle avverse condizioni ambientali, come le elevate temperature e le frequenti collisioni con meteoriti, in cui si trovava il nostro pianeta: per questo alcuni hanno avanzato l’ipotesi che l’ecosistema adatto fosse rappresentato dalle bocche idrotermali, sorgenti di acqua calda situate nelle profondità oceaniche. La scoperta di organismi procarioti detti archibatteri (o termofili), che preferiscono vivere in acque calde e presentano strutture molto primitive, avvalora questa ipotesi. Ammettendo che la vita si sia originata in ambiente acquatico, appare credibile che il primo organismo possa essere stato eterotrofo: le prime cellule si nutrirono delle stesse sostanze di cui erano formate. Con l’andare del tempo, il proliferare delle cellule avrebbe portato a una carestia di sostanze organiche, favorendo organismi in grado di sfruttare forme esterne di energia: sarebbe nato il metabolismo autotrofo. Inizialmente la presenza di ossigeno (comunque successiva) sarebbe stata d’impedimento alla formazione delle prime molecole, tuttavia in seguito la vita imparò a sfruttare anche questa sostanza: nacque così il metabolismo aerobico e la capacità di respirare ossigeno divenne un importante fattore di vantaggio evolutivo. La liberazione di ossigeno mediante la fotosintesi causò la formazione dello strato protettivo di ozono, che permise alla vita, ora schermata dalle radiazioni più pericolose, di uscire dall’acqua e di colonizzare le terre emerse. 25 Quaglino Alessio V Scientifico A Fede e scienza LA PANSPERMIA Un’ulteriore obiezione a queste ipotesi riguarda il fattore tempo: l’intervallo che questa complessa serie di fenomeni avrebbe avuto a disposizione per verificarsi (inferiore al miliardo di anni) sembra ad alcuni ricercatori troppo breve, tanto da far ritenere più probabile che la vita sia giunta dallo spazio. Ricerche condotte in campo astrofisico hanno infatti dimostrato che le molecole organiche sono alquanto diffuse in tutto l’universo, e potrebbero essere giunti sulla Terra mediante meteoriti o frammenti di comete. Questa suggestiva ipotesi, che in alcuni casi si spinge ad teorizzare l’arrivo di vere e proprie strutture viventi, è detta della panspermia, formulata da fisico inglese Hoyle. Paul Davies, per sottolineare l’incertezza attuale, dopo aver dimostrato la possibile resistenza di semplici forme viventi unicellulari a bordo delle comete, formula diversi scenari, tutti ugualmente possibili, riguardo alla vita su Marte e la Terra: • La vita è iniziata una volta sola, su Marte, ed è giunta sulla Terra con le meteoriti marziane. Può darsi che sul pianeta d’origine esista ancora o si sia estinta • La vita è iniziata una volta sola, sulla Terra, e si è propagata su Marte, dove forse si è insediata • La vita è nata sia su Marte sia sulla Terra, in maniera indipendente. In seguito può esserci stata una colonizzazione reciproca • La vita ha avuto origine sia sulla Terra sia su Marte ma, nonostante gli scambi di rocce e polveri, non c’è mai stato scambio di organismi vivi • La vita non è nata né sulla Terra né su Marte, ma in un luogo del tutto diverso, addirittura un corpo esterno al sistema solare. È arrivata sulla Terra, e forse su Marte, grazie a un meccanismo di panspermia • La vita è comparsa solo sulla Terra e non ha finora colonizzato con successo altri pianeti. Marte è, ed è sempre stato, inanimato Il pianeta preso in considerazione è proprio Marte a causa di recenti analisi di alcune rocce marziani che presentano delle (dubbie) tracce fossili di batteri. UN UNIVERSO PREDISPOSTO ALLA VITA? Questa teorie sottintendono la possibilità che la vita abbia avuto origine non solo sulla Terra, ma che sia un fenomeno relativamente comune nell’universo. Anche sul nostro pianeta, afferma Paul Davies, la vita deve aver avuto origine più volte 3,8 miliardi di anni fa, in quanto le situazioni in cui verteva la Terra in quel periodo avrebbero portato ad estinzioni di massa ogniqualvolta fosse precipitato un meteorite, evento assai frequente a quell’epoca. Ma tale inevitabilità della vita implicherebbe che nelle leggi fisiche sia riscontrabile la necessità dello sviluppo dell’intelligenza che le ha formulate: sarebbe come aver dimostrato il perché della nostra esistenza. Una teoria scientifico-matematica della vita, con la possibilità di avere intelligenza e consapevolezza in altre forme oltre il cervello umano, significherebbe inoltre la possibilità di raggiungere il “metafisico” apice tecnologico: un’intelligenza autoriproducentesi. A tal proposito, alcuni matematici affermano provocatoriamente che l’uomo sia solamente un anello di congiunzione fra la scimmia e il robot: l’uomo può essere considerato come l’entità, che in quanto tale sarebbe potuto essere non così ma altrimenti, che meglio si è adattato alla natura e ogni suo comportamento non potrebbe essere altro che una necessità meccanicistica. Tuttavia l’uomo è in possesso di ulteriori facoltà irrazionali, fra cui è annoverato ad esempio il suicidio (e, quindi, la consapevolezza di esistere), per ora considerate scelte improbabili per una macchina, che il senso comune tende ad identificare con un semplice strumento. 26 Quaglino Alessio V Scientifico A Fede e scienza CREAZIONISMO Un destino quasi comune caratterizza la diffusione delle teorie scientifiche: tranne poche eccezioni, esse sono state accolte, per lo più, con indifferenza, tra critiche e incomprensioni. Una di queste eccezioni, forse la più problematica, è rappresentata dalla teoria dell'evoluzione di Charles Darwin. PROBLEMI ETICI DELL’EVOLUZIONISMO Francois Jacob, evoluzionista, premio Nobel per la medicina nel 1965, afferma: "Quello che Darwin ha mostrato è che per rendere conto dello stato attuale del mondo vivente non c'era affatto bisogno di ricorrere ad un Ingegnere Supremo. Tuttavia se l'idea di un progetto, di un piano generale del mondo vivente, stabilito da un creatore è scomparsa con il darwinismo, questo ha conservato un alone di armonia universale". Quindi, per evitare che l'"Ingegnere Supremo", cacciato dalla porta principale più di cento anni fa, rientri per quella di servizio attraverso la oggettiva constatazione della "armonia" della sua opera, ovvero della perfezione e della finalità delle sue parti, si rende necessario un costante rilancio della teoria evoluzionistica, nel quale non siano discussi e criticati i dubbi e le prove, ma sia posto l'accento sull'impatto rivoluzionario che essa ha avuto e continua ad avere su ogni concezione del mondo che faccia ricorso a un creatore. Un creatore presuppone una volontà, e una volontà esprime una intenzione, un progetto: ebbene, continua Jacob, "la teoria della selezione naturale consiste precisamente nel capovolgere questa affermazione. In questo rovesciamento, in questa specie di rivoluzione copernicana sta l'importanza di Darwin per la nostra rappresentazione dell'universo e della sua storia" sul piano religioso, su quello politico-sociale-istituzionale, su quello economico, fino a colpire, da ultimo, i legami microsociali e l'individuo stesso. Per il suo carattere intellettuale e accademico, l'evoluzionismo si pone innanzitutto su di un piano non immediatamente legato ai fatti e ai comportamenti delle persone: l'evoluzionismo è una rivoluzione nelle idee. Cionondimeno, analogamente ai grandi sistemi ideologici del passato, esso aspira a fornire una giustificazione al comportamento individuale e sociale. Ciò è tanto più vero in un'epoca come la nostra che "si è lasciata gradatamente persuadere che l'essere umano, analizzato, scomposto, scandagliato dalle varie direttive di ricerca non è altro che una macchina, di volta in volta meccanica, chimica, elettrica o cibernetica". Il loro carattere sovversivo generale risiede nell'affermazione di una visione del mondo che fa a meno di un creatore. Tuttavia non è difficile constatare che esse si spingono ben oltre, negando anche l'ordine morale che deriva dall’esistenza di un creatore e che, per questo, è vincolante. L'evoluzionismo, infatti, traendo l'uomo dal caso e facendone un prolungamento delle cose sullo stesso piano degli animali, lo sottrae a ogni responsabilità: la storia diventa storia della biologia, dove tutto è permesso e dove non vi sono più leggi divine che assegnino limiti all'esperimento. Una volta esclusi Dio e la sua volontà, cioè una volta rotto il legame Creatorecreatura, rimane la constatazione del puro divenire. Da esso gli esseri emergono non in vista di un fine secondo un progetto, ancorché immanenti al movimento stesso, bensì in virtù del puro gioco delle fluttuazioni statistiche. "L'evoluzione — scrive Jacob — mette in gioco intere serie di contingenze storiche", così che "il mondo vivente avrebbe potuto essere diverso da quello che è o, addirittura, non esistere affatto". Ancora: "Finché l'Universo era opera di un Divino Creatore, tutti gli elementi erano stati da lui creati per accordarsi in un insieme armonioso, accuratamente preparato al servizio del componente più nobile: l'uomo. Era un modo di concepire il mondo che aveva importanti conseguenze politiche e sociali, in quanto legittimava l'ordine e la gerarchia della società". Ora, invece, perde di senso qualunque tentativo di fondare un ordine e una gerarchia: "il migliore di tutti i mondi possibili è diventato semplicemente il mondo che si trova a esistere". In questo emergere prepotente del "caso" come fonte ed essenza della realtà, in questa dissolvenza dell'essere umano, della sua libertà e della sua volontà nel movimento evolutivo, risiede il carattere originale della rivoluzione darwiniana: anche il mondo di domani, come quello di oggi, uscirà "alla cieca" dall'urna dei "mondi possibili". Abbattute le barriere tra le specie, in una visione del mondo vivente nel quale gli organismi perdono la loro tipicità e la loro fissità strutturale, dove oggetto effettivo di conoscenza è la popolazione nel suo insieme", l'avanguardia evoluzionistica propone, da ultimo, il programma di ricostruzione della società e degli individui sulle basi delle indicazioni della sociobiologia e dell’ingegneria genetica, e attraverso la tecnica della clonazione, realizza il sogno utopico della uguaglianza assoluta: quella relativa al patrimonio ereditario degli individui. Scrive a riguardo Jacob: "[…] ma tutto questo non ha più a che fare soltanto con la biologia". 27 Quaglino Alessio V Scientifico A Fede e scienza L’EVOLUZIONE DEGLI ORGANI La filosofia insegna che l'unità è un carattere della verità. La verità è compatta: negandone un aspetto, prima o poi si dovrà negarla tutta. L'errore, al contrario, è molteplice, nel senso che il contrario di una affermazione vera non è una affermazione falsa, ma possono essere infinite affermazioni false. Ciò rende, evidentemente, più ardua la difesa della verità, tuttavia ogni errore presenta sempre uno o più punti particolarmente deboli, sui quali intraprendere l'opera di demolizione completa. In altri termini, la rivoluzione evoluzionistica pretende di essere fondata scientificamente, per cui è sul terreno scientifico che può cominciare una seria opera di confutazione nei suoi confronti. Merita particolare attenzione, per il prestigio dell'autore e per la completezza e il rigore della trattazione, lo studio dello scienziato francese Georges Salet, docente universitario, profondo conoscitore delle maggiori questioni scientifiche del nostro tempo, cattolico. Il pregio del volume di Salet consiste nell'andare direttamente al cuore della questione evoluzionistica, attaccando i due cardini della teoria: il ruolo della selezione naturale e quello del caso come fonti del mondo vivente, della sua varietà, e della sua pretesa evoluzione. Per la teoria evoluzionistica "mutazioni-selezione", le mutazioni costituiscono la fonte della variabilità del mondo vivente, alla quale attinge la selezione naturale per trattenere gli individui nei quali le mutazioni hanno incrementato il tasso di natalità o diminuito quello di mortalità, cioè gli individui favoriti dalle mutazioni. Spiega Salet che la reale variabilità del mondo vivente può riassumersi nella seguente proposizione: "Gli organismi si modificano a caso. Ogni modificazione (mutazione) che corrisponde al MIGLIORAMENTO di un organo è automaticamente selezionata" Ed ecco, invece, ciò che gli evoluzionisti, al seguito di Darwin, continuano a insinuare: "Gli organismi si modificano a caso. Le modificazioni (mutazioni) che corrispondono all'APPARIZIONE di una nuova funzione (e quindi, in senso lato, di un nuovo organo) SONO automaticamente selezionate". Le due proposizioni, come si vede, differiscono per le parole scritte in maiuscolo: "mutazione", che era singolare, è diventata plurale; "miglioramento" è diventato "apparizione". Questi cambiamenti, apparentemente banali, sono tali da trasformare una proposizione esatta in un sofisma. Infatti è chiaro che la selezione naturale può intervenire sul mutante soltanto dopo che si sono verificate tutte le mutazioni necessarie alla comparsa del nuovo organo o della nuova funzione, cioè soltanto dopo che il nuovo organo è completamente costituito ed è in grado di esplicare perfettamente la nuova funzione: la selezione non può in alcun modo trattenere mutazioni intermedie perché non corrispondono ad alcunché di compiuto nell'organismo; anzi, un individuo in un simile stato sarebbe svantaggiato rispetto agli individui originali e la selezione naturale provvederebbe a cancellarlo in breve tempo dalla faccia della Terra. Un esempio è costituito dagli organismi termofili, cioè quegli organismi che vivono tra i 60° e i 100° C. Gli organismi termofili trovano le migliori condizioni di vita, di sviluppo e di riproduzione a temperature che per altri organismi sono letali, cioè a temperature che denaturano le proteine di altri organismi. L'evoluzione non può spiegare la comparsa di tali organismi. La termofilia non dipende da un solo gene, ma da più geni, in quanto sono numerose le strutture proteiche che devono essere adatte a temperature superiori a quelle dei cosiddetti mesofili, per cui non è possibile ammettere la comparsa di tale carattere con la mutazione di un solo gene. Inoltre, non è neanche possibile una lenta evoluzione di organismi sempre più resistenti al calore, in quanto questi organismi possono svilupparsi solamente a temperature elevate. Anche nel caso degli organismi termofili ci troviamo di fronte a organismi perfettamente adattati a condizioni di vita molto particolari, per i quali è impossibile ammettere l'esistenza di forme intermedie. Anche in campo evoluzionista viene riconosciuta una tale difficoltà: "Aumentare quindi nell'evoluzione la temperatura cui può vivere un organismo vuol dire aumentare la resistenza al calore di tutte le proteine contemporaneamente, perché aumentare la stabilità alla temperatura di una singola specie molecolare è perfettamente inutile. In teoria servono quindi numerosissime mutazioni contemporanee, il che è praticamente impossibile". Come ha fatto il processo di selezione naturale a portare alla formazione di una funzione che nel suo stato finale è utile o indispensabile, ma nei suoi stati intermedi è inutile o dannosa? Salet ribadisce che “non basta un poco di organo per avere assicurata anche un poco di funzione". Gli evoluzionisti dimenticano che il "diagramma" della funzione svolta da un organo è del tipo "tutto o niente", proprio come accade per le macchine: nessun funzionamento fino a quando non sono a posto tutti i dispositivi componenti della macchina. Di fatto, una via di uscita esiste, ed è quella di ritenere che le mutazioni relative alla comparsa di un organo nuovo e di una nuova funzione avvengano tutte simultaneamente, così che la selezione può intervenire subito per conservare il risultato finale. 28 Quaglino Alessio V Scientifico A Fede e scienza MATEMATICA ED EVOLUZIONE La genetica mostra che il patrimonio ereditario di ciascun individuo è strutturato secondo unità microscopiche perfettamente individuate, dette geni. I geni sono localizzati nei cromosomi, situati nel nucleo di ogni cellula, secondo un ordine ben determinato: ciascun gene, o una data sequenza di essi, corrisponde a una serie complessa di funzioni, che la cellula è o sarà chiamata a svolgere. Il corredo di geni di ogni individuo contiene, in altri termini, la descrizione dell'individuo stesso, il suo progetto o piano di montaggio: è questo corredo di geni che, per esempio, è all'origine dello sviluppo dell'uomo così come di ogni animale pluricellulare. Esso stabilisce i tempi e le modalità della crescita del feto: quando e come si deve formare il tessuto nervoso, quando e come quello osseo, quando e come gli occhi, i capelli, e così via. Accade, tuttavia, che nel corso dello sviluppo di un individuo, o durante la sua vita, il suo patrimonio genetico subisca mutazioni, cioè alterazioni di struttura. Ricorrendo di nuovo alla immagine del piano di montaggio, è come se le linee di esso fossero state in qualche modo alterate. Come si comprende, il problema si sposta verso il calcolo delle probabilità, poiché occorre stabilire che valore di probabilità hanno mutazioni casuali di verificarsi simultaneamente e di costruire qualcosa di nuovo. Quella che sembra una via di uscita pone, in realtà, quesiti ancora più gravi dei precedenti. Fino dai tempi di Darwin, ancora prima di individuare nelle mutazioni la fonte della variabilità del mondo vivente, i biologi avevano intuito le connessioni tra matematica ed evoluzione, ma nessuno tentò mai di impostare rigorosamente il problema. Ancora oggi l'atteggiamento evoluzionistico è quello di una certa "sufficienza": avendo avuto a disposizione un periodo dell'ordine di due miliardi di anni, si ritiene sostanzialmente inutile chiedersi cosa sia possibile o impossibile per la evoluzione in un tempo tanto lungo. Basta attendere: il tempo compirà da solo il miracolo della creazione della vita e della sua trasformazione. Salet si è invece cimentato in un difficile calcolo che, a causa della lunghezza e della difficoltà, non è possibile riportare per intero, ottenendo il seguente risultato: in un periodo di un miliardo di anni la probabilità che sia apparso un solo vertebrato munito di 5 nuovi geni funzionali, è di 1 su 100.000, ovvero che occorrono 100.000 miliardi di anni per avere la quasi certezza di vederne uno. Queste cifre danno solo una pallida idea del tipo di problema che sorge quando si vuole assegnare al caso la genesi e la complessità del mondo vivente. Basta supporre, per esempio, che i geni interessati alla novità siano 6 anzichè 5, perché la certezza della comparsa di un mutante risulti di 1 su 100 miliardi di miliardi di anni! Dato che la cosmologia più recente assegna all'Universo una età di circa 20 miliardi di anni, si può ritenere assurda ogni ipotesi che faccia ricorso al caso come a fonte di variabilità vantaggiosa, sia in ambiente previvente che in ambiente vivente. Salet riassume quanto succintamente esposto nel seguente principio generale: "Se una costruzione nuova necessita di n nuovi geni, il tempo necessario perché mutazioni geniche conferiscono loro il carattere voluto è una funzione esponenziale di n rapidamente crescente. Tempi largamente superiori a quelli delle ere geologiche sono raggiunti per valori di n molto modesti". Ovviamente è bene evidenziare che questi calcoli, ignorati nel mondo scientifico, sono molto difficili da confutare data l’arbitrarietà implicita nell’assegnazione dei valori. Salet afferma di essere stato “fin troppo generoso con l’evoluzione”, ma non ci sono osservazioni sperimentali che possono negare o affermare che abbia compiuto una scelta adeguata. Quindi questa non può essere ancora considerata una dimostrazione sufficiente per distruggere il darwinismo, ma sarebbe opportuno per gli scienziati prenderne atto e tentare di scardinarla, in modo tale che le loro posizioni acquistino ulteriormente validità. DATAZIONE Per molto tempo gli evoluzionisti si sono serviti, per la datazione di rocce e di fossili, di un metodo assolutamente inattendibile: assegnata, in modo del tutto arbitrario, una determinata età a un certo fossile, questo consentiva di datare le rocce che lo contenevano; a sua volta l'età delle rocce, stabilita con il metodo accennato, serviva a determinare l'età di altri fossili in una sorta di circolo vizioso. Particolarmente adatti per questo metodo sembravano essere i fossili di animali estinti o ritenuti tali. Questo è stato il caso della latimeria, una specie di pesce ritenuto estinto circa 300 milioni di anni fa. Nella datazione delle rocce, tutte quelle contenenti latimerie fossili venivano considerate vecchie per lo meno di 300 milioni di anni. Recentemente, però, sono stati pescati, al largo delle coste del Madagascar, esemplari viventi di latimeria. Perciò, tutte le datazioni effettuate sulla base di fossili di latimeria sono prive di valore. Ma esistono altri esempi che non solo mettono in dubbio la validità di questo metodo, ma fanno vacillare addirittura tutta la teoria dell'evoluzione. Qualche anno fa è stata fatta una interessante scoperta nel letto di un fiume del Texas, il Paluxy River: in una formazione di gesso si trovano impronte, estremamente nitide, di brontosauro e di uomo. L'unica spiegazione possibile è che il brontosauro e l'essere umano, notoriamente divisi da 60 milioni di anni, che hanno lasciato quelle impronte, siano stati contemporanei. Infatti, se il gesso si fosse solidificato dopo avere ricevuto le impronte di brontosauro e fosse diventato di nuovo molle dopo 70 milioni di anni, le impronte di 29 Quaglino Alessio V Scientifico A Fede e scienza brontosauro sarebbero andate perdute. Quello del Paluxy River è senz'altro uno dei più significativi, ma non è l'unico esempio di tale genere. Non sono rari i ritrovamenti di tracce umane in strati geologici che dovrebbero risalire a periodi molto anteriori alla comparsa dell'uomo sulla terra. Ma la scienza ufficiale ignora tali ritrovamenti. Per sopperire ai limiti della datazione con i fossili, si è utilizzata la tecnica degli isotopi radioattivi e soprattutto del C14, isotopo radioattivo del carbonio. Nell'aria è presente una certa quantità di C14, che entra nell'organismo tramite la respirazione e viene utilizzato per costruire i tessuti. Dopo la morte, con la cessazione della respirazione, cessa anche l'assunzione di nuovo C14, mentre quello presente nei tessuti si trasforma in carbonio non radioattivo con una velocità conosciuta. Conoscendo la concentrazione di C14 nei tessuti al momento della morte di un organismo e potendo misurare quanto ne è ancora presente, è possibile calcolare con una certa approssimazione l'età del fossile. Questa tecnica presuppone però la costanza del C14 nell'aria e quindi nei tessuti. Il C14 si forma dal bombardamento di atomi di azoto da parte di raggi cosmici. La intensità di tale bombardamento, e quindi la concentrazione del C14, dipende dal campo magnetico terrestre: quanto maggiore è il campo magnetico, tanto minore è la quantità di raggi cosmici che riescono a penetrare nell'atmosfera. È da poco più di un secolo che gli scienziati sono in grado di misurare il campo magnetico terrestre, e in questo periodo il campo magnetico è considerevolmente diminuito. Ciò ha notevoli conseguenze: se in passato il campo magnetico terrestre era superiore all'attuale, allora la concentrazione di C14 nell'aria era inferiore e, di conseguenza, la quantità di isotopo presente negli organismi viventi, per cui già al momento della morte la concentrazione era inferiore a quella ammessa oggi. Perciò la bassa concentrazione di C14 nei fossili non può essere considerata solo come dipendente dalla considerevole età, poiché dipende anche dalla minore concentrazione di C14 presente nei tessuti già al momento della morte. Questi fatti hanno un'altra ripercussione sulla teoria della evoluzione, se si tiene presente il ruolo svolto dalle radiazioni cosmiche nell'accelerare le mutazioni geniche. In tempi primitivi, con una scarsa irradiazione cosmica, saranno avvenute meno mutazioni che non in tempi di più intensa irradiazione. Se, dunque, le mutazioni sono la vera fonte dell'evoluzione darwiniana (come viene sostenuto quasi unanimemente) allora questo tipo di evoluzione sarà stato meno veloce con un forte campo magnetico terrestre l'evoluzione dovrebbe essere avvenuta molto più lentamente in tempi preistorici con una debole irradiazione cosmica rispetto a oggi con una elevata irradiazione e frequenti mutazioni. Ma neanche enormi periodi di tempo riescono a spiegare alcuni fenomeni: se l'evoluzione fosse avvenuta come gli evoluzionisti si immaginano, si dovrebbero trovare molti fossili di forme intermedie e dovrebbe essere possibile dimostrare la comparsa successiva degli animali più complessi nei vari strati. I ritrovamenti fossili dimostrano spesso il contrario. "In breve tempo compaiono praticamente tutti i grandi gruppi di animali oggi viventi, sia pure con forme diverse dalle attuali". Le grandi trasformazioni che hanno portato alla formazione dei grandi gruppi animali oggi esistenti sarebbero avvenute in breve tempo e non sono documentate da fossili, mentre i ritrovamenti fossili dimostrerebbero piuttosto una considerevole stabilità delle specie nel corso delle "decine e centinaia di milioni di anni"! LA POSIZIONE DELLA CHIESA Perché l’accanimento contro la teoria dell’evoluzione è così acceso solo negli Stati Uniti? Perché la religione è prevalentemente protestante, non cattolica. E per i protestanti, la Bibbia è l’unica fonte di verità e lo Spirito Santo assiste ogni singolo credente nella lettura ed interpretazione del testo sacro. La teoria dell’evoluzione fu considerata, al suo nascere, antagonista del Dogma cattolico, per cui suscitò violente polemiche. Ma è anche vero che la Chiesa Cattolica, nel 1951, riconobbe che solo l’origine della vita e dell’uomo riguardano la Fede e che l'evoluzione non era contrastante con il Cattolicesimo. Nell’enciclica Humani generis, il pontefice Pio XII chiarì che mentre l’anima è frutto diretto dell’atto creativo, nulla è riportato nella Bibbia circa la creazione del corpo, per cui la scienza è libera di discutere l’origine dell’uomo. Nel 1996 la posizione della dottrina cattolica sul cosiddetto "evoluzionismo” trae spunto dal messaggio di Papa Giovanni Paolo II alla Pontificia Accademia delle Scienze, datato 22 ottobre. Nel documento viene ribadito come "punto essenziale "che, se il corpo umano ha la sua origine nella materia viva che esisteva prima di esso, l’anima spirituale è immediatamente creata da Dio". Papa Giovanni Paolo II afferma che "oggi nuove conoscenze conducono a non considerare più la teoria dell’evoluzione una mera ipotesi”, perché si tratta di una teoria, cioè a suo proposito sono avanzate diverse teorie, cioè sono stati proposti diversi insiemi di ipotesi. Quindi, il Papa si chiede che cosa sia una teoria: "La teoria dimostra la sua validità nella misura in cui è suscettibile di verifica; è costantemente valutata a livello dei fatti; laddove non viene più dimostrata dai fatti, manifesta i suoi limiti e la sua inadeguatezza. Deve allora essere ripensata”. Dunque, se l’ipotesi evoluzionistica deve passare al vaglio cui sono sottoposte tutte le scoperte scientifiche, quello dei fatti, la teoria evoluzionistica deve superare anche l’esame della filosofia e della teologia. E il Magistero della Chiesa è direttamente interessato alla questione dell’evoluzione, perché concerne la concezione dell’uomo, del quale la Rivelazione biblica dice che è stato creato a immagine e somiglianza di Dio. "Di conseguenza — conclude Papa Giovanni Paolo II —, le teorie dell’evoluzione che, in funzione delle filosofie che le ispirano, 30 Quaglino Alessio V Scientifico A Fede e scienza considerano lo spirito come emergente dalle forze della materia viva o come un semplice fenomeno di questa materia, sono incompatibili con la verità dell’uomo. Esse sono inoltre incapaci di fondare la dignità della persona". Come si vede, la novità dottrinale sfugge perché non esiste. Non deve però sfuggire l’atteggiamento di dialogo con la comunità scientifica e con le sue conquiste, dal momento che il creato è opera dello stesso Dio che si è rivelato, per cui la Chiesa, veicolo della Tradizione soprannaturale, lo è anche della tradizione naturale. In effetti, la Chiesa Cattolica ha sempre chiesto grande cautela nell’accostarsi alla Bibbia, ed ha richiesto che ogni edizione divulgativa avesse note esplicative, distinguendosi in questo dalle varie Confessioni protestanti, che sono rimaste fedeli ad un'interpretazione prevalentemente letterale del libro di Dio. La Bibbia non può essere presa alla lettera in ogni senso, in qualsiasi espressione; occorre anche tener presenti gli usi e i costumi, il livello di istruzione e di sensibilità dei popoli ai quali Dio, attraverso l’agiografo, si rivolgeva. L’importante è individuare la sostanza del messaggio divino, al di là della forma in cui esso è espresso. E quanto a questo, molti cattolici e protestanti non hanno ancora individuato, o rifiutano d’individuare, la natura del messaggio divino. LA VITA NON È NATA PER CASO La teoria secondo cui la vita sarebbe sorta casualmente dalla materia inorganica non è, in fondo, che la versione moderna di una credenza vecchia quanto la osservazione superficiale della natura, la "generazione spontanea": quella, per intenderci, in base alla quale gli antichi credevano che le anguille nascessero dalla melma dei fiumi, le zanzare dai miasmi delle paludi e le mosche dalla carne putrefatta. La loro inconsistenza fu sperimentalmente dimostrata da Francesco Redi nel 1668 per gli insetti, dall'abate Lazzaro Spallanzani nel 1748 per i protozoi e da Louis Pasteur nel 1861 per i batteri. Tutti e tre gli scienziati dovettero faticare molto per fare accettare le loro scoperte; ma, mentre Redi dovette lottare solo contro i pregiudizi di sedicenti "conservatori", Spallanzani e più ancora Pasteur si trovarono di fronte la opposizione dei "progressisti", che della generazione spontanea facevano il supporto "scientifico" di una filosofia materialistica. È chiaro che, partendo da un simile preconcetto, non si poteva fare a meno di cercare il modo di riaffermare quello che la esperienza scientifica aveva negato. E il modo è stato trovato, e contrabbandato per "prova scientifica", ricorrendo a due accorgimenti: primo, la sostituzione del vecchio e screditato termine "generazione spontanea" con espressioni altisonanti, quali "abiogenesi", "fase prebiotica della evoluzione", "evoluzione chimica", e simili; secondo, la retrodatazione della presunta "abiogenesi" a lontanissime ere geologiche, in condizioni ambientali non verificate né verificabili, ma "ricostruibili in laboratorio", in cui - si afferma - sarebbe potuto avvenire quello che oggi è impossibile. Fra le numerose "teorie abiogenetiche" oggi disponibili la più accreditata rimane quella delineata una cinquantina di anni fa, dal biologo sovietico Oparin. Questa teoria (o, meglio, ipotesi) postula l’esistenza - necessaria per l'"abiogenesi" - di un'atmosfera primitiva a carattere fortemente riducente, composta di idrogeno, vapore acqueo, metano, azoto e ammoniaca. In tale atmosfera le radiazioni ultraviolette solari e le scariche elettriche dei fulmini avrebbero provocato la sintesi di composti organici, tra cui gli amminoacidi. Tali composti, disperdendosi negli oceani, avrebbero formato il cosiddetto "brodo prebiotico", nel quale, per reazioni chimiche successive, si sarebbero formate, sempre casualmente, le prime biomolecole - soprattutto proteine – e, infine, i primi organismi viventi. I risultati di Miller, successivamente confermati ed estesi, sia pure con qualche lieve modifica per quanto riguarda la composizione dell'"atmosfera primordiale", da esperimenti successivi, diedero un grande impulso alla "ipotesi abiogenetica": gli amminoacidi sono i componenti fondamentali delle proteine di cui sono costituiti i tessuti biologici; altri composti organici identificati da Miller nella sua miscela di prodotti si ritrovano, in gran parte, tra i prodotti del metabolismo di organismi viventi. Altri amminoacidi e supposti "precursori prebiotici" di altri costituenti fondamentali della cellula, quali gli acidi nucleici, sono sintetizzabili in condizioni che, secondo gli autori, ricordano da vicino quelle dell'ipotetico "brodo prebiotico". Se i lavori riportati nelle memorie scientifiche sopra citate hanno in sé e per sé, come metodi per la sintesi di alcuni composti chimici, una loro indubbia validità scientifica, tuttavia non ne hanno invece nessuna come "prove sperimentali dell'abiogenesi". Dato che i risultati di simili esperimenti vengono quotidianamente sbandierati come "prove" non solo in scritti "divulgativi", ma anche in rispettabili testi universitari, sarà bene esaminarli più approfonditamente. In tutti gli esperimenti sopra riportati si otteneva, al termine della scarica o della irradiazione, una grande varietà di composti, da cui i supposti "elementi prebiotici" andavano estratti e purificati con procedure spesso assai sofisticate. Anche le rese erano bassissime. Ma vi è di più: negli esperimenti di "sintesi prebiotica" sono stati ottenuti anche parecchi amminoacidi che non si ritrovano nelle proteine, talvolta con rese più alte che quelli proteici. Inoltre, la proporzione tra i vari amminoacidi nelle proteine è quasi inversa che tra i prodotti di sintesi; per risolvere questa difficoltà, Miller è costretto a supporre un’ulteriore "condizione necessaria", cioè una precipitazione frazionata di amminoacidi per evaporazione in qualche laguna, con formazione di polipeptidi nella fase solida: e tutto questo a conclusione di una serie di esperimenti in cui la resa totale 31 Quaglino Alessio V Scientifico A Fede e scienza in amminoacidi "utili" e no, era in media l'1,90%. Analoghe critiche potrebbero essere mosse alle varie sintesi di "precursori prebiotici" degli acidi nucleici. Tutte queste teorie, come si è già visto, presuppongono la presenza, sulla terra, di una atmosfera riducente all'epoca della "evoluzione prebiotica" e "protobiotica". Tuttavia, le teorie più recenti sulla formazione della terra e della sua atmosfera escludono proprio questa ipotesi fondamentale, affermando che all'epoca della comparsa dei primi viventi la terra aveva un'atmosfera neutra o debolmente ossidante, non molto diversa dall'attuale, salvo, forse, per la mancanza di ossigeno. Un tentativo di ovviare a questo inconveniente è stato fatto in America da Allen J. Bard e dai suoi collaboratori. Costoro, dopo avere scoperto che, irradiando con luce ultravioletta una soluzione acquosa di ammoniaca satura di metano in presenza di biossido di titanio platinato cioè ricoperto di platino finemente suddiviso - si ottiene una miscela di amminoacidi, superano l’obiezione relativa alla composizione dell'atmosfera primordiale osservando che il biossido di titanio catalizza la riduzione dell'azoto ad ammoniaca e dell'anidride carbonica a metano, formaldeide e metanolo, sia pure con basse rese. Peccato che, per la formazione di amminoacidi sia indispensabile l'uso del biossido di titanio platinato, un catalizzatore sintetico, inesistente in natura. Siamo, come si può vedere, ancora al punto di partenza. DALLE MOLECOLE ORGANICHE ALLE BIOMOLECOLE: ULTERIORI DIFFICOLTÀ Passando poi alla seconda fase della "evoluzione chimica" quella in cui le "molecole prebiotiche" avrebbero reagito tra di loro per formare polisaccaridi, polipeptidi - e poi proteine - e polinucleotidi - e poi acidi nucleici -, che unendosi insieme avrebbero formato i primi organismi, le difficoltà salgono alle stelle. Qui il "caso", invocato dagli abiogenisti, si rivela molto intelligente. La prima difficoltà è data dalla attività ottica delle sostanze di origine biologica, dovuta alla dissimmetria sterica delle molecole. Gran parte delle molecole organiche sono dissimmetriche, ossia prive di piani di simmetria, così che possono esistere in due forme distinte, che differiscono tra di loro per essere l'una la immagine speculare dell'altra così come la mano destra differisce dalla sinistra, donde il nome di molecole chirali - dal greco chéir, mano. La possibilità di distinguerle è data, appunto, dalla loro attività ottica. Tutte le molecole chirali che fanno parte degli organismi biologici sono pure, e tutti della stessa configurazione destrorsa o sinistrorsa, a seconda della classe di molecole a cui appartengono. Invece, tutte le sintesi di amminoacidi compiute dagli abiogenisti dànno luogo a miscele simmetriche, dato che, per obbedienza al presupposto di partenza, sono compiute su reagenti non chirali, senza impiegare catalizzatori otticamente attivi. Ora, è difficile capire perché da reazioni casuali tra amminoacidi statisticamente distribuiti tra le due forme si sarebbero formati polipeptidi puri; lo stesso dicasi per i "precursori prebiotici" dei polisaccaridi e degli acidi nucleici. Ma non basta. Nelle proteine, non solo la chiralità, ma anche la sequenza degli amminoacidi è tutt'altro che casuale, come pure la sequenza delle basi negli acidi nucleici: entrambe sono strettamente ordinate alle funzioni biologiche della macromolecola all'interno dell'organismo; tra le sequenze di basi negli acidi nucleici e le sequenze di amminoacidi nelle proteine esiste una correlazione valida per tutto il mondo biologico - il codice genetico - così che la struttura dei primi determina quella delle seconde. Polipeptidi statistici sono stati ottenuti riscaldando a 170°C una miscela di amminoacidi posti su un pezzo di roccia vulcanica o mediante esperimenti simili a quelli di Miller, ma condotti sotto vuoto alle temperature "siberiane" di -40°C e -60°C, anziché a pressione e a temperatura ambiente. I prodotti ottenuti, posti in soluzioni acquose, si aggregano in microsfere, talvolta delimitate da una membrana polisaccaridica, chiamate dagli autori modelli di "protocellule", ma che con le cellule autentiche hanno poco a che vedere: sono prive di attività metaboliche e riproduttive, in altre parole non vivono. Per quanto riguarda, poi, la sintesi delle catene proteiche, vi sono ulteriori difficoltà. Le reazioni chimiche non avvengono a caso, ma sono soggette a una serie di leggi: una di queste è la legge di azione di massa. Se dalla reazione A+B si originano le sostanze C e D, la reazione può andare anche in senso inverso, cioè da C+D si possono formare A e B. La direzione della reazione, o il suo equilibrio, dipende da una serie di fattori. Nel caso della sintesi di due aminoacidi si ha la produzione di una molecola di acqua: se dal sistema ove avviene la reazione si toglie acqua, la reazione di sintesi viene facilitata; se invece nel sistema è presente molta acqua, gli aminoacidi tenderanno a rimanere in soluzione. Ma dove vi è più acqua che nell'oceano? Eppure gli evoluzionisti ammettono che la sintesi delle grosse molecole proteiche sia avvenuta proprio nell'oceano, nonostante la legge di azione di massa. 32 Quaglino Alessio V Scientifico A Fede e scienza L’ORDINE NON NASCE DAL CAOS Tutte le precedenti obiezioni alla "teoria abiogenetica" sono riconducibili a un semplice principio: l'ordine non può nascere spontaneamente dal caos. Un organismo vivente è molto di più che un aggregato di molecole e di macromolecole organiche: è una forma organizzatrice, che costruisce e ordina queste molecole secondo un progetto strutturale, è un sistema cibernetico dotato di un grado di informazione superiore a quello delle singole parti che lo compongono. Prendiamo come esempio il codice genetico, il quale non ha senso se non è tradotto. Il meccanismo traduttore della cellula moderna comporta almeno cinquanta costituenti macromolecolari, anch'essi codificati nel DNA. Il codice genetico può dunque essere tradotto solo dai prodotti stessi della traduzione. Ma quando e come questo anello si è chiuso su se stesso? È molto difficile anche solo immaginarlo. Allo scopo di rompere il circolo vizioso dell'uovo-DNA e della gallina-proteine, è stata recentemente proposta una nuova teoria sulla origine della vita, la "teoria ribotipica", che fa originare la cellula dalle ribonucleoproteine attraverso un meccanismo a catena di "quasi-replicazione". Essa, tuttavia, dà per scontata la "evoluzione chimica", ossia la formazione spontanea di acido ribonucleico - RNA, diverso dal DNA - e di proteine. Ma, come si è visto precedentemente, tale "evoluzione chimica" è tutt'altro che scontata. In ogni caso, il "messaggio" contenuto nella struttura degli acidi nucleici costituisce uno "schema" ben preciso che non può essere riducibile a una sequenza statistica di nucleotidi. È assai improbabile considerare lo schema attraverso il quale il DNA diffonde informazione come parte delle sue proprietà chimiche. Il suo schema funzionale deve essere riconosciuto come una condizione al contorno posta all'interno della molecola del DNA. L'informazione per la vita è contenuta in acidi nucleici per la teoria dell'evoluzione si sarebbero quindi formati per puro caso. Battendo a caso sulla tastiera di una macchina da scrivere è possibile che a un certo punto venga scritta una parola che abbia un senso, per esempio "pani". A questo punto si potrebbe andare in visibilio per il fatto che il caso ha creato informazione. Ma, se all'esperimento fossero presenti stranieri che non conoscono l'italiano, questi rimarrebbero perplessi, perché per loro la parola "pani" non significa assolutamente nulla. Però, se vi fosse un polacco, anche questo potrebbe essere stupefatto dall'esperimento, giacché "pani" in polacco significa "signora". Questo esempio mostra chiaramente come la trasmissione di una informazione necessiti di un codice e di una convenzione preesistenti. La successione degli acidi nucleici fornisce il substrato all'informazione, così come la successione delle lettere fornisce il substrato alla parola, però il significato della parola dipende da un codice, e a seconda del codice una sequenza può non avere alcun significato oppure averne anche di differenti. Inoltre, è necessaria anche l'esistenza di un sistema capace di leggere, interpretare ed eventualmente mettere in pratica le informazioni codificate nella sequenza degli acidi nucleici, cioè "una relazione fra acidi nucleici e la formazione di proteine specifiche. Purtroppo a questo punto non è facile trovare una soluzione al problema. Un postulato dell'evoluzione è costituito dalla mutazione: cioè, da errori di trascrizione del patrimonio genetico delle cellule si avrebbe, in alcuni casi, la formazione di esseri viventi, che meglio si adattano all'ambiente di quelli originari. Anche questa concezione contraddice le attuali teorie dell'informazione, secondo cui da un errore della trasmissione di un’informazione scaturirebbe un aumento dell'informazione. È come ammettere che, facendo copiare infinite volte lo schema di una radio, venga commessa una serie di errori. Le radio costruite in base a questi schemi "mutati" sarebbero in alcuni casi addirittura migliori di quelle costruite secondo lo schema originale e avrebbero maggiore successo sul mercato (selezione). Da una serie di errori di copiatura (mutazioni) e dalla situazione di mercato (selezione) si svilupperebbero radio sempre più complesse, e, ovviamente dopo un congruo numero di sbagli, ne uscirebbe addirittura un televisore! 33 Quaglino Alessio V Scientifico A Fede e scienza DIBATTITO CONTEMPORANEO Recentemente Zichichi, uno dei più illustri fisici italiani contemporanei, si è espresso con parole dure nei confronti dell’evoluzionismo che, secondo la sua opinione “[…] è presentato come l’ultima frontiera della Scienza galileiana. In diverse occasioni ho posto una domanda semplicissima: qual è l’equazione che descrive l’evoluzione biologica della specie umana e quali sono i risultati degli esperimenti di stampo galileiano che corroborano la validità di quella equazione? Una domanda semplicissima che rimane, ancora oggi, senza risposta. […] L’evoluzione è come pretendere di avere scoperto una civiltà capace di volare con jet supersonici senza avere ancora capito cos’è il suono. […] Un argomento forte dell’evoluzionismo sono le caratteristiche comuni alle innumerevoli forme di vita animale. C’è una caratteristica di gran lunga più importante. Essa è comune, non solo alle forme di vita animale, ma anche a quelle di vita vegetale, e addirittura della stessa materia inerte. Questa radice comune non l’hanno scoperta gli evoluzionisti. Siamo stati noi fisici a scoprirla, seguendo l’insegnamento galileiano. Una pietra, un albero, un’aquila, un uomo sono fatti con le stesse particelle: protoni, neutroni ed elettroni. Non per questo noi fisici concludiamo dicendo che pietre, alberi, aquile e uomo sono realtà identiche. La diversità della nostra specie è nell’esistenza della Ragione: nessuno la sa dedurre in modo rigoroso da principi fondamentali legati a equazioni e ad esperimenti riproducibili. Ecco perché nessuno si può arrogare il diritto di avere scoperto la vera origine della nostra specie. Nessuno che sappia cosa vuol dire Scienza oserebbe fare simili affermazioni. […] E Galilei insegna che dove non ci sono né formalismo matematico né risultati riproducibili, non c’è Scienza”. Tuttavia questa posizione non è propriamente corretta. Galileo Galilei, è tradizionalmente il fondatore del metodo sperimentale, ma certo non di quello matematico. Infatti, con i suoi esperimenti a proposito del moto dei corpi, Galilei capovolse i termini della questione: «non dobbiamo chiederci perché i corpi si muovono, piuttosto perché si fermano». Un'osservazione oggi ovvia, ma foriera di fondamentali conseguenze. I sostenitori del sistema tolemaico, affermavano infatti che la terra era immobile al centro dell'universo, con il Sole ed i pianeti che gli orbitavano attorno seguendo complicate traiettorie. Dunque, non è vero in generale che la teoria deve precedere l'osservazione sperimentale. Una teoria è la sintesi di osservazioni sperimentali, e può essere una traccia per suggerire nuove osservazioni, alle quali può seguire una nuova teoria che comprenda la precedente (la Relatività, ad esempio, comprende le equazioni di Newton), oppure anche una teoria del tutto differente. Non esiste l'equazione del pensiero astratto. Però, a meno che per pensiero astratto s'intenda la capacità di comprendere il teorema di Pitagora, questo non significa che gli animali ne siano privi. Gli animali, come è stato provato con inconfutabili 34 Quaglino Alessio V Scientifico A Fede e scienza esperimenti, sanno quello che fanno in quanto le loro azioni non sono sempre esclusivamente istintive; gli uomini anche, ma spesso non sembra che se ne preoccupino molto! In realtà, Galilei ha dimostrato l'importanza del metodo induttivo rispetto a quello deduttivo (di Aristotele). Precisamente, il metodo deduttivo non è realmente conoscitivo in quanto le conclusioni che permette di ottenere sono contenute nelle premesse, che possono essere corrette, ipotetiche o sbagliate. Al contrario, il metodo induttivo (Galilei), che comporta generalizzazioni a partire dalle osservazioni sperimentali, permette di ottenere risposte non legate alle premesse e dunque, pur essendo una sorta di "salto nel vuoto" (in quanto le previsioni potrebbero rivelarsi sbagliate alla prova dei fatti), porta per lo più ad esplorare strade diverse. Certo, la teoria dell'evoluzione - sebbene corroborata da adeguate prove sperimentali non è formalizzata in termini matematici, ma una simulazione al calcolatore non è impossibile. Per esempio, esistono programmi il cui scopo è controllare l'evoluzione di nuove specie animali - immaginate dal giocatore - in rapporto all'ambiente. Si obietterà che è un gioco, certo sofisticato, ma pur sempre un gioco. E' vero, ma lo scopo non è provare la teoria dell'evoluzione, bensì mostrare come si comportano differenti organismi (anche improbabili) in rapporto all'ambiente. D'altra parte, le prove dell'evoluzione sono frammentarie: mancano tutti gli elementi che hanno portato alla formazione della specie umana a partire da un progenitore comune anche alle scimmie. Questa discontinuità delle prove, offre ai creazionisti alcune argomentazioni contro l'evoluzionismo: • La prima obiezione: la nostra ipotetica scimmia progenitrice ha originato altre scimmie differenti per caratteristiche, ma questa era la sua attività: generare altre scimmie, non uomini. Una catena di montaggio progettata per costruire bottiglie, ne produrrà con tappo a vite, a corona, in sughero... ma certo non produrrà lattine! I creazionisti, dunque, sostengono che le varie specie di proscimmie siano state create insieme e non discendano una dall'altra. D'altra parte, gli evoluzionisti affermano la discendenza di una scimmia da un'altra, e dell'uomo da altre scimmie, sebbene non abbiamo trovato traccia di tutte le specie intermedie. Ed è proprio su queste manchevolezza che i creazionisti puntano il dito. Quanto alle lattine, è vero: una bottiglia non è una lattina! Tuttavia, l'uomo - senza citare le particelle elementari non solo è fatto delle stesse molecole organiche comuni a tutte le specie viventi, è anche il risultato della stessa catena di montaggio: il DNA. • Un'altra obiezione suggerisce di rifiutare l'evoluzionismo perché non vi sono prove dirette: dopotutto, nessuno ha mai assistito alla nascita di una nuova specie. Al più, si sono osservate mutazioni genetiche, ma che certo non possono provare inequivocabilmente la nascita di una nuova specie. Qui, occorre precisare che per nuova specie s'intende un organismo incapace di procreare accoppiandosi con organismi della specie dalla quale ha avuto origine. Per esempio, sebbene tutti i cànidi derivino dal lupo, cani e lupi appartengono alla stessa specie in quanto possono avere unioni fertili. La speciazione, in realtà non può essere verificata sperimentalmente nell'arco di uno o due secoli… occorrono millenni! • Da ultimo, il fine. Perché una scimmia, essere con modeste capacità mentali dovrebbe voler diventare un qualcosa che non può nemmeno concepire? Una specie capace di sviluppare il pensiero astratto! In realtà, l'evoluzione non è proiettiva: è cieca, produce nuove specie che sopravvivono e sostituiscono la precedente se sono più adatte all'ambiente in cui vivono. Alla "natura" non interessa un fine ultimo (le scimmie, per il loro ambiente, vanno bene come sono), bensì la sopravvivenza di un organismo, anche se questo si differenzia sempre più marcatamente fino a dare origine ad una nuova specie. Se queste precisazioni non sono sufficienti, proviamo ad affrontare la questione da un altro punto di vista. Isaac Asimov (1920-92), biologo e noto divulgatore scientifico, propose un interessante paragone a proposito dell’evoluzione, particolarmente adatto per riassumere e rispondere alle obiezioni citate. Eccolo: «Io guido un’automobile e voi anche. Io, per esempio, non conosco esattamente il funzionamento del motore. Forse neanche voi. E può darsi che le nostre idee confuse e approssimate sul funzionamento di un’automobile siano un po’ contraddittorie. Dobbiamo dedurre da questo disaccordo che l’automobile non funziona o non esiste? O, se i nostri sensi ci obbligano ad ammettere che l’automobile esiste e funziona, dobbiamo concludere che è spinta da un cavallo invisibile perché la nostra teoria sul motore è imperfetta?». Allora, perché rifiutare la teoria dell’evoluzione? Proprio perché è una teoria, ossia una congettura come un’altra, che magari ha una certa probabilità di essere vera, si risponde. Una teoria nasce per spiegare un insieme di fenomeni osservati in natura o prodotti nei laboratori scientifici. Tuttavia, una teoria non è un teorema matematico, che può essere dimostrato a partire da certi presupposti, non importa se siano veri o falsi. E proprio perché una teoria non è un teorema matematico, secondo il filosofo Karl Popper, non si può provare che sia "vera", giacché non si può escludere che la vera descrizione della realtà risieda in un’altra teoria. In effetti, nel formulare una teoria, teniamo sotto osservazione i soli fenomeni che riteniamo significativi. Ad esempio, per la teoria dell’evoluzione di Darwin, non è significativa l’influenza delle macchie solari: se le macchie solari hanno (in tempi lunghi) qualche influenza sull’evoluzione, non potremo spiegare completamente i fatti osservati finché non troveremo il modo di includerne gli effetti nella teoria dell’evoluzione. Ma se non si può provare che una teoria è vera, dice ancora Popper, si può sempre provare che è falsa. Ad esempio, la teoria della “Terra vuota" si è dimostrata falsa; 35 Quaglino Alessio V Scientifico A Fede e scienza invece, la "teoria della relatività ristretta" ha superato tutte le verifiche sperimentali. Anche la "teoria di Darwin", finora, si è rivelata abbastanza soddisfacente ed in grado di spiegare moltissime osservazioni. Quanto alla ragione… Si ricordi che - come ha chiarito la Chiesa - l'evoluzione è accettabile, purché si ammetta l'intervento divino per spiegare l'intelligenza umana. RECENTI SCOPERTE A FAVORE DELL’EVOLUZIONE Un' importante scoperta, appena pubblicata su Nature, sembra in grado di sconvolgere il dibattito sullo sviluppo della vita, lasciando senza risposta solo l’interogativo della sua origine. A detta dei creazionisti la cieca lotteria genetica delle piccole mutazioni successive sarebbe incapace di produrre grandi cambiamenti in una specie biologica. Un gamberetto, per esempio, sempre a detta loro, può solo diventare più grande, o più scuro o sviluppare delle zampe più robuste, ma non può dare origine ad una mosca, nè questa può poi dare origine, attraverso molti mutamenti intermedi, poniamo, ad un topo. Tuttavia in un laboratorio della California, sono state riprodotte in dettaglio due piccolissime mutazioni, portatrici di grandi effetti, grazie alle quali si passò di colpo da un artropode, l'Artemia (detta anche scampetto della salamoia), al moscerino dell'aceto (la celeberrima drosofila, cara ai genetisti che identificarono, grazie a lei, i cromosomi). L'artemia ha undici paia di zampe e una sorta di coda che batte vigorosamente mentre nuota, mentre il moscerino ha ali per volare, solo tre paia di zampe, e nessuna coda. Come queste due minime e antichissime mutazioni spontanee in un gene "maestro" siano riuscite a produrre tanto cambiamento è stato ricostruito, sequenza per sequenza e molecola per molecola, dai genetisti Matthew Ronshaugen, Nadine McGinnis e William McGinnis, dell'Università della California a San Diego. Come già da tempo i biologi sospettavano, una piccola, rara e fortunata mutazione in un gene di regolazione, uno di quelli che ho sopra chiamato geni "maestri" (ma nel gergo dei genetisti sono detti omeotici, e in questo caso particolare si tratta del ben studiato gene "Hox"), può d'un tratto produrre una specie nuova, assai diversa da quella di partenza. Le raffinate manipolazioni genetiche descritte nell'articolo di Nature, probabilmente identiche a ciò che spontaneamente deve essere avvenuto milioni di anni addietro, confermano adesso sperimentalmente che il sospetto era ben fondato. I normali meccanismi di mutazione genetica, poi seguiti dalla selezione naturale, sono, quindi, genuinamente capaci di generare delle assolute novità biologiche, cioè delle specie nuove. Se uno di questi geni muta, spontaneamente o in seguito ad un intervento di laboratorio, si può avere una mosca con due toraci, con 4 ali invece di due o con più zampe del dovuto. Non si tratta di magia, ma del fatto che questi geni controllano l'attività di molti altri e una loro alterazione equivale a quella di centinaia di geni diversi. Nel 1983 furono isolati e caratterizzati e l'anno dopo si scoprì che geni simili esistevano in tutti gli animali superiori, dalla sanguisuga all'uomo. In ogni organismo esistono geni molto simili a quelli del moscerino che vennero chiamati Hox. Questi geni controllano la forma complessiva del corpo in tutti gli animali superiori. Una loro alterazione può avere effetti sconvolgenti e probabilmente li ha avuti nel passato. Un insetto normale ha solo sei zampe, che si trovano confinate nella sua regione toracica, perché il suo addome non porta zampe. Alterando un gene Hox gli si possono fare crescere anche le zampe toraciche come in un crostaceo e come nell'antenato comune di insetti e crostacei. Può bastare una mutazione in un singolo gene quindi a far comparire un'intera nuova categoria di animali. Questa importante conferma viene a corroborare, tra l'altro, le ipotesi "discontinuiste" propugnate da decenni soprattutto dai notissimi (ma spesso criticati) evoluzionisti Stephen Jay Gould e Richard Lewontin di Harvard. Una loro azzeccata analogia può forse aiutarci a capir meglio: l'evoluzione biologica non è una sfera liscia che rotola nel tempo con continuità, bensì un poliedro sfaccettato che, di tanto in tanto, procede scattando di colpo da una faccia a un' altra contigua, senza soste intermedie. Il passaggio dallo scampetto della salamoia al moscerino dell'aceto è stato uno di questi scatti. Queste scoperte sono state accompagnate da affermazioni quali “Darwin aveva ragione” che hanno suscitato le ire di alcuni etologi, fra cui Danilo Mainardi, noto al grande pubblico per i suoi interventi nelle trasmissioni di Piero Angela, che citano degli esempi per confermare la variabilità evolutiva. Alcuni di questi, forse i più chiari sono l'origine dei polmoni dei vertebrati superiori e quella delle penne degli uccelli. Nella storia della vita, spesso si rinvengono organi che si sono evoluti per una certa funzione ma le cui complesse strutture sono poi state, con pochi cambiamenti, utilizzate per scopi totalmente differenti. E' grazie a loro che sembrano comparire improvvisamente (secondo i tempi della biologia) organi già compiuti per le nuove funzioni. E' al proposito davvero entusiasmante la ricostruzione del breve tragitto percorso dalla vescica natatoria, in origine organo idrostatico dei pesci, fino al suo trasformarsi nel polmone dei vertebrati terrestri. Pochi riadattamenti e il vecchio organo è pronto per la nuova funzione di respirare aria. Parallelamente s'assiste al riutilizzo dell'irrorazione sanguigna derivata da quella branchiale, che diventa la piccola circolazione polmonare, e al riuso delle branchie stesse (i cosiddetti derivati branchiali). In questo caso davvero tutto si comprende con la comparazione delle anatomie di poche specie. Recente è infine la scoperta che ha consentito di conoscere il motivo del gran salto che dalle semplici squame cornee dei rettili ha portato fino alle raffinate e complesse penne degli uccelli. Non era facile immaginare quale vantaggio potessero avere offerto le fasi intermedie, prima cioè di essere in grado di svolgere il loro ruolo di sostegno per il volo. A che potevano servire delle «vie di mezzo» tra 36 Quaglino Alessio V Scientifico A Fede e scienza squame e penne? Ebbene, alcuni piccoli dinosauri da poco rinvenuti in Cina, in particolare Caudipteryx zoui, sono risultati presentare penne quasi perfette la cui funzione però non era il volo, ma l'attrazione sessuale. Erano loro i preadattamenti che consentirono, con qualche piccolo ritocco, il gran salto che fece decollare quei dinosauri che divennero gli uccelli. CONCLUSIONE Talvolta i creazionisti si sono spinti ad affermare che i reperti provenienti dal passato sarebbero stati posti da Dio stesso, allo scopo di giustificare una storia geologica e biologica del nostro pianeta. Questa posizione, tipicamente scettica, è inaccettabile sia perché nega alla radice qualsiasi analisi scientifica, sia perché un Dio ingannatore sarebbe inaccettabile e in contrasto con le Sacre Scritture, che essi affermano di voler salvaguardare dall’evoluzionismo, ma soprattutto rende manifesto un chiaro tentativo di autodifesa tipico di chi si trova con le spalle al muro in mancanza di valide argomentazioni.Tale posizione non è infatti confutabile. Operiamo una dimostrazione per assurdo: immaginiamo per un attimo che le prove a favore del creazionismo siano schiaccianti, la scoperta che l’Universo ha 20000 anni di vita e che l’uomo è stato contemporaneo dei dinosauri hanno oramai mostrato la loro evidenza, in uno scenario simile a che servirebbe la Fede? Quando lascio cadere un corpo nel vuoto, prevedo che si muoverà di moto rettilineo uniformemente accelerato, la verifica sperimentale non mi lascia libero di decidere se crederci o meno. La Fede consiste proprio nell’accettare il mistero divino mediante un’interpretazione non necessariamente letterale della Bibbia; proprio per quest’ultimo aspetto i crezionisti contano nelle loro fila soprattutto protestanti, ovvero coloro che non sono capaci, o non vogliono accettare il Testo Sacro nella sua chiave anagogica, bensì si soffermano su di esso come il Tutto, mentre esiste un altro libro scritto da Dio, il libro aperto da Galileo Galilei e ancora oggi non ancora letto completamente: il libro della natura. Egli, credente convinto, affermò in proposito: “La Bibbia è la parola di Dio. La natura è invece la sua scrittura”. 37 Quaglino Alessio V Scientifico A Fede e scienza INDICE PREFAZIONE 3 FISICA MODERNA RELATIVITÀ E SPAZIO-TEMPO MECCANICA QUANTISTICA I COSTITUENTI ULTIMI DELLA MATERIA E LA GRANDE UNIFICAZIONE 4 5 7 9 COSMOLOGIA TEOLOGICA 13 LA VITA EVOLUZIONISMO L’ORIGINE DELLA VITA CREAZIONISMO DIBATTITO CONTEMPORANEO 20 21 25 27 34 NOTE BIBLIOGRAFICHE 39 38 Quaglino Alessio V Scientifico A Fede e scienza NOTE BIBLIOGRAFICHE ERMANNO PAVESI, Cristianità n. 56 (1979) "Le scienze naturali non conoscono l'evoluzione" LUCIANO BENASSI, Cristianità n. 95 (1983) “Mistificazioni evoluzionistiche e matematica” CARDINALE GIUSEPPE SIRI, Cristianità n. 95 (1983) “Fede ed evoluzione” GIULIO DANTE GUERRA, Cristianità n. 97 (1983) “La vita non è nata per caso” STEPHEN HAWKING, ed. Rizzoli (1988) “Dal big bang ai buchi neri” LUCIANO BENASSI, Cristianità n. 224 (1993) “Fede, scienza e falsi miti nella cosmologia contemporanea” Intervista a cura di Luciano Benassi e Maurizio Brunetti, Cristianità n. 239 (1995) STANLEY L. JAKI “Fede e ragione fra scienza e scientismo “ GIOVANNI CANTONI, Cristianità n. 259 (1996) “Dottrina della Chiesa, ipotesi evoluzionistica e teoria dell’evoluzione” IVO NEVIANI, ed. Sei (1998) “Biologia” ANTONINO ZICHICHI, ed. Il Saggiatore (1999) “Perché io credo in colui che ha fatto il mondo” ANTONIO CAFORIO – ALDO FERILLI, ed. Le Monnier(2000) “Nuova physica 2000” MARCO CASARETO, Focus (2000) “Ultimissime dal cosmo” PAUL DAVIES, ed. Mondolibri (2000) “Da dove viene la vita” ANTONINO ZICHIHI, Il Messaggero (11 febbraio 2001) “L'evoluzione umana: annose polemiche” MASSIMO PIATTELLI PALMARINI, (28 febbraio 2002) “Darwin aveva ragione. E il gambero diventò mosca” BONCINELLI EDOARDO, (11 febbraio 2002) “Trovato il gene dell' evoluzione, Darwin aveva ragione” MAINARDI DANILO, (21 aprile 2002) “I geni di Hox e l'evoluzione di Darwin” 39