Appunti di storia della scienza Gennaro Auletta May 12, 2015 Contents 1 Introduzione 2 La visione Aristotelico–Tolemaica 2.1 La visione Aristotelica . . . . . . 2.2 Aggiustamenti Tolemaici . . . . . 2.3 La rivoluzione copernicana . . . . 2.4 Il contributo di Galileo Galilei . . 1 e . . . . la nascita dell’astronomia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Evoluzione biologica 3.1 Antecedenti . . . . . . . . . . . . . . . . . . . . . 3.2 Il contributo di Darwin e problemi aperti . . . . 3.3 La sintesi neodarwiniana . . . . . . . . . . . . . . 3.4 La nuova sintesi: autorganizzazione ed Evo–Devo 3.5 L’evoluzione dell’uomo . . . . . . . . . . . . . . . moderna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 . 3 . 5 . 8 . 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 12 14 15 17 4 Le grandi rivoluzioni della fisica nel XX secolo 4.1 La visione meccanicista del mondo . . . . . . . . . 4.2 Due novità: termodinamica e una teoria dei campi 4.3 Le teorie della relatività . . . . . . . . . . . . . . . 4.4 La meccanica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 17 19 22 5 Progressi nelle scienze neurologiche e psicologiche 25 AVVERTENZE. La maggior parte del materiale seguente è soggetto a copyright come indicato nelle didascalie delle figure. Gli studenti non frequentanti che hanno problemi a seguire queste dispense dovranno scegliere e studiare alcuni tra i testi indicati nella bibliografia acclusa (essi sono da concordare con il docente). 1 Introduzione Il presente lavoro è da intendersi come una sintesi molto schematica delle mie lezioni all’Università di Cassino e del Lazio meridionale. Lo scopo del corso non era quello di fornire una storia della scienza esaustiva, cosa impossibile con 6 crediti. Mi sono limitato e mi limito qui (a parte brevi cenni ad epoche precedenti) alla storia della scienza moderna in occidente e confino il materiale essenzialmente a quattro grandi momenti: • La rivoluzione copernicana in astronomia (cone le sue conseguenze sulla fisica), avvenuta tra la metà del XV secolo e la metà del XVII secolo. • La teoria dell’evoluzione biologica, formulata intorno alla metà del XIX secolo e la cui storia si estende fino ad oggi. • Le grandi rivoluzioni in fisica agli inizi del XX secolo, le cui conseguenze sono ancora in corso. • Alcuni cenni sugli sviluppi correnti nelle scienze neurologiche e psicologiche. 1 Prima di entrare nel vivo degli argomenti, vale la pena di svolgere alcune considerazioni generali di carattere epistemologico. Le teorie scientifiche come qualsiasi altro sistema del nostro universo presentano dei punti deboli e pertanto sono spiegazioni perfettibili o imperfette. Con il termine sistema si intende su un piano generale qualsiasi complesso ordinato di elementi interrelati — vedi [AULETTA 2011, pp. 61–63] e letteratura ivi citata. Pertanto le teorie scientifiche, come tutti gli altri sistemi dell’universo, hanno un naturale ciclo che può essere schematicamente inquadrato come una successione di tre fasi principali: 1. Quando una teoria nasce, inaugura la sua fase giovanile. In questo periodo dominano le aspettative che tale teoria sia in grado di aprire nuovi orizzonti di comprensione e di predizione. Essenzialmente, la comunità scientifica cerca di utilizzare il nuovo framework concettuale applicandolo a diversi ambiti e problemi con lo scopo di derivarne conclusioni innovative. Praticamente, è una fase di espansione della teoria. La forma di ragionamento dominante in questo primo periodo è la deduzione, intesa come l’aspettazione di determinati risultati date delle ipotesi o delle leggi di carattere generale e la loro applicazione a un certo insieme di oggetti. Questa fase corrisponde a quella che Kuhn chiama la scienza ordinaria [KUHN 1962]. 2. A questa prima fase ne succede una seconda, che potremmo chiamare la fase della maturità di una teoria. E’ naturale che, nel corso delle applicazioni di una teoria scientifica a diversi ambiti problematici, emergano delle piccole imprecisioni oppure si presentino problemi che fanno resistenza ad essere trattati con tali metodologie. Quando studieremo la meccanica quantistica capiremo le ragioni di questa circostanza. Per ora basti la considerazione di carattere generale che nessuna teoria o ipotesi generale (in quanto perfettibile) è in grado di descrivere compiutamente qualsiasi genere di fenomeno all’interno del suo dominio di applicazione. Poiché la teoria in questione è stata collaudata nella prima fase diverse volte venendo a rappresentare per tale ragione uno strumento prezioso, la comunità scientifica cerca di risolvere tali problemi introducendo delle correzioni alla teoria, andando ad intervenire sul modo in cui gli oggetti (gli ambiti di applicazione della teoria) sono stati definiti o classificati. La tipologia di ragionamento che domina in questa fase si chiama abduzione oppure ipotesi [PEIRCE 1878b]. 3. Tuttavia, proprio per l’intrinseca limitatezza di ogni spiegazione umana, prima o poi gli errori di una teoria si accumulano e soprattuto iniziano a riguardare molteplici e disparati ambiti di applicazione, sicché la comunità scientifica diventa sempre più conscia che il problema non risiede nel come noi definiamo o classifichiamo gli oggetti (o gli stessi ambiti di applicazione) ma proprio nella teoria stessa. Questa è la fase della senilità la cui conclusione è necessariamente la fine di una teoria per fare posto a una più generale o più potente o comunque innovativa. Questa è la fase che Kuhn chiama delle rivoluzioni scientifiche. La forma di ragionamento che domina in tale fase, si chiama induzione. Si noti che le due ultime forme di ragionamento sono ampliative e pertanto sono costituite da una parte puramente logica e da una parte intuitiva o associativa che non è soggetta alla logica: idee nuove non possono infatti essere prodotte logicamente [AULETTA 2011, par. 18.4]. Questo ciclo delle teorie scientifiche non implica che esse siano delle pure costruzioni arbitrarie o che siano intercambiabili a piacimento. Intanto, sebbene non esista mai una spiegazione ottimale di alcuni fenomeni (in linea teorica ce ne possono sempre essere di migliori), esistono di fatto spiegazioni migliori e spiegazioni peggiori. E nessuno sceglierà queste ultime in presenza delle prime. Inoltre, sebbene il cambiamento di un quadro teorico sia un’importante discontinuità (che ha fatto parlare Kuhn di cambiamento di paradigma), non tutti gli elementi di una teoria superata risultano obsoleti: alcuni vengono recuperati e integrati nelle nuove teorie mentre le vecchie teorie continuano ad essere usate in alcuni ambiti specifici perché risultano più pratiche (ad esempio la navigazione su acqua si effettua sulla base di un’astronomia tolemaica e non copernicana). Infine, per quanto riguarda i rapporti tra la scienza e la società, sebbene, come vedremo, il progresso delle idee scientifiche risenta del generale clima culturale e sociale e sua volta affetti significativi cambiamenti culturali e sociali, i rapporti non sono nemmeno talmente stretti da potere affermare che le teorie scientifiche siano il risultato di una certa cultura (o viceversa). Infatti, le teorie scientifiche vengono in ultima analisi giudicate dalla comunità scientifica per il loro merito, ossia per le loro capacità predittive ed esplicative, e, sebbene fattori politici o di altro genere abbiano la loro indiscutibile influenza sulla comunità accademica, prima o poi le teorie migliori si fanno strada. 2 Figure 1: La rotazione delle stelle fisse intorno all’asse terrestre che ha come proprio polo al nord la stella polare (intorno alla quale girano le altre). Adattato da [KUHN 1957]. 2 2.1 La visione Aristotelico–Tolemaica e la nascita dell’astronomia moderna La visione Aristotelica Quando si parla del sistema cosmologico aristotelico, è bene distinguere tra la trattazione filosofica di Aristotele e di alcuni scolastici, che è di tipo non solo fisico ma anche e soprattutto metafisico, e la scienza astronomica, dovuta al contributo della scuola tolemaica, la quale astronomia, pur discendendo in ultima analisi da presupposti aristotelici, è una disciplina tecnica di tipo matematico astratto, e quindi in parte indipendente da e perfino parzialmente in conflitto con quei presupposti filosofici. Lo studioso non può che restare impressionato dalla durata e dalla incidenza del sistema aristotelico nella cultura occidentale (dal IV-III secolo a.C. al XVII secolo d.C.). Prescindendo qui dalle ragioni specificamente storiche, che, almeno in parte, sono estrinseche all’edificio filosofico, e adducendo solo quelle intrinseche, si può ricordare la semplicità e l’enorme efficacia esplicativa, almeno per i mezzi delle epoche premoderne, della cosmologia aristotelica: come vedremo, in una forma sintetica e facilmente accessibile all’uomo di media cultura, essa offriva una spiegazione plausibile (cioè in accordo con l’esperienza) di un numero enorme di fenomeni, da quelli più quotidiani fino a quelli più remoti o spirituali. Si è poi perfettamente integrata nella mentalità medievale (prima nell’Islam e poi nell’Europa cristiana) che l’ha recepita e sviluppata. L’esperienza quotidiana ci mostra una Terra immobile circondata da astri (pianeti e stelle) che sembrano muoversi in circolo intorno ad essa (vedi figura 1): per questo paragrafo vedi [KUHN 1957]. I corpi più lontani, le stelle, sembrano tutti egualmente lontani dalla Terra e a una distanza finita, il che suggerisce l’idea di una sfera massima (quella delle stelle fisse) che ingloba il cosmo e che è incentrata sulla Terra (vedi figura 2). L’idea che il cosmo sia finito si sposa perfettamente con la visione del mondo greca, che concepisce come perfetto solo ciò che è finito e vede nell’infinito un che di aberrante e di caotico. Il fatto poi che il movimento degli astri intorno alla Terra sia di tipo circolare incontra un sentimento estetico greco e un’idea metafisica presente sin dagli inizi della filosofia: il cerchio è la figura geometrica perfetta, in quanto è una linea chiusa e del tutto uniforme nel senso che non presenta singolarità (angoli o linee spezzate). Il moto circolare poi si svolge ciclicamente, con un ritorno periodico su un punto assegnato, il che significa che è un moto finito, non aperto all’infinito come il moto in linea retta, e per la sua ciclicità è anche quello che comporta il minimo di cambiamento possibile (dato che il movimento è comunque una forma di mutamento). Insomma è il moto più vicino alla quiete propria degli enti immutabili. Da qui nasce l’idea, sicuramente sostenuta da Platone, ma risalente probabilmente già alla scuola pitagorica, di un cosmo esterno perfetto. 3 Figure 2: La sfera celeste. Adattato da [KUHN 1957]. Il cosmo aristotelico si presenta dunque, a livello descrittivo, come un sistema di sfere concentriche (vedi figura 3). La più esterna è appunto quella delle stelle fisse, cosı̀ chiamate perché, pur modificando la loro posizione nel corso dell’anno terrestre, mantengono intatte le loro posizioni relative. Andando verso l’interno troviamo la sfera del pianeta più lontano dalla Terra (per le conoscenze dell’epoca): Saturno. I pianeti (pianeta = errante), a differenza delle stelle fisse, mutano di continuo la loro posizione relativa. Poi c’è la sfera di Giove, seguita da quella di Marte. Dopo Marte c’è la sfera del Sole, che comprende quella di Venere e poi quella di Mercurio. Infine l’ultima, sfera, quella della Luna, avvolge direttamente quello che possiamo chiamare oggi ‘il sistema terrestre’. Il movimento circolare delle sfere si trasmette continuamente dall’esterno verso l’interno per contatto diretto tra sfera e sfera: infatti, secondo Aristotele il movimento di un ente ha bisogno di essere continuamente alimentato da qualcosa d’altro già in movimento e, d’altra parte, se cessasse il contatto diretto, cesserebbe anche la comunicazione del moto. Allora cosa fa muovere la sfere delle stelle fisse, da cui prende origine il moto delle altre? Aristotele dice: Dio. E’ l’attrazione che egli, perfetto, esercita sul finito a produrre il moto. Né ha creato l’universo, che coesiste eternamente con Dio e da questo è eternamente mosso nel modo descritto. Il sistema terrestre non è composto solo dell’elemento terra. Riprendendo concezioni probabilmente molto arcaiche, Aristotele ritiene che tutte le cose che si rinvengono nel sistema terrestre siano composte da quattro elementi fondamentali, cioè dalla materia provvista della forma più semplice: terra, acqua, aria, fuoco. Intuitivamente essi sono ordinati secondo il loro ‘peso’: la terra è il più pesante e cade sempre verso il basso, seguita poi dall’acqua che, generalmente si trova sopra la terra (vedi figura 4). L’aria poi si trova a metà strada, sospesa, avvolgendo il nucleo terrestre ed acquatico, mentre il fuoco, il più leggero dei quattro, si innalza per andare oltre la sfera dell’aria. In sostanza i quattro elementi si disporrebbero in quattro sfere concentriche, a seconda del loro peso. Tuttavia la nostra esperienza attesta che questi elementi sono continuamente mescolati tra loro. Ad esempio, se bruciamo del legno, ci accorgiamo che produciamo del fuoco che sale: quindi il fuoco era precedentemente ‘imprigionato’ nel legno, da cui poi è stato liberato. Facendo un esempio tratto dalle scienze odierne, sappiamo che l’uomo è composto prevalentemente di acqua. Quindi la domanda principale è: cosa produce questo mescolamento? Questa domanda è strettamente collegata con un’altra: cosa produce la generazione e la corruzione? Abbiamo detto che il movimento delle sfere celesti si trasmette con regolarità a partire dalle stelle fisse andando verso la Terra. Tuttavia c’è un’eccezione: il Sole si muove di un movimento in parte sfasato rispetto a quello degli altri corpi celesti. Infatti il Sole descrive nel corso dell’anno un moto apparente sulla volta celeste che viene chiamato Eclittica. Mentre tutti i pianeti ruotano su uno stesso piano (l’equatore terrestre e celeste), l’Eclittica si situa su un piano inclinato di 23◦ 27’ rispetto al primo (vedi figura 5 e anche figura 2). I punti in cui il Sole si trova nell’equinozio di primavera (21 marzo) e in quello di autunno (23 settembre) sono quelli in cui i due piani si intersecano (vedi figura 6). A cosa è dovuto questo moto apparente? Secondo le nostre cognizioni astronomiche attuali, la Terra ha il proprio asse di rotazione su stessa e di rivoluzione intorno al Sole inclinato di 23◦ 27’ rispetto al proprio piano di rivoluzione (che essa condivide con tutti gli altri pianeti): si veda sempre figura 5. Questo fenomeno produce l’alternarsi delle stagioni 4 Figure 3: Le sfere concentriche. Adattato da [KUHN 1957]. e regola in generale (essendo il Sole fonte di luce e calore) il ciclo della vita sulla Terra [ARISTOTLE Gen. et corr., 336a-b]. Perciò è questa irregolarità, già notata da Platone, che produce continua aggregazione (nascita) e continua disgregazione (morte) degli enti della sfera sublunare (mutamento secondo la sostanza), incessante trasformazione degli stessi (mutamento secondo la qualità), crescita e descrescita (mutamento secondo la quantità) e infine anche movimento (mutamento di luogo): in una parola produce continua mescolanza e separazione dei quattro elementi fondamentali. Perciò il mondo aristotelico è affetto da un fondamentale dualismo: mentre nella sfera sublunare si produce di continuo mutamento secondo le quattro forme enunciate, le sfere celesti proseguono il loro eterno movimento circolare non conoscendo alcuna trasformazione se non questa: un mutamento ciclico di posizione. In questo esse sono perfette. Perciò esse non possono nemmeno essere composte della stessa materia terrestre, ma sono fatte di una quinta materia, la quintessenza oppure cristallino, che presenta i caratteri tipici della purezza, diremmo diamantina: trasparenza, omogeneità, impenetrabilità, incapacità di subire alterazioni di qualsiasi tipo. A questo punto è chiaro che i quattro elementi del sistema terrestre si trovano mescolati e uniti solo in quanto vincolati da qualcosa d’altro: ad esempio dalla forma di un determinato ente oppure da un vincolo per contatto tale da impedirne il libero moto, come quando, trattenendo un sasso nella mia mano, gli impedisco di cadere a terra. Perciò Aristotele riteneva che gli elementi, una volta svincolati, avessero una propensione innata a ritornare nei loro luoghi naturali: la terra verso il basso, l’acqua in una sfera un po’ più all’esterno, e cosı̀ via fino ad arrivare al fuoco. Questo moto naturale è intrinseco a ogni materia (essenziale) ed è diverso dall’una all’altra. Perciò, secondo Aristotele, il moto non è una quantità indipendente dagli enti; e quindi non può essere nemmeno trasmesso, a meno che l’ente che trasmette e quello che riceve il moto non siano solidali, cioè a meno che non costituiscano un solo sistema fisico, come quando io, ruotando il braccio, faccio ruotare anche il sasso che è nella mia mano. Una volta che l’elemento ha raggiunto il proprio luogo naturale, il moto cessa. Per cui la condizione naturale è la quiete, e non il moto. Ciò spiega il fatto che ogni movimento non naturale deve essere continuamente alimentato, altrimenti cesserebbe istantaneamente. L’idea dei luoghi naturali corrisponde a una concezione abbastanza diffusa sia presso le altre culture, sia presente in alcuni stadi dell’evoluzione del bambino. 2.2 Aggiustamenti Tolemaici Naturalmente la visione del cosmo prima descritta, pur presentando quelle qualità di semplicità ed esplicatività a cui già si è fatto cenno, non poteva risolvere di per sé moltissimi problemi di ordine astronomico. E qui inizia lo sviluppo di una scienza astronomica in parte autonoma che poi troverà il suo corononamento nell’Almagesto di Tolomeo (II 5 Luna sfera del fuoco sfera dell’aria sfera dell’acqua sfera della terra Figure 4: Le sfere dei quattro elementi. secolo d.C.). Per capire i problemi maggiori bisogna considerare brevemente la situazione del sistema planetario cosı̀ come la conosciamo oggi. Il Sole occupa una posizione centrale mentre i vari pianeti compiono intorno ad esso un moto di rivoluzione. Partendo dal più interno, c’è prima Mercurio, poi Venere, quindi la Terra (intorno a cui orbita la Luna), quindi Marte, Giove e Saturno (a cui si aggiungono i pianeti scoperti successivamente, quali Urano, Nettuno e Plutone). Ovviamente a mano a mano che ci si allontana dal Sole le orbite diventano sempre più grandi e quindi richiedono intuitivamente periodi di rivoluzione orbitale sempre più lunghi (considerando tra l’altro che, come stabilisce la III legge di Kepler, la velocità dei pianeti diminuisce con l’allontanarsi dal Sole). Cosı̀ mentre Mercurio percorre la sua rivoluzione in 88 giorni terrestri e Venere in 225, Marte in 687 giorni, Giove in quasi 12 anni terrestri e Saturno in più di 29. Inoltre le orbite non sono perfettamente circolari (come vedremo sono ellittiche: è la I legge di Kepler). Quindi il principale dei problemi che si presenta per l’astronomo aristotelico è il moto retrogrado dei pianeti. Infatti, nella realtà astronomica cosı̀ come la conosciamo oggi, abbiamo visto che la Terra ruota intorno al Sole Figure 5: L’eclittica. Adattato da http : //www.marconi − galletti.it/solare/index.php?option = comc ontent&view = article&id = 8 : terra − sole&catid = 7 : terra − sole&Itemid = 10 6 Figure 6: L’eclittica e l’equatore terrestre. Adattato da [KUHN 1957]. occupando la terza orbita planetaria partendo dall’interno e che quindi, nel suo moto di rivoluzione, è sorpassata continuamente da Venere e sorpassa continuamente Marte. Ciò significa, prendendo il caso di Marte, che mentre dal I aprile al I giugno il pianeta rosso si muove apparentemente con un movimento diretto ad est sulla volta stellata, successivamente inverte il proprio moto in direzione ovest, per poi ritornare dopo il I agosto al suo moto ‘normale’, descrivendo cosı̀ un cappio (vedi figura 7). Questa improvvisa retrocessione, o inversione di movimento deriva appunto dall’essere stato superato dalla Terra (è lo stesso effetto che si prova quando il treno su cui viaggiamo supera un altro treno e questo ci sembra muoversi in direzione contraria alla nostra). Sin dal III-II secolo a. C. Apollonio e Ipparco introdussero degli artifizi matematici in grado di riprodurre tale comportamento anomalo senza mutare l’essenziale della concezione aristotelica. La soluzione da essi introdotta si chiama epiciclo. Come dice la stessa etimologia si suppone che il pianeta (ad esempio Marte) non sia collocato nell’orbita che gli veniva tradizionalmente assegnata ma orbiti descrivendo un cerchio più piccolo (appunto l’epiciclo) intorno a un punto assegnato dell’orbita suddetta (chiamata deferente). In tal modo, grazie alla combinazione del moto del deferente e dell’epiciclo si può descrivere un movimento che presenta dei cappi esattamente come quelli di fatto osservati (vedi figura 8). Un altro modello introdotto era quello dell’eccentrico. Si suppone che il pianeta ruoti non intorno alla Terra (che resta al centro dell’Universo) ma intorno a un altro punto decentrato (si veda figura 9). In tale modo si potevano risolvere in parte alcuni problemi derivanti dall’eccentricità delle orbite planetarie (dalla loro ellitticità) come anche alcune irregolarità nel movimento del Sole. Un’altra soluzione, offerta da Tolomeo stesso (nel II secolo d. C.) è l’equante. Esso serviva a spiegare soprattutto l’irregolarità del moto apparente del Sole. In questo caso si suppone che l’orbita del Sole mantenga una velocità costante non rispetto alla Terra, che è al centro della sua orbita, ma rispetto a un punto decentrato (si veda figura 10). In tale modo si ottiene una velocità non costante, ma fatta di accellerazioni e rallentamenti dal punto di vista di un osservatore situato sulla Terra. Queste soluzioni tecniche presentano però diversi problemi. Innanzitutto è difficilissimo accordare da un punto di vista filosofico l’idea di un epiciclo con quella delle sfere di cristallino: infatti il pianeta dovrebbe in realtà sfondare diverse volte la sfera di cristallino ‘uscendone fuori’ ed ‘entrandone dentro’, il che appare del tutto assurdo. Poi si può discutere del valore filosofico di una soluzione come l’equante (argomento fatto valere in particolare da Copernico) visto che distrugge quella sfericità e perfezione del moto che stavano alla base della cosmologia e dell’astronomia aristoteliche. Infine ci sono due rilievi di carattere epistemologico: tutte queste soluzioni, prese isolatamente, non permettono di rendere conto delle irregolarità dei moti planetari, derivanti sia dalla diversità dei periodi orbitali sia dalla ellitticità delle orbite. Quindi, con il passare del tempo, e soprattutto con l’accrescersi della precisione nelle osservazioni astronomiche e della massa dei dati a disposizione, i diversi metodi furono sempre più combinati tra loro per rendere ragione di sempre nuove irregolarità, dando origine a soluzioni in cui, ad esempio, un epiciclo ruotava intorno a un 7 Figure 7: Retrocessione del moto di Marte. Adattato da [KUHN 1957]. punto dell’orbita di un altro epiciclo che ruotava intorno a un punto di un deferente eccentrico, e cosı̀ via. Il sistema dell’astronomia tolemaica diventava sempre più complicato, venendo cosı̀ a perdere un elemento fondamentale della costruzione aristotelica: la semplicità. Questo è un punto decisivo dato che una teoria è efficace solo in quanto risulti essere considerevolmente più semplice della realtà che intende descrivere. Oltre un certo punto critico la teoria cessa di avere un significativo potere esplicativo e diventa al limite inutilizzabile. Siamo entrati qui nella fase della senilità di una teoria. Il secondo rilievo epistemologico è che tutte le soluzioni elencate in precedenza sono soluzioni ad hoc, ossia artifici tecnici per far quadrare i conti. Tuttavia, una vera soluzione non serve per far quadrare i conti rispetto a quello che già si sa e non si riesce a spiegare ma per portare alla scoperta di fenomeni nuovi ossia ignoti in precedenza. In altre parole, come accennato più sopra, le teorie si giudicano in base alla loro fertilità o in base al loro potere esplicativo. Questo di fatto è in particolare vero per la prima fase delle teorie (si veda il par. 1), ma ci aspettiamo da qualsiasi teoria tali caratteristiche. Tuttavia il fatto che il sistema cosmologico aristotelico venisse accettato nel medio-evo è dovuto a diversi fattori, oltre a quelli generali già menzionati. Innanzitutto esso corrisponde perfettamente al sentire medievale che ha bisogno di un mondo finito, chiuso, gerarchico, centrato sulla Terra e sull’uomo, perfettamente ordinato. Il bisogno era di tipo sociale, religioso, politico, e non solamente filosofico. Inoltre non c’erano le condizioni tecnologiche per avvertire discrepanze serie con l’esperienza e le osservazioni. 2.3 La rivoluzione copernicana La rivoluzione copernicana è stata a tutt’oggi la più grande rivoluzione scientifica mai avvenuta, e ha preso le mosse dalla pubblicazione postuma nel 1543 del De revolutionibus orbium coelestium di Nicolò Copernico. Anzi, per molti, è stata la rivoluzione che ha posto le basi di ciò che noi oggi chiamiamo scienza. Questo è vero ma, come ricordato nell’introduzione, alcune parti della visione aristotelico-tolemaica non sono state del tutto abbandonate o rese invalide, e alla stessa rivoluzione copernicana ci si è arrivati tramite un complesso processo che ha visto all’opera diversi studiosi già nel medio evo. Pertanto anche qui c’è una certa continuità. Il contenuto immediato della rivoluzione copernicana è quello di una rivoluzione astronomica, tuttavia i suoi presupposti sono di carattere generale e le sue conseguenze si estendono all’intera cultura occidentale. I suoi presupposti sono la critica medievale, soprattuto francescana, dell’aristotelismo e le sue conseguenze si possono caratterizzare come la perdita di centralità che la Terra occupava nella visione del mondo medievale. Il che ha anche un risvolto religioso: l’uomo si sente parte di un universo più grande di lui. Si noti infatti che l’eliocentrismo era un’esigenza della nuova cultura che andava ben oltre il problema squisitamente astronomico. Marsilio Ficino, nel Liber de Sole, colloca al centro dell’universo questa lampada che simboleggia il Bene (Dio) e che è diffusiva come l’amore di Dio (tema neoplatonico). Per tale motivo Kuhn sostiene che teorie cosı̀ diverse tra loro, come quella aristotelico-tolemaica 8 Figure 8: L’epiciclo. Adattato da [KUHN 1957]. Figure 9: L’eccentrico. Adattato da [KUHN 1957]. e quella copernicano-galileiana, sono anche in una buona misura incomparabili. Se è vero che le teorie scientifiche non possono essere separate dalla società e dalla cultura che in parte esprimono, esse in parte servono (e vanno perciò intese piuttosto) come degli strumenti atti a produrre determinati risultati ed effetti piuttosto che come spiegazioni totali. Copernico era confrontato con una tradizione che offriva una accozzaglia di soluzioni ad hoc, spesso in contrasto tra loro e comunque poco armoniche e poco semplici. C’erano addirittura diverse tradizioni astronomiche spesso confuse tra loro. Inoltre, come abbiamo visto, gli errori si erano venuti accumulando nel tempo, per cui l’astronomia tolemaica appariva sempre più inadeguata. Infine la successiva introduzione di nuovi strumenti tecnici (il cannocchiale) permetteva di rilevare con ancora più acutezza gli errori nelle previsioni tolemaiche. Quella di Copernico è innanzitutto una nuova soluzione matematica che intende rispondere alle esigenze estetiche di armonia e semplicità. Qui si fa sentire un bagaglio filosofico che è comune alla maggior parte dei protagonisti della rivoluzione scientifica: il platonismo. C’era anche un’esigenza metodologica di tipo occamista (entia non multiplicanda præter necessitatem): è più logico che sia un corpo più piccolo (la Terra) a muoversi, piuttosto che l’intero universo a ruotare intorno ad essa. Tuttavia il menzionato neoplatonismo è stato anche in tensione con i nuovi indirizzi scientifici. Infatti Kepler, grande astronomo di Praga, ha perseguito per alcuni decenni (Mysterium cosmographicum: 1596) un’idea cosmologica neoplatonica in base alla quale le orbite dei pianeti sarebbero state inscritte nei cinque solidi perfetti (Saturno-cuboGiove-tetraedro-Marte-dodecaedro-Terra-icosaedro-Venere-ottaedro-Mercurio) [HALL 1954, p. 135] [KOYRÉ 1968, pp. 12–16]: vedi figura 11. Alla fine — in Epitome astronomiæ copernicanæ (1618-21) e Harmonices mundi (1619) 9 Figure 10: L’equante. Adattato da [KUHN 1957]. — fu costretto ad abbandonare tali speculazioni e arrivò a formulare le famose tre leggi (ma probabilmente non ci sarebbe arrivato se non attraverso questa ricerca tortuosa): 1. Le orbite dei pianeti sono ellissi di cui il Sole occupa uno dei due fuochi (vedi figure 12 e 13), 2. La linea che congiunge il pianeta al Sole spazza in tempi uguali aree uguali, 3. I quadrati dei periodi di rivoluzione dei pianeti sono nello stesso rapporto dei cubi delle rispettive distanze dal Sole. Queste leggi rappresentano un significativo allontanamento dalla matematica antica, basata su figure perfette, regolari e statiche. L’ellisse è una figura anomala (sezione di un cono, studiata da Pascal), e inoltre la trattazione astronomica di Kepler introduce un principio di dinamismo assente nella matematica e nella fisica antiche. 2.4 Il contributo di Galileo Galilei Galilei ha dato contributi su princı̀pi generali di carattere filosofico, su problemi epistemologici e gnoseologici e sul terreno fisico. Galilei non è stato un astronomo in senso tecnico e non c’è evidenza che sia stato copernicano prima di conoscere il Mysterium Cosmographicum di Kepler [HALL 1954, pp. 122–124]. Nel 1610, Galilei, avvalendosi del telescopio da lui rielaborato a partire da un prototipo olandese, pubblicò alcune rivoluzionarie scoperte (osservazioni astronomiche) [GALILEI 1610]: esistenza di macchie solari (testimonianza di attività e rotazione del Sole), crateri e montagne sulla Luna (similarità con la Terra), quattro satelliti di Giove (assenza di sfere e similarità con il sistema Terra-Luna), fasi di Venere (che dimostravano che ruotava intorno al Sole e non tra la Terra e il Sole). Il telescopio inaugura perciò la nascita dell’astronomia fisica (non più incentrata sulla sola posizione dei corpi celesti). Nasce perciò l’esigenza di una fisica nuova unitaria basata su nuove leggi. Si veda infatti la frase di Leibniz: ‘C’est partout comme içi’ (dappertutto è come qui). Il grande merito del Dialogo di Galieo Galilei è avere mostrato la consistenza dell’ipotesi del moto della Terra fornendo cosı̀ basi filosofiche e fisiche alla rivoluzione copernicana [GALILEI 1632]. L’avversario diretto è qui Aristotele e non Tolomeo, come nel caso di Copernico e Kepler. Galilei dimostra che non si possono notare differenze tra un corpo situato in un sistema in quiete e in uno che si muove di moto uniforme. La Terra si muove appunto con moto uniforme. Fa il famoso esempio della nave: supponendo un veliero che si muove su un mare relativamente calmo, nel chiuso di una cabina tutto avviene come se la nave fosse ferma e se dovesse cadere un coltello lo farebbe lungo una trattoria perpendicolare al suolo come sulla terra ferma. D’altra parte il moto si conserva (abbozzo del principio di inerzia), cosicché se un uccello si alza in volo esso conserverà sempre il moto del sistema terrestre con cui era ed è solidale; ecco perché non sarà proiettato né in avanti né in indietro. Si noti tuttavia che è solo in Descartes che si troverà una formulazione del principio per il moto rettilineo [KOYRÉ 1968, pp. 95–96]. Infatti, Galilei, che crede 10 Figure 11: I solidi perfetti di Kepler. Adattato da http : //flyhi.de/modellbau/modella stromedia.html. Figure 12: L’orbita ellittica della Terra intorno al Sole. Adattato da http : //www.marconi − galletti.it/solare/index.php?option = comc ontent&view = article&id = 8 : terra − sole&catid = 7 : terra − sole&Itemid = 10 ancora che le orbite dei pianeti siano circolari, ritiene che questi moti siano conservati. In ogni caso, grazie a questi due princı̀pi, tutto avviene come se la Terra fosse ferma. In sostanza potrebbe essere sia che sia la Terra a essere ferma e il cielo a muoversi, sia viceversa. Ma la seconda ipotesi è più plausibile. Si noti che in tale modo Galilei distruggeva la teoria aristotelica del moto. Un problema che si era già notato nel medio evo era che non si riusciva a spiegare come un corpo non tornasse immediatamente al suo luogo naturale dopo essere stato lasciato libero. Ad es., se lancio un sasso, questo non cade verso il basso non appena lascia la mia mano ma prosegue per un po’ con una traiettoria parabolica. Adesso Galilei, azzerando completamente la teoria dei luoghi naturali e l’idea del moto come proprietà intrinseca di un oggetto, ci spiega che il moto viene trasmesso da copro a corpo e viene conservato se non intervengono altri fattori (come l’attrito) per smorzarlo. Perciò, il moto diventa ora una entità quantizzabile e che non pertiene essenzialmente a un cosa dato che si può trasmettere da oggetto ad oggetto. Mentre gli antichi avevano trattato matematicamente molte cose, nessuno prima di Galilei aveva pensato di matematizzare il moto [HALL 1954, p. 179]. Le differenze essenziali tra Aristotele e Galilei sulla concezione del moto possono essere sintetizzate cosı̀: il moto per A. è un processo e per G. uno stato, per A. una qualità delle cose, per G. quantità, per A. una proprietà (accidentale o essenziale) mentre per G. non afferisce a un ente ma si trasmette, per A. ha bisogno di cause per mantenersi e per G. no, per A. è assoluto (e c’è una differenza assoluta con la quiete) e per G. è relativo (ed è interscambiabile con la quiete). Si noti che la prima vera prova del moto della Terra si ha solo nel 1791-92 da parte di Guglielmini con l’esperimento 11 Figure 13: Le prime due leggi di Kepler. Adattato da [KUHN 1957]. della Torre degli asinelli di Bologna, dimostrando che un corpo lasciato cadere dalla torre in direzione ovest deve cadere più avanti e non più indietro (come supposto dagli aristotelici) grazie alla maggiore velocità angolare della sommità rispetto alla base della torre. Invece Galilei riteneva erroneamente nel Dialogo che la prova del moto della Terra fosse costituita dalle maree. Galilei si scontrò purtroppo con la Chiesa e fu condannato. Le nuove idee copernicane erano troppo innovative per una mentalità religiosa che vedeva in un cosmo incentrato sulla Terra una parte costitutiva della sua spiegazione del mondo. La commissione Vaticana sul caso Galilei (i cui lavori si sono chiusi nel 1992), presieduta dal Cardinale Paul Poupard, mise in rilevo che non soltanto Galilei aveva ragione nel merito scientifico (cosa di cui nessuno dubitava più da tempo) ma che aveva anche anticipato gli sviluppi contemporanei dell’ermeneutica biblica perché aveva giustamente insistito che le Scritture non erano un trattato di astronomia e che pertanto non potevano essere interpretate letteralmente quando dicevano che era il sole a muoversi ma andavano piuttosto capite a partire dal contesto culturale in cui erano state scritte [POUPARD 1987]. 3 3.1 Evoluzione biologica Antecedenti Verso la fine del XVIII secolo era crescentemente chiaro che la Terra aveva una sua storia. Il ritrovamento di fossili su montagne come le Alpi suggeriva che in passato tali aree erano immerse nel mare. Inoltre suggeriva che fossero esistite in passato specie successivamente estinte. Tuttavia, la prima di idea di evoluzione biologica viene espressa da un grande naturalista francese agli inizi del nuovo secolo [LAMARCK 1809]. Lamarck aveva capito che le diverse funzioni e caratteristiche biologiche che noi osserviamo negli odierni organismi erano evolute e che quindi le stesse specie biologiche dovevano avere subito significative trasformazioni nel tempo e perfino nascere ed estinguersi. Lamarck aveva anche capito che l’ambiente era in qualche misura responsabile di tali processi. Per spiegarli, elaborò un modello secondo il quale l’ambiente influisce sugli organismi spingendoli ad acquisire o perdere determinate funzioni o caratteristiche. Uno degli esempi diventati più noti è quello del collo delle giraffe. Questi animali dovevano avere allungato il collo a seguito di precedenti mutamenti del loro ambiente che avevano portato gli alberi di cui si cibavano a crescere in altezza. Per potersi tenere “al passo” le giraffe avevano conseguentemente e progressivamente allungato il collo diventando una specie distinta a partire da un antenato più simile all’attuale zebra. Sebbene l’idea generale di evoluzione fosse abbastanza chiara in Lamarck e sebbene egli abbia anche definito abbastanza bene la nozione di specie biologica sessuata nei termini di una comunità di individui capaci di relazioni riproduttive e quindi di generare una discendenza, la sua visione del meccanismo dell’evoluzione era essenzialmente scorretta e bisognerà attendere Darwin per la soluzione del problema. 3.2 Il contributo di Darwin e problemi aperti Darwin, il grandissimo naturalista inglese che ebbe tra l’altro la possibilità di fare osservazioni sul campo alle isole Galapagos (e in presenza di una ricchissima varietà di specie viventi), comprese due cose fondamentali che sono poi diventate costitutive della teoria dell’evoluzione come la conosciamo ancora oggi [DARWIN 1859] (si noti che anche un suo contemporaneo, Alfred Wallace, arrivò a una soluzione simile): 12 Figure 14: L’albero della vita. Si noti che ci sono tre famiglie fondamentali: batteri, archaea, e eucarioti (da cui discendono o tutti gli organismi multicellulari). ORGANISM self-replication variation ENVIRONMENT ENVIRONMENT INDIVIDUAL self-reproduction NATURAL SELECTION FILTER PHYLUM en inte vir rd on ep m en en de t-o nc rg y an ism phylogenetic change cy m en nis nd rga e p -o de ent er int onm r vi en EVOLUTION Figure 15: Uno schema di come avvengono i cambiamenti evolutivi. Si noti che spesso diversi cambi filogenetici e interdipendenze tra organismo ed ambiente sono in genere necessari per potere avere una nuova specie. Copyright: [AULETTA 2011]. • Le specie viventi discendono tutte da un comune antenato unicellulare per successive ramificazioni dovute ai processi di speciazione. Oggi si preferisce parlare di più di una comunità di cellule originarie ma l’idea fondamentale è rimasta immutata (si veda figura 14). • In secondo luogo Darwin aveva osservato come venivano selezionate nuove specie sia da allevatori che da coltivatori. Immaginò che un meccanismo simile doveva essere al lavoro in natura, sebbene in assenza di un piano e quindi in forme casuali e spontanee. Darwin si rese conto che la selezione di una specie nuova da parte di allevatori e coltivatori avveniva eliminando le varianti che non presentavano le caratteristiche desiderate. Ma questo significava selezione tra un numero di varianti già presenti nella popolazione. Da quest’ultimo punto Darwin trasse la corretta conclusione che l’ambiente non poteva avere una funzione istruttiva (non poteva determinare positivamente le caratteristiche di una specie), come aveva pensato Lamarck, ma doveva svolgere una funzione negativa di eliminazione di quelle varianti (la cui generazione avveniva in modo indipendente dall’ambiente) che risultavano incompatibili con le condizioni ambientali. In altre parole, le varianti biologiche erano generate per processi endogeni e quindi indipendentemente dall’ambiente. Darwin non fu in grado di indicare un meccanismo biologico che rendesse conto della generazione delle varianti. Tuttavia, su tali basi, egli elaborò l’articolazione del meccanismo fondamentale che è alla base non soltanto dell’evoluzione biologica ma di qualsiasi evoluzione in generale (vedi figura 15) [LEWONTIN 1970] [AULETTA 2011, 13 par. 9.11]: • Prima si producono delle varianti biologiche note come mutanti per meccanismi casuali e ancora ignoti a Darwin. • Alcune di queste varianti vengo eliminate per l’azione della selezione naturale. • Quelle che sopravvivono trasmettono le loro variazioni alla discendenza che diventano cosı̀ caratteri acquisiti. Pertanto abbiamo una successione variabilità–selezione–trasmissione. Si noti che le idee di Darwin ebbero un enorme impatto sulla cultura e la società del tempo con strascichi che arrivano fino ai nostri giorni. Una convinzione largamente diffusa (sia per ragioni filosofiche, sia per ragioni religiose) era che la Terra avesse una vita relativamente breve (di poche migliaia di anni) e che le specie biologiche rappresentassero pertanto delle costituzioni predefinite e immutabili che erano state create come tali da Dio sin dalle origini del mondo. Inoltre la mentalità religiosa (e morale) dell’epoca portava a vedere nell’uomo un essere in assoluta discontinuità (e superiorità) con (rispetto) al mondo animale, e questo stranamente in contrasto con la mentalità medievale che faceva dire a un autore come Tommaso d’Aquino che c’era una continuità tra l’anima razionale umana e l’anima degli animali. Anche sull’evoluzione, dopo la rivoluzione copernicana, era inevitabile lo scontro. Tuttavia si nota anche una differenza. Questa volta una parte del campo “scientifico” non si limita soltanto a rifiutare le argomentazioni del campo religioso (com’era ancora per Galilei) ma vede nella teoria dell’evoluzione uno strumento per mettere in crisi la religione oppure per arrivare a provare che Dio non esiste. Da parte religiosa, oltre all’anacronistica riproposizione del creazionismo (una nuova lettura letterale della Bibbia!), ci fu anche una pattuglia di persone che ritenne di potere mettere in piedi una risposta antievoluzionista in termini scientifici. In tale caso, soprattutto negli USA, si è parlato di Intelligent Design (disegno intelligente) postulando un’intelligenza superiore che avrebbe dato origine alla diverse specie. E’ apparso sempre più chiaro che tali posizioni non hanno nulla di scientifico ma esprimono piuttosto interessi di lobby politiche, ed è davvero preoccupante che negli USA ci sia ancora una parte significativa della popolazione che guarda la teoria dell’evoluzione con sospetto o addirittura vorrebbe censurarla (vietandone ad es. l’insegnamento nelle scuole o almeno affiancando al suo insegnamento quello di dottrine creazioniste o da Intelligent Design come se queste ultime potessero aspirare ad essere una forma di sapere al parti di quella teoria). 3.3 La sintesi neodarwiniana Infatti, la teoria dell’evoluzione Darwiniana ha ormai ricevuto conferme di vario genere e pertanto è oggi una delle colonne portanti della biologia e quindi della scienza contemporanea in genere. Ma proprio perché è una teoria scientifica, come ho spiegato nel paragrafo 1, è stata soggetta nel tempo anche a successive integrazioni e correzioni ed oggi si trova nella sua fase di maturità come una spiegazione più complessa ed articolata della formulazione originaria di Darwin. La prima grande integrazione riguardava i meccanismi biologici che rendevano possibile la variazione. Abbiamo visto che Darwin non aveva una spiegazione. Tuttavia, pochi anni dopo la pubblicazione de Le origini, un monaco hydrogen bond one helical turn = 3.4 nm 3’ A A C A C T C G A T G C T T G A A C T C G G C C G T G C A G A C T G T G A C T T G sugar-phosphate backbone G T C A phosphate 5’ deoxirybose G C A G base C 3’ 5’ Figure 16: La estrutura (doppiamente) elicoidale del DNA. Copyright: [AULETTA 2011]. 14 moravo che si occupava del giardino del monastero e in particolare dell’incrocio tra piante di piselli, si rese conto di un fenomeno straordinario: alcuni caratteri che in un certo numero di generazioni non si manifestavano, all’improvviso ricomparivano [MENDEL 1866]. Supponendo che la “mescolanza“ di caratteri biologici avvenisse secondo il modello continuo della mescolanza di fluidi, un carattere assente per diverse generazioni avrebbe dovuto stemperarsi a mano a mano (come quando diluiamo progressivamente un certo concentrato con acqua) fino a sparire del tutto. Il fatto che invece i caratteri ricomparissero suggeriva che questi stessi fossero regolati da unità discrete la cui combinazione dava origine alle funzioni e strutture biologiche che noi osserviamo. A tali unità discrete viene poi dato il nome di geni, anche se la scoperta della molecola, il DNA, di cui essi sono costituiti, è molto successiva [WATSON/CRICK 1953a, WATSON/CRICK 1953b]: vedi figura 16. L’integrazione del contributo di Mendel nella teoria dell’evoluzione e la formulazione delle basi di quella che poi sarebbe diventata la teoria sintetica oppure neo–darwiniana, si trovano già in [WEISMANN 1893], ma la storia di tale sintesi è molto più linga e complessa dato che ha dominato in realtà la biologia evoluzionistica almeno fino agli anni ’70 del secolo scorso. Nel corso di questo lungo arco di tempo tale teoria è consolidata ed è venuta caratterizzandosi per diversi elementi chiave, alcuni dei quali possono essere sintetizzati cosı̀ (su questi problemi vedi [AULETTA 2011, parr. 9.2–9.4, 9.8] con letteratura ivi citata): • Il fatto che i geni sono distinti dai caratteri biologici osservabili suggerisce una netta separazione tra la dimensione genetica e la cosiddetta dimensione somatica che comprende tali fattori osservabili. Sebbene giusta in sé e sebbene sia giusta anche la conseguenza (che l’informazione si trasmette dai geni verso le proteine e le cellule somatiche e non vice versa), tale approccio ha comportato una conseguenza di non poco conto: una visione essenzialmente genetocentrica che ha fortemente ritardato non soltanto il sorgere di una biologia dello sviluppo ma anche la comprensione dell’intreccio di tali processi con quelli evolutivi. • Probabilmente ancora influenzati da una visione meccanicistica dell’universo fisico (su cui ritorneremo), i protagonisti di tale sintesi tendevano a porre una accento esclusivo sulla selezione naturale come unico fattore responsabile della speciazione e dell’evoluzione biologica. Tuttavia diventava difficile spiegare sulla sola base della selezione l’emergere di strutture e funzioni di grande complessità. C’era in qualche modo un anello mancante tra le variazioni endogene e casuali, da una parte, e la selezione, dall’altra. Cone conseguenza, alla selezione naturale si finiva per attribuire un significato non soltanto negativo (come era ancora vero per Darwin) ma addirittura un infondato carattere creativo. Con estrema laboriosità, a mano a mano si è imposta una visione più plastica e matura [AULETTA et al. 2011]. Vediamone brevemente i punti qualificanti. 3.4 La nuova sintesi: autorganizzazione ed Evo–Devo Il grande evoluzionista Waddington, a sua volta influenzato da studi pioneristici [SCHMALHAUSEN 1949] [GOLDSCHMIDT 1940], si rese conto già negli anni ’40 del secolo scorso che i processi di sviluppo (anche chiamati epigenetici) debbono risultare cruciali per l’evoluzione delle specie [WADDINGTON 1975]. Di fatto, il DNA codifica per l’informazione che dà luogo alla costruzione delle proteine all’interno delle cellule. Le proteine sono ovviamente cruciali per la vita in quanto forniscono il materiale per moltissime strutture biologiche e sono un po’ come le operaie delle cellule. Tuttavia le proteine non rappresentano affatto le funzioni superiori di un organismo (come il metabolismo o la respirazione) per non parlare della struttura generale dell’intero organismo. Se questo è vero già per organismi unicellulari, diventa drammaticamente vero per organismi multicellulari. Pertanto a mano a mano si comprese che la visione genetocentrica era insufficiente e perfino sbagliata. La nuovo visione teneva conto del fatto che l’informazione genetica è al massimo responsabile dell’“accensione” iniziale del processo di sviluppo (anche se perfino in questi stadi iniziali fattori epigenetici sono già importanti), ma a mano a mano che l’organismo si sviluppa lo fa in un complessissimo processo di segnali (sia scambiati al suo interno, sia con l’ambiente) che di continuo accendono e spengono particolari geni a seconda delle strutture che debbono costruire [GILBERT 2006]. Ad esempio, un seme di una pianta inizia il processo di sviluppo soltanto quando appropriate condizioni ambientali (ad es. in termini di temperatura ed umidità) sono presenti. Ma in tale modo non è il patrimonio genetico che l’evoluzione “sceglie“ tramite la selezione naturale quanto piuttosto un co–adattamento tra organismo ed ambiente. I tempi estremamente lunghi della selezione naturale si giustificano proprio perché tale co–adattamento è un processo delicato e difficoltoso. Tale visione permette di comprendere che gli organismi non sono semplicemente il sostrato passivo su cui interviene la selezione naturale (come ancora riteneva il neo–darwinismo) ma sono fattori cruciali del processo di co–adattamento proprio in quanto modificano attivamente l’ambiente stesso. Dato che l’organismo è essenzialmente una “costruzione” a partire dall’informazione 15 genetica, si capisce perfettamente che le maggiori novità biologiche (le famose mutazioni) come anche l’effetto della selezione naturale debbano essere cruciali proprio nella fase dello sviluppo. Si noti che in origine qualsiasi stimolo ambientale è di per se negativo, come Darwin aveva capito. E’ soltanto grazie al processo di co–adattamento che tale stimolo può essere successivamente “piegato” alle esigenze dell’organismo. Ad esempio, l’ossigeno è dannoso alla vita tanto che una delle cause maggiori dell’invecchiamento è la crescente ossidazione delle cellule e tessuti. Tuttavia, nel momento in cui (circa 600 milioni di anni fa) le piante verdi hanno colonizzato la terra ferma venendo ad immettere ossigeno nell’atmosfera, tutti gli animali terrestri (che avevano colonizzato le terre emerse parallelamente) hanno fatto dell’ossigeno il loro principio vitale tramite la respirazione. Ma qual è il meccanismo che permette una tale magia? E’ qui che entra in gioco l’altro cruciale fattore: l’autorganizzazione [KAUFFMAN 1993]. La materia vivente è un sistema complesso ove le relazioni tra componenti giocano un ruolo decisivo. Sebbene diverse strutture potrebbero essere in parte danneggiate senza incidere in modo sostanziale sulle capacità funzionali dell’organismo, resta pur vero che i vincoli che tali relazioni creano determinano un sistema di gerarchie e controlli che, se alterato, ha bisogno necessariamente di ristabilire nuovi livelli gerarchici e di controllo per potere sopravvivere [AULETTA 2011, capp. 8 e 11]. In tale modo il processo di speciazione può spiegarsi come un’alternanza di fasi casuali e processi di riorganizzazione. Possiamo ipotizzare che in una fase iniziale determinate mutazioni ambientali (ma anche endogene) creano uno squilibrio nell’organismo (in una specie determinata). Poiché l’organismo tende a preservare il proprio stato di equilibrio (la sua omeostasi), esso cercherà di reagire (soprattutto nella fase dello sviluppo) in modo tale da contrastare la tendenza al tracollo. In generale può reagire o con nuove mutazioni genetiche o con espressione epigenetica di parti del genoma che fino a quel momento non erano state espresse. E’ stato dimostrato da Waddington che moscerini da frutta sottoposti a stress ambientali aumentano la variabilità genetica. Pertanto, possiamo supporre che in un modo o nell’altro l’organismo (almeno alcuni rappresentanti di una specie) siano in grado di generare in tale modo modifiche suscettibili di dare vita a nuove funzioni. Poiché però tali iniziali mutamenti sono avvenuti in modo casuale, è molto difficile che essi abbiano generato una risposta appropriata o completa in termini funzionali. Pertanto l’organismo si ritrova di fronte alle necessità di riorganizzare epigeneticamente le sue strutture e funzioni in modo tale da potere integrare tali modifiche. Tuttavia, a causa della insufficienza delle stesse mutazioni iniziali, tale processo non si può concludere subito in modo soddisfacente. Se l’organismo sopravvive, esso o un suo discendente ha bisogno di rinsaldare il suo equilibrio e di rendere più efficienti le soluzioni dando vita a nuova variabilità genetica. E il ciclo ricomincia daccapo. In tale modo, l’organismo può arrivare a soluzioni che rappresentano tutto sommato un ragionevole compromesso in termini di una buona stabilità. Tre cose vanno notate in questa sede: • La soluzione che in tale modo si raggiunge non è mai una soluzione ottimale, come era già implicito nell’idea di una selezione negativa propugnata da Darwin. E’ soltanto una soluzione che funziona. Ce ne potrebbero sempre essere di migliori. D’altra parte, una soluzione ottimale sarebbe pericolosissima per la vita. Infatti, significherebbe un sistema perfettamente adattato a un certo ambiente e pertanto esposto all’enorme rischio di essere subito eliminato al variare delle condizioni ambientali. La vita è perciò costretta soluzioni come si dice sub–ottimali. • Poiché qualsiasi genere di modifica è sempre pericolosa e soprattutto quella o quelle che riguardano livelli gerarchici superiori o funzionalità più fondamentali, la vita è estremamente conservativa e, sebbene introduca continuamente variazioni, lo fa senza mai eliminare completamente strutture e funzioni più antiche; anzi in genere le nuove strutture e funzioni vengono innestate sulle vecchie. Pertanto l’evoluzione non funziona come il lavoro di un ingegnere che pianifica a tavolino quali siano le soluzioni astrattamente migliori. E’ proprio questo punto a rendere la spiegazione fornita dall’Intelligente Design non appropriata: se le specie fossero il prodotto del lavoro di un disegnatore intelligente, il risultato sarebbe stato più di tipo ingegneristico. • Gli organismi sia nel corso della loro vita individuale (ontogenesi), sia nel corso della loro evoluzione vivono un equilibrio transiente. In altre parole, l’equilibrio è sempre precario e relativamente momentaneo. Per questo Waddingoton preferiva parlare di omeoresi invece di omeostasi (dinamismo invece di stasi). Poiché d’altra parte tale slittamento continuo dell’equilibrio avviene a livello di specie in condizioni in cui gli organismi sono costretti a innestare nuove funzioni sulle vecchie, l’evoluzione delle specie mostra mediamente una tendenza alla crescente complessità delle specie. In altre parole, mediamente oppure su periodi più lunghi, le nuove specie sono più complesse delle vecchie specie. Questo non significa dire che sono più adatte. Eucarioti unicellulari da un certo punto di vista possono essere considerati più adatti a sopravvivere dei mammiferi, ma l’evoluzione ha generato questi ultimi dai primi e non viceversa, com’è chiaro guardando l’albero dell’evoluzione. 16 3.5 L’evoluzione dell’uomo L’uomo è l’organismo più complesso della Terra (basti pensare alla complessità del cervello umano). Da quando ci siamo separati circa 6,5 milioni di anni fa dagli altri primati la nostra specie non soltanto è stata in continua evoluzione ma ha accumulato, in un lasso di tempo che, su scala evolutiva, è relativamente modesto, un tale numero di cambiamenti biologici da risultare forse privo di confronti con altre specie. La ragione di tale processo si deve a una peculiarità umana: la presenza di una cultura. La cultura rappresenta una modalità del tutto nuova di trasmissione dell’informazione di generazione in generazione. Tuttavia essa presenta le generali caratteristiche dell’evoluzione biologica. Infatti anche la cultura è soggetta pressioni selettive e avviene tra beni o realtà culturali che preesistono alla selezione [RICHERSON/BOYD 2005]. La cultura consiste senz’altro nella trasmissione di tradizioni (in ultima analisi contingenti). Tuttavia, tale requisito è necessario ma non sufficiente. Anche altri primati (e cetacei) mostrano un senso per differenze tra gruppi nel modo in cui si effettuano delle operazioni e queste differenze vengono tramandate. Ma la cultura umana presenta un carattere che tali pratiche non hanno: essa è cumulativa [TOMASELLO 1999, TOMASELLO 2003]. Ossia, essa incrementa nel tempo continue migliorie di oggetti, idee, relazioni, ecc. Anche oggi il mercato premia sempre prodotti tecnologicamente innovativi. Tale capacità non sarebbe possibile senza una facoltà di apprendimento critico dei prodotti culturali (che manca agli altri primati) [ENQUIST et al. 2007] e senza una cooperazione attiva per produrli. Ma per potere cooperare, studi recenti mostrano che c’è bisogno di una società nella quale vigano rapporti altruistici [FEHR/FISCHBACHER 2003]. Come si arrivati a tali risultati? E’ probabile che condizioni ambientali di grande variabilità abbiano reso efficace un comportamento altrettanto variabile, ossia non adatto a uno specifico ambiente. Di fatto una delle caratteristiche fondamentali dell’umanità è quella che viene chiamata Improvisional intelligence [COSMIDES/TOOBY 2000, COSMIDES/TOOBY 2002], ossia la capacità tipicamente umana (che dipende dalla grande variabilità di comportamento) di estrarre dall’ambiente circostante informazioni e beni in modo non prefissato biologicamente ma riferito sempre a contesti e scopi specifici: ad esempio, una stessa sostanza può essere considerata o un veleno o una medicina a seconda dell’uso che se vuole fare e della quantità che si impiega. 4 4.1 Le grandi rivoluzioni della fisica nel XX secolo La visione meccanicista del mondo Dopo la rivoluzione copernicana, la scienza fisica che si è affermata è la meccanica classica. La meccanica è stata vista per secoli come la regina delle scienze. Ciò è dovuto all’introduzione di metodi matematici rigorosi e alle sue grandi capacità predittive. Praticamente la scienza meccanica rappresenta la base della nostra tecnologia (dagli orologi fino ai motori) sin dal XVII secolo, e sebbene successive rivoluzioni tecnologiche (come l’introduzione dell’elettricità e poi delle tecnologie dell’informazione) abbiano introdotto grandi novità, in molti campi la meccanica continua ad essere centrale. Essenzialmente la meccanica mira a considerare ogni processo fisico come il risultato di interazioni locali basate su contatto diretto: frizione, collisione, trazione, spinta ecc. In sostanza, la meccanica classica presuppone che qualsiasi problema fisico possa essere ridotto a una forma di contatto tra due corpi. Tale approccio ai problemi fisici implica naturalmente una metodologia riduzionista: ogni genere di problema fisico si può ridurre a interazioni locali tra elementi irriducibili. Infatti, il sogno della meccanica è sempre stato quello di trovare costituenti ultimi ed irriducibili del mondo fisico come corpuscoli o atomi. Dato il suo enorme successo era naturale che si tendesse a considerare tale metodologia come universale e pertanto si considerasse qualsiasi genere di problema (biologico, psicologico, sociale, ecc.) come riducibile in ultima analisi ad azioni meccaniche tra elementi materiali. In sostanza, dal giusto requisito metodologico di ridurre un problema ai suoi minimi termini oppure ai termini più semplici (che però non ci dice nulla né sulla natura delle azioni e forze in gioco, né sul carattere degli oggetti o fattori coinvolti), si è poi passati a una visione dell’universo di genere metafisico (il meccanicismo) che ha pesato negativamente su alcuni sviluppi della scienza, in particolare ha ritardato la costruzione della teoria del campo elettromagnetico (le cui prima fondamenta erano state poste già nel XVII secolo) come anche di discipline come le scienze biologiche. 4.2 Due novità: termodinamica e una teoria dei campi Il XIX secolo è stato il secolo del trionfo della meccanica ma anche quello in cui si sono affermate due teorie che hanno contribuito non poco a cambiare la storia del pensiero scientifico preparando la strada alle grandi rivoluzioni del XX 17 secolo. La prima novità concerne la termodinamica. Fino ad allora il sogno della meccanica era stato quello della costruzione di un motore perpetuo. Infatti, le equazioni della meccanica classica sono reversibili. Ossia, in teoria, si può partire da uno stato iniziale I di un sistema fisico e scrivere le equazioni che portano a un determinato stato finale F , ma si può anche partire da questo stato finale F e con le stesse equazioni fondamentali arrivare allo stato I. Pertanto, se si riuscisse a eliminare del tutto la presenza di fenomeni di dispersione energetica, un motore potrebbe funzionare in modo perfettamente circolare autoalimentandosi. Certo ci sarebbero diversi problemi tecnologici da affrontare e superare, ma in linea di principio la cosa era ritenuta fattibile. La comparsa della termodinamica nella prima metà del XIX secolo, grazie ai lavori di Carnot, Clausius e Lord Kelvin, ha infranto questo sogno per sempre. Precedentemente si considerava l’energia come una quantità fisica che presentava essenzialmente le stesse caratteristiche in qualsiasi tipo di sistema o contesto fisico. Invece si scoprı̀ che l’energia può esistere in diverse forme, caratterizzate da un maggiore o minore grado di disordine. In particolare, il calore era una forma di energia molto disordinata. Si scoprı̀ che un qualsiasi motore degrada necessariamente una parte della sua energia iniziale in calore, ma il calore, in quanto energia più disordinata, è meno utilizzabile per svolgere lavoro di altre forme di energia più ordinata. A titolo di esempio, consideriamo un gas: il calore consiste nel moto disordinato delle molecole che compongono il gas. Invece un gas che è confinato in un pistone, viene compresso lungo una determinata direzione determinando cosı̀ un moto parallelo delle molecole lungo tale direzione. Pertanto, il gas è qui in uno stato molto più ordinato (tutte le molecole si muovono in parallelo e non più ciascuna indipendentemente dall’altra), e, proprio per questa ragione, è in grado di effettuare lavoro (come far funzionare un motore). Pertanto, trasformare parte dell’energia iniziale più ordinata in calore, significa che il sistema a mano a mano tende a ridurre la quantità di energia con cui potere effettuare lavoro. Quindi, se lo supponiamo isolato e rimettiamo in circolo continuamente la stessa energia, dopo un certo punto la parte rappresentata dal calore sarà tanto importante da paralizzare il sistema per surriscaldamento. Quindi, diventa impossibile costruire un motore perpetuo. Clausius diede il nome di entropia alla quantità che misura il disordine di un sistema. Pertanto, la cosiddetta seconda legge o principio della termodinamica ci dice che in qualsiasi sistema isolato l’entropia non può mai diminuire ma o rimane costante o aumenta, e in moltissime situazioni reali aumenta. Possiamo fare un esempio per capire il problema. Per produrre una tazzina ci vuole lavoro (e quindi energia ordinata che viene anche chiamata energia libera). Ma romperla è di gran lunga più facile (richiede molto meno lavoro) e difatti si può fare in migliaia di modi diversi (mentre per costruirla ci sono procedure obbligate). La conseguenza è che non osserviamo mai una tazzina rotta ricomporsi spontaneamente. Insomma, la termodinamica aveva trovato che i problemi fisici del mondo reale sono soggetti a irreversibilità e non sono reversibili come aveva presupposto la meccanica. Il secondo grande cambiamento riguarda la teoria dei campi, e in particolare la teoria del campo elettromagnetico, la cui formulazione compiuta si deve al genio di J. Clerk Maxwell intorno alla metà del XIX secolo. Si è detto che la meccanica classica contemplava soltanto interazioni locali. Questa era stata la ragione per la quale la forza gravitazionale, che sembra agire a distanza (ad esempio, dalla Terra alla Luna), era sempre stata guardata con sospetto e addirittura era stata considerata come una realtà non fisica verso la fine del XVIII secolo. Quello che la forza gravitazionale rappresentava era in realtà il primo esempio di campo fisico. La nozione di campo supponeva un’idea radicalmente nuova della fisica, come messo giustamente in luce da Einstein [EINSTEIN MW, pp. 160–61]. Basta considerare che cosa accade quando un meteorite entra nel campo gravitazionale terrestre: esso viene prima attirato verso la Terra, deviando dalla sua traiettoria originaria, poi accelera nella misura in cui si avvicina per poi disintegrarsi tra atmosfera e suolo se non gli accade di finire in orbita. In altre parole, il comportamento di tale oggetto fisco (il meteorite) varia in ogni punto dello spazio e in ogni momento del tempo a seconda della sua relazione con il centro del campo gravitazionale terrestre che coincide con il centro della Terra. Pertanto, un campo rappresenta una rete di relazioni tra diversi punti spaziali (nel senso che allontanandoci sfericamente dal centro del campo la forza diventa sempre più debole) e quindi è qualcosa di intrinsecamente irriducibile a interazioni locali tra corpi materiali. Quella che appariva una stranezza con il campo gravitazionale divenne con la formulazione della teoria del campo elettromagnetico una realtà indubitabile e una colonna portante della fisica moderna. Un campo elettromagnetico è quello che viene prodotto quando la luce si propaga (in genere sfericamente da un centro). In tale caso, si creano due campi che sono collegati tra di loro (quello magnetico ed elettrico) che sono sia perpendicolari tra loro sia entrambi rispetto alla direzione di propagazione della luce (vedi figura 17). Come vedremo, i corpuscoli di cui è costituita la luce (i cosiddetti fotoni) sono i mediatori del campo elettromagnetico che si crea tra particelle materiali di cariche elettriche opposte, come l’elettrone (carica negativa) e il protone (carica positiva). 18 E B propagation direction Figure 17: Nota che il campo elettrico (in rosso) e il campo magnetico (in blu) oscillano (sono onde) in direzioni ortogonali a quella di propagazione della luce. Adattato da [AULETTA et al. 2009a, p. 20]. 4.3 Le teorie della relatività La teoria della relatività, che si articola in speciale (formulata nel 1905) e generale (formulata compiutamente nel 1916), è una delle grandi conquiste intellettuali del nostro secolo [EINSTEIN 1917]. Già Mach aveva messo in questione lo spazio e tempo assoluti di Newton [MACH 1883], e tale lavoro ha certamente influenzato A. Einstein. Secondo Newton, uno dei padri della fisica classica, spazio e tempo sono infatti come dei contenitori nei quali il nostro universo (stazionario) è collocato. Einstein cambiò per sempre il nostro modo di vedere queste due quantità fisiche. Sulla base delle equazioni di Maxwell, Einstein si rese conto che la luce • Ha una velocità c costante nel vuoto (circa 300.000 km al secondo), • Che rappresenta simultaneamente la massima velocità raggiungibile nel nostro universo. Per quanto concerne l’ultimo punto, la cosa fu già dimostrata dal famoso esperimento condotto nel 1887 da A. Michelson and E. Morley. In realtà l’esperimento fu pensato per smentire la famosa teoria dell’etere (un fluido che avrebbe riempito lo spazio cosmico e che rappresentava una conseguenza della visione dello spazio e del tempo come assoluti) ma Einstein ne trasse delle conclusioni per formulare la sua teoria. I due scienziati riscontrarono che il moto della Terra relativamente al Sole (di continuo avvicinamento ed allontanamento a 30 km/s) non determina variazioni osservabili della velocità della luce che si propaga dal Sole, mentre le due velocità si dovrebbero sommare quanto la direzione è parallela e sottrarre quando la direzione è opposta. Il primo punto è più complesso e la sua spiegazione richiede la piena formulazione della relatività speciale. Infatti, con la relatività, tempo e spazio diventano relativi al moto dei sistemi fisici. Incrementare la velocità comporta la contrazione dello spazio e il rallentamento del tempo (come anche l’accrescimento della massa). In altre parole, a velocità elevate gli oggetti dovrebbero occupare meno volume e invecchiare meno rapidamente (un gemello che viaggiasse nello spazio a velocità estremamente elevate risulterebbe molto più giovane dell’altro se rimasto sulla Terra). Tuttavia, poiché la massa (che sarebbe poi la quantità di materia rispetto ad un oggetto e qui, sulla superficie della Terra, coincide più o meno co il peso) aumenta proporzionalmente, è evidente che a velocità prossime di quella della luce qualsiasi corpo materiale esploderebbe. Questo spiega perché la velocità della luce è la massima raggiungibile nel nostro universo: infatti i fotoni che costituiscono la luce sono privi di massa. Einstein formulò un’importante equazione, E = mc2 , ossia che l’energia è uguale alla massa di un corpo per la velocità della luce al quadrato. Tale formula ci dice che la massa può essere convertito in energia e l’energia in massa. In altre parole, i fotoni non hanno massa perché sono energia pura, in particolare sono pura energia cinetica (l’energia che determina il moto di un sistema fisico). 19 tempo futuro presente passato spazio Figure 18: Il presente rappresenta il vertice del cono del passato e di quello del futuro. Qualsiasi segnale o traiettoria di un sistema fisico che ci influenza o è da noi influenzato deve rientrare in uno dei due coni. Per semplicità ho considerato uno spazio unidimensionale (una semplice retta). I coni rappresentano lo spazio–tempo determinato dalla velocità della luce. Il fatto che spazio e tempo siano dipendenti dalle velocità dei sistemi fisici, ha come conseguenza che non esiste più un concetto di simultaneità assoluta nel nostro universo. Un evento che per un osservatore è accaduto prima di un altro, per un altro osservatore potrebbe essere accaduto dopo di quest’ultimo. Infatti, noi riceviamo tutti gli effetti da tutti gli altri sistemi fisici dell’universo più o meno distanti da noi con un caratteristico ritardo. Poiché nessun segnale può viaggiare più veloce della luce, ogni segnale ci giunge con un ritardo temporale che è proporzionale alla distanza di tale sistema da noi. Ad esempio, la luce del Sole (che dista quasi 150 milioni di chilometri da noi) ci mette poco più di 8 minuti per raggiungerci, mentre la stella più vicina (che è Alpha Centuari), che dista un poco più di quattro anni luce (ossia la distanza che la luce copre un poco più di quattro anni), ci metterà appunto un poco più di quattro anni a raggiungerci. Reciprocamente, ogni segnale che noi intendiamo inviare a qualsiasi altro sistema fisico giungerà con un certo ritardo in funzione della distanza spaziale che ci separa da quest’ultimo. Quindi, un segnale inviato ora su Alpha Centauri arriverà tra poco più di quattro anni. Com’è evidente, spazio e tempo non sono più due quantità separate ma costituiscono un unico sistema di riferimento che si chiama spazio–tempo. Pertanto, se consideriamo la somma degli effetti degli altri oggetti su di noi come contenuta in un cono la cui superficie è determinata dalla propagazione delle luce (ossia tutte le altre velocità sono confinate da quella massima), questo rappresenta il cono del passato (che comprende tutti gli eventi passati che ci possono influenzare e quindi ha come vertice il nostro presente come punto di convergenza di tali effetti), mentre se prendiamo la somma di tutti gli effetti che noi possiamo determinare su altri oggetti questa deve essere contenuta in un cono che parte dal nostro presente e va verso il futuro (vedi figura 18). Pertanto, un evento E1 che accade al tempo t1 potrà avere un effetto sul nostro presente al tempo t2 in quanto ricade all’interno del nostro cono passato, mentre, supponendo che un evento E2 accada al tempo t2 e quindi fuori dal nostro cono esso ci potrà influenzare al punto in cui il nostro percorso nello spazio–tempo si interseca con il cono del futuro generato dall’evento E2 (vedi figura 19). La relatività generale è una teoria troppo complicata per potere essere sintetizzata agevolmente. Qui mi limito ad alcuni brevissimi cenni. La presenza di masse gravitazionali, soprattutto se molto grandi, induce una caratteristica deformazione dello spazio–tempo (Einstein se ne rese conto osservando delle piccole deviazioni nell’orbita di Mercurio, un pianeta vicinissimo al Sole). Pertanto, un raggio di luce che passa vicino a una stella con grande massa ne sarà curvato. Inoltre il tempo, con effetti simili a quelli determinati dall’aumento di velocità, decellera in presenza di una massa gravitazionale. Questo permette di considerare il campo gravitazionale in termini proprio di tale distorsione dello spazio–tempo. La teoria della relatività è importante non soltanto di per sé ma perché ha rivoluzionato lo studio della cosmologia, o meglio: ha permesso di costituire una cosmologia moderna (un perfetto esempio di deduzione). Infatti, fino agli 20 tempo t3 t2 nostra posizione futura nostro presente E2 t1 E1 spazio Figure 19: L’evento E1 può influenzare il nostro presente ma non l’evento E2. Anche quest”ultimo ha i suoi coni del passato e del futuro (qui in rosso per distinguerli dai nostri). Esso avrà invece influenza sul nostro futuro al tempo t3 quando la nostra traiettoria ci porterà dal presente al tempo t2 al tempo t3 in modo da intersecarci con la superficie del cono del futuro di E2. anni 20’ del secolo scorso nessuno dubitava che l’universo fosse essenzialmente stazionario, ossia che non mutasse mai le sue caratteristiche fondamentali nel tempo. Invece, negli anni 20’, diversi scienziati tra cui ricordo A. Friedman e G. Lemaitre, si resero conto che l’universo doveva essere in espansione e doveva quindi essere nato da un iniziale evento singolare poi chiamato Big Bang (avvenuto circa 14,6 miliardi di anni fa). Concomitantemente, tale apparato teorico permise anche di chiarire il ciclo vitale delle stelle e perfino predire fenomeni del tutto ignoti fino ad allora come la creazione di buchi neri. Ogni stella si forma essenzialmente per addensamento di una nube di gas di idrogeno (l’elemento più semplice in natura, con un elettrone e un protone). Tale addensamento è determinato dalla stessa forza di gravità che tende a concentrare tutta la massa verso il suo centro. Tale processo è lo stesso che interviene per la formazione dei pianeti, anche se in tale caso la creazione di una massa solida a un certo punto arresta il processo. Nel caso di una stella (come il Sole) siamo in presenza di una massa molto più grande, e arrivati a una certa soglia critica, la pressione gravitazionale che spinge gli atomi di idrogeno gli uni contro gli altri è talmente forte da dare inizio a delle reazioni chimiche in cui due atomi di idrogeno si fondono in un atomo di elio (composto da 2 elettroni e 2 protoni). Poiché però l’energia di un atomo di elio è inferiore a quella della somma di due atomi di idrogeno presi separatamente, questa fusione libera energia in eccesso che noi vediamo sotto forma di luce (e calore): ricordo infatti che i fotoni sono energia pura. Tale emissione di energia (che rende tra l’altro possibile la vita sulla Terra) viene a controbilanciare la pressione gravitazionale verso il centro, per cui si viene a creare un equilibrio. Ovviamente, quando quasi tutto l’idrogeno sarà consumato (nel caso del Sole tra 5 miliardi di anni), e quindi la spinta energetica verso l’esterno non sarà più in grado di controbilanciare la pressione gravitazionale verso l’interno, la nostra stella collasserà verso il centro e poi potrà riesplodere. Tale ciclo è essenzialmente lo stesso per tutte le stelle. Tuttavia, l’esito finale, in dipendenza dalla massa della stella, può essere molto diverso. Se si tratta di una stella grande come il Sole l’ultimo stadio è quello di una cosiddetta gigante rossa, una stella molto grande ma estremamente poco luminosa. Ma se la massa è molto più grande di quella del nostro Sole (e ci sono stelle che arrivano ad essere diverse migliaia di volte il Sole), gli effetti possono essere straordinari. Alcune di queste stelle quando riesplodono danno vita alle cosiddette novae o anche supernovae. Queste ultime in particolare, emettono una tale quantità di energia nella loro esplosione finale da oscurare l’intera galassia di cui fanno parte (che può contenere 100 miliardi di stelle o anche più). Ma l’esito forse più bizzarro è rappresentato dai buchi neri, che sono il risultato di masse davvero gigantesche. L’ultimo collasso gravitazionale in tale caso non dà vita a una gigante rossa o a una nova/supernova ma precipita verso il centro creando una tale distorsione dello spazio tempo da creare una sorta di voragine che tutto inghiotte (perfino la luce), anche se si è dimostrato che oggetti che vi finiscono dentro emettono dell’informazione prima di perdersi al di là. Cosa ci sia poi al di là (del cosiddetto orizzonte degli eventi), nessuno lo sa con certezza. Si è ipotizzato che i buchi neri siano collegati con buchi bianchi, 21 z r y x Figure 20: Rappresentazione di un atomo di idrogeno: un elettrone (cerchio bianco) con carica negativa −e orbita a una distanza r intorno ad un protone con carica positiva +e (le cariche si debbono bilanciare per rendere l’atomo stabile). Adattato da [AULETTA/WANG 2014, p. 224]. ossia con voragini che espellono la materia invece di inghiottirla, e questi sarebbero percepiti come dei Big Bang. In ogni caso è evidente che nel buco nero non possono vigere le leggi della fisica a noi note. 4.4 La meccanica quantistica La meccanica quantistica (= MQ), l’altra grande novità nella fisica del XX secolo, rappresenta una enorme rivoluzione concettuale. Infatti, essa • Mette in luce quell’aspetto relazionale tipico dei campi e lo amplifica in una sorprendente non–località. • Inoltre mostra l’esistenza di discontinuità in natura che fino agli inizi del secolo scorso non erano nemmeno considerate possibili. • Ma proprio per queste ragioni permette un trattamento unificato di luce e materia come non era mai stato possibile in precedenza. Partiamo dal secondo punto, che è anche il primo in ordine cronologico. Agli inizi del ’900 si era capito che l’atomo non era cosı̀ indivisibile come si era pensato prima ma aveva una struttura che comprendeva particelle più piccole, come elettroni, protoni e neutroni (vedi figura 20); quest’ultimi due sono costituiti da particelle ancora più piccole (chiamate quark). La cosa sorprendente fu quando N. Bohr, basandosi su precedenti lavori di Planck, scoprı̀ nel 1913 che gli elettroni (che grosso modo ruotano intorno al nucleo composto di protoni e neutroni), non si posizionano in modo continuo a qualsiasi distanza dal nucleo ma su specifici livelli orbitali e che possono passare a un livello successivo emettendo (quando si avvicinano al nucleo) e assorbendo (quando se ne allontanano) almeno un fotone [BOHR 1913]. Pertanto, il fotone rappresentava la quantità minima di energia possibile per permettere tali transizioni (discontinue). Si noti che la luce fino a quel momento, dopo gli esperimenti sulla diffrazione (su cui tornerò) era unanimemente considerata come un fenomeno ondulatorio e quindi continuo, mentre scoprire che era composta di particelle energetiche e quindi da quantità discrete di energia (i fotoni, appunto), era una vera rivoluzione. Di fatto, i primi modelli che avevano ipotizzato una discontinuità dell’energia risalgono ai lavori di Planck sul corpo nero [PLANCK 1900, PLANCK 1900], ma il pieno riconoscimento da parte della comunità dei fisici che tale discontinuità fosse un fenomeno reale, almeno a scala atomica avvenne soltanto nel 1925, allorché Heisenberg, dopo un’accumulazione di diversi risultati sperimentali (sia con particelle materiali, sia con fotoni) che andavano in tal senso, pubblicò un famoso articolo che permetteva di trattare in modo matematico assolutamente generale tale 22 (a) (b) Figure 21: Supponiamo di inviare parti- pellets detection probability waves detection probability celle (a) e onde (b) attraverso due fenditure. Le particelle si distribuiranno sullo schermo finale come due rose di pallini da caccia (con due rigonfiamenti nei due punti sullo schermo che si raggiungono in linea retta partendo dalle fenditure) mentre le onde daranno vita a tipici fenomeni di interferenza. Adattato da [AULETTA/WANG 2014, p. 75]. problema [HEISENBERG 1925]. In quel momento nacque una nuova teoria. Si trattava di un perfetto esempio di induzione. L’altro effetto, ossia la straordinaria non–località dei sistemi quantistici è ancora più sorprendente. Per capirla, bisogna comprendere la differenza tra particelle discrete e onde (vedi figura 21). Le onde danno luogo a caratteristici fenomeni di interferenza: basti pensare a come le onde del mare si sovrappongono dando luogo a picchi locali molto elevati oppure a come la luce, quando passa attraverso una persiana quasi chiusa, dà luogo a caratteristiche strisce bianche e nere sulla parete opposta (un fenomeno noto come diffrazione): vedi figura 22. Fin qui stiamo parlando di un fenomeno puramente classico. Ora viene la parte quantistica. Supponiamo di inviare un singolo fotone attraverso le due fenditure. Abbiamo visto che un fotone rappresenta una quantità minima di energia che è perciò indivisibile. Tuttavia, quando arriva allo schermo finale, si scopre che questo fotone ha dato luogo ad interferenza, e perciò deve essere passato per entrambe le fenditure. Questo significa due cose: • Il fotone ha dato luogo a un fenomeno di auto-interferenza (ossia di interferenza con se stesso), che è classicamente inconcepibile. • Dato che il fotone non ha preso contemporaneamente due traiettorie localizzate (di cui potremmo seguire la posizione punto per punto) perché non è divisibile, l’unica conclusione è che si trova in uno stato globale. Ossia non è localizzato da nessuna parte. Anche in questo caso, tutti i sistemi quantistici, non importa se fotoni o costituenti della materia, presentano questa caratteristica. Di fatto essi si comportano delle volte come se fossero particelle discrete, altre come onde. La ragione di questi diversi comportamenti è proprio nell’estrema sensibilità dei sistemi quantistici a qualsiasi dettaglio ambientale proprio per il fatto che si trovano in uno stato globale. La non–località dei sistemi quantistici li rende tutti sensibili gli uni agli altri e quindi interconnessi. Viviamo in un mondo ove non è possibile separare completamente i sistemi quantistici da altri sistemi quantistici. Tale interconnesiane si chiama entanglement (intreccio). Supponiamo che due particelle siano collegate da un entanglement. Supponiamo che ciascuna possa stare sia in un certo stato fisico UP, sia in un certo stato fisico DOWN (vedi figura 23). Se ci limitiamo a misurare localmente (indipendentemente) ciascuna delle due non ci accorgeremo di nulla di strano. Anche se misurassimo mille particelle tutte in entanglement a coppia, vedremmo che localmente otterremmo nella metà dei casi UP e nella metà dei casi DOWN per ciascun gruppo (come nel caso di un lancio di una moneta). Ma se andassimo a confrontare i risultati di tutti questi lanci, resteremmo davvero sorpresi nel constatare che ogni volta che con una ottengo UP, con l’altra ottengo DOWN, e viceversa. Infatti, se tra le due non ci fosse alcun collegamento, mi aspetterei di ottenere in un quarto dei casi UP–UP, in un quarto dei casi DOWN–DOWN, in un quarto dei casi UP–DOWN, e in un quarto dei casi DOWN–UP. Invece qui ho nella metà dei casi UP–DOWN e nella metà dei casi DOWN–UP. Insomma, queste coppie di particelle sono ciascuna in uno stato globale tale che i possibili risultati delle misurazioni locali non sono indipendenti tra loro. C’è una conseguenza molto importante da considerare. I sistemi quantistici, in quanto globali, non predeterminano il tipo di risultato di misurazioni oppure interazioni locali. Questo l’abbiamo visto con l’esempio precedente: l’entanglement non altera i risultati locali delle misurazioni. Questo significa che gli stati globali della MQ determinano soltanto le probabilità di determinati eventi e non il loro accadere. Sappiamo che in metà dei casi avremo UP e in metà dei casi DOWN in base a una misura locale ma non possiamo prevedere se il prossimo risultato sarà UP o DOWN. Questo è evidente nel caso del decadimento radioattivo (gli atomi di un materiale radioattivo si disintegrano a mano a mano riducendone la massa). Possiamo calcolare le probabilità che una certa quantità di un materiale 23 wave 1 in-phase superposition wave 2 constructive interference wave 1 out-of-phase superposition destructive interference wave 2 Figure 22: Interferenza costruttiva e distruttiva. Per potere dare luogo a interferenza costruttiva le onde si devono sovrapporre (devo essere in fase), ossia picchi di una debbono corrispondere a picchi dell’altra, per dare vita a interferenza distruttiva bisogna che le onde siano fuori fase (a un picco corrisponde una valle e viceversa). Ovviamente sono possibili tutti i casi intermedi. [AULETTA 2011, p. 12]. UP DOWN entanglement misurazioni locali DOWN UP misurazioni locali Figure 23: Lo stato UP di una particella è collegato allo stato DOWN dell’altra e viceversa. radioattivo ha di ridursi alla metà in un certo lasso di tempo, ma non possiamo prevedere quale atomo decadrà quando. Questo significa che le leggi quantistiche regolano soltanto le probabilità generali del nostro universo e non l’accadere dei singoli eventi (e pertanto la reversibilità delle leggi fisiche, che la MQ ha ereditato dalla meccanica classica, vale soltanto globalmente ma non determina processi locali, giustificando cosı̀ l’approccio termodinamico). Questo permette l’emergere di novità nel nostro universo che non sono prevedibili sulla base di quello che sapevamo prima. E’ perciò la circostanza generale e basilare che spiega perché tutte le nostre teorie sono imperfette. La MQ avrà applicazioni straordinarie di tipo tecnologico nei prossimi decenni, nel campo della fotografia, della comunicazione telefonica o su rete, e soprattutto per i computer. Infatti, essendo in uno stato globale, i sistemi quantistici percorrono tutti i possibili percorsi di calcolo e perciò sono in grado di fornire in miliardesimi di secondo risposte a problemi che risultano classicamente di fatto insolubili. Pertanto l’impatto di tale teoria (come anche della relatività) sulla nostra società e sulla nostra cultura è lungi dall’essersi esaurito. Certo, esse hanno già eroso una visione tradizionale troppo semplicistica del mondo in cui viviamo per fare posto, anche in fisica, alla considerazione di diversi punti di vista e perfino di diverse interpretazioni. La nostra cultura spesso interpreta tali effetti nel senso di una condizione epistemica in cui non esiste un oggetto reale ma tutto è interpretazione, anche se questo specifico punto di vista non è affatto una conseguenza delle rivoluzioni in fisica del XX secolo. 24 Figure 24: Schema del primo esperimento per trasmissione mentale a distanza. 5 Progressi nelle scienze neurologiche e psicologiche E’ stato detto che questo secolo sarà il secolo della mente. Sono previsti infatti studi su funzioni e processi mentali come coscienza o intenzionalità che potranno significativamente cambiare il modo in cui noi consideriamo la nostra mente. Per potere capire lo specifico della mente umana è utile una breve comparazione con gli altri primati [TOMASELLO 1999, TOMASELLO 2003]. Essenzialmente i nostri cugini primati condividono circa il 98% del nostro patrimonio genetico, ma, sebbene le similitudini fisiche e comportamentali siano evidenti, ci sono diverse caratteristiche umane che non sembrano avere riscontro negli altri primati. Possiamo vedere in questo un’altra manifestazione dei processi epigenetici. Provando a riassumere alcune delle caratteristiche che sembrano dividerci, possiamo dire che gli altri primati non sembrano capire le intenzioni altrui. Questa è invece una caratteristica capacità umana che rende possibile la nostra cooperazione (basti pensare a un’accademia scientifica, a un gruppo di amici, a persone che condividono alcune preferenze, ecc.). Come ho accennato, la cultura umana è andata di pari passo con l’affermazione di uno spirito altruistico (comunque aperto all’altro) che rende possibile la cooperazione sulla base della comprensione delle reciproche intenzioni. Lo scimpanzé è da questo punto di vista un animale di gran lunga più egoista ed opportunista. Sebbene possa dare vita a coalizioni sociali, il suo interesse primario è sempre il soddisfacimento dei suoi bisogni. L’uomo, al contrario, si distingue per la capacità di reprimere in alcune situazioni i propri bisogni a favore di altri oppure per dare luogo ad azioni o interazioni nelle quali le proprie pulsioni sarebbero di ostacolo. Inoltre gli altri primati, sebbene usino forme di comunicazione tra loro, non sembrano in grado di impossessarsi dei nostri sistemi simbolici. D’altra parte, questi ultimi sono intimamente legati alla cooperazione dato che, essendo tutti i sistemi simbolici convenzionali, si basano sulla condivisione sociale di alcuni codici. Questa è una caratteristica differenza con i sistemi di comunicazione usati dagli altri animali. Ad es., posso capire benissimo quando il mio cane vuole fare pipı̀ (anche se si tratta di un’altra specie) mentre non capisco qualcuno che mi parla in giapponese (sebbene sia della mia stessa specie), dato che non condivido le convenzioni linguistiche di quella comunità. Anche le condivisione di intenzioni è cruciale per la nostra sopravvivenza, perché rende il gruppo molto più coeso e capace di moltiplicare le proprie forze. Dieci individui che cooperano possono fare molto di più di quanto risulta dalla somma degli sforzi di dieci individui isolati. 25 Per quanto riguarda un’altro dei tratti distintivi della mente umana, ossia la coscienza, possiamo dire che essa rappresenta uno stato globale in cui praticamente tutte le aree del cervello sono interconnesse, il che rende possibile che una determinata informazione, invece di essere processata in specifiche aree, diventi disponibile per l’intero cervello e quindi capace di dare luogo a degli incroci che possono produrre punti di vista o idee del tutto nuove [DEHAENE 2014]. E’ evidente quanto questa capacità sia cruciale per un essere che deve affrontare plasticamente le sfide di un ambiente variabile senza potersi perciò basare su soluzioni biologicamente collaudate. Ma è anche evidente il vantaggio adottivo di tale strategia, dato che rende possibile velocissimi adattamenti culturali e comportamentali mentre tutti gli altri animali sono costretti ad aspettare i lunghissimi tempi dell’evoluzione per dare luogo a mutazioni funzionalmente appropriate. Nel futuro ci aspettiamo anche enormi progressi in alcune applicazioni tecnologiche di tali studi, specialmente in connessione con le scienze dell’informazione. Le attuali tecnologie sono già andate molto avanti. A titolo di esempio, cito due esperimenti recenti. In entrambi due ricercatori erano connessi a grande distanza (in un caso uno era in Francia, l’altro in India) tramite caschi cerebrali connessi via internet. In sostanza, tali caschi sono in grado di codificare e decodificare le onde emesse dal cervello quando pensiamo e tradurle in un linguaggio digitale tale da favorire la comunicazione per cosı̀ dire mentale tra i due ricercatori. In un esperimento, uno dei due ha inviato un comando (muovi il braccio) e l’altro ricercatore ha mosso difatti la mano per premere un tasto. Nell’altro esperimento è stata comunicata una breve frase alla quale l’altro ricercatore ha risposto in modo appropriato sempre mentalmente. Nella figura 24 si mostra lo schema del primo esperimento. E’ evidente che tali tecnologie aprono nuovi orizzonti ma rendono possibili anche pericoli sociali e politici prima ignoti dato che esse permettono un controllo e una manipolazione della popolazione che era impensabile fino a poco tempo fa. Soprattutto se combinate con tecnologie quantistiche, esse possono essere uno strumento di potenza inaudita e che, se dovesse cadere in mani sbagliate, potrebbe creare tantissime sofferenze all’umanità. E’ chiaro che su tali questioni, che concernono il futuro di noi tutti, conviene riflettere approfonditamente. References [ARISTOTLE Gen. et corr.] Aristotle, De Generatione et Corruptione, in [ARISTOTLE Op., 314–338]. [ARISTOTLE Op.] Aristotelis, Opera (Ed. Immanuel Bekker), Berlin, G. Reimerum, 1831. [AULETTA 2011] Auletta, Gennaro, Cognitive Biology: Dealing with Information from Bacteria to Minds, Oxford, University Press. [AULETTA 2013] Auletta, Gennaro, Mechanical Logic in three-Dimensional Space, Singapore, Pan Stanford Pub. [AULETTA/WANG 2014] Auletta, G. and Wang, S.–Y., Quantum Mechanics for Thinkers, Singapore, Pan Stanford Pub; doi:10.4032/9789814411721. [AULETTA et al. 2009a] Auletta, G., Fortunato, M., and Parisi, G., Quantum Mechanics, Cambridge, University Press, 2009; rev. paperback ed. 2013. [AULETTA et al. 2011] Auletta, G., Leclerc, M, and Martinez, R. (Eds.), Biological Evolution: Facts and Theories: A Critical Appraisal after 150 years after ”The Origin of Species” , Rome, G and B Press. [BOHR 1913] Bohr, Niels, “On the Constitution of Atoms and Molecules”, Philosophical Magazine 26: 1–25, 476– 502, 857–7. [COSMIDES/TOOBY 2000] Cosmides, L. and Tooby, J., “Consider the Source: The Evolution of Adaptations for Decoupling and Metarepresentation”, in Sperber, Dan (Ed.), Metarepresentations: A Multidisciplinary Perspective, Oxford, University Press: 53–115. [COSMIDES/TOOBY 2002] Cosmides, L. and Tooby, J., “Unraveling the Enigma of Human Intelligence: Evolutionary Psychology and the Multimodular Mind”, in Sternberg, R. J. and Kaufman, J. C. (Eds.), The Evolution of Intelligence, London, Erlbaum: 145–98. [DARWIN 1859] Darwin, Charles R., The Origin of Species, London, Murray, 1859; Sixth edition; Cambridge, University Press, 2009. [DEHAENE 2014] Dehaene, Stanislas, Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts, New York, Viking. 26 [EINSTEIN 1917] Einstein, Albert, Über die spezielle und die allgemeine Relativitätstheorie, 1917; Braunschweig, Vieweg, 1972. [EINSTEIN MW] Einstein, Albert, Mein Weltbild, Frankfurt, Ullstein, 1993. [ENQUIST et al. 2007] Enquist, M., Eriksson, K., and Ghirlanda, S., “Critical Social Learning: A Solution to Rogers’s Paradox of Nonadaptive Culture”, American Anthropologist 109: R148–149. [FEHR/FISCHBACHER 2003] Fehr, E. and Fischbacher, U., “The Nature of Human Altruism”, Nature 425: 785– 91. [GALILEI 1610] Galile, Galileo, Sidereus Nuncius, , rep. in [GALILEI O]. [GALILEI 1632] Galilei, Galileo, Dialogo sui Massimi sistemi, 1632, Torino, Einaudi (ed L. Sosio), 1970; rep. in [GALILEI O]. [GALILEI O] Galilei, Galileo, Opere, Firenze, 1909. [GILBERT 2006] Gilbert, Scott F., Developmental Biology, Sunderland, MA, Sinauer, 8th ed.. [GOLDSCHMIDT 1940] Goldschmidt, Richard B., The Material Basis of Evolution, New Haven, CT, Yale University Press. [HALL 1954] Hall, A. Rupert, The Revolution in Science. 1500-1750, London, Longman, 1954, 2d ed. 1962, 1983, 1989. [HEISENBERG 1925] Heisenberg, Werner, “Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen”, Zeitschrift für Physik 33: 879–93. [KAUFFMAN 1993] Kauffman, Stuart A., The Origins of Order, New York-Oxford, Oxford University Press. [KOYRÉ 1957] Koyré, Alexandre, From the Closed World to the Infinite Universe, Baltimore, John Hopkins Press. [KOYRÉ 1968] Koyré, Alexandre, Etudes newtoniéennes, Paris, Gallimard. [KUHN 1957] Kuhn, Thomas S., The Copernican Revolution: Planetary Astronomy in the Development of Western Thought, Cambridge, MA, Harvard University Press (tr. it: La rivoluzione Copernicana). [KUHN 1962] Kuhn, Thomas S., The Structure of Scientific Revolutions, Chicago, University Press, 1962; 2nd ed. 1970 (tr. it.: La struttura delle rivoluzioni scientifiche). [LAMARCK 1809] Lamarck, Jean–Baptiste P. A. de Monet, Chevalier de, Philosophie zoologique, ou Exposition des considérations relatives à l’histoire naturelle des animaux, Paris, Dentu. [LEWONTIN 1970] Lewontin, Richard C., “The Units of Selection” Annual Review of Ecology and Systematics 1: 1–18. [MACH 1883] Mach, Ernst, Die Mechanik in Ihrer Entwicklung. Historisch-kritisch dargestellt, Leipzig, 1883, 9th ed. Leipzig 1933; Darmstadt, WBG, 1991. [MENDEL 1866] Mendel, Johann Gregor, “Versuche über Pflanzen–Hybriden”, Verhandlungen des Naturforschenden Vereins zu Brünn 4: 3–47. [PEIRCE 1878b] Peirce, Charles S., “Deduction, Induction, and Hypothesis”, Popular Science Monthly 13: 470–82; in [PEIRCE W, III, 323–38]. [PEIRCE W] Peirce, Charles S., Writings, Bloomington, Indiana University Press, 1982-, vol.s I–. [PLANCK 1900] Planck, Max, “Über die Verbesserung der Wien’schen Spektralgleichung”, Verhandlungen der Deutschen Physikalischen Gesellschaft 2: 202–204. [PLANCK 1900] Planck, Max, “Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum”, Verhandlungen der Deutschen Physikalischen Gesellschaft 2: 237–45. 27 [POUPARD 1987] Poupard, Paul (Ed.), Galileo Galilei: Toward a Resolution of 350 Years of Debate — 1633–1983, Pittsburgh, Duquesne University Press. [RICHERSON/BOYD 2005] Richerson, P. J. and Boyd, R., Not By Genes Alone: How Culture Transformed Human Evolution, Chicago, The University of Chicago Press. [SCHMALHAUSEN 1949] Schmalhausen, Ivan I., Factors of Evolution: The Theory of Stabilizing Selection, Philadelphia, Blakiston, 1949; Chicago, University of Chicago Press, 1986. [TOMASELLO 1999] Tomasello, Michael, The Cultural Origins of Human Cognition, Harvard, University Press, 1999, 2003. [TOMASELLO 2003] Tomasello, Michael, Constructing a Language: A Usage–Based Theory of Language Acquisition, Cambridge, MA, Harvard University Press. [WADDINGTON 1975] Waddington, Conrad H., Evolution of an Evolutionist, New York, Cornell University Press. [WATSON/CRICK 1953a] Watson, J. D. and Crick, F. H. C., “Molecular Structure of Nucleic Acids”, Nature 171: 737–38. [WATSON/CRICK 1953b] Watson, J. D. and Crick, F. H. C., “Genetical Implications of the Structure of Deoxyribonucleic Acid”, Nature 171: 964–67. [WEISMANN 1893] Weissmann, August, The Germ–Plasm: A Theory of Heredity, Charles Scribner’s Sons. 28