Appunti di storia della scienza (PDF Available)

Appunti di storia della scienza
Gennaro Auletta
May 12, 2015
Contents
1 Introduzione
2 La visione Aristotelico–Tolemaica
2.1 La visione Aristotelica . . . . . .
2.2 Aggiustamenti Tolemaici . . . . .
2.3 La rivoluzione copernicana . . . .
2.4 Il contributo di Galileo Galilei . .
1
e
.
.
.
.
la nascita dell’astronomia
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
3 Evoluzione biologica
3.1 Antecedenti . . . . . . . . . . . . . . . . . . . . .
3.2 Il contributo di Darwin e problemi aperti . . . .
3.3 La sintesi neodarwiniana . . . . . . . . . . . . . .
3.4 La nuova sintesi: autorganizzazione ed Evo–Devo
3.5 L’evoluzione dell’uomo . . . . . . . . . . . . . . .
moderna
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
. 3
. 5
. 8
. 10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
12
14
15
17
4 Le grandi rivoluzioni della fisica nel XX secolo
4.1 La visione meccanicista del mondo . . . . . . . . .
4.2 Due novità: termodinamica e una teoria dei campi
4.3 Le teorie della relatività . . . . . . . . . . . . . . .
4.4 La meccanica quantistica . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
17
19
22
5 Progressi nelle scienze neurologiche e psicologiche
25
AVVERTENZE. La maggior parte del materiale seguente è soggetto a copyright come indicato nelle
didascalie delle figure.
Gli studenti non frequentanti che hanno problemi a seguire queste dispense dovranno scegliere e studiare
alcuni tra i testi indicati nella bibliografia acclusa (essi sono da concordare con il docente).
1
Introduzione
Il presente lavoro è da intendersi come una sintesi molto schematica delle mie lezioni all’Università di Cassino e del
Lazio meridionale. Lo scopo del corso non era quello di fornire una storia della scienza esaustiva, cosa impossibile
con 6 crediti. Mi sono limitato e mi limito qui (a parte brevi cenni ad epoche precedenti) alla storia della scienza
moderna in occidente e confino il materiale essenzialmente a quattro grandi momenti:
• La rivoluzione copernicana in astronomia (cone le sue conseguenze sulla fisica), avvenuta tra la metà del XV
secolo e la metà del XVII secolo.
• La teoria dell’evoluzione biologica, formulata intorno alla metà del XIX secolo e la cui storia si estende fino ad
oggi.
• Le grandi rivoluzioni in fisica agli inizi del XX secolo, le cui conseguenze sono ancora in corso.
• Alcuni cenni sugli sviluppi correnti nelle scienze neurologiche e psicologiche.
1
Prima di entrare nel vivo degli argomenti, vale la pena di svolgere alcune considerazioni generali di carattere epistemologico. Le teorie scientifiche come qualsiasi altro sistema del nostro universo presentano dei punti deboli e
pertanto sono spiegazioni perfettibili o imperfette. Con il termine sistema si intende su un piano generale qualsiasi
complesso ordinato di elementi interrelati — vedi [AULETTA 2011, pp. 61–63] e letteratura ivi citata. Pertanto le
teorie scientifiche, come tutti gli altri sistemi dell’universo, hanno un naturale ciclo che può essere schematicamente
inquadrato come una successione di tre fasi principali:
1. Quando una teoria nasce, inaugura la sua fase giovanile. In questo periodo dominano le aspettative che tale
teoria sia in grado di aprire nuovi orizzonti di comprensione e di predizione. Essenzialmente, la comunità
scientifica cerca di utilizzare il nuovo framework concettuale applicandolo a diversi ambiti e problemi con lo
scopo di derivarne conclusioni innovative. Praticamente, è una fase di espansione della teoria. La forma di
ragionamento dominante in questo primo periodo è la deduzione, intesa come l’aspettazione di determinati
risultati date delle ipotesi o delle leggi di carattere generale e la loro applicazione a un certo insieme di oggetti.
Questa fase corrisponde a quella che Kuhn chiama la scienza ordinaria [KUHN 1962].
2. A questa prima fase ne succede una seconda, che potremmo chiamare la fase della maturità di una teoria. E’
naturale che, nel corso delle applicazioni di una teoria scientifica a diversi ambiti problematici, emergano delle
piccole imprecisioni oppure si presentino problemi che fanno resistenza ad essere trattati con tali metodologie. Quando studieremo la meccanica quantistica capiremo le ragioni di questa circostanza. Per ora basti la
considerazione di carattere generale che nessuna teoria o ipotesi generale (in quanto perfettibile) è in grado di
descrivere compiutamente qualsiasi genere di fenomeno all’interno del suo dominio di applicazione. Poiché la
teoria in questione è stata collaudata nella prima fase diverse volte venendo a rappresentare per tale ragione
uno strumento prezioso, la comunità scientifica cerca di risolvere tali problemi introducendo delle correzioni
alla teoria, andando ad intervenire sul modo in cui gli oggetti (gli ambiti di applicazione della teoria) sono
stati definiti o classificati. La tipologia di ragionamento che domina in questa fase si chiama abduzione oppure
ipotesi [PEIRCE 1878b].
3. Tuttavia, proprio per l’intrinseca limitatezza di ogni spiegazione umana, prima o poi gli errori di una teoria si
accumulano e soprattuto iniziano a riguardare molteplici e disparati ambiti di applicazione, sicché la comunità
scientifica diventa sempre più conscia che il problema non risiede nel come noi definiamo o classifichiamo gli
oggetti (o gli stessi ambiti di applicazione) ma proprio nella teoria stessa. Questa è la fase della senilità la cui
conclusione è necessariamente la fine di una teoria per fare posto a una più generale o più potente o comunque
innovativa. Questa è la fase che Kuhn chiama delle rivoluzioni scientifiche. La forma di ragionamento che
domina in tale fase, si chiama induzione.
Si noti che le due ultime forme di ragionamento sono ampliative e pertanto sono costituite da una parte puramente
logica e da una parte intuitiva o associativa che non è soggetta alla logica: idee nuove non possono infatti essere
prodotte logicamente [AULETTA 2011, par. 18.4].
Questo ciclo delle teorie scientifiche non implica che esse siano delle pure costruzioni arbitrarie o che siano
intercambiabili a piacimento. Intanto, sebbene non esista mai una spiegazione ottimale di alcuni fenomeni (in linea
teorica ce ne possono sempre essere di migliori), esistono di fatto spiegazioni migliori e spiegazioni peggiori. E
nessuno sceglierà queste ultime in presenza delle prime. Inoltre, sebbene il cambiamento di un quadro teorico sia
un’importante discontinuità (che ha fatto parlare Kuhn di cambiamento di paradigma), non tutti gli elementi di una
teoria superata risultano obsoleti: alcuni vengono recuperati e integrati nelle nuove teorie mentre le vecchie teorie
continuano ad essere usate in alcuni ambiti specifici perché risultano più pratiche (ad esempio la navigazione su acqua
si effettua sulla base di un’astronomia tolemaica e non copernicana).
Infine, per quanto riguarda i rapporti tra la scienza e la società, sebbene, come vedremo, il progresso delle idee
scientifiche risenta del generale clima culturale e sociale e sua volta affetti significativi cambiamenti culturali e sociali,
i rapporti non sono nemmeno talmente stretti da potere affermare che le teorie scientifiche siano il risultato di una
certa cultura (o viceversa). Infatti, le teorie scientifiche vengono in ultima analisi giudicate dalla comunità scientifica
per il loro merito, ossia per le loro capacità predittive ed esplicative, e, sebbene fattori politici o di altro genere
abbiano la loro indiscutibile influenza sulla comunità accademica, prima o poi le teorie migliori si fanno strada.
2
Figure 1: La rotazione delle stelle fisse intorno all’asse terrestre che ha come proprio polo al nord la stella polare (intorno
alla quale girano le altre). Adattato da [KUHN 1957].
2
2.1
La visione Aristotelico–Tolemaica e la nascita dell’astronomia moderna
La visione Aristotelica
Quando si parla del sistema cosmologico aristotelico, è bene distinguere tra la trattazione filosofica di Aristotele e di
alcuni scolastici, che è di tipo non solo fisico ma anche e soprattutto metafisico, e la scienza astronomica, dovuta al
contributo della scuola tolemaica, la quale astronomia, pur discendendo in ultima analisi da presupposti aristotelici,
è una disciplina tecnica di tipo matematico astratto, e quindi in parte indipendente da e perfino parzialmente in
conflitto con quei presupposti filosofici.
Lo studioso non può che restare impressionato dalla durata e dalla incidenza del sistema aristotelico nella cultura
occidentale (dal IV-III secolo a.C. al XVII secolo d.C.). Prescindendo qui dalle ragioni specificamente storiche,
che, almeno in parte, sono estrinseche all’edificio filosofico, e adducendo solo quelle intrinseche, si può ricordare la
semplicità e l’enorme efficacia esplicativa, almeno per i mezzi delle epoche premoderne, della cosmologia aristotelica:
come vedremo, in una forma sintetica e facilmente accessibile all’uomo di media cultura, essa offriva una spiegazione
plausibile (cioè in accordo con l’esperienza) di un numero enorme di fenomeni, da quelli più quotidiani fino a quelli
più remoti o spirituali. Si è poi perfettamente integrata nella mentalità medievale (prima nell’Islam e poi nell’Europa
cristiana) che l’ha recepita e sviluppata.
L’esperienza quotidiana ci mostra una Terra immobile circondata da astri (pianeti e stelle) che sembrano muoversi
in circolo intorno ad essa (vedi figura 1): per questo paragrafo vedi [KUHN 1957]. I corpi più lontani, le stelle,
sembrano tutti egualmente lontani dalla Terra e a una distanza finita, il che suggerisce l’idea di una sfera massima
(quella delle stelle fisse) che ingloba il cosmo e che è incentrata sulla Terra (vedi figura 2). L’idea che il cosmo sia
finito si sposa perfettamente con la visione del mondo greca, che concepisce come perfetto solo ciò che è finito e
vede nell’infinito un che di aberrante e di caotico. Il fatto poi che il movimento degli astri intorno alla Terra sia
di tipo circolare incontra un sentimento estetico greco e un’idea metafisica presente sin dagli inizi della filosofia: il
cerchio è la figura geometrica perfetta, in quanto è una linea chiusa e del tutto uniforme nel senso che non presenta
singolarità (angoli o linee spezzate). Il moto circolare poi si svolge ciclicamente, con un ritorno periodico su un punto
assegnato, il che significa che è un moto finito, non aperto all’infinito come il moto in linea retta, e per la sua ciclicità
è anche quello che comporta il minimo di cambiamento possibile (dato che il movimento è comunque una forma di
mutamento). Insomma è il moto più vicino alla quiete propria degli enti immutabili. Da qui nasce l’idea, sicuramente
sostenuta da Platone, ma risalente probabilmente già alla scuola pitagorica, di un cosmo esterno perfetto.
3
Figure 2: La sfera celeste. Adattato da [KUHN 1957].
Il cosmo aristotelico si presenta dunque, a livello descrittivo, come un sistema di sfere concentriche (vedi figura
3). La più esterna è appunto quella delle stelle fisse, cosı̀ chiamate perché, pur modificando la loro posizione nel
corso dell’anno terrestre, mantengono intatte le loro posizioni relative. Andando verso l’interno troviamo la sfera del
pianeta più lontano dalla Terra (per le conoscenze dell’epoca): Saturno. I pianeti (pianeta = errante), a differenza
delle stelle fisse, mutano di continuo la loro posizione relativa. Poi c’è la sfera di Giove, seguita da quella di Marte.
Dopo Marte c’è la sfera del Sole, che comprende quella di Venere e poi quella di Mercurio. Infine l’ultima, sfera,
quella della Luna, avvolge direttamente quello che possiamo chiamare oggi ‘il sistema terrestre’.
Il movimento circolare delle sfere si trasmette continuamente dall’esterno verso l’interno per contatto diretto tra
sfera e sfera: infatti, secondo Aristotele il movimento di un ente ha bisogno di essere continuamente alimentato da
qualcosa d’altro già in movimento e, d’altra parte, se cessasse il contatto diretto, cesserebbe anche la comunicazione
del moto. Allora cosa fa muovere la sfere delle stelle fisse, da cui prende origine il moto delle altre? Aristotele dice:
Dio. E’ l’attrazione che egli, perfetto, esercita sul finito a produrre il moto. Né ha creato l’universo, che coesiste
eternamente con Dio e da questo è eternamente mosso nel modo descritto.
Il sistema terrestre non è composto solo dell’elemento terra. Riprendendo concezioni probabilmente molto arcaiche, Aristotele ritiene che tutte le cose che si rinvengono nel sistema terrestre siano composte da quattro elementi
fondamentali, cioè dalla materia provvista della forma più semplice: terra, acqua, aria, fuoco. Intuitivamente essi
sono ordinati secondo il loro ‘peso’: la terra è il più pesante e cade sempre verso il basso, seguita poi dall’acqua
che, generalmente si trova sopra la terra (vedi figura 4). L’aria poi si trova a metà strada, sospesa, avvolgendo il
nucleo terrestre ed acquatico, mentre il fuoco, il più leggero dei quattro, si innalza per andare oltre la sfera dell’aria.
In sostanza i quattro elementi si disporrebbero in quattro sfere concentriche, a seconda del loro peso. Tuttavia
la nostra esperienza attesta che questi elementi sono continuamente mescolati tra loro. Ad esempio, se bruciamo
del legno, ci accorgiamo che produciamo del fuoco che sale: quindi il fuoco era precedentemente ‘imprigionato’ nel
legno, da cui poi è stato liberato. Facendo un esempio tratto dalle scienze odierne, sappiamo che l’uomo è composto
prevalentemente di acqua. Quindi la domanda principale è: cosa produce questo mescolamento? Questa domanda è
strettamente collegata con un’altra: cosa produce la generazione e la corruzione?
Abbiamo detto che il movimento delle sfere celesti si trasmette con regolarità a partire dalle stelle fisse andando
verso la Terra. Tuttavia c’è un’eccezione: il Sole si muove di un movimento in parte sfasato rispetto a quello degli
altri corpi celesti. Infatti il Sole descrive nel corso dell’anno un moto apparente sulla volta celeste che viene chiamato
Eclittica. Mentre tutti i pianeti ruotano su uno stesso piano (l’equatore terrestre e celeste), l’Eclittica si situa su un
piano inclinato di 23◦ 27’ rispetto al primo (vedi figura 5 e anche figura 2). I punti in cui il Sole si trova nell’equinozio di
primavera (21 marzo) e in quello di autunno (23 settembre) sono quelli in cui i due piani si intersecano (vedi figura 6).
A cosa è dovuto questo moto apparente? Secondo le nostre cognizioni astronomiche attuali, la Terra ha il proprio asse
di rotazione su stessa e di rivoluzione intorno al Sole inclinato di 23◦ 27’ rispetto al proprio piano di rivoluzione (che
essa condivide con tutti gli altri pianeti): si veda sempre figura 5. Questo fenomeno produce l’alternarsi delle stagioni
4
Figure 3: Le sfere concentriche. Adattato da [KUHN 1957].
e regola in generale (essendo il Sole fonte di luce e calore) il ciclo della vita sulla Terra [ARISTOTLE Gen. et corr.,
336a-b]. Perciò è questa irregolarità, già notata da Platone, che produce continua aggregazione (nascita) e continua
disgregazione (morte) degli enti della sfera sublunare (mutamento secondo la sostanza), incessante trasformazione
degli stessi (mutamento secondo la qualità), crescita e descrescita (mutamento secondo la quantità) e infine anche
movimento (mutamento di luogo): in una parola produce continua mescolanza e separazione dei quattro elementi
fondamentali.
Perciò il mondo aristotelico è affetto da un fondamentale dualismo: mentre nella sfera sublunare si produce di
continuo mutamento secondo le quattro forme enunciate, le sfere celesti proseguono il loro eterno movimento circolare
non conoscendo alcuna trasformazione se non questa: un mutamento ciclico di posizione. In questo esse sono perfette.
Perciò esse non possono nemmeno essere composte della stessa materia terrestre, ma sono fatte di una quinta materia,
la quintessenza oppure cristallino, che presenta i caratteri tipici della purezza, diremmo diamantina: trasparenza,
omogeneità, impenetrabilità, incapacità di subire alterazioni di qualsiasi tipo.
A questo punto è chiaro che i quattro elementi del sistema terrestre si trovano mescolati e uniti solo in quanto
vincolati da qualcosa d’altro: ad esempio dalla forma di un determinato ente oppure da un vincolo per contatto tale
da impedirne il libero moto, come quando, trattenendo un sasso nella mia mano, gli impedisco di cadere a terra.
Perciò Aristotele riteneva che gli elementi, una volta svincolati, avessero una propensione innata a ritornare nei loro
luoghi naturali: la terra verso il basso, l’acqua in una sfera un po’ più all’esterno, e cosı̀ via fino ad arrivare al
fuoco. Questo moto naturale è intrinseco a ogni materia (essenziale) ed è diverso dall’una all’altra. Perciò, secondo
Aristotele, il moto non è una quantità indipendente dagli enti; e quindi non può essere nemmeno trasmesso, a meno
che l’ente che trasmette e quello che riceve il moto non siano solidali, cioè a meno che non costituiscano un solo
sistema fisico, come quando io, ruotando il braccio, faccio ruotare anche il sasso che è nella mia mano. Una volta
che l’elemento ha raggiunto il proprio luogo naturale, il moto cessa. Per cui la condizione naturale è la quiete, e
non il moto. Ciò spiega il fatto che ogni movimento non naturale deve essere continuamente alimentato, altrimenti
cesserebbe istantaneamente. L’idea dei luoghi naturali corrisponde a una concezione abbastanza diffusa sia presso le
altre culture, sia presente in alcuni stadi dell’evoluzione del bambino.
2.2
Aggiustamenti Tolemaici
Naturalmente la visione del cosmo prima descritta, pur presentando quelle qualità di semplicità ed esplicatività a cui
già si è fatto cenno, non poteva risolvere di per sé moltissimi problemi di ordine astronomico. E qui inizia lo sviluppo
di una scienza astronomica in parte autonoma che poi troverà il suo corononamento nell’Almagesto di Tolomeo (II
5
Luna
sfera del fuoco
sfera dell’aria
sfera dell’acqua
sfera della terra
Figure 4: Le sfere dei quattro elementi.
secolo d.C.).
Per capire i problemi maggiori bisogna considerare brevemente la situazione del sistema planetario cosı̀ come
la conosciamo oggi. Il Sole occupa una posizione centrale mentre i vari pianeti compiono intorno ad esso un moto
di rivoluzione. Partendo dal più interno, c’è prima Mercurio, poi Venere, quindi la Terra (intorno a cui orbita la
Luna), quindi Marte, Giove e Saturno (a cui si aggiungono i pianeti scoperti successivamente, quali Urano, Nettuno
e Plutone). Ovviamente a mano a mano che ci si allontana dal Sole le orbite diventano sempre più grandi e
quindi richiedono intuitivamente periodi di rivoluzione orbitale sempre più lunghi (considerando tra l’altro che, come
stabilisce la III legge di Kepler, la velocità dei pianeti diminuisce con l’allontanarsi dal Sole). Cosı̀ mentre Mercurio
percorre la sua rivoluzione in 88 giorni terrestri e Venere in 225, Marte in 687 giorni, Giove in quasi 12 anni terrestri
e Saturno in più di 29. Inoltre le orbite non sono perfettamente circolari (come vedremo sono ellittiche: è la I legge
di Kepler).
Quindi il principale dei problemi che si presenta per l’astronomo aristotelico è il moto retrogrado dei pianeti.
Infatti, nella realtà astronomica cosı̀ come la conosciamo oggi, abbiamo visto che la Terra ruota intorno al Sole
Figure 5: L’eclittica. Adattato da http : //www.marconi − galletti.it/solare/index.php?option = comc ontent&view =
article&id = 8 : terra − sole&catid = 7 : terra − sole&Itemid = 10
6
Figure 6: L’eclittica e l’equatore terrestre. Adattato da [KUHN 1957].
occupando la terza orbita planetaria partendo dall’interno e che quindi, nel suo moto di rivoluzione, è sorpassata
continuamente da Venere e sorpassa continuamente Marte. Ciò significa, prendendo il caso di Marte, che mentre dal
I aprile al I giugno il pianeta rosso si muove apparentemente con un movimento diretto ad est sulla volta stellata,
successivamente inverte il proprio moto in direzione ovest, per poi ritornare dopo il I agosto al suo moto ‘normale’,
descrivendo cosı̀ un cappio (vedi figura 7). Questa improvvisa retrocessione, o inversione di movimento deriva appunto
dall’essere stato superato dalla Terra (è lo stesso effetto che si prova quando il treno su cui viaggiamo supera un altro
treno e questo ci sembra muoversi in direzione contraria alla nostra).
Sin dal III-II secolo a. C. Apollonio e Ipparco introdussero degli artifizi matematici in grado di riprodurre tale
comportamento anomalo senza mutare l’essenziale della concezione aristotelica. La soluzione da essi introdotta si
chiama epiciclo. Come dice la stessa etimologia si suppone che il pianeta (ad esempio Marte) non sia collocato
nell’orbita che gli veniva tradizionalmente assegnata ma orbiti descrivendo un cerchio più piccolo (appunto l’epiciclo)
intorno a un punto assegnato dell’orbita suddetta (chiamata deferente). In tal modo, grazie alla combinazione del
moto del deferente e dell’epiciclo si può descrivere un movimento che presenta dei cappi esattamente come quelli di
fatto osservati (vedi figura 8).
Un altro modello introdotto era quello dell’eccentrico. Si suppone che il pianeta ruoti non intorno alla Terra (che
resta al centro dell’Universo) ma intorno a un altro punto decentrato (si veda figura 9). In tale modo si potevano
risolvere in parte alcuni problemi derivanti dall’eccentricità delle orbite planetarie (dalla loro ellitticità) come anche
alcune irregolarità nel movimento del Sole.
Un’altra soluzione, offerta da Tolomeo stesso (nel II secolo d. C.) è l’equante. Esso serviva a spiegare soprattutto
l’irregolarità del moto apparente del Sole. In questo caso si suppone che l’orbita del Sole mantenga una velocità
costante non rispetto alla Terra, che è al centro della sua orbita, ma rispetto a un punto decentrato (si veda figura
10). In tale modo si ottiene una velocità non costante, ma fatta di accellerazioni e rallentamenti dal punto di vista
di un osservatore situato sulla Terra.
Queste soluzioni tecniche presentano però diversi problemi. Innanzitutto è difficilissimo accordare da un punto di
vista filosofico l’idea di un epiciclo con quella delle sfere di cristallino: infatti il pianeta dovrebbe in realtà sfondare
diverse volte la sfera di cristallino ‘uscendone fuori’ ed ‘entrandone dentro’, il che appare del tutto assurdo.
Poi si può discutere del valore filosofico di una soluzione come l’equante (argomento fatto valere in particolare
da Copernico) visto che distrugge quella sfericità e perfezione del moto che stavano alla base della cosmologia e
dell’astronomia aristoteliche.
Infine ci sono due rilievi di carattere epistemologico: tutte queste soluzioni, prese isolatamente, non permettono di
rendere conto delle irregolarità dei moti planetari, derivanti sia dalla diversità dei periodi orbitali sia dalla ellitticità
delle orbite. Quindi, con il passare del tempo, e soprattutto con l’accrescersi della precisione nelle osservazioni
astronomiche e della massa dei dati a disposizione, i diversi metodi furono sempre più combinati tra loro per rendere
ragione di sempre nuove irregolarità, dando origine a soluzioni in cui, ad esempio, un epiciclo ruotava intorno a un
7
Figure 7: Retrocessione del moto di Marte. Adattato da [KUHN 1957].
punto dell’orbita di un altro epiciclo che ruotava intorno a un punto di un deferente eccentrico, e cosı̀ via. Il sistema
dell’astronomia tolemaica diventava sempre più complicato, venendo cosı̀ a perdere un elemento fondamentale della
costruzione aristotelica: la semplicità. Questo è un punto decisivo dato che una teoria è efficace solo in quanto risulti
essere considerevolmente più semplice della realtà che intende descrivere. Oltre un certo punto critico la teoria cessa
di avere un significativo potere esplicativo e diventa al limite inutilizzabile. Siamo entrati qui nella fase della senilità
di una teoria.
Il secondo rilievo epistemologico è che tutte le soluzioni elencate in precedenza sono soluzioni ad hoc, ossia artifici
tecnici per far quadrare i conti. Tuttavia, una vera soluzione non serve per far quadrare i conti rispetto a quello che
già si sa e non si riesce a spiegare ma per portare alla scoperta di fenomeni nuovi ossia ignoti in precedenza. In altre
parole, come accennato più sopra, le teorie si giudicano in base alla loro fertilità o in base al loro potere esplicativo.
Questo di fatto è in particolare vero per la prima fase delle teorie (si veda il par. 1), ma ci aspettiamo da qualsiasi
teoria tali caratteristiche.
Tuttavia il fatto che il sistema cosmologico aristotelico venisse accettato nel medio-evo è dovuto a diversi fattori,
oltre a quelli generali già menzionati. Innanzitutto esso corrisponde perfettamente al sentire medievale che ha bisogno
di un mondo finito, chiuso, gerarchico, centrato sulla Terra e sull’uomo, perfettamente ordinato. Il bisogno era di
tipo sociale, religioso, politico, e non solamente filosofico. Inoltre non c’erano le condizioni tecnologiche per avvertire
discrepanze serie con l’esperienza e le osservazioni.
2.3
La rivoluzione copernicana
La rivoluzione copernicana è stata a tutt’oggi la più grande rivoluzione scientifica mai avvenuta, e ha preso le
mosse dalla pubblicazione postuma nel 1543 del De revolutionibus orbium coelestium di Nicolò Copernico. Anzi, per
molti, è stata la rivoluzione che ha posto le basi di ciò che noi oggi chiamiamo scienza. Questo è vero ma, come
ricordato nell’introduzione, alcune parti della visione aristotelico-tolemaica non sono state del tutto abbandonate o
rese invalide, e alla stessa rivoluzione copernicana ci si è arrivati tramite un complesso processo che ha visto all’opera
diversi studiosi già nel medio evo. Pertanto anche qui c’è una certa continuità.
Il contenuto immediato della rivoluzione copernicana è quello di una rivoluzione astronomica, tuttavia i suoi presupposti sono di carattere generale e le sue conseguenze si estendono all’intera cultura occidentale. I suoi presupposti
sono la critica medievale, soprattuto francescana, dell’aristotelismo e le sue conseguenze si possono caratterizzare
come la perdita di centralità che la Terra occupava nella visione del mondo medievale. Il che ha anche un risvolto
religioso: l’uomo si sente parte di un universo più grande di lui. Si noti infatti che l’eliocentrismo era un’esigenza
della nuova cultura che andava ben oltre il problema squisitamente astronomico. Marsilio Ficino, nel Liber de Sole,
colloca al centro dell’universo questa lampada che simboleggia il Bene (Dio) e che è diffusiva come l’amore di Dio
(tema neoplatonico). Per tale motivo Kuhn sostiene che teorie cosı̀ diverse tra loro, come quella aristotelico-tolemaica
8
Figure 8: L’epiciclo. Adattato da [KUHN 1957].
Figure 9: L’eccentrico. Adattato da [KUHN 1957].
e quella copernicano-galileiana, sono anche in una buona misura incomparabili. Se è vero che le teorie scientifiche
non possono essere separate dalla società e dalla cultura che in parte esprimono, esse in parte servono (e vanno perciò
intese piuttosto) come degli strumenti atti a produrre determinati risultati ed effetti piuttosto che come spiegazioni
totali.
Copernico era confrontato con una tradizione che offriva una accozzaglia di soluzioni ad hoc, spesso in contrasto
tra loro e comunque poco armoniche e poco semplici. C’erano addirittura diverse tradizioni astronomiche spesso
confuse tra loro. Inoltre, come abbiamo visto, gli errori si erano venuti accumulando nel tempo, per cui l’astronomia
tolemaica appariva sempre più inadeguata. Infine la successiva introduzione di nuovi strumenti tecnici (il cannocchiale) permetteva di rilevare con ancora più acutezza gli errori nelle previsioni tolemaiche. Quella di Copernico è
innanzitutto una nuova soluzione matematica che intende rispondere alle esigenze estetiche di armonia e semplicità.
Qui si fa sentire un bagaglio filosofico che è comune alla maggior parte dei protagonisti della rivoluzione scientifica: il
platonismo. C’era anche un’esigenza metodologica di tipo occamista (entia non multiplicanda præter necessitatem):
è più logico che sia un corpo più piccolo (la Terra) a muoversi, piuttosto che l’intero universo a ruotare intorno ad
essa.
Tuttavia il menzionato neoplatonismo è stato anche in tensione con i nuovi indirizzi scientifici. Infatti Kepler,
grande astronomo di Praga, ha perseguito per alcuni decenni (Mysterium cosmographicum: 1596) un’idea cosmologica
neoplatonica in base alla quale le orbite dei pianeti sarebbero state inscritte nei cinque solidi perfetti (Saturno-cuboGiove-tetraedro-Marte-dodecaedro-Terra-icosaedro-Venere-ottaedro-Mercurio) [HALL 1954, p. 135] [KOYRÉ 1968,
pp. 12–16]: vedi figura 11. Alla fine — in Epitome astronomiæ copernicanæ (1618-21) e Harmonices mundi (1619)
9
Figure 10: L’equante. Adattato da [KUHN 1957].
— fu costretto ad abbandonare tali speculazioni e arrivò a formulare le famose tre leggi (ma probabilmente non ci
sarebbe arrivato se non attraverso questa ricerca tortuosa):
1. Le orbite dei pianeti sono ellissi di cui il Sole occupa uno dei due fuochi (vedi figure 12 e 13),
2. La linea che congiunge il pianeta al Sole spazza in tempi uguali aree uguali,
3. I quadrati dei periodi di rivoluzione dei pianeti sono nello stesso rapporto dei cubi delle rispettive distanze dal
Sole.
Queste leggi rappresentano un significativo allontanamento dalla matematica antica, basata su figure perfette, regolari
e statiche. L’ellisse è una figura anomala (sezione di un cono, studiata da Pascal), e inoltre la trattazione astronomica
di Kepler introduce un principio di dinamismo assente nella matematica e nella fisica antiche.
2.4
Il contributo di Galileo Galilei
Galilei ha dato contributi su princı̀pi generali di carattere filosofico, su problemi epistemologici e gnoseologici e sul
terreno fisico. Galilei non è stato un astronomo in senso tecnico e non c’è evidenza che sia stato copernicano prima
di conoscere il Mysterium Cosmographicum di Kepler [HALL 1954, pp. 122–124]. Nel 1610, Galilei, avvalendosi del
telescopio da lui rielaborato a partire da un prototipo olandese, pubblicò alcune rivoluzionarie scoperte (osservazioni
astronomiche) [GALILEI 1610]: esistenza di macchie solari (testimonianza di attività e rotazione del Sole), crateri e
montagne sulla Luna (similarità con la Terra), quattro satelliti di Giove (assenza di sfere e similarità con il sistema
Terra-Luna), fasi di Venere (che dimostravano che ruotava intorno al Sole e non tra la Terra e il Sole). Il telescopio
inaugura perciò la nascita dell’astronomia fisica (non più incentrata sulla sola posizione dei corpi celesti). Nasce
perciò l’esigenza di una fisica nuova unitaria basata su nuove leggi. Si veda infatti la frase di Leibniz: ‘C’est partout
comme içi’ (dappertutto è come qui).
Il grande merito del Dialogo di Galieo Galilei è avere mostrato la consistenza dell’ipotesi del moto della Terra fornendo cosı̀ basi filosofiche e fisiche alla rivoluzione copernicana [GALILEI 1632]. L’avversario diretto è qui Aristotele
e non Tolomeo, come nel caso di Copernico e Kepler. Galilei dimostra che non si possono notare differenze tra un
corpo situato in un sistema in quiete e in uno che si muove di moto uniforme. La Terra si muove appunto con moto
uniforme. Fa il famoso esempio della nave: supponendo un veliero che si muove su un mare relativamente calmo, nel
chiuso di una cabina tutto avviene come se la nave fosse ferma e se dovesse cadere un coltello lo farebbe lungo una
trattoria perpendicolare al suolo come sulla terra ferma. D’altra parte il moto si conserva (abbozzo del principio di
inerzia), cosicché se un uccello si alza in volo esso conserverà sempre il moto del sistema terrestre con cui era ed è
solidale; ecco perché non sarà proiettato né in avanti né in indietro. Si noti tuttavia che è solo in Descartes che si
troverà una formulazione del principio per il moto rettilineo [KOYRÉ 1968, pp. 95–96]. Infatti, Galilei, che crede
10
Figure 11: I solidi perfetti di Kepler. Adattato da http : //flyhi.de/modellbau/modella stromedia.html.
Figure
12:
L’orbita ellittica della Terra intorno al Sole.
Adattato da http
:
//www.marconi −
galletti.it/solare/index.php?option = comc ontent&view = article&id = 8 : terra − sole&catid = 7 : terra − sole&Itemid = 10
ancora che le orbite dei pianeti siano circolari, ritiene che questi moti siano conservati. In ogni caso, grazie a questi
due princı̀pi, tutto avviene come se la Terra fosse ferma. In sostanza potrebbe essere sia che sia la Terra a essere
ferma e il cielo a muoversi, sia viceversa. Ma la seconda ipotesi è più plausibile.
Si noti che in tale modo Galilei distruggeva la teoria aristotelica del moto. Un problema che si era già notato nel
medio evo era che non si riusciva a spiegare come un corpo non tornasse immediatamente al suo luogo naturale dopo
essere stato lasciato libero. Ad es., se lancio un sasso, questo non cade verso il basso non appena lascia la mia mano
ma prosegue per un po’ con una traiettoria parabolica. Adesso Galilei, azzerando completamente la teoria dei luoghi
naturali e l’idea del moto come proprietà intrinseca di un oggetto, ci spiega che il moto viene trasmesso da copro a
corpo e viene conservato se non intervengono altri fattori (come l’attrito) per smorzarlo.
Perciò, il moto diventa ora una entità quantizzabile e che non pertiene essenzialmente a un cosa dato che si può
trasmettere da oggetto ad oggetto. Mentre gli antichi avevano trattato matematicamente molte cose, nessuno prima
di Galilei aveva pensato di matematizzare il moto [HALL 1954, p. 179]. Le differenze essenziali tra Aristotele e
Galilei sulla concezione del moto possono essere sintetizzate cosı̀: il moto per A. è un processo e per G. uno stato,
per A. una qualità delle cose, per G. quantità, per A. una proprietà (accidentale o essenziale) mentre per G. non
afferisce a un ente ma si trasmette, per A. ha bisogno di cause per mantenersi e per G. no, per A. è assoluto (e c’è
una differenza assoluta con la quiete) e per G. è relativo (ed è interscambiabile con la quiete).
Si noti che la prima vera prova del moto della Terra si ha solo nel 1791-92 da parte di Guglielmini con l’esperimento
11
Figure 13: Le prime due leggi di Kepler. Adattato da [KUHN 1957].
della Torre degli asinelli di Bologna, dimostrando che un corpo lasciato cadere dalla torre in direzione ovest deve
cadere più avanti e non più indietro (come supposto dagli aristotelici) grazie alla maggiore velocità angolare della
sommità rispetto alla base della torre. Invece Galilei riteneva erroneamente nel Dialogo che la prova del moto della
Terra fosse costituita dalle maree.
Galilei si scontrò purtroppo con la Chiesa e fu condannato. Le nuove idee copernicane erano troppo innovative
per una mentalità religiosa che vedeva in un cosmo incentrato sulla Terra una parte costitutiva della sua spiegazione
del mondo. La commissione Vaticana sul caso Galilei (i cui lavori si sono chiusi nel 1992), presieduta dal Cardinale
Paul Poupard, mise in rilevo che non soltanto Galilei aveva ragione nel merito scientifico (cosa di cui nessuno
dubitava più da tempo) ma che aveva anche anticipato gli sviluppi contemporanei dell’ermeneutica biblica perché
aveva giustamente insistito che le Scritture non erano un trattato di astronomia e che pertanto non potevano essere
interpretate letteralmente quando dicevano che era il sole a muoversi ma andavano piuttosto capite a partire dal
contesto culturale in cui erano state scritte [POUPARD 1987].
3
3.1
Evoluzione biologica
Antecedenti
Verso la fine del XVIII secolo era crescentemente chiaro che la Terra aveva una sua storia. Il ritrovamento di fossili
su montagne come le Alpi suggeriva che in passato tali aree erano immerse nel mare. Inoltre suggeriva che fossero
esistite in passato specie successivamente estinte.
Tuttavia, la prima di idea di evoluzione biologica viene espressa da un grande naturalista francese agli inizi
del nuovo secolo [LAMARCK 1809]. Lamarck aveva capito che le diverse funzioni e caratteristiche biologiche che
noi osserviamo negli odierni organismi erano evolute e che quindi le stesse specie biologiche dovevano avere subito
significative trasformazioni nel tempo e perfino nascere ed estinguersi. Lamarck aveva anche capito che l’ambiente
era in qualche misura responsabile di tali processi.
Per spiegarli, elaborò un modello secondo il quale l’ambiente influisce sugli organismi spingendoli ad acquisire
o perdere determinate funzioni o caratteristiche. Uno degli esempi diventati più noti è quello del collo delle giraffe. Questi animali dovevano avere allungato il collo a seguito di precedenti mutamenti del loro ambiente che
avevano portato gli alberi di cui si cibavano a crescere in altezza. Per potersi tenere “al passo” le giraffe avevano
conseguentemente e progressivamente allungato il collo diventando una specie distinta a partire da un antenato più
simile all’attuale zebra.
Sebbene l’idea generale di evoluzione fosse abbastanza chiara in Lamarck e sebbene egli abbia anche definito
abbastanza bene la nozione di specie biologica sessuata nei termini di una comunità di individui capaci di relazioni
riproduttive e quindi di generare una discendenza, la sua visione del meccanismo dell’evoluzione era essenzialmente
scorretta e bisognerà attendere Darwin per la soluzione del problema.
3.2
Il contributo di Darwin e problemi aperti
Darwin, il grandissimo naturalista inglese che ebbe tra l’altro la possibilità di fare osservazioni sul campo alle isole
Galapagos (e in presenza di una ricchissima varietà di specie viventi), comprese due cose fondamentali che sono poi
diventate costitutive della teoria dell’evoluzione come la conosciamo ancora oggi [DARWIN 1859] (si noti che anche
un suo contemporaneo, Alfred Wallace, arrivò a una soluzione simile):
12
Figure 14: L’albero della vita. Si noti che ci sono tre famiglie fondamentali: batteri, archaea, e eucarioti (da cui discendono
o tutti gli organismi multicellulari).
ORGANISM
self-replication
variation
ENVIRONMENT
ENVIRONMENT
INDIVIDUAL
self-reproduction
NATURAL SELECTION FILTER
PHYLUM
en inte
vir rd
on ep
m en
en de
t-o nc
rg y
an
ism
phylogenetic change
cy m
en nis
nd rga
e
p -o
de ent
er
int onm
r
vi
en
EVOLUTION
Figure 15: Uno schema di come avvengono i cambiamenti evolutivi. Si noti che spesso diversi cambi filogenetici e interdipendenze tra organismo ed ambiente sono in genere necessari per potere avere una nuova specie. Copyright: [AULETTA 2011].
• Le specie viventi discendono tutte da un comune antenato unicellulare per successive ramificazioni dovute
ai processi di speciazione. Oggi si preferisce parlare di più di una comunità di cellule originarie ma l’idea
fondamentale è rimasta immutata (si veda figura 14).
• In secondo luogo Darwin aveva osservato come venivano selezionate nuove specie sia da allevatori che da
coltivatori. Immaginò che un meccanismo simile doveva essere al lavoro in natura, sebbene in assenza di un
piano e quindi in forme casuali e spontanee. Darwin si rese conto che la selezione di una specie nuova da parte
di allevatori e coltivatori avveniva eliminando le varianti che non presentavano le caratteristiche desiderate. Ma
questo significava selezione tra un numero di varianti già presenti nella popolazione.
Da quest’ultimo punto Darwin trasse la corretta conclusione che l’ambiente non poteva avere una funzione istruttiva
(non poteva determinare positivamente le caratteristiche di una specie), come aveva pensato Lamarck, ma doveva
svolgere una funzione negativa di eliminazione di quelle varianti (la cui generazione avveniva in modo indipendente
dall’ambiente) che risultavano incompatibili con le condizioni ambientali. In altre parole, le varianti biologiche erano
generate per processi endogeni e quindi indipendentemente dall’ambiente.
Darwin non fu in grado di indicare un meccanismo biologico che rendesse conto della generazione delle varianti. Tuttavia, su tali basi, egli elaborò l’articolazione del meccanismo fondamentale che è alla base non soltanto
dell’evoluzione biologica ma di qualsiasi evoluzione in generale (vedi figura 15) [LEWONTIN 1970] [AULETTA 2011,
13
par. 9.11]:
• Prima si producono delle varianti biologiche note come mutanti per meccanismi casuali e ancora ignoti a Darwin.
• Alcune di queste varianti vengo eliminate per l’azione della selezione naturale.
• Quelle che sopravvivono trasmettono le loro variazioni alla discendenza che diventano cosı̀ caratteri acquisiti.
Pertanto abbiamo una successione variabilità–selezione–trasmissione.
Si noti che le idee di Darwin ebbero un enorme impatto sulla cultura e la società del tempo con strascichi
che arrivano fino ai nostri giorni. Una convinzione largamente diffusa (sia per ragioni filosofiche, sia per ragioni
religiose) era che la Terra avesse una vita relativamente breve (di poche migliaia di anni) e che le specie biologiche
rappresentassero pertanto delle costituzioni predefinite e immutabili che erano state create come tali da Dio sin
dalle origini del mondo. Inoltre la mentalità religiosa (e morale) dell’epoca portava a vedere nell’uomo un essere
in assoluta discontinuità (e superiorità) con (rispetto) al mondo animale, e questo stranamente in contrasto con
la mentalità medievale che faceva dire a un autore come Tommaso d’Aquino che c’era una continuità tra l’anima
razionale umana e l’anima degli animali. Anche sull’evoluzione, dopo la rivoluzione copernicana, era inevitabile lo
scontro. Tuttavia si nota anche una differenza. Questa volta una parte del campo “scientifico” non si limita soltanto
a rifiutare le argomentazioni del campo religioso (com’era ancora per Galilei) ma vede nella teoria dell’evoluzione
uno strumento per mettere in crisi la religione oppure per arrivare a provare che Dio non esiste. Da parte religiosa,
oltre all’anacronistica riproposizione del creazionismo (una nuova lettura letterale della Bibbia!), ci fu anche una
pattuglia di persone che ritenne di potere mettere in piedi una risposta antievoluzionista in termini scientifici. In
tale caso, soprattutto negli USA, si è parlato di Intelligent Design (disegno intelligente) postulando un’intelligenza
superiore che avrebbe dato origine alla diverse specie. E’ apparso sempre più chiaro che tali posizioni non hanno
nulla di scientifico ma esprimono piuttosto interessi di lobby politiche, ed è davvero preoccupante che negli USA ci
sia ancora una parte significativa della popolazione che guarda la teoria dell’evoluzione con sospetto o addirittura
vorrebbe censurarla (vietandone ad es. l’insegnamento nelle scuole o almeno affiancando al suo insegnamento quello
di dottrine creazioniste o da Intelligent Design come se queste ultime potessero aspirare ad essere una forma di sapere
al parti di quella teoria).
3.3
La sintesi neodarwiniana
Infatti, la teoria dell’evoluzione Darwiniana ha ormai ricevuto conferme di vario genere e pertanto è oggi una delle
colonne portanti della biologia e quindi della scienza contemporanea in genere. Ma proprio perché è una teoria
scientifica, come ho spiegato nel paragrafo 1, è stata soggetta nel tempo anche a successive integrazioni e correzioni
ed oggi si trova nella sua fase di maturità come una spiegazione più complessa ed articolata della formulazione
originaria di Darwin.
La prima grande integrazione riguardava i meccanismi biologici che rendevano possibile la variazione. Abbiamo
visto che Darwin non aveva una spiegazione. Tuttavia, pochi anni dopo la pubblicazione de Le origini, un monaco
hydrogen bond
one helical turn = 3.4 nm
3’
A A
C
A
C
T C
G
A
T
G
C
T
T
G
A
A
C
T C
G
G
C
C
G
T
G C
A
G
A
C
T G
T
G A
C
T
T
G
sugar-phosphate backbone
G
T
C A
phosphate
5’
deoxirybose
G
C
A
G
base
C
3’ 5’
Figure 16: La estrutura (doppiamente) elicoidale del DNA. Copyright: [AULETTA 2011].
14
moravo che si occupava del giardino del monastero e in particolare dell’incrocio tra piante di piselli, si rese conto di un
fenomeno straordinario: alcuni caratteri che in un certo numero di generazioni non si manifestavano, all’improvviso
ricomparivano [MENDEL 1866]. Supponendo che la “mescolanza“ di caratteri biologici avvenisse secondo il modello
continuo della mescolanza di fluidi, un carattere assente per diverse generazioni avrebbe dovuto stemperarsi a mano a
mano (come quando diluiamo progressivamente un certo concentrato con acqua) fino a sparire del tutto. Il fatto che
invece i caratteri ricomparissero suggeriva che questi stessi fossero regolati da unità discrete la cui combinazione dava
origine alle funzioni e strutture biologiche che noi osserviamo. A tali unità discrete viene poi dato il nome di geni,
anche se la scoperta della molecola, il DNA, di cui essi sono costituiti, è molto successiva [WATSON/CRICK 1953a,
WATSON/CRICK 1953b]: vedi figura 16.
L’integrazione del contributo di Mendel nella teoria dell’evoluzione e la formulazione delle basi di quella che poi
sarebbe diventata la teoria sintetica oppure neo–darwiniana, si trovano già in [WEISMANN 1893], ma la storia di tale
sintesi è molto più linga e complessa dato che ha dominato in realtà la biologia evoluzionistica almeno fino agli anni
’70 del secolo scorso. Nel corso di questo lungo arco di tempo tale teoria è consolidata ed è venuta caratterizzandosi
per diversi elementi chiave, alcuni dei quali possono essere sintetizzati cosı̀ (su questi problemi vedi [AULETTA 2011,
parr. 9.2–9.4, 9.8] con letteratura ivi citata):
• Il fatto che i geni sono distinti dai caratteri biologici osservabili suggerisce una netta separazione tra la dimensione genetica e la cosiddetta dimensione somatica che comprende tali fattori osservabili. Sebbene giusta in sé
e sebbene sia giusta anche la conseguenza (che l’informazione si trasmette dai geni verso le proteine e le cellule
somatiche e non vice versa), tale approccio ha comportato una conseguenza di non poco conto: una visione
essenzialmente genetocentrica che ha fortemente ritardato non soltanto il sorgere di una biologia dello sviluppo
ma anche la comprensione dell’intreccio di tali processi con quelli evolutivi.
• Probabilmente ancora influenzati da una visione meccanicistica dell’universo fisico (su cui ritorneremo), i protagonisti di tale sintesi tendevano a porre una accento esclusivo sulla selezione naturale come unico fattore
responsabile della speciazione e dell’evoluzione biologica. Tuttavia diventava difficile spiegare sulla sola base
della selezione l’emergere di strutture e funzioni di grande complessità. C’era in qualche modo un anello
mancante tra le variazioni endogene e casuali, da una parte, e la selezione, dall’altra. Cone conseguenza, alla
selezione naturale si finiva per attribuire un significato non soltanto negativo (come era ancora vero per Darwin)
ma addirittura un infondato carattere creativo.
Con estrema laboriosità, a mano a mano si è imposta una visione più plastica e matura [AULETTA et al. 2011].
Vediamone brevemente i punti qualificanti.
3.4
La nuova sintesi: autorganizzazione ed Evo–Devo
Il grande evoluzionista Waddington, a sua volta influenzato da studi pioneristici [SCHMALHAUSEN 1949]
[GOLDSCHMIDT 1940], si rese conto già negli anni ’40 del secolo scorso che i processi di sviluppo (anche chiamati
epigenetici) debbono risultare cruciali per l’evoluzione delle specie [WADDINGTON 1975]. Di fatto, il DNA codifica
per l’informazione che dà luogo alla costruzione delle proteine all’interno delle cellule. Le proteine sono ovviamente
cruciali per la vita in quanto forniscono il materiale per moltissime strutture biologiche e sono un po’ come le
operaie delle cellule. Tuttavia le proteine non rappresentano affatto le funzioni superiori di un organismo (come il
metabolismo o la respirazione) per non parlare della struttura generale dell’intero organismo. Se questo è vero già
per organismi unicellulari, diventa drammaticamente vero per organismi multicellulari. Pertanto a mano a mano si
comprese che la visione genetocentrica era insufficiente e perfino sbagliata. La nuovo visione teneva conto del fatto che
l’informazione genetica è al massimo responsabile dell’“accensione” iniziale del processo di sviluppo (anche se perfino
in questi stadi iniziali fattori epigenetici sono già importanti), ma a mano a mano che l’organismo si sviluppa lo fa
in un complessissimo processo di segnali (sia scambiati al suo interno, sia con l’ambiente) che di continuo accendono
e spengono particolari geni a seconda delle strutture che debbono costruire [GILBERT 2006]. Ad esempio, un seme
di una pianta inizia il processo di sviluppo soltanto quando appropriate condizioni ambientali (ad es. in termini di
temperatura ed umidità) sono presenti.
Ma in tale modo non è il patrimonio genetico che l’evoluzione “sceglie“ tramite la selezione naturale quanto piuttosto un co–adattamento tra organismo ed ambiente. I tempi estremamente lunghi della selezione naturale si giustificano proprio perché tale co–adattamento è un processo delicato e difficoltoso. Tale visione permette di comprendere
che gli organismi non sono semplicemente il sostrato passivo su cui interviene la selezione naturale (come ancora
riteneva il neo–darwinismo) ma sono fattori cruciali del processo di co–adattamento proprio in quanto modificano
attivamente l’ambiente stesso. Dato che l’organismo è essenzialmente una “costruzione” a partire dall’informazione
15
genetica, si capisce perfettamente che le maggiori novità biologiche (le famose mutazioni) come anche l’effetto della
selezione naturale debbano essere cruciali proprio nella fase dello sviluppo.
Si noti che in origine qualsiasi stimolo ambientale è di per se negativo, come Darwin aveva capito. E’ soltanto grazie
al processo di co–adattamento che tale stimolo può essere successivamente “piegato” alle esigenze dell’organismo.
Ad esempio, l’ossigeno è dannoso alla vita tanto che una delle cause maggiori dell’invecchiamento è la crescente
ossidazione delle cellule e tessuti. Tuttavia, nel momento in cui (circa 600 milioni di anni fa) le piante verdi hanno
colonizzato la terra ferma venendo ad immettere ossigeno nell’atmosfera, tutti gli animali terrestri (che avevano
colonizzato le terre emerse parallelamente) hanno fatto dell’ossigeno il loro principio vitale tramite la respirazione.
Ma qual è il meccanismo che permette una tale magia? E’ qui che entra in gioco l’altro cruciale fattore:
l’autorganizzazione [KAUFFMAN 1993]. La materia vivente è un sistema complesso ove le relazioni tra componenti giocano un ruolo decisivo. Sebbene diverse strutture potrebbero essere in parte danneggiate senza incidere
in modo sostanziale sulle capacità funzionali dell’organismo, resta pur vero che i vincoli che tali relazioni creano
determinano un sistema di gerarchie e controlli che, se alterato, ha bisogno necessariamente di ristabilire nuovi livelli
gerarchici e di controllo per potere sopravvivere [AULETTA 2011, capp. 8 e 11].
In tale modo il processo di speciazione può spiegarsi come un’alternanza di fasi casuali e processi di riorganizzazione. Possiamo ipotizzare che in una fase iniziale determinate mutazioni ambientali (ma anche endogene) creano
uno squilibrio nell’organismo (in una specie determinata). Poiché l’organismo tende a preservare il proprio stato
di equilibrio (la sua omeostasi), esso cercherà di reagire (soprattutto nella fase dello sviluppo) in modo tale da
contrastare la tendenza al tracollo. In generale può reagire o con nuove mutazioni genetiche o con espressione epigenetica di parti del genoma che fino a quel momento non erano state espresse. E’ stato dimostrato da Waddington che
moscerini da frutta sottoposti a stress ambientali aumentano la variabilità genetica. Pertanto, possiamo supporre
che in un modo o nell’altro l’organismo (almeno alcuni rappresentanti di una specie) siano in grado di generare in
tale modo modifiche suscettibili di dare vita a nuove funzioni. Poiché però tali iniziali mutamenti sono avvenuti in
modo casuale, è molto difficile che essi abbiano generato una risposta appropriata o completa in termini funzionali.
Pertanto l’organismo si ritrova di fronte alle necessità di riorganizzare epigeneticamente le sue strutture e funzioni in
modo tale da potere integrare tali modifiche. Tuttavia, a causa della insufficienza delle stesse mutazioni iniziali, tale
processo non si può concludere subito in modo soddisfacente. Se l’organismo sopravvive, esso o un suo discendente
ha bisogno di rinsaldare il suo equilibrio e di rendere più efficienti le soluzioni dando vita a nuova variabilità genetica.
E il ciclo ricomincia daccapo. In tale modo, l’organismo può arrivare a soluzioni che rappresentano tutto sommato
un ragionevole compromesso in termini di una buona stabilità.
Tre cose vanno notate in questa sede:
• La soluzione che in tale modo si raggiunge non è mai una soluzione ottimale, come era già implicito nell’idea
di una selezione negativa propugnata da Darwin. E’ soltanto una soluzione che funziona. Ce ne potrebbero
sempre essere di migliori. D’altra parte, una soluzione ottimale sarebbe pericolosissima per la vita. Infatti,
significherebbe un sistema perfettamente adattato a un certo ambiente e pertanto esposto all’enorme rischio di
essere subito eliminato al variare delle condizioni ambientali. La vita è perciò costretta soluzioni come si dice
sub–ottimali.
• Poiché qualsiasi genere di modifica è sempre pericolosa e soprattutto quella o quelle che riguardano livelli
gerarchici superiori o funzionalità più fondamentali, la vita è estremamente conservativa e, sebbene introduca
continuamente variazioni, lo fa senza mai eliminare completamente strutture e funzioni più antiche; anzi in
genere le nuove strutture e funzioni vengono innestate sulle vecchie. Pertanto l’evoluzione non funziona come il
lavoro di un ingegnere che pianifica a tavolino quali siano le soluzioni astrattamente migliori. E’ proprio questo
punto a rendere la spiegazione fornita dall’Intelligente Design non appropriata: se le specie fossero il prodotto
del lavoro di un disegnatore intelligente, il risultato sarebbe stato più di tipo ingegneristico.
• Gli organismi sia nel corso della loro vita individuale (ontogenesi), sia nel corso della loro evoluzione vivono un
equilibrio transiente. In altre parole, l’equilibrio è sempre precario e relativamente momentaneo. Per questo
Waddingoton preferiva parlare di omeoresi invece di omeostasi (dinamismo invece di stasi). Poiché d’altra
parte tale slittamento continuo dell’equilibrio avviene a livello di specie in condizioni in cui gli organismi sono
costretti a innestare nuove funzioni sulle vecchie, l’evoluzione delle specie mostra mediamente una tendenza alla
crescente complessità delle specie. In altre parole, mediamente oppure su periodi più lunghi, le nuove specie
sono più complesse delle vecchie specie. Questo non significa dire che sono più adatte. Eucarioti unicellulari
da un certo punto di vista possono essere considerati più adatti a sopravvivere dei mammiferi, ma l’evoluzione
ha generato questi ultimi dai primi e non viceversa, com’è chiaro guardando l’albero dell’evoluzione.
16
3.5
L’evoluzione dell’uomo
L’uomo è l’organismo più complesso della Terra (basti pensare alla complessità del cervello umano). Da quando
ci siamo separati circa 6,5 milioni di anni fa dagli altri primati la nostra specie non soltanto è stata in continua
evoluzione ma ha accumulato, in un lasso di tempo che, su scala evolutiva, è relativamente modesto, un tale numero
di cambiamenti biologici da risultare forse privo di confronti con altre specie. La ragione di tale processo si deve a una
peculiarità umana: la presenza di una cultura. La cultura rappresenta una modalità del tutto nuova di trasmissione
dell’informazione di generazione in generazione. Tuttavia essa presenta le generali caratteristiche dell’evoluzione
biologica. Infatti anche la cultura è soggetta pressioni selettive e avviene tra beni o realtà culturali che preesistono
alla selezione [RICHERSON/BOYD 2005].
La cultura consiste senz’altro nella trasmissione di tradizioni (in ultima analisi contingenti). Tuttavia, tale
requisito è necessario ma non sufficiente. Anche altri primati (e cetacei) mostrano un senso per differenze tra gruppi
nel modo in cui si effettuano delle operazioni e queste differenze vengono tramandate. Ma la cultura umana presenta
un carattere che tali pratiche non hanno: essa è cumulativa [TOMASELLO 1999, TOMASELLO 2003]. Ossia,
essa incrementa nel tempo continue migliorie di oggetti, idee, relazioni, ecc. Anche oggi il mercato premia sempre
prodotti tecnologicamente innovativi. Tale capacità non sarebbe possibile senza una facoltà di apprendimento critico
dei prodotti culturali (che manca agli altri primati) [ENQUIST et al. 2007] e senza una cooperazione attiva per
produrli. Ma per potere cooperare, studi recenti mostrano che c’è bisogno di una società nella quale vigano rapporti
altruistici [FEHR/FISCHBACHER 2003].
Come si arrivati a tali risultati? E’ probabile che condizioni ambientali di grande variabilità abbiano reso efficace
un comportamento altrettanto variabile, ossia non adatto a uno specifico ambiente. Di fatto una delle caratteristiche fondamentali dell’umanità è quella che viene chiamata Improvisional intelligence [COSMIDES/TOOBY 2000,
COSMIDES/TOOBY 2002], ossia la capacità tipicamente umana (che dipende dalla grande variabilità di comportamento) di estrarre dall’ambiente circostante informazioni e beni in modo non prefissato biologicamente ma riferito
sempre a contesti e scopi specifici: ad esempio, una stessa sostanza può essere considerata o un veleno o una medicina
a seconda dell’uso che se vuole fare e della quantità che si impiega.
4
4.1
Le grandi rivoluzioni della fisica nel XX secolo
La visione meccanicista del mondo
Dopo la rivoluzione copernicana, la scienza fisica che si è affermata è la meccanica classica. La meccanica è stata vista
per secoli come la regina delle scienze. Ciò è dovuto all’introduzione di metodi matematici rigorosi e alle sue grandi
capacità predittive. Praticamente la scienza meccanica rappresenta la base della nostra tecnologia (dagli orologi fino
ai motori) sin dal XVII secolo, e sebbene successive rivoluzioni tecnologiche (come l’introduzione dell’elettricità e poi
delle tecnologie dell’informazione) abbiano introdotto grandi novità, in molti campi la meccanica continua ad essere
centrale.
Essenzialmente la meccanica mira a considerare ogni processo fisico come il risultato di interazioni locali basate su
contatto diretto: frizione, collisione, trazione, spinta ecc. In sostanza, la meccanica classica presuppone che qualsiasi
problema fisico possa essere ridotto a una forma di contatto tra due corpi. Tale approccio ai problemi fisici implica
naturalmente una metodologia riduzionista: ogni genere di problema fisico si può ridurre a interazioni locali tra
elementi irriducibili. Infatti, il sogno della meccanica è sempre stato quello di trovare costituenti ultimi ed irriducibili
del mondo fisico come corpuscoli o atomi.
Dato il suo enorme successo era naturale che si tendesse a considerare tale metodologia come universale e pertanto
si considerasse qualsiasi genere di problema (biologico, psicologico, sociale, ecc.) come riducibile in ultima analisi ad
azioni meccaniche tra elementi materiali. In sostanza, dal giusto requisito metodologico di ridurre un problema ai suoi
minimi termini oppure ai termini più semplici (che però non ci dice nulla né sulla natura delle azioni e forze in gioco,
né sul carattere degli oggetti o fattori coinvolti), si è poi passati a una visione dell’universo di genere metafisico (il
meccanicismo) che ha pesato negativamente su alcuni sviluppi della scienza, in particolare ha ritardato la costruzione
della teoria del campo elettromagnetico (le cui prima fondamenta erano state poste già nel XVII secolo) come anche
di discipline come le scienze biologiche.
4.2
Due novità: termodinamica e una teoria dei campi
Il XIX secolo è stato il secolo del trionfo della meccanica ma anche quello in cui si sono affermate due teorie che hanno
contribuito non poco a cambiare la storia del pensiero scientifico preparando la strada alle grandi rivoluzioni del XX
17
secolo. La prima novità concerne la termodinamica. Fino ad allora il sogno della meccanica era stato quello della
costruzione di un motore perpetuo. Infatti, le equazioni della meccanica classica sono reversibili. Ossia, in teoria,
si può partire da uno stato iniziale I di un sistema fisico e scrivere le equazioni che portano a un determinato stato
finale F , ma si può anche partire da questo stato finale F e con le stesse equazioni fondamentali arrivare allo stato I.
Pertanto, se si riuscisse a eliminare del tutto la presenza di fenomeni di dispersione energetica, un motore potrebbe
funzionare in modo perfettamente circolare autoalimentandosi. Certo ci sarebbero diversi problemi tecnologici da
affrontare e superare, ma in linea di principio la cosa era ritenuta fattibile.
La comparsa della termodinamica nella prima metà del XIX secolo, grazie ai lavori di Carnot, Clausius e Lord
Kelvin, ha infranto questo sogno per sempre. Precedentemente si considerava l’energia come una quantità fisica che
presentava essenzialmente le stesse caratteristiche in qualsiasi tipo di sistema o contesto fisico. Invece si scoprı̀ che
l’energia può esistere in diverse forme, caratterizzate da un maggiore o minore grado di disordine. In particolare, il
calore era una forma di energia molto disordinata. Si scoprı̀ che un qualsiasi motore degrada necessariamente una
parte della sua energia iniziale in calore, ma il calore, in quanto energia più disordinata, è meno utilizzabile per
svolgere lavoro di altre forme di energia più ordinata. A titolo di esempio, consideriamo un gas: il calore consiste
nel moto disordinato delle molecole che compongono il gas. Invece un gas che è confinato in un pistone, viene
compresso lungo una determinata direzione determinando cosı̀ un moto parallelo delle molecole lungo tale direzione.
Pertanto, il gas è qui in uno stato molto più ordinato (tutte le molecole si muovono in parallelo e non più ciascuna
indipendentemente dall’altra), e, proprio per questa ragione, è in grado di effettuare lavoro (come far funzionare un
motore).
Pertanto, trasformare parte dell’energia iniziale più ordinata in calore, significa che il sistema a mano a mano tende
a ridurre la quantità di energia con cui potere effettuare lavoro. Quindi, se lo supponiamo isolato e rimettiamo in
circolo continuamente la stessa energia, dopo un certo punto la parte rappresentata dal calore sarà tanto importante
da paralizzare il sistema per surriscaldamento. Quindi, diventa impossibile costruire un motore perpetuo. Clausius
diede il nome di entropia alla quantità che misura il disordine di un sistema. Pertanto, la cosiddetta seconda legge o
principio della termodinamica ci dice che in qualsiasi sistema isolato l’entropia non può mai diminuire ma o rimane
costante o aumenta, e in moltissime situazioni reali aumenta. Possiamo fare un esempio per capire il problema.
Per produrre una tazzina ci vuole lavoro (e quindi energia ordinata che viene anche chiamata energia libera). Ma
romperla è di gran lunga più facile (richiede molto meno lavoro) e difatti si può fare in migliaia di modi diversi
(mentre per costruirla ci sono procedure obbligate). La conseguenza è che non osserviamo mai una tazzina rotta
ricomporsi spontaneamente. Insomma, la termodinamica aveva trovato che i problemi fisici del mondo reale sono
soggetti a irreversibilità e non sono reversibili come aveva presupposto la meccanica.
Il secondo grande cambiamento riguarda la teoria dei campi, e in particolare la teoria del campo elettromagnetico,
la cui formulazione compiuta si deve al genio di J. Clerk Maxwell intorno alla metà del XIX secolo. Si è detto che
la meccanica classica contemplava soltanto interazioni locali. Questa era stata la ragione per la quale la forza
gravitazionale, che sembra agire a distanza (ad esempio, dalla Terra alla Luna), era sempre stata guardata con
sospetto e addirittura era stata considerata come una realtà non fisica verso la fine del XVIII secolo.
Quello che la forza gravitazionale rappresentava era in realtà il primo esempio di campo fisico. La nozione di campo
supponeva un’idea radicalmente nuova della fisica, come messo giustamente in luce da Einstein [EINSTEIN MW, pp.
160–61]. Basta considerare che cosa accade quando un meteorite entra nel campo gravitazionale terrestre: esso viene
prima attirato verso la Terra, deviando dalla sua traiettoria originaria, poi accelera nella misura in cui si avvicina
per poi disintegrarsi tra atmosfera e suolo se non gli accade di finire in orbita. In altre parole, il comportamento di
tale oggetto fisco (il meteorite) varia in ogni punto dello spazio e in ogni momento del tempo a seconda della sua
relazione con il centro del campo gravitazionale terrestre che coincide con il centro della Terra. Pertanto, un campo
rappresenta una rete di relazioni tra diversi punti spaziali (nel senso che allontanandoci sfericamente dal centro del
campo la forza diventa sempre più debole) e quindi è qualcosa di intrinsecamente irriducibile a interazioni locali tra
corpi materiali.
Quella che appariva una stranezza con il campo gravitazionale divenne con la formulazione della teoria del campo
elettromagnetico una realtà indubitabile e una colonna portante della fisica moderna. Un campo elettromagnetico è
quello che viene prodotto quando la luce si propaga (in genere sfericamente da un centro). In tale caso, si creano due
campi che sono collegati tra di loro (quello magnetico ed elettrico) che sono sia perpendicolari tra loro sia entrambi
rispetto alla direzione di propagazione della luce (vedi figura 17). Come vedremo, i corpuscoli di cui è costituita la
luce (i cosiddetti fotoni) sono i mediatori del campo elettromagnetico che si crea tra particelle materiali di cariche
elettriche opposte, come l’elettrone (carica negativa) e il protone (carica positiva).
18
E
B
propagation
direction
Figure 17: Nota che il campo elettrico (in rosso) e il campo magnetico (in blu) oscillano (sono onde) in direzioni ortogonali
a quella di propagazione della luce. Adattato da [AULETTA et al. 2009a, p. 20].
4.3
Le teorie della relatività
La teoria della relatività, che si articola in speciale (formulata nel 1905) e generale (formulata compiutamente nel
1916), è una delle grandi conquiste intellettuali del nostro secolo [EINSTEIN 1917]. Già Mach aveva messo in
questione lo spazio e tempo assoluti di Newton [MACH 1883], e tale lavoro ha certamente influenzato A. Einstein.
Secondo Newton, uno dei padri della fisica classica, spazio e tempo sono infatti come dei contenitori nei quali il
nostro universo (stazionario) è collocato. Einstein cambiò per sempre il nostro modo di vedere queste due quantità
fisiche.
Sulla base delle equazioni di Maxwell, Einstein si rese conto che la luce
• Ha una velocità c costante nel vuoto (circa 300.000 km al secondo),
• Che rappresenta simultaneamente la massima velocità raggiungibile nel nostro universo.
Per quanto concerne l’ultimo punto, la cosa fu già dimostrata dal famoso esperimento condotto nel 1887 da A.
Michelson and E. Morley. In realtà l’esperimento fu pensato per smentire la famosa teoria dell’etere (un fluido che
avrebbe riempito lo spazio cosmico e che rappresentava una conseguenza della visione dello spazio e del tempo come
assoluti) ma Einstein ne trasse delle conclusioni per formulare la sua teoria. I due scienziati riscontrarono che il moto
della Terra relativamente al Sole (di continuo avvicinamento ed allontanamento a 30 km/s) non determina variazioni
osservabili della velocità della luce che si propaga dal Sole, mentre le due velocità si dovrebbero sommare quanto la
direzione è parallela e sottrarre quando la direzione è opposta.
Il primo punto è più complesso e la sua spiegazione richiede la piena formulazione della relatività speciale. Infatti,
con la relatività, tempo e spazio diventano relativi al moto dei sistemi fisici. Incrementare la velocità comporta la
contrazione dello spazio e il rallentamento del tempo (come anche l’accrescimento della massa). In altre parole,
a velocità elevate gli oggetti dovrebbero occupare meno volume e invecchiare meno rapidamente (un gemello che
viaggiasse nello spazio a velocità estremamente elevate risulterebbe molto più giovane dell’altro se rimasto sulla
Terra). Tuttavia, poiché la massa (che sarebbe poi la quantità di materia rispetto ad un oggetto e qui, sulla
superficie della Terra, coincide più o meno co il peso) aumenta proporzionalmente, è evidente che a velocità prossime
di quella della luce qualsiasi corpo materiale esploderebbe. Questo spiega perché la velocità della luce è la massima
raggiungibile nel nostro universo: infatti i fotoni che costituiscono la luce sono privi di massa. Einstein formulò
un’importante equazione, E = mc2 , ossia che l’energia è uguale alla massa di un corpo per la velocità della luce al
quadrato. Tale formula ci dice che la massa può essere convertito in energia e l’energia in massa. In altre parole, i
fotoni non hanno massa perché sono energia pura, in particolare sono pura energia cinetica (l’energia che determina
il moto di un sistema fisico).
19
tempo
futuro
presente
passato
spazio
Figure 18: Il presente rappresenta il vertice del cono del passato e di quello del futuro. Qualsiasi segnale o traiettoria di un
sistema fisico che ci influenza o è da noi influenzato deve rientrare in uno dei due coni. Per semplicità ho considerato uno
spazio unidimensionale (una semplice retta). I coni rappresentano lo spazio–tempo determinato dalla velocità della luce.
Il fatto che spazio e tempo siano dipendenti dalle velocità dei sistemi fisici, ha come conseguenza che non esiste
più un concetto di simultaneità assoluta nel nostro universo. Un evento che per un osservatore è accaduto prima di un
altro, per un altro osservatore potrebbe essere accaduto dopo di quest’ultimo. Infatti, noi riceviamo tutti gli effetti
da tutti gli altri sistemi fisici dell’universo più o meno distanti da noi con un caratteristico ritardo. Poiché nessun
segnale può viaggiare più veloce della luce, ogni segnale ci giunge con un ritardo temporale che è proporzionale alla
distanza di tale sistema da noi. Ad esempio, la luce del Sole (che dista quasi 150 milioni di chilometri da noi) ci
mette poco più di 8 minuti per raggiungerci, mentre la stella più vicina (che è Alpha Centuari), che dista un poco
più di quattro anni luce (ossia la distanza che la luce copre un poco più di quattro anni), ci metterà appunto un
poco più di quattro anni a raggiungerci. Reciprocamente, ogni segnale che noi intendiamo inviare a qualsiasi altro
sistema fisico giungerà con un certo ritardo in funzione della distanza spaziale che ci separa da quest’ultimo. Quindi,
un segnale inviato ora su Alpha Centauri arriverà tra poco più di quattro anni. Com’è evidente, spazio e tempo non
sono più due quantità separate ma costituiscono un unico sistema di riferimento che si chiama spazio–tempo.
Pertanto, se consideriamo la somma degli effetti degli altri oggetti su di noi come contenuta in un cono la cui
superficie è determinata dalla propagazione delle luce (ossia tutte le altre velocità sono confinate da quella massima),
questo rappresenta il cono del passato (che comprende tutti gli eventi passati che ci possono influenzare e quindi ha
come vertice il nostro presente come punto di convergenza di tali effetti), mentre se prendiamo la somma di tutti gli
effetti che noi possiamo determinare su altri oggetti questa deve essere contenuta in un cono che parte dal nostro
presente e va verso il futuro (vedi figura 18). Pertanto, un evento E1 che accade al tempo t1 potrà avere un effetto sul
nostro presente al tempo t2 in quanto ricade all’interno del nostro cono passato, mentre, supponendo che un evento
E2 accada al tempo t2 e quindi fuori dal nostro cono esso ci potrà influenzare al punto in cui il nostro percorso nello
spazio–tempo si interseca con il cono del futuro generato dall’evento E2 (vedi figura 19).
La relatività generale è una teoria troppo complicata per potere essere sintetizzata agevolmente. Qui mi limito ad
alcuni brevissimi cenni. La presenza di masse gravitazionali, soprattutto se molto grandi, induce una caratteristica
deformazione dello spazio–tempo (Einstein se ne rese conto osservando delle piccole deviazioni nell’orbita di Mercurio,
un pianeta vicinissimo al Sole). Pertanto, un raggio di luce che passa vicino a una stella con grande massa ne sarà
curvato. Inoltre il tempo, con effetti simili a quelli determinati dall’aumento di velocità, decellera in presenza di una
massa gravitazionale. Questo permette di considerare il campo gravitazionale in termini proprio di tale distorsione
dello spazio–tempo.
La teoria della relatività è importante non soltanto di per sé ma perché ha rivoluzionato lo studio della cosmologia,
o meglio: ha permesso di costituire una cosmologia moderna (un perfetto esempio di deduzione). Infatti, fino agli
20
tempo
t3
t2
nostra posizione futura
nostro presente
E2
t1
E1
spazio
Figure 19: L’evento E1 può influenzare il nostro presente ma non l’evento E2. Anche quest”ultimo ha i suoi coni del passato
e del futuro (qui in rosso per distinguerli dai nostri). Esso avrà invece influenza sul nostro futuro al tempo t3 quando la nostra
traiettoria ci porterà dal presente al tempo t2 al tempo t3 in modo da intersecarci con la superficie del cono del futuro di E2.
anni 20’ del secolo scorso nessuno dubitava che l’universo fosse essenzialmente stazionario, ossia che non mutasse mai
le sue caratteristiche fondamentali nel tempo. Invece, negli anni 20’, diversi scienziati tra cui ricordo A. Friedman
e G. Lemaitre, si resero conto che l’universo doveva essere in espansione e doveva quindi essere nato da un iniziale
evento singolare poi chiamato Big Bang (avvenuto circa 14,6 miliardi di anni fa).
Concomitantemente, tale apparato teorico permise anche di chiarire il ciclo vitale delle stelle e perfino predire
fenomeni del tutto ignoti fino ad allora come la creazione di buchi neri. Ogni stella si forma essenzialmente per
addensamento di una nube di gas di idrogeno (l’elemento più semplice in natura, con un elettrone e un protone).
Tale addensamento è determinato dalla stessa forza di gravità che tende a concentrare tutta la massa verso il suo
centro. Tale processo è lo stesso che interviene per la formazione dei pianeti, anche se in tale caso la creazione di una
massa solida a un certo punto arresta il processo. Nel caso di una stella (come il Sole) siamo in presenza di una massa
molto più grande, e arrivati a una certa soglia critica, la pressione gravitazionale che spinge gli atomi di idrogeno gli
uni contro gli altri è talmente forte da dare inizio a delle reazioni chimiche in cui due atomi di idrogeno si fondono in
un atomo di elio (composto da 2 elettroni e 2 protoni). Poiché però l’energia di un atomo di elio è inferiore a quella
della somma di due atomi di idrogeno presi separatamente, questa fusione libera energia in eccesso che noi vediamo
sotto forma di luce (e calore): ricordo infatti che i fotoni sono energia pura. Tale emissione di energia (che rende
tra l’altro possibile la vita sulla Terra) viene a controbilanciare la pressione gravitazionale verso il centro, per cui
si viene a creare un equilibrio. Ovviamente, quando quasi tutto l’idrogeno sarà consumato (nel caso del Sole tra 5
miliardi di anni), e quindi la spinta energetica verso l’esterno non sarà più in grado di controbilanciare la pressione
gravitazionale verso l’interno, la nostra stella collasserà verso il centro e poi potrà riesplodere.
Tale ciclo è essenzialmente lo stesso per tutte le stelle. Tuttavia, l’esito finale, in dipendenza dalla massa della
stella, può essere molto diverso. Se si tratta di una stella grande come il Sole l’ultimo stadio è quello di una cosiddetta
gigante rossa, una stella molto grande ma estremamente poco luminosa. Ma se la massa è molto più grande di quella
del nostro Sole (e ci sono stelle che arrivano ad essere diverse migliaia di volte il Sole), gli effetti possono essere
straordinari. Alcune di queste stelle quando riesplodono danno vita alle cosiddette novae o anche supernovae. Queste
ultime in particolare, emettono una tale quantità di energia nella loro esplosione finale da oscurare l’intera galassia
di cui fanno parte (che può contenere 100 miliardi di stelle o anche più). Ma l’esito forse più bizzarro è rappresentato
dai buchi neri, che sono il risultato di masse davvero gigantesche. L’ultimo collasso gravitazionale in tale caso non
dà vita a una gigante rossa o a una nova/supernova ma precipita verso il centro creando una tale distorsione dello
spazio tempo da creare una sorta di voragine che tutto inghiotte (perfino la luce), anche se si è dimostrato che oggetti
che vi finiscono dentro emettono dell’informazione prima di perdersi al di là. Cosa ci sia poi al di là (del cosiddetto
orizzonte degli eventi), nessuno lo sa con certezza. Si è ipotizzato che i buchi neri siano collegati con buchi bianchi,
21
z
r
y
x
Figure 20: Rappresentazione di un atomo di idrogeno: un elettrone (cerchio bianco) con carica negativa −e orbita a una
distanza r intorno ad un protone con carica positiva +e (le cariche si debbono bilanciare per rendere l’atomo stabile). Adattato
da [AULETTA/WANG 2014, p. 224].
ossia con voragini che espellono la materia invece di inghiottirla, e questi sarebbero percepiti come dei Big Bang. In
ogni caso è evidente che nel buco nero non possono vigere le leggi della fisica a noi note.
4.4
La meccanica quantistica
La meccanica quantistica (= MQ), l’altra grande novità nella fisica del XX secolo, rappresenta una enorme rivoluzione
concettuale. Infatti, essa
• Mette in luce quell’aspetto relazionale tipico dei campi e lo amplifica in una sorprendente non–località.
• Inoltre mostra l’esistenza di discontinuità in natura che fino agli inizi del secolo scorso non erano nemmeno
considerate possibili.
• Ma proprio per queste ragioni permette un trattamento unificato di luce e materia come non era mai stato
possibile in precedenza.
Partiamo dal secondo punto, che è anche il primo in ordine cronologico. Agli inizi del ’900 si era capito che l’atomo
non era cosı̀ indivisibile come si era pensato prima ma aveva una struttura che comprendeva particelle più piccole,
come elettroni, protoni e neutroni (vedi figura 20); quest’ultimi due sono costituiti da particelle ancora più piccole
(chiamate quark). La cosa sorprendente fu quando N. Bohr, basandosi su precedenti lavori di Planck, scoprı̀ nel
1913 che gli elettroni (che grosso modo ruotano intorno al nucleo composto di protoni e neutroni), non si posizionano
in modo continuo a qualsiasi distanza dal nucleo ma su specifici livelli orbitali e che possono passare a un livello
successivo emettendo (quando si avvicinano al nucleo) e assorbendo (quando se ne allontanano) almeno un fotone
[BOHR 1913]. Pertanto, il fotone rappresentava la quantità minima di energia possibile per permettere tali transizioni (discontinue). Si noti che la luce fino a quel momento, dopo gli esperimenti sulla diffrazione (su cui tornerò)
era unanimemente considerata come un fenomeno ondulatorio e quindi continuo, mentre scoprire che era composta
di particelle energetiche e quindi da quantità discrete di energia (i fotoni, appunto), era una vera rivoluzione. Di
fatto, i primi modelli che avevano ipotizzato una discontinuità dell’energia risalgono ai lavori di Planck sul corpo
nero [PLANCK 1900, PLANCK 1900], ma il pieno riconoscimento da parte della comunità dei fisici che tale discontinuità fosse un fenomeno reale, almeno a scala atomica avvenne soltanto nel 1925, allorché Heisenberg, dopo
un’accumulazione di diversi risultati sperimentali (sia con particelle materiali, sia con fotoni) che andavano in tal
senso, pubblicò un famoso articolo che permetteva di trattare in modo matematico assolutamente generale tale
22
(a)
(b)
Figure 21: Supponiamo di inviare parti-
pellets
detection
probability
waves
detection
probability
celle (a) e onde (b) attraverso due fenditure. Le particelle si distribuiranno sullo
schermo finale come due rose di pallini
da caccia (con due rigonfiamenti nei due
punti sullo schermo che si raggiungono
in linea retta partendo dalle fenditure)
mentre le onde daranno vita a tipici
fenomeni di interferenza.
Adattato da
[AULETTA/WANG 2014, p. 75].
problema [HEISENBERG 1925]. In quel momento nacque una nuova teoria. Si trattava di un perfetto esempio di
induzione.
L’altro effetto, ossia la straordinaria non–località dei sistemi quantistici è ancora più sorprendente. Per capirla,
bisogna comprendere la differenza tra particelle discrete e onde (vedi figura 21). Le onde danno luogo a caratteristici
fenomeni di interferenza: basti pensare a come le onde del mare si sovrappongono dando luogo a picchi locali molto
elevati oppure a come la luce, quando passa attraverso una persiana quasi chiusa, dà luogo a caratteristiche strisce
bianche e nere sulla parete opposta (un fenomeno noto come diffrazione): vedi figura 22. Fin qui stiamo parlando di
un fenomeno puramente classico. Ora viene la parte quantistica. Supponiamo di inviare un singolo fotone attraverso
le due fenditure. Abbiamo visto che un fotone rappresenta una quantità minima di energia che è perciò indivisibile.
Tuttavia, quando arriva allo schermo finale, si scopre che questo fotone ha dato luogo ad interferenza, e perciò deve
essere passato per entrambe le fenditure. Questo significa due cose:
• Il fotone ha dato luogo a un fenomeno di auto-interferenza (ossia di interferenza con se stesso), che è classicamente inconcepibile.
• Dato che il fotone non ha preso contemporaneamente due traiettorie localizzate (di cui potremmo seguire la
posizione punto per punto) perché non è divisibile, l’unica conclusione è che si trova in uno stato globale. Ossia
non è localizzato da nessuna parte.
Anche in questo caso, tutti i sistemi quantistici, non importa se fotoni o costituenti della materia, presentano questa
caratteristica. Di fatto essi si comportano delle volte come se fossero particelle discrete, altre come onde. La ragione di
questi diversi comportamenti è proprio nell’estrema sensibilità dei sistemi quantistici a qualsiasi dettaglio ambientale
proprio per il fatto che si trovano in uno stato globale.
La non–località dei sistemi quantistici li rende tutti sensibili gli uni agli altri e quindi interconnessi. Viviamo in
un mondo ove non è possibile separare completamente i sistemi quantistici da altri sistemi quantistici. Tale interconnesiane si chiama entanglement (intreccio). Supponiamo che due particelle siano collegate da un entanglement.
Supponiamo che ciascuna possa stare sia in un certo stato fisico UP, sia in un certo stato fisico DOWN (vedi figura
23). Se ci limitiamo a misurare localmente (indipendentemente) ciascuna delle due non ci accorgeremo di nulla di
strano. Anche se misurassimo mille particelle tutte in entanglement a coppia, vedremmo che localmente otterremmo
nella metà dei casi UP e nella metà dei casi DOWN per ciascun gruppo (come nel caso di un lancio di una moneta).
Ma se andassimo a confrontare i risultati di tutti questi lanci, resteremmo davvero sorpresi nel constatare che ogni
volta che con una ottengo UP, con l’altra ottengo DOWN, e viceversa. Infatti, se tra le due non ci fosse alcun
collegamento, mi aspetterei di ottenere in un quarto dei casi UP–UP, in un quarto dei casi DOWN–DOWN, in un
quarto dei casi UP–DOWN, e in un quarto dei casi DOWN–UP. Invece qui ho nella metà dei casi UP–DOWN e nella
metà dei casi DOWN–UP. Insomma, queste coppie di particelle sono ciascuna in uno stato globale tale che i possibili
risultati delle misurazioni locali non sono indipendenti tra loro.
C’è una conseguenza molto importante da considerare. I sistemi quantistici, in quanto globali, non predeterminano il tipo di risultato di misurazioni oppure interazioni locali. Questo l’abbiamo visto con l’esempio precedente:
l’entanglement non altera i risultati locali delle misurazioni. Questo significa che gli stati globali della MQ determinano soltanto le probabilità di determinati eventi e non il loro accadere. Sappiamo che in metà dei casi avremo UP
e in metà dei casi DOWN in base a una misura locale ma non possiamo prevedere se il prossimo risultato sarà UP o
DOWN. Questo è evidente nel caso del decadimento radioattivo (gli atomi di un materiale radioattivo si disintegrano
a mano a mano riducendone la massa). Possiamo calcolare le probabilità che una certa quantità di un materiale
23
wave 1
in-phase
superposition
wave 2
constructive interference
wave 1
out-of-phase
superposition
destructive interference
wave 2
Figure 22: Interferenza costruttiva e distruttiva. Per potere dare luogo a interferenza costruttiva le onde si devono sovrapporre
(devo essere in fase), ossia picchi di una debbono corrispondere a picchi dell’altra, per dare vita a interferenza distruttiva bisogna
che le onde siano fuori fase (a un picco corrisponde una valle e viceversa). Ovviamente sono possibili tutti i casi intermedi.
[AULETTA 2011, p. 12].
UP
DOWN
entanglement
misurazioni locali
DOWN
UP
misurazioni locali
Figure 23: Lo stato UP di una particella è collegato allo stato DOWN dell’altra e viceversa.
radioattivo ha di ridursi alla metà in un certo lasso di tempo, ma non possiamo prevedere quale atomo decadrà
quando. Questo significa che le leggi quantistiche regolano soltanto le probabilità generali del nostro universo e non
l’accadere dei singoli eventi (e pertanto la reversibilità delle leggi fisiche, che la MQ ha ereditato dalla meccanica
classica, vale soltanto globalmente ma non determina processi locali, giustificando cosı̀ l’approccio termodinamico).
Questo permette l’emergere di novità nel nostro universo che non sono prevedibili sulla base di quello che sapevamo
prima. E’ perciò la circostanza generale e basilare che spiega perché tutte le nostre teorie sono imperfette.
La MQ avrà applicazioni straordinarie di tipo tecnologico nei prossimi decenni, nel campo della fotografia, della
comunicazione telefonica o su rete, e soprattutto per i computer. Infatti, essendo in uno stato globale, i sistemi
quantistici percorrono tutti i possibili percorsi di calcolo e perciò sono in grado di fornire in miliardesimi di secondo
risposte a problemi che risultano classicamente di fatto insolubili. Pertanto l’impatto di tale teoria (come anche della
relatività) sulla nostra società e sulla nostra cultura è lungi dall’essersi esaurito. Certo, esse hanno già eroso una
visione tradizionale troppo semplicistica del mondo in cui viviamo per fare posto, anche in fisica, alla considerazione
di diversi punti di vista e perfino di diverse interpretazioni. La nostra cultura spesso interpreta tali effetti nel senso
di una condizione epistemica in cui non esiste un oggetto reale ma tutto è interpretazione, anche se questo specifico
punto di vista non è affatto una conseguenza delle rivoluzioni in fisica del XX secolo.
24
Figure 24: Schema del primo esperimento per trasmissione mentale a distanza.
5
Progressi nelle scienze neurologiche e psicologiche
E’ stato detto che questo secolo sarà il secolo della mente. Sono previsti infatti studi su funzioni e processi mentali
come coscienza o intenzionalità che potranno significativamente cambiare il modo in cui noi consideriamo la nostra
mente. Per potere capire lo specifico della mente umana è utile una breve comparazione con gli altri primati
[TOMASELLO 1999, TOMASELLO 2003]. Essenzialmente i nostri cugini primati condividono circa il 98% del
nostro patrimonio genetico, ma, sebbene le similitudini fisiche e comportamentali siano evidenti, ci sono diverse
caratteristiche umane che non sembrano avere riscontro negli altri primati. Possiamo vedere in questo un’altra
manifestazione dei processi epigenetici.
Provando a riassumere alcune delle caratteristiche che sembrano dividerci, possiamo dire che gli altri primati
non sembrano capire le intenzioni altrui. Questa è invece una caratteristica capacità umana che rende possibile
la nostra cooperazione (basti pensare a un’accademia scientifica, a un gruppo di amici, a persone che condividono
alcune preferenze, ecc.). Come ho accennato, la cultura umana è andata di pari passo con l’affermazione di uno
spirito altruistico (comunque aperto all’altro) che rende possibile la cooperazione sulla base della comprensione delle
reciproche intenzioni. Lo scimpanzé è da questo punto di vista un animale di gran lunga più egoista ed opportunista.
Sebbene possa dare vita a coalizioni sociali, il suo interesse primario è sempre il soddisfacimento dei suoi bisogni.
L’uomo, al contrario, si distingue per la capacità di reprimere in alcune situazioni i propri bisogni a favore di altri
oppure per dare luogo ad azioni o interazioni nelle quali le proprie pulsioni sarebbero di ostacolo.
Inoltre gli altri primati, sebbene usino forme di comunicazione tra loro, non sembrano in grado di impossessarsi
dei nostri sistemi simbolici. D’altra parte, questi ultimi sono intimamente legati alla cooperazione dato che, essendo
tutti i sistemi simbolici convenzionali, si basano sulla condivisione sociale di alcuni codici. Questa è una caratteristica
differenza con i sistemi di comunicazione usati dagli altri animali. Ad es., posso capire benissimo quando il mio cane
vuole fare pipı̀ (anche se si tratta di un’altra specie) mentre non capisco qualcuno che mi parla in giapponese (sebbene
sia della mia stessa specie), dato che non condivido le convenzioni linguistiche di quella comunità.
Anche le condivisione di intenzioni è cruciale per la nostra sopravvivenza, perché rende il gruppo molto più coeso
e capace di moltiplicare le proprie forze. Dieci individui che cooperano possono fare molto di più di quanto risulta
dalla somma degli sforzi di dieci individui isolati.
25
Per quanto riguarda un’altro dei tratti distintivi della mente umana, ossia la coscienza, possiamo dire che essa
rappresenta uno stato globale in cui praticamente tutte le aree del cervello sono interconnesse, il che rende possibile
che una determinata informazione, invece di essere processata in specifiche aree, diventi disponibile per l’intero
cervello e quindi capace di dare luogo a degli incroci che possono produrre punti di vista o idee del tutto nuove
[DEHAENE 2014]. E’ evidente quanto questa capacità sia cruciale per un essere che deve affrontare plasticamente le
sfide di un ambiente variabile senza potersi perciò basare su soluzioni biologicamente collaudate. Ma è anche evidente
il vantaggio adottivo di tale strategia, dato che rende possibile velocissimi adattamenti culturali e comportamentali
mentre tutti gli altri animali sono costretti ad aspettare i lunghissimi tempi dell’evoluzione per dare luogo a mutazioni
funzionalmente appropriate.
Nel futuro ci aspettiamo anche enormi progressi in alcune applicazioni tecnologiche di tali studi, specialmente in
connessione con le scienze dell’informazione. Le attuali tecnologie sono già andate molto avanti. A titolo di esempio,
cito due esperimenti recenti. In entrambi due ricercatori erano connessi a grande distanza (in un caso uno era in
Francia, l’altro in India) tramite caschi cerebrali connessi via internet. In sostanza, tali caschi sono in grado di
codificare e decodificare le onde emesse dal cervello quando pensiamo e tradurle in un linguaggio digitale tale da
favorire la comunicazione per cosı̀ dire mentale tra i due ricercatori. In un esperimento, uno dei due ha inviato un
comando (muovi il braccio) e l’altro ricercatore ha mosso difatti la mano per premere un tasto. Nell’altro esperimento
è stata comunicata una breve frase alla quale l’altro ricercatore ha risposto in modo appropriato sempre mentalmente.
Nella figura 24 si mostra lo schema del primo esperimento.
E’ evidente che tali tecnologie aprono nuovi orizzonti ma rendono possibili anche pericoli sociali e politici prima
ignoti dato che esse permettono un controllo e una manipolazione della popolazione che era impensabile fino a
poco tempo fa. Soprattutto se combinate con tecnologie quantistiche, esse possono essere uno strumento di potenza
inaudita e che, se dovesse cadere in mani sbagliate, potrebbe creare tantissime sofferenze all’umanità. E’ chiaro che
su tali questioni, che concernono il futuro di noi tutti, conviene riflettere approfonditamente.
References
[ARISTOTLE Gen. et corr.] Aristotle, De Generatione et Corruptione, in [ARISTOTLE Op., 314–338].
[ARISTOTLE Op.] Aristotelis, Opera (Ed. Immanuel Bekker), Berlin, G. Reimerum, 1831.
[AULETTA 2011] Auletta, Gennaro, Cognitive Biology: Dealing with Information from Bacteria to Minds, Oxford,
University Press.
[AULETTA 2013] Auletta, Gennaro, Mechanical Logic in three-Dimensional Space, Singapore, Pan Stanford Pub.
[AULETTA/WANG 2014] Auletta, G. and Wang, S.–Y., Quantum Mechanics for Thinkers, Singapore, Pan Stanford
Pub; doi:10.4032/9789814411721.
[AULETTA et al. 2009a] Auletta, G., Fortunato, M., and Parisi, G., Quantum Mechanics, Cambridge, University
Press, 2009; rev. paperback ed. 2013.
[AULETTA et al. 2011] Auletta, G., Leclerc, M, and Martinez, R. (Eds.), Biological Evolution: Facts and Theories:
A Critical Appraisal after 150 years after ”The Origin of Species” , Rome, G and B Press.
[BOHR 1913] Bohr, Niels, “On the Constitution of Atoms and Molecules”, Philosophical Magazine 26: 1–25, 476–
502, 857–7.
[COSMIDES/TOOBY 2000] Cosmides, L. and Tooby, J., “Consider the Source: The Evolution of Adaptations for
Decoupling and Metarepresentation”, in Sperber, Dan (Ed.), Metarepresentations: A Multidisciplinary Perspective,
Oxford, University Press: 53–115.
[COSMIDES/TOOBY 2002] Cosmides, L. and Tooby, J., “Unraveling the Enigma of Human Intelligence: Evolutionary Psychology and the Multimodular Mind”, in Sternberg, R. J. and Kaufman, J. C. (Eds.), The Evolution
of Intelligence, London, Erlbaum: 145–98.
[DARWIN 1859] Darwin, Charles R., The Origin of Species, London, Murray, 1859; Sixth edition; Cambridge,
University Press, 2009.
[DEHAENE 2014] Dehaene, Stanislas, Consciousness and the Brain: Deciphering How the Brain Codes Our
Thoughts, New York, Viking.
26
[EINSTEIN 1917] Einstein, Albert, Über die spezielle und die allgemeine Relativitätstheorie, 1917; Braunschweig,
Vieweg, 1972.
[EINSTEIN MW] Einstein, Albert, Mein Weltbild, Frankfurt, Ullstein, 1993.
[ENQUIST et al. 2007] Enquist, M., Eriksson, K., and Ghirlanda, S., “Critical Social Learning: A Solution to
Rogers’s Paradox of Nonadaptive Culture”, American Anthropologist 109: R148–149.
[FEHR/FISCHBACHER 2003] Fehr, E. and Fischbacher, U., “The Nature of Human Altruism”, Nature 425: 785–
91.
[GALILEI 1610] Galile, Galileo, Sidereus Nuncius, , rep. in [GALILEI O].
[GALILEI 1632] Galilei, Galileo, Dialogo sui Massimi sistemi, 1632, Torino, Einaudi (ed L. Sosio), 1970; rep. in
[GALILEI O].
[GALILEI O] Galilei, Galileo, Opere, Firenze, 1909.
[GILBERT 2006] Gilbert, Scott F., Developmental Biology, Sunderland, MA, Sinauer, 8th ed..
[GOLDSCHMIDT 1940] Goldschmidt, Richard B., The Material Basis of Evolution, New Haven, CT, Yale University
Press.
[HALL 1954] Hall, A. Rupert, The Revolution in Science. 1500-1750, London, Longman, 1954, 2d ed. 1962, 1983,
1989.
[HEISENBERG 1925] Heisenberg, Werner, “Über quantentheoretische Umdeutung kinematischer und mechanischer
Beziehungen”, Zeitschrift für Physik 33: 879–93.
[KAUFFMAN 1993] Kauffman, Stuart A., The Origins of Order, New York-Oxford, Oxford University Press.
[KOYRÉ 1957] Koyré, Alexandre, From the Closed World to the Infinite Universe, Baltimore, John Hopkins Press.
[KOYRÉ 1968] Koyré, Alexandre, Etudes newtoniéennes, Paris, Gallimard.
[KUHN 1957] Kuhn, Thomas S., The Copernican Revolution: Planetary Astronomy in the Development of Western
Thought, Cambridge, MA, Harvard University Press (tr. it: La rivoluzione Copernicana).
[KUHN 1962] Kuhn, Thomas S., The Structure of Scientific Revolutions, Chicago, University Press, 1962; 2nd ed.
1970 (tr. it.: La struttura delle rivoluzioni scientifiche).
[LAMARCK 1809] Lamarck, Jean–Baptiste P. A. de Monet, Chevalier de, Philosophie zoologique, ou Exposition des
considérations relatives à l’histoire naturelle des animaux, Paris, Dentu.
[LEWONTIN 1970] Lewontin, Richard C., “The Units of Selection” Annual Review of Ecology and Systematics 1:
1–18.
[MACH 1883] Mach, Ernst, Die Mechanik in Ihrer Entwicklung. Historisch-kritisch dargestellt, Leipzig, 1883, 9th
ed. Leipzig 1933; Darmstadt, WBG, 1991.
[MENDEL 1866] Mendel, Johann Gregor, “Versuche über Pflanzen–Hybriden”, Verhandlungen des Naturforschenden Vereins zu Brünn 4: 3–47.
[PEIRCE 1878b] Peirce, Charles S., “Deduction, Induction, and Hypothesis”, Popular Science Monthly 13: 470–82;
in [PEIRCE W, III, 323–38].
[PEIRCE W] Peirce, Charles S., Writings, Bloomington, Indiana University Press, 1982-, vol.s I–.
[PLANCK 1900] Planck, Max, “Über die Verbesserung der Wien’schen Spektralgleichung”, Verhandlungen der
Deutschen Physikalischen Gesellschaft 2: 202–204.
[PLANCK 1900] Planck, Max, “Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum”, Verhandlungen der Deutschen Physikalischen Gesellschaft 2: 237–45.
27
[POUPARD 1987] Poupard, Paul (Ed.), Galileo Galilei: Toward a Resolution of 350 Years of Debate — 1633–1983,
Pittsburgh, Duquesne University Press.
[RICHERSON/BOYD 2005] Richerson, P. J. and Boyd, R., Not By Genes Alone: How Culture Transformed Human
Evolution, Chicago, The University of Chicago Press.
[SCHMALHAUSEN 1949] Schmalhausen, Ivan I., Factors of Evolution: The Theory of Stabilizing Selection, Philadelphia, Blakiston, 1949; Chicago, University of Chicago Press, 1986.
[TOMASELLO 1999] Tomasello, Michael, The Cultural Origins of Human Cognition, Harvard, University Press,
1999, 2003.
[TOMASELLO 2003] Tomasello, Michael, Constructing a Language: A Usage–Based Theory of Language Acquisition, Cambridge, MA, Harvard University Press.
[WADDINGTON 1975] Waddington, Conrad H., Evolution of an Evolutionist, New York, Cornell University Press.
[WATSON/CRICK 1953a] Watson, J. D. and Crick, F. H. C., “Molecular Structure of Nucleic Acids”, Nature 171:
737–38.
[WATSON/CRICK 1953b] Watson, J. D. and Crick, F. H. C., “Genetical Implications of the Structure of Deoxyribonucleic Acid”, Nature 171: 964–67.
[WEISMANN 1893] Weissmann, August, The Germ–Plasm: A Theory of Heredity, Charles Scribner’s Sons.
28