Appunti di Filosofia della scienza (PDF Available)

annuncio pubblicitario
Appunti di filosofia della scienza
Gennaro Auletta
December 31, 2015
Contents
1 Spiegazioni tradizionali
1
2 Inferenze e associazioni
3
3 Deduzione, abduzione e induzione riformulate
3
4 Le teorie evolvono
5
5 Un universo in evoluzione
6
6 La fisica classica
7
7 Ordine e disordine in natura
8
8 Segnali e informazione
10
9 Tipi di spiegazione causale
12
10 La rivoluzione copernicana come esempio
13
11 Secondo esempio: la teoria dell’evoluzione
15
12 Terzo esempio: la meccanica quantistica
19
AVVERTENZE. La maggior parte del materiale seguente è soggetto a copyright come indicato nelle
didascalie delle figure.
Gli studenti non frequentanti che hanno problemi a seguire queste dispense dovranno scegliere e studiare
testi aggiuntivi da concordare con il docente.
1
Spiegazioni tradizionali
Tradizionalmente, ci sono essenzialmente due spiegazioni del processo della conoscenza, una induttiva, l’altra deduttiva:
• Con spiegazione induttiva di tipo tradizionale si intende che la conoscenza procederebbe dalla raccolta di fatti
per poi passare alla loro classificazione, fino poi a giungere all’elaborazione di vere e proprie leggi. Tale genere
di spiegazione è stata spesso sostenuta da filosofi empiristi. L’epistemologia del XX secolo (soprattutto i lavori
di Popper e Goodman [POPPER 1934, GOODMAN 1954]) ha mostrato l’inconsistenza di tale spiegazione.
Infatti, per qualsiasi numero di fatti, le possibili classi in cui possono essere inseriti sono praticamente infinite.
Per questa strada non si approderebbe a nulla e certamente non potremmo arrivare alla formulazione delle leggi
di natura.
• Con spiegazione deduttiva di tipo tradizionale si intende che la conoscenza avrebbe un percorso opposto, per
cui si partirebbe da leggi e principi i più generali possibili per poi formulare leggi più specifiche e determinare
opportune classi fino ad arrivare alla deduzione dei singoli fatti dell’esperienza. Tale spiegazione ha anch’essa
1
una lunga tradizione. Verso la fine del XIX secolo e gli inizi del XX, un gruppo di filosofi e matematici, tra i
quali ricordo Frege [FREGE 1884, FREGE 1893–1903] e Hilbert [HILBERT 1903], hanno tentato di derivare
tutte le scienze da fondamenti matematico-logici. In particolare, hanno preso le mosse dalla teoria degli insiemi
che rappresentava a quell’epoca la maggiore generalizzazione raggiunta dalla matematica. Per insieme intendo
una collezione di oggetti privi di relazione tra loro e accomunati dalla condivisione di una singola proprietà
(come l’insieme delle cose rosse). Tuttavia, già il filosofo B. Russell mostrava l’inconsistenza di questo tentativo
[RUSSELL 1902, RUSSELL 1903]. Infatti, poiché la teoria degli insiemi non pone limitazioni sui possibili
insiemi, posso costruire l’insieme di tutti gli insiemi che non hanno tra gli elementi se stessi, e li chiamerò
insiemi normali (ad esempio l’insieme di tutti gli oggetti rossi non è un singolo oggetto rosso), come anche
l’insieme di tutti gli insiemi che hanno tra gli elementi anche se stessi e li chiamerò insiemi anormali (ad es.
l’insieme di tutti gli insiemi è un insieme esso stesso). Ora, la domanda decisiva è l’insieme di tutti gli insiemi
normali è normale o anormale? Non può essere normale perché altrimenti comprenderebbe anche se stesso e
quindi sarebbe anormale; ma non può essere anormale perché se lo fosse non comprenderebbe se stesso e quindi
sarebbe normale. In entrambi i casi siamo di fronte a una contraddizione. Un ragionamento analogo vale per
l’insieme di tutti gli insiemi anormali.
Per quali ragioni tali spiegazioni tradizionali falliscono? La ragione del fallimento dell’induzione è la seguente: c’è
una pluralità di spiegazioni possibili per ogni fatto. La nostra esperienza è infatti sempre parziale. La ragione del
fallimento della deduzione è simile: non abbiamo una sola spiegazione dei fatti dato che da qualsiasi legge o principio
ne possono derivare una molteplicità di conseguenze e purtroppo non siamo in grado di conoscerle tutte. Pertanto
anche i nostri principi conducono a delle conseguenze che alla fine sono parziali anch’esse.
Il grande filosofo americano Charles Peirce ha tentato di ovviare a questa situazione introducendo un nuovo
concetto, l’abduzione [PEIRCE 1878]. Peirce aveva capito che il problema della conoscenza è come in ultima analisi
si è capaci di affrontare la questione delle inferenze. Per inferenza intendo una procedura tramite la quale si cerca
di derivare ciò che è meno noto da ciò che è più noto. Innanzitutto si noti che le inferenze sono alla base di
qualsiasi ragionamento, e perciò un ragionamento è semplicemente una catena più o meno lunga di inferenze più o
meno connesse. Dal suo punto di vista, induzione e deduzione (ma non intesa in senso strettamente formale) sono
inferenze. L’introduzione di una terza forma di inferenza, l’abduzione o anche ipotesi, si deve al fatto che Peirce
voleva
• Risolvere il problema della generazione di nuove idee: lo scopo dell’abduzione è proprio quello di avere a
disposizione una forma di inferenza che è inventiva; l’abduzione consiste infatti nella formulazione di un’ipotesi
per risolvere un problema, più specificamente consiste nel trovare delle nuove caratteristiche che definiscono
meglio gli oggetti in questione.
• Concepire la conoscenza come correzione di errore. Infatti, se la nostra conoscenza è parziale, il suo progresso
consisterà nel correggere quanto prima si era assolutizzato a causa proprio della limitatezza dei mezzi cognitivi
a nostra disposizione.
In questo modo Peirce concepiva il conoscere come un processo essenzialmente fallibile: ogni grado della conoscenza
contiene in sé limiti ed errori e in linea di principio può essere superato o migliorato. Tuttavia, tale continua correzione
dell’errore permette anche un progresso reale della conoscenza, e pertanto, sul lungo periodo, ci approcciamo sempre
più alla verità pur senza mai poterla raggiungere completamente. Pertanto, il fallibilismo di Peirce è una via di
mezzo tra relativismo e assolutismo (o dogmatismo).
Tuttavia, anche il contributo di Peirce, per quanto un grande passo in avanti, non risolve completamente il
problema. Ci sono infatti due questioni importanti da considerare:
1. Non è possibile dare luogo ad inferenze produttive restando solo alla struttura logica e quindi generare idee
nuove con mezzi puramente logici. Se fosse possibile, potremmo costruire computer in grado di generare automaticamente (deterministicamente) qualsiasi genere di risposta. Infatti qualsiasi processo logico (e tali processi
intervengono in tutte le inferenze) può per definizione soltanto rendere esplicito ciò che è già implicitamente
noto oppure dimostrare ciò che conosciamo già in modo imperfetto per altre vie (o meglio ancora dimostrare
l’inconsistenza di alcune presunte conoscenze), ma non può produrre idee nuove.
2. L’esperienza non è istruttiva, come capito per la prima volta dal grande evoluzionista C. Darwin. In altre parole,
l’esperienza non ci fornisce le soluzioni ai nostri problemi ma rigetta semplicemente le soluzioni inadeguate.
Pertanto essa rappresenta un feedback negativo. In altre parole, il bambino impara a camminare sbattendo la
testa. Quindi le soluzioni che possono essere trovate ai problemi sono il risultato dell’inventiva umana. Ma se
2
non c’è modo di derivarle logicamente e non possiamo nemmeno tirarle fuori dall’esperienza, a cosa si deve tale
capacità?
2
Inferenze e associazioni
Queste difficoltà ci fanno capire che siamo di fronte a un problema un po’ più grande di come avevamo immaginato
all’inizio. In tutta la sua generalità, il problema può essere visto in questo modo:
• I fatti dell’esperienza e l’esperienza stessa hanno una natura individuale. Non possiamo fare esperienza di
concetti generali, ad esempio possiamo interagire con una persona ma non con l’essere umano in generale.
Questa è la ragione per la quale è cosı̀ difficile trasmettere esperienza e in genere si può capire l’esperienza
di qualcuno soltanto se la si è vissuta in prima persona. Per questa stessa ragione l’esperienza è irripetibile.
Perfino se facciamo esperimenti di laboratorio, non effettueremo mai due esperimenti esattamente uguali (dato
che cambiano le condizioni, come gli sperimentatori, il luogo, il tempo, ecc.). Noi al massimo prescindiamo
da tali differenze perché non le consideriamo rilevanti al fine dell’esperimento, ma questo non significa che
non esistano. A cosa si deve tale individualità dell’esperienza? Al fatto che nessuna cosa che accade in
questo mondo (nessun evento) si ripete esattamente allo stesso modo. In altre parole, è la continua variabilità
dell’esperienza che ne costituisce l’irriducibile individualità. Questo punto era perfettamente chiaro a Peirce
[PEIRCE 1887–88].
• Al contrario, le leggi (e i concetti o le classi nelle quali incaselliamo i fatti dell’esperienza) sono per natura
generali. Per classe intendo un concetto più articolato di insieme: è una collezione di individui che presentano
relazioni tra loro, come ad esempio la classe dei mammiferi. Lo scopo di qualsiasi regola anche pratica è quella
di permetterci di affrontare diversi fatti dell’esperienza accomunati da caratteristiche comuni. Infatti, se ci
limitassimo soltanto all’esperienza, dovremmo ogni volta ricominciare daccapo. Invece una regola o una legge
ci permette di capire come ci dobbiamo regolare in circostanze simili. Pertanto sono assolutamente necessarie.
Ora, il problema è che non esiste una transizione diretta e semplice dai fatti dell’esperienza alle leggi o viceversa, come
l’analisi dell’induzione e della deduzione tradizionali ci ha mostrato. Quindi, come dobbiamo risolvere il problema? Il
primo passo è modificare profondamente il significato delle tre forme di inferenza (deduzione, abduzione e induzione).
Di nuovo Peirce ci ha fornito importanti elementi a questo scopo. A questo fine cerchiamo una formulazione delle
forme di inferenza che sia la più generale possibile [PEIRCE 1866]. Per potere effettuare una inferenza servono tre
ingredienti fondamentali:
1. Innanzitutto serve una legge o una regola. Infatti senza una legge o una regola, non potremmo parlare di
inferenza ma al massimo di libera associazione. Abbiamo una libera associazione quando nei nostri ricordi
intrecciamo cose soltanto perché sono capitate insieme, come quando ricordando una festa a casa di amici ci
ricordiamo anche con quale mezzo siamo arrivati. La libera associazione è perciò semplicemente una relazione
tra fatti che sussiste per la semplice ragione che sono capitati insieme o comunque in prossimità di spazio o
tempo. Pertanto è soltato una legge o una regola a conferire a un’inferenza la natura di ragionamento.
2. Tuttavia tale elemento non è sufficiente a fondare un’inferenza. Infatti, se ci fermassimo qui avremmo soltanto
prodotto l’enunciazione o la definizione di una legge, ma nessuno chiamerebbe questo un ragionamento. Pertanto
abbiamo bisogno di un secondo elemento: mostrare un ambito di applicazione (anche soltanto possibile o
ipotetico) di tale legge. In altre parole dobbiamo esibire una classe di oggetti a cui tale legge si applica, perché
se la legge non si applicasse nemmeno a una classe di oggetti non meriterebbe tale nome.
3. Ma nemmeno cosı̀ abbiamo un’inferenza perché al massimo abbiamo ottenuto l’enunciazione di una legge e la
formulazione di un esempio. Ma questo non è ancora un ragionamento. Perciò abbiamo bisogno di un terzo
elemento: mostrare che applicando la legge a quella classe di oggetti ne emergono delle conseguenze. Quindi,
una inferenza suppone delle aspettative di qualche genere.
Qualsiasi moltiplicazione di tali elementi non introduce nulla di nuovo concettualmente. Pertanto formulerò ogni
inferenza per mezzo di tre proposizioni.
3
Deduzione, abduzione e induzione riformulate
Consideriamo ora le tre forme di inferenza. Cominciamo dalla deduzione. Essa, come detto, essenzialmente esprime
un’aspettativa, che possiamo formulare cosı̀:
3
Legge Tutti gli oggetti X hanno la proprietà Y .
Ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X.
Conseguenza Pertanto ci aspettiamo che gli oggetti Z abbiano la proprietà Y .
Si noti che una deduzione esprime un’aspettativa futura (la conseguenza) sulla base di una legge (che rappresenta
una conoscenza che ci deriva dal passato) e della individuazione di una collezione Z di oggetti fatti in un certo modo.
Si noti inoltre che la proprietà Y è un insieme (oggetti disparati privi di relazione e accomunati soltanto dall’essere Y )
mentre X denota una classe, ossia, come accennato, una collezione di oggetti omogenei che condividono tantissime
proprietà (e quindi hanno tantissime relazioni). In particolare X esprime una classe di equivalenza (ossia qualsiasi
membro di questa classe è un rappresentante della stessa allo stesso titolo di un altro). La collezione di oggetti Z invece
è il gruppo di oggetti che dobbiamo specificare (identificare) e pertanto non sappiamo bene le loro caratteristiche.
Ho detto che la conoscenza è correzione dell’errore per la sua intrinseca parzialità. Pertanto, possiamo partire
dal presupposto che prima o poi un tale genere di aspettativa (che magari ha funzionato bene diverse volte) sia
smentita prima o poi. In altre parole, l’esperienza ci mette prima o poi di fronte al fatto che gli oggetti Z non hanno
la proprietà Y . Di fronte a un caso del genere, è chiaro che dobbiamo aver commesso un errore da qualche parte,
e questo errore dobbiamo correggerlo. Ora, logicamente parlando l’errore può essere soltanto nelle premesse del
ragionamento, ossia o nella formulazione della legge, e quindi nella proprietà Y , o nella scelta della classe di oggetti
X. Quale delle due?
Supponiamo che siamo di fronte a un primo e singolo caso di smentita. Si noti che qui abbandoniamo l’ambito
della certezza logica perché stiamo effettuando una valutazione che comporta sempre un margine di incertezza. In
realtà già prima c’era incertezza: infatti non c’è mai stata alcuna garanzia che l’applicazione della legge a una
determinata collezione di oggetti avremmo ottenuto il risultato sperato (dato che, ad esempio, ogni legge, per la sua
natura ipotetica, può essere falsa). Era solo la nostra fiducia nella legge (che avevamo visto funzionare bene nei casi
precedenti) che ci dava un senso di certezza che però era in parte ingiustificato. Ora, di fronte a un singolo caso, è
molto più saggio abbandonare la seconda premessa, perché la legge, proprio perché sperimentata in altri casi, è più
difficile che sia erronea oltre al fatto che, essendo più generale, è più potente.
In tale caso, facciamo un’abduzione. Tuttavia l’abduzione è un processo complesso. Logicamente parlando, quello
che facciamo è innanzitutto inferire che la definizione della classe di oggetti non è stata corretta. In altre parole,
procediamo cosı̀:
Legge Tutti gli oggetti X hanno la proprietà Y .
Negazione dell’aspettativa Ci sono oggetti Z che non hanno la proprietà Y .
Negazione dell’ambito di applicazione Ci sono oggetti Z che non fanno parte della classe X.
In altre parole, l’unico risultato cui ci può portare un’inferenza di tale genere è negativo: sulla base dell’esperienza
che ci sono delle cose Z che non sono Y , sappiamo che ci sono oggetti Z che non fanno parte della classe X. Tuttavia
nessuna inferenza ci darà mai la soluzione cercata, ossia di quale classe tali oggetti Z fanno parte. Per potere giungere
a tale risultato c’è bisogno di un’intuizione. Quell’inferenza ci può mettere sulla pista ma arrivare a tale risultato
richiede un qualcosa che non è logico ma è una libera associazione. Quando intendiamo risolvere un problema come
in questo caso alterniamo fasi conscie con fasi di rielaborazione inconscia. Diversi scan del cervello mostrano che
quando siamo coscienti tutte le aree del cervello sono eccitate [AULETTA 2011, Cap. 21]. Questo permette che tra
aree diverse si possano creare relazioni tali da generare nuove associazioni. Si dice che il chimico Kekulè cercando di
sapere quale fosse la forma della molecola di benzene abbia immaginato un serpente che si morde la cosa e in tale
modo abbia trovato la soluzione: si tratta infatti di una molecola a forma circolare. Ora, non c’è alcuna relazione
tra la molecola e il serpente se non una libera associazione. Avrebbe anche potuto immaginare un dolce a ciambella
e sarebbe giunto allo stesso risultato. Si noti che ogni associazione è per sua natura incontrollabile proprio perché
non risponde a leggi logiche. Essa semplicemente ci capita e quindi ha una fortissima componente casuale. Si può
certamente incrementare la capacità di generare le giuste associazioni grazie a una maggiore conoscenza ed esperienza
ed esercitando le nostre capacità nel risolvere i problemi. Ma alla fine, che ci si riesca o no è una questione di fortuna,
e in ogni idea geniale c’è una buona componente di fortuna.
Pertanto supponiamo che siamo fortunati e riusciamo a trovare in tale modo la soluzione. Che caratteristiche
generali deve avere? Se avevamo identificato male gli oggetti Z ritenendo che facessero parte della classe X, è evidente
che, come risultato di tale associazione, dovremo trovare una nuova classe di equivalenza X che sia la soluzione al
nostro problema. Quali caratteristiche generali deve possedere questa nuova classe? Deve essere in genere più
4
ristretta della classe X di partenza. In altre parole, deve essere più specifica (deve comprendere meno cose). Infatti,
se abbiamo commesso un errore nella identificazione dell’ambito di applicazione appropriato è perché non avevamo
scelto gli oggetti in questione in modo sufficientemente preciso. Quindi, supponendo che la nostra intuizione sia felice
(ossia che rappresenti una versa soluzione, cosa che soltanto l’esperienza successiva ci può mostrare), essa ci permette
di effettuare l’inferenza seguente:
Legge Tutti gli oggetti X hanno la proprietà Y .
Nuovo ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X .
Nuova conseguenza Pertanto ci aspettiamo che gli oggetti Z abbiano la proprietà Y .
In altre parole, concludiamo il processo con una nuova deduzione sulla base di una nuova classe di equivalenza X .
Pertanto, l’intero processo di abduzione si compone di tre fasi: 1. una fase negativa in cui inferiamo che la classe X
di oggetti che avevamo scelto non va bene, 2. una fase associativa in cui intuiamo la soluzione, ossia la nuova classe
X , e infine 3. una nuova deduzione basata su quest’ultima. Si noti che la legge non è stata minimamente toccata.
Infatti, se vale che tutte le X sono Y vale a maggior ragione che tutte le X sono Y perché la classe X è in genere un
sottoinsieme di X.
Il processo precedentemente descritto rappresenta una correzione dell’errore. Tuttavia non è la sola possibile.
Di fatto potrebbe essere che la soluzione da noi scelta ci serve ad affrontare alcune situazioni ma fallisce in altre.
Quando tali fallimenti si accumulano e addirittura riguardano diversi e disparati oggetti del tipo X (aventi diverse
caratteristiche), abbiamo ragione di ritenere che il problema non è più nello specifico campo di applicazione ma nella
legge come tale, e quindi siamo portati a percorrere l’altra strada, ossia a sostituire l’esperienza che ci smentisce alla
prima premessa. In tale caso dobbiamo effettuare un’induzione.
Pertanto una induzione si compone innanzitutto di un’inferenza inconclusiva con la forma generale:
Negazione dell’aspettativa Ci sono oggetti Z che non hanno la proprietà Y .
Ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X.
Negazione della legge La classe X non ha la proprietà Y .
Come prima, tale inferenza non ci porta positivamente al nuovo risultato ma quest’ultimo è frutto nuovamente di un
nuovo processo associativo. Se siamo fortunati, arriviamo all’individuazione di una nuova proprietà che ci permette di
formulare una nuova legge. Che caratteristiche generali deve avere questo nuovo insieme di oggetti? Poiché avevamo
trovato diversi oggetti che non rientravano sotto la legge, ne inferiamo che il nuovo insieme Y deve essere più ampio
del vecchio insieme Y . Se tutte queste condizioni sono soddisfatte, siamo in gradi produrre una nuova deduzione con
le seguenti caratteristiche:
Nuova legge Tutti gli oggetti X hanno la proprietà Y.
Ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X.
Nuova conseguenza Pertanto ci aspettiamo che gli oggetti Z abbiano la proprietà Y.
Anche qui l’intero processo induttivo comprende tre fasi: 1. una fase inconclusiva in cui inferiamo che avevamo
definito male l’insieme Y , 2, una fase associativa in cui troviamo un nuovo insieme Y, e 3. una nuova deduzione
basata su quest’ultimo. Si noti che la seconda premessa non è stata minimamente toccata.
Pertanto le tre forme di inferenze costituiscono un circolo in cui sempre nuove aspettative (e quindi anche nuove
deduzioni) vengono generate o specificando la classe di oggetti o ampliando le proprietà che determinano la legge.
4
Le teorie evolvono
Pertanto le teorie scientifiche, come tutti gli altri sistemi dell’universo, hanno un naturale ciclo che può essere
schematicamente inquadrato come una successione di tre fasi principali:
1. Quando una teoria nasce, inaugura la sua fase giovanile. In questo periodo dominano le aspettative che tale
teoria sia in grado di aprire nuovi orizzonti di comprensione e di predizione. Essenzialmente, la comunità
scientifica cerca di utilizzare il nuovo framework concettuale applicandolo a diversi ambiti e problemi con lo
scopo di derivarne conclusioni innovative. Praticamente, è una fase di espansione della teoria. La forma di
5
ragionamento dominante in questo primo periodo è la deduzione, intesa come l’aspettazione di determinati
risultati date delle ipotesi o delle leggi di carattere generale e la loro applicazione a un certo insieme di oggetti.
Questa fase corrisponde a quella che Kuhn chiama la scienza ordinaria [KUHN 1962].
2. A questa prima fase ne succede una seconda, che potremmo chiamare la fase della maturità di una teoria. E’
naturale che, nel corso delle applicazioni di una teoria scientifica a diversi ambiti problematici, emergano delle
piccole imprecisioni oppure si presentino problemi che fanno resistenza ad essere trattati con tali metodologie.
Infatti nessuna teoria o ipotesi generale (in quanto perfettibile) è in grado di descrivere compiutamente qualsiasi
genere di fenomeno all’interno del suo dominio di applicazione. Poiché la teoria in questione è stata collaudata
nella prima fase diverse volte venendo a rappresentare per tale ragione uno strumento prezioso, la comunità
scientifica cerca di risolvere tali problemi introducendo delle correzioni alla teoria, andando ad intervenire sul
modo in cui gli oggetti (gli ambiti di applicazione della teoria) sono stati definiti o classificati. La tipologia di
ragionamento che domina in questa fase si chiama abduzione oppure ipotesi [PEIRCE 1878].
3. Tuttavia, proprio per l’intrinseca limitatezza di ogni spiegazione umana, prima o poi gli errori di una teoria si
accumulano e soprattuto iniziano a riguardare molteplici e disparati ambiti di applicazione, sicché la comunità
scientifica diventa sempre più conscia che il problema non risiede nel come noi definiamo o classifichiamo gli
oggetti (o gli stessi ambiti di applicazione) ma proprio nella teoria stessa, ove assumo che una teoria è data da
un insieme di leggi o almeno di spiegazioni che hanno la natura generale di leggi. Questa è la fase della senilità
la cui conclusione è necessariamente la fine di una teoria per fare posto a una più generale o più potente o
comunque innovativa. Questa è la fase che Kuhn chiama delle rivoluzioni scientifiche. La forma di ragionamento
che domina in tale fase, si chiama induzione.
Le due ultime forme di ragionamento sono ampliative e pertanto, come abbiamo visto, sono costituite da una parte
puramente logica e da una parte intuitiva o associativa che non è soggetta alla logica.
Questo ciclo delle teorie scientifiche non implica che esse siano delle pure costruzioni arbitrarie o che siano
intercambiabili a piacimento. Intanto, sebbene non esista mai una spiegazione ottimale di alcuni fenomeni (in linea
teorica ce ne possono sempre essere di migliori), esistono di fatto spiegazioni migliori e spiegazioni peggiori. E
nessuno sceglierà queste ultime in presenza delle prime. Inoltre, sebbene il cambiamento di un quadro teorico sia
un’importante discontinuità (che ha fatto parlare Kuhn di cambiamento di paradigma), non tutti gli elementi di una
teoria superata risultano obsoleti: alcuni vengono recuperati e integrati nelle nuove teorie mentre le vecchie teorie
continuano ad essere usate in alcuni ambiti specifici perché risultano più pratiche (ad esempio la navigazione su acqua
si effettua sulla base di un’astronomia tolemaica e non copernicana). Pertanto, sebbene con un processo complesso
ed articolato, c’è un progresso reale delle conoscenze, nel senso che gli oggetti vengono sempre meglio definiti e le
leggi diventano sempre più generali.
Pertanto il difetto delle teorie idealistiche come quella di Kant è supporre che le spiegazioni scientifiche siano un
costrutto soggettivo che si impone su una natura esterna, laddove invece esse, pur restando costruzioni soggettive,
sono in realtà entità dinamiche che evolvono grazie allo stimolo correttivo dell’esperienza. Ciò che si evidenzia, invece,
è il fatto che ogni teoria scientifica, come ogni costruzione umana (anche di tipo politico o economico) presenta sempre
punti deboli e pertanto è soggetta ad avere una fine. Come vedremo questa caratteristica è in realtà comune a tutte
le cose dell’universo.
Infine, per quanto riguarda i rapporti tra la scienza e la società, sebbene, come vedremo, il progresso delle idee
scientifiche risenta del generale clima culturale e sociale e a sua volta affetti significativi cambiamenti culturali e
sociali, i rapporti non sono nemmeno talmente stretti da potere affermare che le teorie scientifiche siano il risultato
di una certa cultura (o viceversa). Infatti, le teorie scientifiche vengono in ultima analisi giudicate dalla comunità
scientifica per il loro merito, ossia per le loro capacità predittive ed esplicative, e, sebbene fattori politici o di altro
genere abbiano la loro indiscutibile influenza sulla comunità accademica, prima o poi le teorie migliori si fanno strada.
5
Un universo in evoluzione
Come accennato, le teorie scientifiche evolvono come qualsiasi altra cosa dell’universo. Anzi l’universo stesso evolve.
I principi generali dell’evoluzione sono i seguenti:
• Innanzitutto c’è una variabilità di possibili soluzioni. Senza variabilità non ci può essere evoluzione.
• Poi c’è selezione, ossia non tutte le soluzioni sopravvivono.
6
• Infine le soluzioni che sopravvivono producono effetti nel tempo. In particolare, nel caso delle specie biologiche,
gli individui che sopravvivono trasmettono il loro patrimonio genetico alla discendenza.
Riscontriamo qui aspetti che abbiamo già incontrato. Infatti abbiamo già incontrato la variabilità quando abbiamo
discusso dell’esperienza. La selezione rappresenta poi un insieme di condizioni oggettive che sono le stesse, nel caso
dell’evoluzione biologica, per tutti gli individui e per tutte le specie. Quindi esse sono universali e perciò dello stesso
tipo delle leggi naturali. Abbiamo però un elemento nuovo: la trasmissione ereditaria nel caso delle specie biologiche.
A guardare bene tale trasmissione ereditaria non ha né il carattere del primo momento, né del secondo. Poiché
si tratta degli effetti che possono essere trasmessi nel tempo, essa ha il carattere delle relazioni causali. La fisica
classica, ed in particolare la meccanica classica supponeva che le leggi di natura si identificassero con i meccanismi
causali. Tuttavia tale supposizione non ha fondamento epistemologico ed è in contrasto, come vedremo, da quanto ci
suggerisce la meccanica quantistica. Infatti, ogni relazione causale suppone non soltanto l’esistenza di leggi naturali
ma anche di precise circostanze di spazio e di tempo in cui tale processo avverrebbe come anche concernenti la natura
degli oggetti coinvolti. Queste costituiscono tra l’altro le condizioni iniziali e al contorno, ossia la situazione di fatto
quando si produce l’evento causale e il contesto in cui produce. Ma, se ammettiamo (com’è appunto il caso per i
sistemi quantistici) una variabilità irriducibile, anche tali condizioni iniziali e al contorno ne saranno soggette. Per
cui emergono due conseguenze importanti:
• Le leggi non descrivono perfettamente tale variabilità ma al massimo la probabilità che alcuni eventi accadano.
Vediamo quindi che la natura generale delle leggi e principi che noi abbiamo trovato nel meccanismo di spiegazione scientifica ha una sua controparte nel fatto che le stesse leggi che operano in natura (che le prime
mirano a descrivere, sia pure imperfettamente) presentano questa caratteristica generale oppure globale.
• Pertanto le relazioni causali sono una sorta di mediazione tra l’elemento delle leggi e l’elemento delle variazioni.
Come è possibile? Per capire questo problema bisogna capire alcune caratteristiche della fisica classica.
6
La fisica classica
Essenzialmente la meccanica calssica mirava a considerare ogni processo fisico come il risultato di interazioni locali
basate su contatto diretto: frizione, collisione, trazione, spinta ecc. In sostanza, la meccanica classica presuppone
che qualsiasi problema fisico possa essere ridotto a una forma di contatto tra due corpi. Tale approccio ai problemi
fisici implica naturalmente una metodologia riduzionista: ogni genere di problema fisico si può ridurre a interazioni
locali tra elementi irriducibili. Infatti, il sogno della meccanica è sempre stato quello di trovare costituenti ultimi ed
irriducibili del mondo fisico come corpuscoli o atomi.
Dato il suo enorme successo era naturale che si tendesse a considerare tale metodologia come universale e pertanto
si considerasse qualsiasi genere di problema (biologico, psicologico, sociale, ecc.) come riducibile in ultima analisi ad
azioni meccaniche tra elementi materiali. In sostanza, dal giusto requisito metodologico di ridurre un problema ai suoi
minimi termini oppure ai termini più semplici (che però non ci dice nulla né sulla natura delle azioni e forze in gioco,
né sul carattere degli oggetti o fattori coinvolti), si è poi passati a una visione dell’universo di genere metafisico (il
meccanicismo) che ha pesato negativamente su alcuni sviluppi della scienza, in particolare ha ritardato la costruzione
della teoria del campo elettromagnetico (le cui prima fondamenta erano state poste già nel XVII secolo) come anche
di discipline come le scienze biologiche.
Il XIX secolo è stato il secolo del trionfo della meccanica ma anche quello in cui si sono affermate due teorie che
hanno contribuito non poco a cambiare la storia del pensiero scientifico preparando la strada alle grandi rivoluzioni
del XX secolo. La prima novità concerne la termodinamica. Fino ad allora il sogno della meccanica era stato quello
della costruzione di un motore perpetuo. Infatti, le equazioni della meccanica classica sono reversibili. Ossia, in
teoria, si può partire da uno stato iniziale I di un sistema fisico e scrivere le equazioni che portano a un determinato
stato finale F , ma si può anche partire da questo stato finale F e con le stesse equazioni fondamentali arrivare
allo stato I. Pertanto, se si riuscisse a eliminare del tutto la presenza di fenomeni di dispersione energetica, un
motore potrebbe funzionare in modo perfettamente circolare autoalimentandosi. Certo ci sarebbero diversi problemi
tecnologici da affrontare e superare, ma in linea di principio la cosa era ritenuta fattibile.
La comparsa della termodinamica nella prima metà del XIX secolo, grazie ai lavori di Carnot, Clausius e Lord
Kelvin, ha infranto questo sogno per sempre. Precedentemente si considerava l’energia come una quantità fisica che
presentava essenzialmente le stesse caratteristiche in qualsiasi tipo di sistema o contesto fisico. Invece si scoprı̀ che
l’energia può esistere in diverse forme, caratterizzate da un maggiore o minore grado di disordine. In particolare, il
calore era una forma di energia molto disordinata. Si scoprı̀ che un qualsiasi motore degrada necessariamente una
7
parte della sua energia iniziale in calore, ma il calore, in quanto energia più disordinata, è meno utilizzabile per
svolgere lavoro di altre forme di energia più ordinata. A titolo di esempio, consideriamo un gas: il calore consiste
nel moto disordinato delle molecole che compongono il gas. Invece un gas che è confinato in un pistone, viene
compresso lungo una determinata direzione determinando cosı̀ un moto parallelo delle molecole lungo tale direzione.
Pertanto, il gas è qui in uno stato molto più ordinato (tutte le molecole si muovono in parallelo e non più ciascuna
indipendentemente dall’altra), e, proprio per questa ragione, è in grado di effettuare lavoro (come far funzionare un
motore).
Pertanto, trasformare parte dell’energia iniziale più ordinata in calore, significa che il sistema a mano a mano tende
a ridurre la quantità di energia con cui potere effettuare lavoro. Quindi, se lo supponiamo isolato e rimettiamo in
circolo continuamente la stessa energia, dopo un certo punto la parte rappresentata dal calore sarà tanto importante
da paralizzare il sistema per surriscaldamento. Quindi, diventa impossibile costruire un motore perpetuo. Clausius
diede il nome di entropia alla quantità che misura il disordine di un sistema. Pertanto, la cosiddetta seconda legge o
principio della termodinamica ci dice che in qualsiasi sistema isolato l’entropia non può mai diminuire ma o rimane
costante o aumenta, e in moltissime situazioni reali aumenta. Possiamo fare un esempio per capire il problema.
Per produrre una tazzina ci vuole lavoro (e quindi energia ordinata che viene anche chiamata energia libera). Ma
romperla è di gran lunga più facile (richiede molto meno lavoro) e difatti si può fare in migliaia di modi diversi
(mentre per costruirla ci sono procedure obbligate). La conseguenza è che non osserviamo mai una tazzina rotta
ricomporsi spontaneamente. Insomma, la termodinamica aveva trovato che i problemi fisici del mondo reale sono
soggetti a irreversibilità e non sono reversibili come aveva presupposto la meccanica.
Il secondo grande cambiamento riguarda la teoria dei campi, e in particolare la teoria del campo elettromagnetico,
la cui formulazione compiuta si deve al genio di J. Clerk Maxwell intorno alla metà del XIX secolo. Si è detto che
la meccanica classica contemplava soltanto interazioni locali. Questa era stata la ragione per la quale la forza
gravitazionale, che sembra agire a distanza (ad esempio, dalla Terra alla Luna), era sempre stata guardata con
sospetto e addirittura era stata considerata come una realtà non fisica verso la fine del XVIII secolo.
Quello che la forza gravitazionale rappresentava era in realtà il primo esempio di campo fisico. La nozione di campo
supponeva un’idea radicalmente nuova della fisica, come messo giustamente in luce da Einstein [EINSTEIN MW, pp.
160–61]. Basta considerare che cosa accade quando un meteorite entra nel campo gravitazionale terrestre: esso viene
prima attirato verso la Terra, deviando dalla sua traiettoria originaria, poi accelera nella misura in cui si avvicina
per poi disintegrarsi tra atmosfera e suolo se non gli accade di finire in orbita. In altre parole, il comportamento di
tale oggetto fisco (il meteorite) varia in ogni punto dello spazio e in ogni momento del tempo a seconda della sua
relazione con il centro del campo gravitazionale terrestre che coincide con il centro della Terra. Pertanto, un campo
rappresenta una rete di relazioni tra diversi punti spaziali (nel senso che allontanandoci sfericamente dal centro del
campo la forza diventa sempre più debole) e quindi è qualcosa di intrinsecamente irriducibile a interazioni locali tra
corpi materiali. Pertanto, le relazioni causali di tipo meccanico non possono essere l’unico genere di meccanismo che
opera in natura.
7
Ordine e disordine in natura
Quanto visto in precedenza ci fa comprendere che l’universo è fatto di una mescolanza di ordine e disordine. L’entropia
misura il grado di disordine e quindi esprime la variabilità locale, mentre le leggi di natura rappresentano l’ordine. A
cosa si deve questo ordine? Abbiamo il massimo grado di disordine (e quindi di entropia) quando due o più sistemi
fisici sono del tutto privi di collegamento. Come abbiamo visto, se delle molecole di gas sono libere di muoversi
ciascuna in qualsiasi direzione indipendentemente dalle altre, abbiamo un elevato disordine. Ma se riusciamo a dare
un movimento parallelo alle molecole, otteniamo un insieme molto più ordinato in grado di effettuare lavoro. E’
proprio quello che accade con un pistone di un automobile che con la sua forma cilindrica riesce ad imprimere un
movimento parallelo alle molecole di benzina e quindi attiva un motore.
Pertanto sono le correlazioni tra sistemi fisici ad essere la base dell’ordine e quindi anche delle leggi naturali. Tali
correlazioni si possono infatti tradurre in delle simmetrie ossia in delle invarianze rispetto a un qualche aspetto. Un
esempio di simmetria spaziale o strutturale è fornita dal lato destro e sinistro del corpo umano. Un altro esempio è
fornita dalla varianza traslazionale, cioè il fatto che un sistema fisico non dovrebbe mutare caratteristiche se spostato
nello spazio a parità di condizioni.
Sintetizzando, possiamo dire che ci sono due principi generali che regolano i processi naturali del nostro universo:
la continua generazione di varietà (che determina il disordine) e la continua attivazione di correlazioni e canali
privilegiati (che determinano l’ordine). Si noti che la combinazione di questi due aspetti determina uno dei fenomeni
più sorprendenti in natura: la continua generazione di strutture, di pattern. Basti pensare alle ali di una farfalla,
8
hydrogen bond
one helical turn = 3.4 nm
3’
A A
C
A
C
T C
G
A
T
G
C
T
T
G
A
A
C
T C
G
G
C
C
G
T
G C
A
G
A
C
T G
T
G A
C
T
T
G
sugar-phosphate backbone
G
T
C A
phosphate
5’
deoxirybose
G
C
A
G
base
C
3’ 5’
Figure 1: La struttura a doppia elica del DNA, la molecola che porta l’informazione genetica. I “denti” sono le cosiddette
basi che portano l’informazione genetica. Ogni dente è agganciato al suo negativo di fronte (come negativo e positivo di una
foto). I filamenti su cui sono fissati i denti sono una struttura a base di zuccheri e fosfati che si ripete identicamente. Si noti
che l’elica è un motivo strutturale (un pattern) molto comune in strutture biologiche. Adattato da [AULETTA 2011, p. 214]
alla tela di un ragno, alla pelliccia di una zebra o di un leopardo, alle figure che stormi di uccelli disegnano in cielo,
alla doppia elica del DNA (vedi figura 1). La maggior parte di queste figure o forme mostrano certamente ordine ma
nel contempo il loro ordine non è totalmente simmetrico, e viene infatti descritto matematicamente con i cosiddetti
frattali. Ossia presenta delle variazioni continue ma ricorrenti.
Pertanto il dinamismo evolutivo che abbiamo riscontrato caratterizzare tutta la natura è dovuto proprio alla
mescolanza di ordine e disordine. In particolare, tutti i sistemi naturali tendono naturalmente al degrado e pertanto
hanno una durata limitata. Tuttavia, in molte circostanze che possiamo osservare abbiamo una evoluzione nel senso
più proprio della parola: quando un sistema acquisisce comportamenti che sono più complessi rispetto agli stadi
precedenti. La complessità di un sistema consiste proprio nella maggiore capacità di integrare ordine e disordine,
ossia nella capacità di integrare ordine ma incrementando nel contempo l’ordine. Un fenomeno del genere si osserva
su scala evolutiva quando si passa dalle cellule batteriche a quelle eucariote, che compongono ad es. il nostro corpo.
Un batterio è come un sacco in cui le diverse funzioni e strutture sono messe insieme un po’ alla rinfusa, ad es. il
DNA è a contatto in permanenza con altre molecole. Tuttavia, quando si costituisce una cellula eucariota, che è nata
probabilmente dall’aggregazione di diversi batteri, emergono molte più strutture di prima. Per tale ragione aumenta
anche enormemente il numero di interazioni possibili tra queste parti e quindi si genererebbe un tale disordine da
uccidere la cellula. L’evoluzione ha ovviato a questo compartimentando le diverse funzioni e strutture di modo che
alcune di queste ultime possono interagire soltanto con alcune altre e in momenti determinati secondo una struttura
gerarchica. Ad es. il DNA è ora segregato nel nucleo e interagisce con un’altra molecola, l’RNA, soltanto in alcune
circostanze: l’RNA è la molecola che fa da tramite tra l’informazione genetica depositata nel DNA e la costruzione
finale della proteina. Pertanto, anche l’ordine è aumentato. La struttura gerarchica dei sistemi complessi ci fa capire
che essi rappresentano qualcosa di più che semplicemente dei pattern. I pattern sono per cosı̀ dire bidimensionali,
mentre la gerarchia è tridimensionale. La complessità integra differenti pattern al suo interno ai diversi livelli della
gerarchia e nei diversi moduli. Un esempio straordinario è rappresentato proprio dal modo in cui il DNA viene
integrato in altre strutture per costituire poi il genoma (vedi figura 2).
Tale crescita della complessità nel corso dell’evoluzione lo possiamo osservare chiaramente nel caso del progresso
della conoscenza: infatti teorie più generali e oggetti meglio definiti in generale implicano teorie più articolate, come
la storia stessa della scienza dimostra (e vedremo anche alcuni esempi). Ma quanto detto vale per i sistemi naturali
più in generale. Infatti, possiamo osservare un simile processo anche per l’evoluzione biologica: specie che sono
nate dopo sono in genere più complesse di specie nate prima (ad esempio i primati e l’uomo in particolare sono gli
ultimi arrivati in senso cronologico). Ma ciò vale anche su un piano cosmologico. Infatti dal Big Bang ad oggi (ossia
dall’evento che ha dato origine al nostro universo) sono stati generati prima gli atomi più semplici, poi ammassi di
tali atomi e quindi, galassie, stelle, elementi chimici più complessi, pianeti, fino ad arrivare alla vita.
Questo determina uno dei fenomeni più interessanti del nostro universo: l’emergenza [AULETTA 2015]: nuove
strutture e funzioni, generalmente più complesse, si generano da precedenti strutture e funzioni. La caratteristica
9
Figure 2: Livelli di integrazione del DNA. (1) La struttura a doppia elica del DNA. (2) Il DNA viene pii avvolto due volte
intorno a dei rocchetti chiamati istoni. (3) L’intera struttura viene condensata grazie a una proteina, la cromatina, con un
proprio centro che si chiama centromero. (4) due copie di DNA si uniscono tramite il centromero. (5) Alla fine si genera il
cromosoma (uno degli elementi del genoma) che qui viene mostrato in una fase della cosiddetta mitosi). Grazie a tale struttura
gerarchica, l’informazione contenuta nel DNA resta di fatto incapsulata (un esempio di compartimentazione) e per essere resa
operativa o attivata tale struttura deve essere spacchettata. Adattato da http://www.all-science-fair-projects.com/
science_fair_projects_encyclopedia/Chromatin.
più evidente dell’emergenza è che operazioni che ai livelli strutturali e funzionali precedenti non erano possibili, qui
diventano non solo possibili ma perfino la regola. Ad esempio, abbiamo detto che la tendenza spontanea dei sistemi
fisici è quella al disordine (tendenziale aumento di entropia). Tuttavia, nei processi organici si riscontra qualcosa di
molto diverso: un feto si sviluppa generando strutture sempre più differenziate e ordinate a partire da strutture meno
differenziate e ordinate. Ho detto che questo dipende dall’attivazione di nuove correlazioni e in particolare, come
vedremo, dallo stabilire di network. Ma il motore di tutto questo è il fatto che un organismo, grazie a tali network e
alla sua struttura complessa, è in grado di usare l’energia che prende dall’ambiente in modo efficiente. Ossia non si
limita soltanto a rispettare la legge di conservazione dell’energia (come qualsiasi sistema fisico) ma è in grado di far
valere un nuovo principio: incrementare o mantenere per quanto possibile l’efficienza energetica, ossia la capacità di
effettuare lavoro e quindi di generare nuove strutture. Possiamo vedere l’intera traiettoria di un organismo in termini
di efficienza energetica, che, ad es. nel caso umano, è massima e addirittura si incrementa nella prima fase (infantile),
arriva a una relativa stabilità nella fase matura, per poi decrescere con la vecchiaia [AULETTA 2011, Cap. 10].
8
Segnali e informazione
Se le teorie scientifiche e la loro evoluzione non sono dissimili da quanto accade per gli oggetti naturali, sorge la
domanda di cosa accomuna queste due cose cosı̀ diverse. La teoria della relatività ci dice essenzialmente che tutti gli
effetti causali possono essere intesi come propagazione di un segnale. Per segnale intendo qualsiasi variazione in un
mezzo fisico–chimico, come ad esempio un’onda. D’altra parte, come vedremo, la meccanica quantistica ci suggerisce
che tutti i sistemi quantistici siano in realtà informazione. Consideriamo l’informazione più da vicino.
Definire cosa sia informazione è un compito non facile. L’informazione richiede due condizioni (necessarie):
• Variabilità e
• Condivisione.
Non ci può essere informazione senza variabilità poiché l’informazione ha valore soltanto laddove c’è a monte una
qualche incertezza, ossia l’informazione viene proprio a supplementare dei dati mancati per rimuovere l’incertezza.
Ora, se fossimo in presenza di un fenomeno che si ripete regolarmente con certezza, non potremmo parlare di
incertezza, e perciò, per avere incertezza, c’è bisogno di variabilità. Per esempio, dire che il sole sorgerà domani non
ci fornisce informazione ma dire che domani ci sarà il crollo di un certo titolo in borsa è un’informazione preziosissima
per l’aleatorietà degli scambi economici e quindi per l’ingente massa di denaro che vi è connessa.
Ma non ci può essere informazione nemmeno senza condivisione, perché, affinché l’informazione possa essere
recepita, c’è bisogno che almeno in parte sia condivisa. Ad esempio, se qualcuno mi parla in cinese non capisco
perché io e il mio interlocutore non abbiamo una base linguistica comune. Ma se qualcuno mi parla in italiano di
una questione a me ignota, entro certi limiti sono in grado di capirla.
Questi due aspetti sono complementari, ossia sono entrambi necessari ma l’aumentare di un parametro comporta
il diminuire dell’altro.
10
• Quando noi intendiamo poi ricevere di fatto un’informazione, dobbiamo aggiungere un terzo elemento, ossia
operare una selezione tra alternative, un concetto che abbiamo già incontrato parlando di evoluzione. Nella
variabilità dell’informazione è insito il concetto di alternatività. Infatti, possiamo parlare di informazione
soltanto in termini di possibili alternative. Se intendo, ad es., comunicare qualcosa a qualcuno c’è bisogno che
ciò che dico non possa essere previsto completamente (altrimenti non catturerei l’attenzione dell’interlocutore).
Ma questo non sarebbe possibile se per ogni parola che pronuncio non ci fosse scelta tra alternative in grado
di produrre quell’incertezza che rendo quanto dico informativo. Ora, se scelgo (una parola tra le altre) sto
operando una selezione.
Questi tre aspetti costituiscono tre fondamentali operazioni o connessioni intorno all’informazione:
1. L’aspetto della variabilità è garantito dal processare informazione. Qualsiasi fenomeno anche naturale che produce variabilità può essere considerato un processore di informazione. Il caso più classico è rappresentato dai
computer, specialmente quando fanno calcoli. Ma un altro esempio è costituito dal nostro cervello che continuamente rielabora (processa) l’informazione sensoriale che riceve (ma anche quella che proviene dall’interno del
corpo). Un altro esempio è costituito da un sistema fisico che intendiamo misurare. Se non fosse una sorgente
di variabilità (e quindi un riduttore di incertezza), non avrebbe senso misurarlo.
Il concetto matematico con cui si esprime tale incertezza si chiama appunto entropia (e anche se non tutta
l’entropia qui considerata è termodinamica vale il viceversa), che si simboleggia con H. Quindi abbiamo
variabilità (e incertezza) soltanto quando c’è un certo grado di disordine.
2. Il secondo aspetto, la condivisione di informazione si esprime matematicamente con il concetto di informazione
condivisa (mutual information). Supponiamo che due persone vogliano comunicare e lo facciano con due
stringhe (successioni) di simboli come le lettere dell’alfabeto. Queste due successioni possono essere espresse
tramite due variabili (i cui valori sono le occorrenze delle stesse lettere), ad es. X e Y . L’incertezza del messaggio
comunicato dalla prima persona sarà H(X) mentre l’incertezza del messaggio della seconda sarà H(Y ). In
tale processo di comunicazione (i due interlocutori si alternano) c’è un’incertezza totale della comunicazione
rappresentata da H(X, Y ). Ora, questa quantità è data dalla somma di queste due entropie meno l’informazione
che i due partner condividono. Se i due interlocutori non condividessero alcuna informazione (rendendo qualsiasi
comunicazione impossibile), avremmo che l’entropia globale di tale processo di comunicazione sarebbe uguale
alla somma delle incertezze dei due comunicatori presi indipendentemente. Questo rappresenterebbe il massimo
del disordine possibile (e quindi il valore massimo dell’entropia globale) perché le due emissioni di simboli si
svolgerebbero in completa indipendenza l’una dall’altra. Sarebbero come due sordi che comunicano a parole.
Invece l’informazione condivisa abbassa il disordine globale in quanto crea una qualche rispondenza tra le due
serie di emissioni di suoni: i due interlocutori non sono sordi e parlano in qualche modo la stessa lingua. Se,
viceversa, entrambi gli interlocutori ripetessero all’infinito la stessa stringa di simboli (e addirittura magari è
la sola che conoscono), ci sarebbe soltanto condivisione. La variabilità sarebbe zero. Il dialogo non porterebbe
ad alcuna informazione nuova. Pertanto abbiamo trovato una quantità (l’informazione condivisa) che misura
il grado in cui c’è sia condivisione sia variabilità. Quindi l’informazione è in qualche modo un trade off, ossia
una mediazione tra questi due aspetti.
3. Infine, bisogna selezionare ossia bisogna rendere l’informazione attuale ossia effettivamente ricevuta. In tale caso
dobbiamo scegliere una delle possibili alternative che rappresenterebbe la lettura del messaggio. In sostanza,
quando acquisiamo informazione su un sistema, stiamo diminuendo il suo grado di incertezza o disordine almeno
relativamente a noi. Tuttavia, poiché ogni ricezione di informazione avviene tramite uno scambio fisico, c’è stato
effettivamente un trasferimento di informazione dal sistema oggetto a noi osservatori: c’è stata un passaggio
dall’informazione potenziale del sistema a quella acquisita di fatto da noi.
E’ grazie alla selezione di informazione, laddove c’è stato un processore di varietà iniziale e c’è una condivisione,
che possiamo acquisire informazione. Ad es., il nostro sistema percettivo riceve continuamente informazione
dall’esterno. I segnali esterni sono la sorgente di varietà. Il fatto che abbiamo dei recettori (come quelli
che sono presenti nell’organo ella vista o dell’udito), significa che condividiamo informazione con il segnale in
questione (in altri termini, le cellule che fanno da recettori per l’occhio sono fatte in modo da ricevere quelle
particolari onde elettromagnetiche). Nel momento in cui riceviamo un segnale su uno di questi recettori, il
sistema percettivo opera una scelta, ad es. decide se diversi punti luminosi sulla retina costituiscono uno stesso
oggetto oppure no. In tale modo, grazie a tutti e tre gli aspetti, abbiamo acquisito informazione.
Pertanto vediamo subito che l’informazione rappresenta proprio la mescolanza di ordine e disordine che abbiamo
considerato nel caso dei processi naturali. Inoltre, tale visione ci permette di capire la ragione delle correlazioni (e
11
qui di dell’ordine) dei fenomeni naturali: quando oggetti sono correlati essi condividono informazione. Pertanto ci
sono ragioni per credere che ovunque nel nostro universo si scambia informazione e che tali messaggi si presentino
innanzitutto nella forma di segnali fisici.
9
Tipi di spiegazione causale
Se le correlazioni sono un principio di ordine del nostro universo, c’è ragione di supporre che esse contribuiscano
alla relazioni causali che vi hanno luogo. Secondo il grande fisico M. Born, ogni relazione causale esprime un genere
di dipendenza [BORN 1949]. Ora, le cause tradizionalmente discusse in fisica classica sono le cause meccaniche.
Queste sono chiamate da Born cause temporali perché c’è una successione. Esse sono per natura dinamiche, ossia,
data la causa ne consegue l’effetto. Ma c’è un altro significato, atemporale, proprio quello dato dalle correlazioni.
Infatti anche qui abbiamo un dipendenza ma tale dipendenza non è dinamica ma è solo il fatto che un oggetto non
è indipendente da un altro. Ma allora in cosa consiste questo fattore causale? Faccio un esempio. Il modo in cui
sono disposti gli alberi in una foresta è un esempio di correlazione. Ad esempio possono costituire una barriera. Ora,
se c’è un agente fisco in azione, ad es. il vento (che qui è una causa dinamica e meccanica), tale azione può essere
bloccata dalla barriera o meglio canalizzata lungo alcune direzioni (in fondo anche bloccarla è una canalizzazione).
Pertanto l’effetto di canalizzazione che si produce non avrebbe luogo senza la barriera, e perciò quest’ultima è un
fattore causale. Tuttavia la barriera da sola non fa nulla, è una struttura inerte, e pertanto deve essere attivata
da una qualche causa meccanica per potere svolgere un’azione causale (in tale caso sfrutta il principio fisico di
azione–reazione).
Ora, quando un segnale si propaga, siamo certamente in presenza di un’azione meccanica. Tuttavia, se questo
segnale viene recepito da qualcuno c’è bisogno di un contesto appropriato, ad esempio di organi o apparecchi adatti
per la ricezione di quel segnale. E tutte queste condizioni (al contorno) sono appunto correlazioni. Pertanto, qualsiasi
acquisizione di informazione nel nostro universo avviene grazie alla combinazione di cause meccaniche e correlazioni.
Ma poiché ho accennato che tutti i processi causali sono in ultima analisi scambio di segnali, allora questo vale per i
processi causali in generale. E questo spiega perché i processi causali siano diversi sia dalla semplice variazione sia
dal semplice ordine delle leggi.
Per distinguere le correlazioni come cause dalle cause meccaniche chiamiamoli vincoli formali. Uno dei fenomeni
più interessanti in natura è quando un numero elevato di sistemi interagiscono. Infatti si stabiliscono spontaneamente
diverse correlazioni. L’incrocio di tutte queste correlazioni genera un network, ossia una rete in grado di generare
effetti interessanti: vedi [AULETTA 2011, Cap. 6] e letteratura ivi citata. Abbiamo un impressionante numero di
esempi di network del genere, basti pesare a un sistema ecologico, a una società umana, all’economia. Un network
presenta alcune caratteristiche generali molto importanti. Come conseguenza dei due principi generali che abbiamo
già sintetizzato, ossia la generazione della varietà e l’attivazione di correlazioni e canali privilegiati, abbiamo che i
network sono governati da due regole: continua aggiunta di nuovi nodi e collegamenti preferenziali (di regola i nuovi
nodi si attaccano ai nodi già esistenti che sono meglio collegati). In tale modo, si creano spontaneamente degli hub,
ossia dei nodi che sono nevralgici per il funzionamento dell’intero network. Questo introduce di nuovo un elevato
grado di ordine in presenza di un potenziale disordine. La compresenza di questi due aspetti genera la plasticità del
network. In altre parole, se un network viene danneggiato (ad esempio dei nodi e quindi delle connessioni vengono
distrutti) il network può continuare a funzionare in modo pressocché immutato purché non si toccano gli hub. Ma
poiché questi ultimi sono pochi (proprio perché ci sono canali privilegiati che determinano una specie di processo
selettivo) è improbabile che questo accada.
Quando esistono dei network si generano nuovi e interessanti processi causali. La canalizzazione dei processi
meccanici prodotta dai vincoli formali determina una situazione in cui gli stessi processi meccanici di ordine ad
esempio fisico-chimico vengono sistematicamente e coordinatamente indirizzati o addirittura orchestrati in un certo
modo. Questa è di nuovo una conseguenza naturale della generazione spontanea di hub. Ad esempio, prendiamo
il sistema metabolico di un batterio (il più semplice organismo vivente). Innanzitutto si noti che ogni network
metabolico può essere “inquadrato” in una struttura generale che per cosı̀ dire è comune a tutti i viventi, come
mostrato in figura 3. Considerato l’enorme numero di sostanze chimiche e molecole presenti si potrebbe generare
un numero catastrofico di reazioni chimiche incontrollate. Invece se ne genera un numero enormemente più ridotto
e si tratta sempre delle stesse reazioni ripetute ciclicamente. Ad esempio, il numero di proteine che si potrebbero
produrre è stato calcolato di essere dell’ordine di 10390 (ossia un miliardo moltiplicato per se stesso più di 43 volte:
si pensi che il numero di particelle a noi note dell’intero universo è probabilmente sotto a 10100 ), ma quelle che di
fatto si producono nell’organismo più complesso che c’è, l’uomo, sono “appena” tra 106 e 108 (ossia tra un milione
e 100 milioni).
12
Figure 3: La complessisima struttura generale del metabolismo. Adattato da http://www.genome.jp/kegg/pathway/map/
map01100.html.
In tale modo si producono degli effetti causali che sono chiamati top–down (dall’alto verso il basso), ossia un
network a un livello più alto di una gerarchia di un sistema complesso come una cellula insieme a reazioni fisicochimiche spontanee genera degli effetti “pilotati”, ossia effetti che sono compatibili con la stessa sopravvivenza del
network e dell’intero sistema (la cellula) [AULETTA et al. 2008]. Tali processi causali sono ovviamente emersi nel
corso dell’evoluzione e una delle più chiare manifestazioni è proprio l’efficienza energetica, che non sarebbe possibile
senza forme di causalità top–down.
10
La rivoluzione copernicana come esempio
La visione cosmologica che ha dominato per molti secoli è quella ereditata da Aristotele e Tolomeo. Il cosmo
aristotelico si presenta, a livello descrittivo, come un sistema di sfere concentriche fatte di un materiale particolare
chiamato cristallino (o quintessenza), il cui centro è costituito dalla Terra. La più esterna è appunto quella delle stelle
fisse, cosı̀ chiamate perché, pur modificando la loro posizione nel corso dell’anno terrestre, mantengono intatte le loro
posizioni relative. Andando verso l’interno troviamo la sfera del pianeta più lontano dalla Terra (per le conoscenze
dell’epoca): Saturno. I pianeti (pianeta = errante), a differenza delle stelle fisse, mutano di continuo la loro posizione
relativa. Poi c’è la sfera di Giove, seguita da quella di Marte. Dopo Marte c’è la sfera del Sole, che comprende quella
di Venere e poi quella di Mercurio. Infine l’ultima, sfera, quella della Luna, avvolge direttamente quello che possiamo
chiamare oggi ‘il sistema terrestre’.
Il movimento circolare delle sfere si trasmette continuamente dall’esterno verso l’interno per contatto diretto tra
sfera e sfera: infatti, secondo Aristotele il movimento di un ente ha bisogno di essere continuamente alimentato da
qualcosa d’altro già in movimento e, d’altra parte, se cessasse il contatto diretto, cesserebbe anche la comunicazione
del moto. Allora cosa fa muovere la sfere delle stelle fisse, da cui prende origine il moto delle altre? Aristotele dice:
Dio. E’ l’attrazione che egli, perfetto, esercita sul finito a produrre il moto. Né ha creato l’universo, che coesiste
eternamente con Dio e da questo è eternamente mosso nel modo descritto.
Naturalmente la visione del cosmo prima descritta, pur presentando qualità di semplicità ed esplicatività, non
13
poteva risolvere di per sé moltissimi problemi di ordine astronomico. E qui inizia lo sviluppo di una scienza astronomica in parte autonoma che poi troverà il suo corononamento nell’Almagesto di Tolomeo (II secolo d.C.).
Figure 4: Retrocessione del moto di Marte. Adattato da [KUHN 1957].
Per capire i problemi maggiori bisogna considerare brevemente la situazione del sistema planetario cosı̀ come
la conosciamo oggi. Il Sole occupa una posizione centrale mentre i vari pianeti compiono intorno ad esso un moto
di rivoluzione. Partendo dal più interno, c’è prima Mercurio, poi Venere, quindi la Terra (intorno a cui orbita la
Luna), quindi Marte, Giove e Saturno (a cui si aggiungono i pianeti scoperti successivamente, quali Urano, Nettuno
e Plutone). Ovviamente a mano a mano che ci si allontana dal Sole le orbite diventano sempre più grandi e
quindi richiedono intuitivamente periodi di rivoluzione orbitale sempre più lunghi (considerando tra l’altro che, come
stabilisce la III legge di Kepler, la velocità dei pianeti diminuisce con l’allontanarsi dal Sole). Cosı̀ mentre Mercurio
percorre la sua rivoluzione in 88 giorni terrestri e Venere in 225, Marte in 687 giorni, Giove in quasi 12 anni terrestri e
Saturno in più di 29. Inoltre le orbite non sono perfettamente circolari (infatti sono ellittiche: è la I legge di Kepler).
Figure 5: L’epiciclo. Adattato da [KUHN 1957].
Quindi il principale dei problemi che si presenta per l’astronomo aristotelico è il moto retrogrado dei pianeti.
Infatti, nella realtà astronomica cosı̀ come la conosciamo oggi, abbiamo visto che la Terra ruota intorno al Sole
occupando la terza orbita planetaria partendo dall’interno e che quindi, nel suo moto di rivoluzione, è sorpassata
continuamente da Venere e sorpassa continuamente Marte. Ciò significa, prendendo il caso di Marte, che mentre dal
I aprile al I giugno il pianeta rosso si muove apparentemente con un movimento diretto ad est sulla volta stellata,
14
successivamente inverte il proprio moto in direzione ovest, per poi ritornare dopo il I agosto al suo moto ‘normale’,
descrivendo cosı̀ un cappio (vedi figura 4). Questa improvvisa retrocessione, o inversione di movimento deriva appunto
dall’essere stato superato dalla Terra (è lo stesso effetto che si prova quando il treno su cui viaggiamo supera un altro
treno e questo ci sembra muoversi in direzione contraria alla nostra).
Sin dal III-II secolo a. C. Apollonio e Ipparco introdussero degli artifizi matematici in grado di riprodurre tale
comportamento anomalo senza mutare l’essenziale della concezione aristotelica. La soluzione da essi introdotta si
chiama epiciclo. Come dice la stessa etimologia si suppone che il pianeta (ad esempio Marte) non sia collocato
nell’orbita che gli veniva tradizionalmente assegnata ma orbiti descrivendo un cerchio più piccolo (appunto l’epiciclo)
intorno a un punto assegnato dell’orbita suddetta (chiamata deferente). In tal modo, grazie alla combinazione del
moto del deferente e dell’epiciclo si può descrivere un movimento che presenta dei cappi esattamente come quelli di
fatto osservati (vedi figura 5).
Si noti che quello che gli astronomi stavano facendo erano appunto delle abduzioni: pur restando la Terra al centro
del sistema e mantenendo la circolarità delle orbite, queste venivano specificate in modo sempre più particolare.
Questa e simili soluzioni tecniche presentano però diversi problemi. Innanzitutto è difficilissimo accordare da un
punto di vista filosofico l’idea di un epiciclo con quella delle sfere di cristallino: infatti il pianeta dovrebbe in realtà
sfondare diverse volte la sfera di cristallino ‘uscendone fuori’ ed ‘entrandone dentro’, il che appare del tutto assurdo.
Ma ci sono soprattutto rilievi epistemologici. Tutte le soluzioni di questo genere, prese isolatamente, non permettono di rendere conto delle irregolarità dei moti planetari, derivanti sia dalla diversità dei periodi orbitali sia
dalla ellitticità delle orbite. Quindi, con il passare del tempo, e soprattutto con l’accrescersi della precisione nelle
osservazioni astronomiche e della massa dei dati a disposizione, i diversi metodi furono sempre più combinati tra loro
per rendere ragione di sempre nuove irregolarità, dando origine a soluzioni in cui, ad esempio, un epiciclo ruotava
intorno a un punto dell’orbita di un altro epiciclo, e cosı̀ via. Il sistema dell’astronomia tolemaica diventava sempre
più complicato, venendo cosı̀ a perdere un elemento fondamentale della costruzione aristotelica: la semplicità. Questo
è un punto decisivo dato che una teoria è efficace solo in quanto risulti essere considerevolmente più semplice della
realtà che intende descrivere. Oltre un certo punto critico la teoria cessa di avere un significativo potere esplicativo
e diventa al limite inutilizzabile. Siamo entrati qui già nella fase della senilità di una teoria, dove a lungo andare si
rendono necessari processi induttivi.
Il secondo rilievo epistemologico è che tutte le soluzioni elencate in precedenza sono soluzioni ad hoc, ossia artifici
tecnici per far quadrare i conti. Tuttavia, una vera soluzione non serve per far quadrare i conti rispetto a quello
che già si sa e non si riesce a spiegare ma per portare alla scoperta di fenomeni nuovi ossia ignoti in precedenza. In
altre parole, come accennato più sopra, le teorie si giudicano in base alla loro fertilità o rispetto alle aspettative che
generano. Questo di fatto è in particolare vero per la prima fase delle teorie, ma ci aspettiamo da qualsiasi teoria
tali caratteristiche.
Qui si inserisce la rivoluzione copernicana, il completamento induttivo di tale processo. La rivoluzione copernicana
è stata a tutt’oggi la più grande rivoluzione scientifica mai avvenuta, e ha preso le mosse dalla pubblicazione postuma
nel 1543 del De revolutionibus orbium coelestium di Nicolò Copernico. Anzi, per molti, è stata la rivoluzione che ha
posto le basi di ciò che noi oggi chiamiamo scienza. Questo è vero ma, come ricordato nell’introduzione, alcune parti
della visione aristotelico-tolemaica non sono state del tutto abbandonate o rese invalide, e alla stessa rivoluzione
copernicana ci si è arrivati tramite un complesso processo che ha visto all’opera diversi studiosi già nel medio evo.
Pertanto anche qui c’è una certa continuità.
Copernico era confrontato con una tradizione che offriva una accozzaglia di soluzioni ad hoc, spesso in contrasto
tra loro e comunque poco armoniche e poco semplici. C’erano addirittura diverse tradizioni astronomiche spesso
confuse tra loro. Inoltre, come abbiamo visto, gli errori si erano venuti accumulando nel tempo, per cui l’astronomia
tolemaica appariva sempre più inadeguata. Infine la successiva introduzione di nuovi strumenti tecnici (il cannocchiale) permetteva di rilevare con ancora più acutezza gli errori nelle previsioni tolemaiche. Quella di Copernico è
innanzitutto una nuova soluzione matematica che intende rispondere alle esigenze estetiche di armonia e semplicità.
11
Secondo esempio: la teoria dell’evoluzione
Verso la fine del XVIII secolo era crescentemente chiaro che la Terra aveva una sua storia. Il ritrovamento di fossili
su montagne come le Alpi suggeriva che in passato tali aree erano immerse nel mare. Inoltre suggeriva che fossero
esistite in passato specie successivamente estinte.
Tuttavia, la prima di idea di evoluzione biologica viene espressa da un grande naturalista francese agli inizi del
nuovo secolo, Lamarck. Lamarck aveva capito che le diverse funzioni e caratteristiche biologiche che noi osserviamo
negli odierni organismi erano evolute e che quindi le stesse specie biologiche dovevano avere subito significative
15
trasformazioni nel tempo e perfino nascere ed estinguersi. Lamarck aveva anche capito che l’ambiente era in qualche
misura responsabile di tali processi.
Per spiegarli, elaborò un modello secondo il quale l’ambiente influisce sugli organismi spingendoli ad acquisire
o perdere determinate funzioni o caratteristiche. Uno degli esempi diventati più noti è quello del collo delle giraffe. Questi animali dovevano avere allungato il collo a seguito di precedenti mutamenti del loro ambiente che
avevano portato gli alberi di cui si cibavano a crescere in altezza. Per potersi tenere “al passo” le giraffe avevano
conseguentemente e progressivamente allungato il collo diventando una specie distinta a partire da un antenato più
simile all’attuale zebra.
Sebbene l’idea generale di evoluzione fosse abbastanza chiara in Lamarck e sebbene egli abbia anche definito
abbastanza bene la nozione di specie biologica sessuata nei termini di una comunità di individui capaci di relazioni
riproduttive e quindi di generare una discendenza, la sua visione del meccanismo dell’evoluzione era essenzialmente
scorretta e bisognerà attendere Darwin per la soluzione del problema.
Darwin, il grandissimo naturalista inglese che ebbe tra l’altro la possibilità di fare osservazioni sul campo alle
isole Galapagos (e in presenza di una ricchissima varietà di specie viventi), comprese due cose fondamentali che sono
poi diventate costitutive della teoria dell’evoluzione come la conosciamo ancora oggi [DARWIN 1859] (si noti che
anche un suo contemporaneo, Alfred Wallace, arrivò a una soluzione simile):
• Le specie viventi discendono tutte da un comune antenato unicellulare per successive ramificazioni dovute ai
processi di speciazione. Oggi si preferisce parlare più di una comunità di cellule originarie ma l’idea fondamentale
è rimasta immutata.
• In secondo luogo Darwin aveva osservato come venivano selezionate nuove specie sia da allevatori che da
coltivatori. Immaginò che un meccanismo simile doveva essere al lavoro in natura, sebbene in assenza di un
piano e quindi in forme casuali e spontanee. Darwin si rese conto che la selezione di una specie nuova da parte
di allevatori e coltivatori avveniva eliminando le varianti che non presentavano le caratteristiche desiderate. Ma
questo significava selezione tra un numero di varianti già presenti nella popolazione.
Da quest’ultimo punto Darwin trasse la corretta conclusione che l’ambiente non poteva avere una funzione istruttiva
(non poteva determinare positivamente le caratteristiche di una specie), come aveva pensato Lamarck, ma doveva
svolgere una funzione negativa di eliminazione di quelle varianti (la cui generazione avveniva in modo indipendente
dall’ambiente) che risultavano incompatibili con le condizioni ambientali. In altre parole, le varianti biologiche erano
generate per processi endogeni e quindi indipendentemente dall’ambiente.
Darwin non fu in grado di indicare un meccanismo biologico che rendesse conto della generazione delle varianti. Tuttavia, su tali basi, egli elaborò l’articolazione del meccanismo fondamentale che è alla base non soltanto
dell’evoluzione biologica ma di qualsiasi evoluzione in generale, che abbiamo già visto più sopra: la successione
variabilità–selezione–trasmissione.
Infatti, la teoria dell’evoluzione Darwiniana ha ormai ricevuto conferme di vario genere e pertanto è oggi una
delle colonne portanti della biologia e quindi della scienza contemporanea in genere. Ma proprio perché è una teoria
scientifica, è stata innanzitutto soggetta a integrazioni e correzioni di tipo abduttivo. La prima grande integrazione
riguardava i meccanismi biologici che rendevano possibile la variazione. Abbiamo visto che Darwin non aveva una
spiegazione. Tuttavia, pochi anni dopo la pubblicazione de Le origini, un monaco moravo che si occupava del giardino
del monastero e in particolare dell’incrocio tra piante di piselli, si rese conto di un fenomeno straordinario: alcuni
caratteri che in un certo numero di generazioni non si manifestavano, all’improvviso ricomparivano. Supponendo che
la “mescolanza“ di caratteri biologici avvenisse secondo il modello continuo della mescolanza di fluidi, un carattere
assente per diverse generazioni avrebbe dovuto stemperarsi a mano a mano (come quando diluiamo progressivamente
un certo concentrato con acqua) fino a sparire del tutto. Il fatto che invece i caratteri ricomparissero suggeriva che
questi stessi fossero regolati da unità discrete la cui combinazione dava origine alle funzioni e strutture biologiche che
noi osserviamo. A tali unità discrete viene poi dato il nome di geni, anche se la scoperta della molecola, il DNA, di
cui essi sono costituiti, è molto successiva e risale agli anni ’50 del secolo scorso: vedi figura 1. Si noti che siamo di
fronte nuovamente a un tipico processo abduttivo. La scoperta di Mendel non mette in alcun modo in discussione la
teoria darwiniana ma precisa soltanto il suo meccanismo biologico specificando che la determinazione biologica e le
mutazioni di base non avvengono a livello delle funzioni dell’organismo ma a livello dei geni, i quali processi hanno
poi come conseguenza anche gli effetti osservabili sull’organismo, compresa l’evoluzione delle specie.
L’integrazione del contributo di Mendel nella teoria dell’evoluzione e la formulazione delle basi di quella che
poi sarebbe diventata la teoria sintetica oppure neo–darwiniana, si trovano già nell’opera di Weismann alla fine del
XIX secolo, ma la storia di tale sintesi è molto più lunga e complessa dato che ha dominato in realtà la biologia
evoluzionistica almeno fino agli anni ’70 del secolo scorso. Nel corso di questo lungo arco di tempo tale teoria è
16
consolidata ed è venuta caratterizzandosi per diversi elementi chiave, alcuni dei quali possono essere sintetizzati cosı̀
(su questi problemi vedi [AULETTA 2011, parr. 9.2–9.4, 9.8] con letteratura ivi citata):
• Il fatto che i geni sono distinti dai caratteri biologici osservabili suggerisce una netta separazione tra la dimensione genetica e la cosiddetta dimensione somatica che comprende tali fattori osservabili. Sebbene giusta in sé
e sebbene sia giusta anche la conseguenza (che l’informazione si trasmette dai geni verso le proteine e le cellule
somatiche e non vice versa), tale approccio ha comportato una conseguenza di non poco conto: una visione
essenzialmente genetocentrica che ha fortemente ritardato non soltanto il sorgere di una biologia dello sviluppo
ma anche la comprensione dell’intreccio di tali processi con quelli evolutivi.
• Probabilmente ancora influenzati da una visione meccanicistica dell’universo fisico, i protagonisti di tale sintesi
tendevano a porre una accento esclusivo sulla selezione naturale come unico fattore responsabile della speciazione e dell’evoluzione biologica. Tuttavia diventava difficile spiegare sulla sola base della selezione l’emergere
di strutture e funzioni di grande complessità. C’era in qualche modo un anello mancante tra le variazioni endogene e casuali, da una parte, e la selezione, dall’altra. Cone conseguenza, alla selezione naturale si finiva per
attribuire un significato non soltanto negativo (come era ancora vero per Darwin) ma addirittura un infondato
carattere creativo.
Con estrema laboriosità, a mano a mano si è imposta una visione più plastica e matura: si veda [AULETTA et al. 2011]
per una sintesi. Vediamone brevemente i punti qualificanti.
Il grande evoluzionista Waddington si rese conto già negli anni ’40 del secolo scorso che i processi di sviluppo
(anche chiamati epigenetici) debbono risultare cruciali per l’evoluzione delle specie [WADDINGTON 1975]. Di fatto,
il DNA codifica per l’informazione che dà luogo alla costruzione delle proteine all’interno delle cellule. Le proteine
sono ovviamente cruciali per la vita in quanto forniscono il materiale per moltissime strutture biologiche e sono un
po’ come le operaie delle cellule. Tuttavia le proteine non rappresentano affatto le funzioni superiori di un organismo
(come il metabolismo o la respirazione) per non parlare della struttura generale dell’intero organismo. Se questo è
vero già per organismi unicellulari, diventa drammaticamente vero per organismi multicellulari. Pertanto a mano a
mano si comprese che la visione genetocentrica era insufficiente e perfino sbagliata. La nuovo visione teneva conto
del fatto che l’informazione genetica è al massimo responsabile dell’“accensione” iniziale del processo di sviluppo
(anche se perfino in questi stadi iniziali fattori epigenetici sono già importanti), ma a mano a mano che l’organismo
si sviluppa lo fa in un complessissimo processo di segnali (sia scambiati al suo interno, sia con l’ambiente) che di
continuo accendono e spengono particolari geni a seconda delle strutture che debbono costruire [GILBERT 2006].
Ad esempio, un seme di una pianta inizia il processo di sviluppo soltanto quando appropriate condizioni ambientali
(ad es. in termini di temperatura ed umidità) sono presenti.
Ma in tale modo non è il patrimonio genetico che l’evoluzione “sceglie” tramite la selezione naturale quanto piuttosto un co–adattamento tra organismo ed ambiente, e tale processo di co–adattamento è una nuova manifestazione
della rilevanza causale delle correlazioni in termini di vincoli formali. I tempi estremamente lunghi della selezione
naturale si giustificano proprio perché tale co–adattamento è un processo delicato e difficoltoso. Tale visione permette di comprendere che gli organismi non sono semplicemente il sostrato passivo su cui interviene la selezione
naturale (come ancora riteneva il neo–darwinismo) ma sono fattori cruciali del processo di co–adattamento proprio
in quanto modificano attivamente l’ambiente stesso. Dato che l’organismo è essenzialmente una “costruzione” a
partire dall’informazione genetica, si capisce perfettamente che le maggiori novità biologiche (le famose mutazioni)
come anche l’effetto della selezione naturale debbano essere cruciali proprio nella fase dello sviluppo.
Si noti che in origine qualsiasi stimolo ambientale è di per se negativo, come Darwin aveva capito. E’ soltanto grazie
al processo di co–adattamento che tale stimolo può essere successivamente “piegato” alle esigenze dell’organismo.
Ad esempio, l’ossigeno è dannoso alla vita tanto che una delle cause maggiori dell’invecchiamento è la crescente
ossidazione delle cellule e tessuti. Tuttavia, nel momento in cui (circa 600 milioni di anni fa) le piante verdi hanno
colonizzato la terra ferma venendo ad immettere ossigeno nell’atmosfera, tutti gli animali terrestri (che avevano
colonizzato le terre emerse parallelamente) hanno fatto dell’ossigeno il loro principio vitale tramite la respirazione.
Ma qual è il meccanismo che permette una tale magia? E’ qui che entra in gioco l’altro cruciale fattore:
l’autorganizzazione [KAUFFMAN 1993]. La materia vivente è un sistema complesso ove le relazioni tra componenti giocano un ruolo decisivo. Sebbene diverse strutture potrebbero essere in parte danneggiate senza incidere
in modo sostanziale sulle capacità funzionali dell’organismo, resta pur vero che i vincoli che tali relazioni creano
determinano un sistema di gerarchie e controlli che, se alterato, ha bisogno necessariamente di ristabilire nuovi livelli
gerarchici e di controllo per potere sopravvivere [AULETTA 2011, capp. 8 e 11].
In tale modo il processo di speciazione può spiegarsi come un’alternanza di fasi casuali e processi di riorganizzazione. Possiamo ipotizzare che in una fase iniziale determinate mutazioni ambientali (ma anche endogene) creano
17
uno squilibrio nell’organismo (in una specie determinata). Poiché l’organismo tende a preservare il proprio stato
di equilibrio (la sua omeostasi), esso cercherà di reagire (soprattutto nella fase dello sviluppo) in modo tale da
contrastare la tendenza al tracollo. In generale può reagire o con nuove mutazioni genetiche o con espressione epigenetica di parti del genoma che fino a quel momento non erano state espresse. E’ stato dimostrato da Waddington che
moscerini da frutta sottoposti a stress ambientali aumentano la variabilità genetica. Pertanto, possiamo supporre
che in un modo o nell’altro l’organismo (almeno alcuni rappresentanti di una specie) siano in grado di generare in
tale modo modifiche suscettibili di dare vita a nuove funzioni. Poiché però tali iniziali mutamenti sono avvenuti in
modo casuale, è molto difficile che essi abbiano generato una risposta appropriata o completa in termini funzionali.
Pertanto l’organismo si ritrova di fronte alle necessità di riorganizzare epigeneticamente le sue strutture e funzioni in
modo tale da potere integrare tali modifiche. Tuttavia, a causa della insufficienza delle stesse mutazioni iniziali, tale
processo non si può concludere subito in modo soddisfacente. Se l’organismo sopravvive, esso o un suo discendente
ha bisogno di rinsaldare il suo equilibrio e di rendere più efficienti le soluzioni dando vita a nuova variabilità genetica.
E il ciclo ricomincia daccapo. In tale modo, l’organismo può arrivare a soluzioni che rappresentano tutto sommato
un ragionevole compromesso in termini di una buona stabilità.
Tre cose vanno notate in questa sede:
• La soluzione che in tale modo si raggiunge non è mai una soluzione ottimale, come era già implicito nell’idea
di una selezione negativa propugnata da Darwin. E’ soltanto una soluzione che funziona. Ce ne potrebbero
sempre essere di migliori. D’altra parte, una soluzione ottimale sarebbe pericolosissima per la vita. Infatti,
significherebbe un sistema perfettamente adattato a un certo ambiente e pertanto esposto all’enorme rischio di
essere subito eliminato al variare delle condizioni ambientali. La vita è perciò costretta soluzioni come si dice
sub–ottimali.
• Poiché qualsiasi genere di modifica è sempre pericolosa e soprattutto quella o quelle che riguardano livelli
gerarchici superiori o funzionalità più fondamentali, la vita è estremamente conservativa e, sebbene introduca
continuamente variazioni, lo fa senza mai eliminare completamente strutture e funzioni più antiche; anzi in
genere le nuove strutture e funzioni vengono innestate sulle vecchie. Pertanto l’evoluzione non funziona come il
lavoro di un ingegnere che pianifica a tavolino quali siano le soluzioni astrattamente migliori. E’ proprio questo
punto a rendere la spiegazione fornita dall’Intelligente Design non appropriata: se le specie fossero il prodotto
del lavoro di un disegnatore intelligente, il risultato sarebbe stato più di tipo ingegneristico.
• Gli organismi sia nel corso della loro vita individuale (ontogenesi), sia nel corso della loro evoluzione vivono un
equilibrio transiente. In altre parole, l’equilibrio è sempre precario e relativamente momentaneo. Per questo
Waddingoton preferiva parlare di omeoresi invece di omeostasi (dinamismo invece di stasi). Poiché d’altra
parte tale slittamento continuo dell’equilibrio avviene a livello di specie in condizioni in cui gli organismi sono
costretti a innestare nuove funzioni sulle vecchie, l’evoluzione delle specie mostra mediamente una tendenza
alla crescente complessità delle specie, come si è già accennato. In altre parole, mediamente oppure su periodi
più lunghi, le nuove specie sono più complesse delle vecchie specie. Questo non significa dire che sono più
adatte. Eucarioti unicellulari da un certo punto di vista possono essere considerati più adatti a sopravvivere
dei mammiferi, ma l’evoluzione ha generato questi ultimi dai primi e non viceversa, com’è chiaro guardando
l’albero dell’evoluzione.
Un caso particolare è rappresentato dall’evoluzione dell’uomo. L’uomo è l’organismo più complesso della Terra (basti
pensare alla complessità del cervello umano). Da quando ci siamo separati circa 6,5 milioni di anni fa dagli altri
primati la nostra specie non soltanto è stata in continua evoluzione ma ha accumulato, in un lasso di tempo che, su
scala evolutiva, è relativamente modesto, un tale numero di cambiamenti biologici da risultare forse privo di confronti
con altre specie. La ragione di tale processo si deve a una peculiarità umana: la presenza di una cultura. La cultura
rappresenta una modalità del tutto nuova di trasmissione dell’informazione di generazione in generazione. Tuttavia
essa presenta le generali caratteristiche dell’evoluzione biologica. Infatti anche la cultura è soggetta a pressioni
selettive e avviene tra beni o realtà culturali che preesistono alla selezione [RICHERSON/BOYD 2005].
La cultura consiste senz’altro nella trasmissione di tradizioni (in ultima analisi contingenti). Tuttavia, tale
requisito è necessario ma non sufficiente. Anche altri primati (e cetacei) mostrano un senso per differenze tra
gruppi nel modo in cui si effettuano delle operazioni e queste differenze vengono tramandate. Ma la cultura umana
presenta un carattere che tali pratiche non hanno: essa è cumulativa [TOMASELLO 1999, TOMASELLO 2003].
Ossia, essa incrementa nel tempo continue migliorie di oggetti, idee, relazioni, ecc. Anche oggi il mercato premia
sempre prodotti tecnologicamente innovativi. Tale capacità non sarebbe possibile senza una facoltà di apprendimento critico dei prodotti culturali (che manca agli altri primati) e senza una cooperazione attiva per produrli. Ma
18
z
r
y
x
Figure 6: Rappresentazione di un atomo di idrogeno: un elettrone (cerchio bianco) con carica negativa −e orbita a una distanza
r intorno ad un protone con carica positiva +e (le cariche si debbono bilanciare per rendere l’atomo stabile). Adattato da
[AULETTA/WANG 2014, p. 224].
per potere cooperare, studi recenti mostrano che c’è bisogno di una società nella quale vigano rapporti altruistici
[FEHR/FISCHBACHER 2003].
Come si arrivati a tali risultati? E’ probabile che condizioni ambientali di grande variabilità abbiano reso efficace
un comportamento altrettanto variabile, ossia non adatto a uno specifico ambiente. Di fatto una delle caratteristiche fondamentali dell’umanità è quella che viene chiamata improvisional intelligence [COSMIDES/TOOBY 2000,
COSMIDES/TOOBY 2002], ossia la capacità tipicamente umana (che dipende dalla grande variabilità di comportamento) di estrarre dall’ambiente circostante informazioni e beni in modo non prefissato biologicamente ma riferito
sempre a contesti e scopi specifici: ad esempio, una stessa sostanza può essere considerata o un veleno o una medicina
a seconda dell’uso che se vuole fare e della quantità che si impiega. Si noti che questo spiega proprio il contesto
generale in cui evolvono le teorie scientifiche, perché ci dice che possiamo accedere agli oggetti che incontriamo
nell’epserienza in modo diverso e sempre più sofisticato ma che, proprio per questo, non riusciremo mai a superare
la parzialità delle nostre conoscenze.
Ci sono ragioni di ritenere che la teoria dell’evoluzione sarà superata da una nuova teoria più generale? E’ ancora
presto per dirlo. Per ora non c’è stata ancora una sufficiente accumulazione di risultati che non si accomodano bene
nel quadro del Darwinismo riformato di oggi giorno. Certamente prima o poi accadrà ma nessuno è in grado di fare
previsioni in proposito. Per ora è la migliore spiegazione che abbiamo.
12
Terzo esempio: la meccanica quantistica
Ho già fatto presente che il XIX secolo con la termodinamica e la teoria dei campi metteva già in discussione una serie
di assunti della fisica classica. Questo processo trova il suo compimento nella nascita della meccanica quantistica (=
MQ), una grande novità nella fisica del XX secolo. Infatti, essa
• Mette in luce quell’aspetto relazionale tipico dei campi e lo amplifica in una sorprendente non–località.
• Inoltre mostra l’esistenza di discontinuità in natura che fino agli inizi del secolo scorso non erano nemmeno
considerate possibili.
• Ma proprio per queste ragioni permette un trattamento unificato di luce e materia come non era mai stato
possibile in precedenza.
Partiamo dal secondo punto, che è anche il primo in ordine cronologico. Planck aveva tentato di affrontare il problema
del corpo nero [PLANCK 1900, PLANCK 1900]. Si tratta di una sfera cava che assorbe luce ma non la emette. Se
19
(a)
(b)
Figure 7:
pellets
detection
probability
waves
detection
probability
Supponiamo di inviare particelle (a) e onde (b) attraverso due fenditure. Le particelle si distribuiranno sullo
schermo finale come due rose di pallini
da caccia (con due rigonfiamenti nei due
punti sullo schermo che si raggiungono
in linea retta partendo dalle fenditure)
mentre le onde daranno vita a tipici
fenomeni di interferenza.
Adattato da
[AULETTA/WANG 2014, p. 75].
consideriamo il modello classico della luce, questa dovrebbe oscillare a qualsiasi frequenza (che misura quanti picchi
di onde passano per un punto in un certo intervallo di tempo). Ma la teoria classica della luce era continua, e quindi
andando a combinare tutte queste oscillazioni e considerando che la luce viene continuamente riflessa dalla superficie
interna della sfera si ottiene una quantità di energia che è potenzialmente infinita, il che è evidentemente assurdo.
Planck risolse il problema considerando che la struttura della superficie della sfera, essendo composta di atomi, era
discontinua e quindi la luce riflessa poteva acquisire caratteristiche di discontinuità. Si badi che Planck non metteva in
discussione che la luce fosse in se stessa continua, come voleva la teoria classica, ma risolveva il problema postulando
che la luce acquisisse in queste particolari circostanze delle specifiche caratteristiche. Si trattava evidentemente di
un’abduzione.
Ma questo non fu l’unico problema. Agli inizi del ’900 si era capito che l’atomo non era cosı̀ indivisibile come si era
pensato prima ma aveva una struttura che comprendeva particelle più piccole, come elettroni, protoni e neutroni (vedi
figura 6); quest’ultimi due sono costituiti da particelle ancora più piccole (chiamate quark). La cosa sorprendente fu
quando N. Bohr, basandosi sui precedenti lavori di Planck, scoprı̀ nel 1913 che gli elettroni (che grosso modo ruotano
intorno al nucleo composto di protoni e neutroni), non si posizionano in modo continuo a qualsiasi distanza dal
nucleo ma su specifici livelli orbitali e che possono passare a un livello successivo emettendo (quando si avvicinano al
nucleo) e assorbendo (quando se ne allontanano) almeno un fotone [BOHR 1913]. Pertanto, il fotone rappresentava
la quantità minima di energia possibile per permettere tali transizioni (discontinue). Si noti che la luce fino a quel
momento, dopo gli esperimenti sulla diffrazione (su cui tornerò) era unanimemente considerata come un fenomeno
ondulatorio e quindi continuo, mentre scoprire che era composta di particelle energetiche e quindi da quantità discrete
di energia (i fotoni, appunto), era una vera rivoluzione. Di fatto, anche se i primi modelli che avevano ipotizzato una
discontinuità dell’energia risalgono ai lavori di Planck sul corpo nero, il pieno riconoscimento da parte della comunità
dei fisici che tale discontinuità fosse un fenomeno reale, almeno a scala atomica avvenne soltanto nel 1925, allorché
Heisenberg, dopo un’accumulazione di diversi risultati sperimentali (sia con particelle materiali, sia con fotoni) che
andavano in tal senso, pubblicò un famoso articolo che permetteva di trattare in modo matematico assolutamente
generale tale problema [HEISENBERG 1925]. In quel momento nacque una nuova teoria. Si trattava di un perfetto
esempio di induzione.
L’altro effetto, ossia la straordinaria non–località dei sistemi quantistici è ancora più sorprendente: su questo
problema vedi [AULETTA/WANG 2014, Cap. 10]. Per capirla, bisogna comprendere la differenza tra particelle
discrete e onde (vedi figura 7). Le onde danno luogo a caratteristici fenomeni di interferenza: basti pensare a
come le onde del mare si sovrappongono dando luogo a picchi locali molto elevati oppure a come la luce, quando
passa attraverso una persiana quasi chiusa, dà luogo a caratteristiche strisce bianche e nere sulla parete opposta
(un fenomeno noto come diffrazione): vedi figura 8. Fin qui stiamo parlando di un fenomeno puramente classico.
Ora viene la parte quantistica. Supponiamo di inviare un singolo fotone attraverso le due fenditure. Abbiamo visto
che un fotone rappresenta una quantità minima di energia che è perciò indivisibile. Tuttavia, quando arriva allo
schermo finale, si scopre che questo fotone ha dato luogo ad interferenza, e perciò deve essere passato per entrambe
le fenditure. Questo significa due cose:
• Il fotone ha dato luogo a un fenomeno di auto-interferenza (ossia di interferenza con se stesso), che è classicamente inconcepibile.
• Dato che il fotone non ha preso contemporaneamente due traiettorie localizzate (di cui potremmo seguire la
posizione punto per punto) perché non è divisibile, l’unica conclusione è che si trova in uno stato globale. Ossia
20
wave 1
in-phase
superposition
wave 2
constructive interference
wave 1
out-of-phase
superposition
destructive interference
wave 2
Figure 8: Interferenza costruttiva e distruttiva. Per potere dare luogo a interferenza costruttiva le onde si devono sovrapporre
(devo essere in fase), ossia picchi di una debbono corrispondere a picchi dell’altra, per dare vita a interferenza distruttiva
bisogna che le onde siano fuori fase (a un picco corrisponde una valle e viceversa). Ovviamente sono possibili tutti i casi
intermedi. [AULETTA 2011, p. 12].
UP
DOWN
entanglement
misurazioni locali
DOWN
UP
misurazioni locali
Figure 9: Lo stato UP di una particella è collegato allo stato DOWN dell’altra e viceversa.
non è localizzato da nessuna parte.
Anche in questo caso, tutti i sistemi quantistici, non importa se fotoni o costituenti della materia, presentano questa
caratteristica. Di fatto essi si comportano delle volte come se fossero particelle discrete, altre come onde. La ragione di
questi diversi comportamenti è proprio nell’estrema sensibilità dei sistemi quantistici a qualsiasi dettaglio ambientale
proprio per il fatto che si trovano in uno stato globale.
In altre parole, la non–località dei sistemi quantistici li rende tutti sensibili gli uni agli altri e quindi interconnessi.
Viviamo in un mondo ove non è possibile separare completamente i sistemi quantistici da altri sistemi quantistici.
Tale interconnessione si chiama entanglement (intreccio), una forma particolare di correlazione. Supponiamo che
due particelle siano collegate da un entanglement. Supponiamo che ciascuna possa stare sia in un certo stato fisico
UP, sia in un certo stato fisico DOWN (vedi figura 9). Se ci limitiamo a misurare localmente (indipendentemente)
ciascuna delle due non ci accorgeremo di nulla di strano. Anche se misurassimo mille particelle tutte in entanglement
a coppia, vedremmo che localmente otterremmo nella metà dei casi UP e nella metà dei casi DOWN per ciascun
gruppo (come nel caso di un lancio di una moneta). Ma se andassimo a confrontare i risultati di tutti questi lanci,
resteremmo davvero sorpresi nel constatare che ogni volta che con una ottengo UP, con l’altra ottengo DOWN,
e viceversa. Infatti, se tra le due non ci fosse alcun collegamento, mi aspetterei di ottenere in un quarto dei casi
UP–UP, in un quarto dei casi DOWN–DOWN, in un quarto dei casi UP–DOWN, e in un quarto dei casi DOWN–UP.
Invece qui ho nella metà dei casi UP–DOWN e nella metà dei casi DOWN–UP. Insomma, queste coppie di particelle
sono ciascuna in uno stato globale tale che i possibili risultati delle misurazioni locali non sono indipendenti tra loro.
21
Anche qui vediamo come le correlazioni hanno una influenza causale come vincoli formali.
C’è una conseguenza molto importante da considerare. I sistemi quantistici, in quanto globali, non predeterminano il tipo di risultato di misurazioni oppure interazioni locali. Questo l’abbiamo visto con l’esempio precedente:
l’entanglement non altera i risultati locali delle misurazioni. Questo significa che gli stati globali della MQ determinano soltanto le probabilità di determinati eventi e non il loro accadere. Sappiamo che in metà dei casi avremo UP
e in metà dei casi DOWN in base a una misura locale ma non possiamo prevedere se il prossimo risultato sarà UP o
DOWN. Questo è evidente nel caso del decadimento radioattivo (gli atomi di un materiale radioattivo si disintegrano
a mano a mano riducendone la massa). Possiamo calcolare le probabilità che una certa quantità di un materiale
radioattivo ha di ridursi alla metà in un certo lasso di tempo, ma non possiamo prevedere quale atomo decadrà
quando. Questo significa che le leggi quantistiche regolano soltanto le probabilità generali del nostro universo e non
l’accadere dei singoli eventi (e pertanto la reversibilità delle leggi fisiche, che la MQ ha ereditato dalla meccanica
classica, vale soltanto globalmente ma non determina processi locali, giustificando cosı̀ l’approccio termodinamico).
Questo è in accordo con quanto detto in precedenza e permette proprio l’emergere di novità nel nostro universo che
non sono prevedibili sulla base di quello che sapevamo prima. E’ perciò la circostanza generale e basilare che spiega
perché tutte le nostre teorie sono imperfette.
La domanda cruciale che viene da porsi è la seguente: cosa sono i sistemi quantistici? Essi sono essenzialmente
informazione [D’ARIANO et al. 2015]. Infatti l’entanglement è la forma più “radicale” di informazione condivisa,
come anche la discontinuità quantistica è la forma più radicale di variabilità. Inoltre, il primo fattore produce l’ordine
globale, il secondo il disordine locale. Quindi l’informazione e lo scambio d’informazione sono davvero la cosa più
basilare del nostro universo.
Si noti che la meccanica quantistica è ancora nella sua fase giovanile. Non è stato infatti ancora trovato un singolo
controesempio alle sue leggi. E’ quindi probabile che non smetterà di produrre risultati sorprendenti ancora per un
certo tempo.
References
[AULETTA et al. 2008] Auletta, G., Ellis, G., and Jaeger, L., “Top-Down Causation by Information Control: From
a Philosophical Problem to a Scientific Research Program”, Journal of the Royal Society: Interface 5: 1159–72;
doi:10.1098/rsif.2008.0018.
[AULETTA 2011] Auletta, Gennaro, Cognitive Biology: Dealing with Information from Bacteria to Minds, Oxford,
University Press.
[AULETTA et al. 2011] Auletta, G., Leclerc, M, and Martinez, R. (Eds.), Biological Evolution: Facts and Theories:
A Critical Appraisal after 150 years after ”The Origin of Species” , Rome, G and B Press.
[AULETTA/WANG 2014] Auletta, G. and Wang, S.–Y., Quantum Mechanics for Thinkers, Singapore, Pan Stanford
Pub; doi:10.4032/9789814411721.
[AULETTA 2015] Auletta, Gennaro, “Emergence: Selection, Allowed Operations, and Conserved Quantities”,
South-African Journal of Philosophy 34: 93–105; doi:10.1080/02580136.2014.992156.
[BOHR 1913] Bohr, Niels, “On the Constitution of Atoms and Molecules”, Philosophical Magazine 26: 1–25, 476–
502, 857–7.
[BORN 1949] Born, Max, Natural Philosophy of Chance and Cause, Oxford, Clarendon, 1949, New York, 1964.
[COSMIDES/TOOBY 2000] Cosmides, L. and Tooby, J., “Consider the Source: The Evolution of Adaptations for
Decoupling and Metarepresentation”, in Sperber, Dan (Ed.), Metarepresentations: A Multidisciplinary Perspective,
Oxford, University Press: 53–115.
[COSMIDES/TOOBY 2002] Cosmides, L. and Tooby, J., “Unraveling the Enigma of Human Intelligence: Evolutionary Psychology and the Multimodular Mind”, in Sternberg, R. J. and Kaufman, J. C. (Eds.), The Evolution
of Intelligence, London, Erlbaum: 145–98.
[D’ARIANO et al. 2015] D’Ariano, M., Chiribella, G., and Perinotti, P., Quantum Theory from First Principles:
An informational approach, Cambridge, University Press.
22
[DARWIN 1859] Darwin, Charles R., The Origin of Species, London, Murray, 1859; Sixth edition; Cambridge,
University Press, 2009.
[EINSTEIN MW] Einstein, Albert, Mein Weltbild, Frankfurt, Ullstein, 1993.
[FEHR/FISCHBACHER 2003] Fehr, E. and Fischbacher, U., “The Nature of Human Altruism”, Nature 425: 785–
91.
[FREGE 1884] Frege, Gottlob, Die Grundlagen der Arithmetik: eine logisch-mathematische Untersuchung über den
Begriff der Zahl, Breslau, w. Koebner, 1884.
[FREGE 1893–1903] Frege, Gottlob, Grundgesetze der Arithmetik, Jena, H. Pohle; I v.: 1893; II v.: 1903; reprint:
Hildesheim, Olms, 1998.
[KAUFFMAN 1993] Kauffman, Stuart A., The Origins of Order, New York-Oxford, Oxford University Press.
[KUHN 1957] Kuhn, Thomas S., The Copernican Revolution: Planetary Astronomy in the Development of Western
Thought, Cambridge, MA, Harvard University Press.
[KUHN 1962] Kuhn, Thomas S., The Structure of Scientific Revolutions, Chicago, University Press, 1962; 2nd ed.
1970.
[GILBERT 2006] Gilbert, Scott F., Developmental Biology, Sunderland, MA, Sinauer, 8th ed..
[GOODMAN 1954] Goodman, Nelson, Fact, Fiction, and Forecast, 1954; 3rd ed.: 1979; 4th ed.: Cambridge, MA,
Harvard University Press, 1983.
[HEISENBERG 1925] Heisenberg, Werner, “Über quantentheoretische Umdeutung kinematischer und mechanischer
Beziehungen”, Zeitschrift für Physik 33: 879–93.
[HILBERT 1903] Hilbert, David, Grundlagen der Geometrie, Leipzig, Teubner.
[PEIRCE 1866] Peirce, Charles S., “The Logic of Science or Induction and Hypothesis: Lowell Lectures”, in
[PEIRCE W, I, 357–504].
[PEIRCE 1878] Peirce, Charles S., “Deduction, Induction, and Hypothesis”, Popular Science Monthly 13: 470–82;
in [PEIRCE W, III, 323–38].
[PEIRCE 1887–88] Peirce, Charles S., A Guess at the Riddle, in [PEIRCE W, VI, 165-210].
[PEIRCE W] Peirce, Charles S., Writings, Bloomington, Indiana University Press, 1982-, vol.s I–.
[PLANCK 1900] Planck, Max, “Über die Verbesserung der Wien’schen Spektralgleichung”, Verhandlungen der
Deutschen Physikalischen Gesellschaft 2: 202–204.
[PLANCK 1900] Planck, Max, “Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum”, Verhandlungen der Deutschen Physikalischen Gesellschaft 2: 237–45.
[POPPER 1934] Popper, Karl R., Logik der Forschung, Wien, Springer, 1934, 8th ed. Tübingen, Mohr, 1984.
[RICHERSON/BOYD 2005] Richerson, P. J. and Boyd, R., Not By Genes Alone: How Culture Transformed Human
Evolution, Chicago, The University of Chicago Press.
[RUSSELL 1902] Russell Bertrand, “Letter to Frege”, in J. van Heijenoort (Ed.), From Frege to Gödel, Cambridge
(MA) 1967: 124–25.
[RUSSELL 1903] Russell, Bertrand, Principles of Mathematics, 1903, 2d ed. 1937, London, Routledge, 1992.
[TOMASELLO 1999] Tomasello, Michael, The Cultural Origins of Human Cognition, Harvard, University Press,
1999, 2003.
[TOMASELLO 2003] Tomasello, Michael, Constructing a Language: A Usage–Based Theory of Language Acquisition, Cambridge, MA, Harvard University Press.
[WADDINGTON 1975] Waddington, Conrad H., Evolution of an Evolutionist, New York, Cornell University Press.
23
Scarica