Appunti di filosofia della scienza Gennaro Auletta December 31, 2015 Contents 1 Spiegazioni tradizionali 1 2 Inferenze e associazioni 3 3 Deduzione, abduzione e induzione riformulate 3 4 Le teorie evolvono 5 5 Un universo in evoluzione 6 6 La fisica classica 7 7 Ordine e disordine in natura 8 8 Segnali e informazione 10 9 Tipi di spiegazione causale 12 10 La rivoluzione copernicana come esempio 13 11 Secondo esempio: la teoria dell’evoluzione 15 12 Terzo esempio: la meccanica quantistica 19 AVVERTENZE. La maggior parte del materiale seguente è soggetto a copyright come indicato nelle didascalie delle figure. Gli studenti non frequentanti che hanno problemi a seguire queste dispense dovranno scegliere e studiare testi aggiuntivi da concordare con il docente. 1 Spiegazioni tradizionali Tradizionalmente, ci sono essenzialmente due spiegazioni del processo della conoscenza, una induttiva, l’altra deduttiva: • Con spiegazione induttiva di tipo tradizionale si intende che la conoscenza procederebbe dalla raccolta di fatti per poi passare alla loro classificazione, fino poi a giungere all’elaborazione di vere e proprie leggi. Tale genere di spiegazione è stata spesso sostenuta da filosofi empiristi. L’epistemologia del XX secolo (soprattutto i lavori di Popper e Goodman [POPPER 1934, GOODMAN 1954]) ha mostrato l’inconsistenza di tale spiegazione. Infatti, per qualsiasi numero di fatti, le possibili classi in cui possono essere inseriti sono praticamente infinite. Per questa strada non si approderebbe a nulla e certamente non potremmo arrivare alla formulazione delle leggi di natura. • Con spiegazione deduttiva di tipo tradizionale si intende che la conoscenza avrebbe un percorso opposto, per cui si partirebbe da leggi e principi i più generali possibili per poi formulare leggi più specifiche e determinare opportune classi fino ad arrivare alla deduzione dei singoli fatti dell’esperienza. Tale spiegazione ha anch’essa 1 una lunga tradizione. Verso la fine del XIX secolo e gli inizi del XX, un gruppo di filosofi e matematici, tra i quali ricordo Frege [FREGE 1884, FREGE 1893–1903] e Hilbert [HILBERT 1903], hanno tentato di derivare tutte le scienze da fondamenti matematico-logici. In particolare, hanno preso le mosse dalla teoria degli insiemi che rappresentava a quell’epoca la maggiore generalizzazione raggiunta dalla matematica. Per insieme intendo una collezione di oggetti privi di relazione tra loro e accomunati dalla condivisione di una singola proprietà (come l’insieme delle cose rosse). Tuttavia, già il filosofo B. Russell mostrava l’inconsistenza di questo tentativo [RUSSELL 1902, RUSSELL 1903]. Infatti, poiché la teoria degli insiemi non pone limitazioni sui possibili insiemi, posso costruire l’insieme di tutti gli insiemi che non hanno tra gli elementi se stessi, e li chiamerò insiemi normali (ad esempio l’insieme di tutti gli oggetti rossi non è un singolo oggetto rosso), come anche l’insieme di tutti gli insiemi che hanno tra gli elementi anche se stessi e li chiamerò insiemi anormali (ad es. l’insieme di tutti gli insiemi è un insieme esso stesso). Ora, la domanda decisiva è l’insieme di tutti gli insiemi normali è normale o anormale? Non può essere normale perché altrimenti comprenderebbe anche se stesso e quindi sarebbe anormale; ma non può essere anormale perché se lo fosse non comprenderebbe se stesso e quindi sarebbe normale. In entrambi i casi siamo di fronte a una contraddizione. Un ragionamento analogo vale per l’insieme di tutti gli insiemi anormali. Per quali ragioni tali spiegazioni tradizionali falliscono? La ragione del fallimento dell’induzione è la seguente: c’è una pluralità di spiegazioni possibili per ogni fatto. La nostra esperienza è infatti sempre parziale. La ragione del fallimento della deduzione è simile: non abbiamo una sola spiegazione dei fatti dato che da qualsiasi legge o principio ne possono derivare una molteplicità di conseguenze e purtroppo non siamo in grado di conoscerle tutte. Pertanto anche i nostri principi conducono a delle conseguenze che alla fine sono parziali anch’esse. Il grande filosofo americano Charles Peirce ha tentato di ovviare a questa situazione introducendo un nuovo concetto, l’abduzione [PEIRCE 1878]. Peirce aveva capito che il problema della conoscenza è come in ultima analisi si è capaci di affrontare la questione delle inferenze. Per inferenza intendo una procedura tramite la quale si cerca di derivare ciò che è meno noto da ciò che è più noto. Innanzitutto si noti che le inferenze sono alla base di qualsiasi ragionamento, e perciò un ragionamento è semplicemente una catena più o meno lunga di inferenze più o meno connesse. Dal suo punto di vista, induzione e deduzione (ma non intesa in senso strettamente formale) sono inferenze. L’introduzione di una terza forma di inferenza, l’abduzione o anche ipotesi, si deve al fatto che Peirce voleva • Risolvere il problema della generazione di nuove idee: lo scopo dell’abduzione è proprio quello di avere a disposizione una forma di inferenza che è inventiva; l’abduzione consiste infatti nella formulazione di un’ipotesi per risolvere un problema, più specificamente consiste nel trovare delle nuove caratteristiche che definiscono meglio gli oggetti in questione. • Concepire la conoscenza come correzione di errore. Infatti, se la nostra conoscenza è parziale, il suo progresso consisterà nel correggere quanto prima si era assolutizzato a causa proprio della limitatezza dei mezzi cognitivi a nostra disposizione. In questo modo Peirce concepiva il conoscere come un processo essenzialmente fallibile: ogni grado della conoscenza contiene in sé limiti ed errori e in linea di principio può essere superato o migliorato. Tuttavia, tale continua correzione dell’errore permette anche un progresso reale della conoscenza, e pertanto, sul lungo periodo, ci approcciamo sempre più alla verità pur senza mai poterla raggiungere completamente. Pertanto, il fallibilismo di Peirce è una via di mezzo tra relativismo e assolutismo (o dogmatismo). Tuttavia, anche il contributo di Peirce, per quanto un grande passo in avanti, non risolve completamente il problema. Ci sono infatti due questioni importanti da considerare: 1. Non è possibile dare luogo ad inferenze produttive restando solo alla struttura logica e quindi generare idee nuove con mezzi puramente logici. Se fosse possibile, potremmo costruire computer in grado di generare automaticamente (deterministicamente) qualsiasi genere di risposta. Infatti qualsiasi processo logico (e tali processi intervengono in tutte le inferenze) può per definizione soltanto rendere esplicito ciò che è già implicitamente noto oppure dimostrare ciò che conosciamo già in modo imperfetto per altre vie (o meglio ancora dimostrare l’inconsistenza di alcune presunte conoscenze), ma non può produrre idee nuove. 2. L’esperienza non è istruttiva, come capito per la prima volta dal grande evoluzionista C. Darwin. In altre parole, l’esperienza non ci fornisce le soluzioni ai nostri problemi ma rigetta semplicemente le soluzioni inadeguate. Pertanto essa rappresenta un feedback negativo. In altre parole, il bambino impara a camminare sbattendo la testa. Quindi le soluzioni che possono essere trovate ai problemi sono il risultato dell’inventiva umana. Ma se 2 non c’è modo di derivarle logicamente e non possiamo nemmeno tirarle fuori dall’esperienza, a cosa si deve tale capacità? 2 Inferenze e associazioni Queste difficoltà ci fanno capire che siamo di fronte a un problema un po’ più grande di come avevamo immaginato all’inizio. In tutta la sua generalità, il problema può essere visto in questo modo: • I fatti dell’esperienza e l’esperienza stessa hanno una natura individuale. Non possiamo fare esperienza di concetti generali, ad esempio possiamo interagire con una persona ma non con l’essere umano in generale. Questa è la ragione per la quale è cosı̀ difficile trasmettere esperienza e in genere si può capire l’esperienza di qualcuno soltanto se la si è vissuta in prima persona. Per questa stessa ragione l’esperienza è irripetibile. Perfino se facciamo esperimenti di laboratorio, non effettueremo mai due esperimenti esattamente uguali (dato che cambiano le condizioni, come gli sperimentatori, il luogo, il tempo, ecc.). Noi al massimo prescindiamo da tali differenze perché non le consideriamo rilevanti al fine dell’esperimento, ma questo non significa che non esistano. A cosa si deve tale individualità dell’esperienza? Al fatto che nessuna cosa che accade in questo mondo (nessun evento) si ripete esattamente allo stesso modo. In altre parole, è la continua variabilità dell’esperienza che ne costituisce l’irriducibile individualità. Questo punto era perfettamente chiaro a Peirce [PEIRCE 1887–88]. • Al contrario, le leggi (e i concetti o le classi nelle quali incaselliamo i fatti dell’esperienza) sono per natura generali. Per classe intendo un concetto più articolato di insieme: è una collezione di individui che presentano relazioni tra loro, come ad esempio la classe dei mammiferi. Lo scopo di qualsiasi regola anche pratica è quella di permetterci di affrontare diversi fatti dell’esperienza accomunati da caratteristiche comuni. Infatti, se ci limitassimo soltanto all’esperienza, dovremmo ogni volta ricominciare daccapo. Invece una regola o una legge ci permette di capire come ci dobbiamo regolare in circostanze simili. Pertanto sono assolutamente necessarie. Ora, il problema è che non esiste una transizione diretta e semplice dai fatti dell’esperienza alle leggi o viceversa, come l’analisi dell’induzione e della deduzione tradizionali ci ha mostrato. Quindi, come dobbiamo risolvere il problema? Il primo passo è modificare profondamente il significato delle tre forme di inferenza (deduzione, abduzione e induzione). Di nuovo Peirce ci ha fornito importanti elementi a questo scopo. A questo fine cerchiamo una formulazione delle forme di inferenza che sia la più generale possibile [PEIRCE 1866]. Per potere effettuare una inferenza servono tre ingredienti fondamentali: 1. Innanzitutto serve una legge o una regola. Infatti senza una legge o una regola, non potremmo parlare di inferenza ma al massimo di libera associazione. Abbiamo una libera associazione quando nei nostri ricordi intrecciamo cose soltanto perché sono capitate insieme, come quando ricordando una festa a casa di amici ci ricordiamo anche con quale mezzo siamo arrivati. La libera associazione è perciò semplicemente una relazione tra fatti che sussiste per la semplice ragione che sono capitati insieme o comunque in prossimità di spazio o tempo. Pertanto è soltato una legge o una regola a conferire a un’inferenza la natura di ragionamento. 2. Tuttavia tale elemento non è sufficiente a fondare un’inferenza. Infatti, se ci fermassimo qui avremmo soltanto prodotto l’enunciazione o la definizione di una legge, ma nessuno chiamerebbe questo un ragionamento. Pertanto abbiamo bisogno di un secondo elemento: mostrare un ambito di applicazione (anche soltanto possibile o ipotetico) di tale legge. In altre parole dobbiamo esibire una classe di oggetti a cui tale legge si applica, perché se la legge non si applicasse nemmeno a una classe di oggetti non meriterebbe tale nome. 3. Ma nemmeno cosı̀ abbiamo un’inferenza perché al massimo abbiamo ottenuto l’enunciazione di una legge e la formulazione di un esempio. Ma questo non è ancora un ragionamento. Perciò abbiamo bisogno di un terzo elemento: mostrare che applicando la legge a quella classe di oggetti ne emergono delle conseguenze. Quindi, una inferenza suppone delle aspettative di qualche genere. Qualsiasi moltiplicazione di tali elementi non introduce nulla di nuovo concettualmente. Pertanto formulerò ogni inferenza per mezzo di tre proposizioni. 3 Deduzione, abduzione e induzione riformulate Consideriamo ora le tre forme di inferenza. Cominciamo dalla deduzione. Essa, come detto, essenzialmente esprime un’aspettativa, che possiamo formulare cosı̀: 3 Legge Tutti gli oggetti X hanno la proprietà Y . Ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X. Conseguenza Pertanto ci aspettiamo che gli oggetti Z abbiano la proprietà Y . Si noti che una deduzione esprime un’aspettativa futura (la conseguenza) sulla base di una legge (che rappresenta una conoscenza che ci deriva dal passato) e della individuazione di una collezione Z di oggetti fatti in un certo modo. Si noti inoltre che la proprietà Y è un insieme (oggetti disparati privi di relazione e accomunati soltanto dall’essere Y ) mentre X denota una classe, ossia, come accennato, una collezione di oggetti omogenei che condividono tantissime proprietà (e quindi hanno tantissime relazioni). In particolare X esprime una classe di equivalenza (ossia qualsiasi membro di questa classe è un rappresentante della stessa allo stesso titolo di un altro). La collezione di oggetti Z invece è il gruppo di oggetti che dobbiamo specificare (identificare) e pertanto non sappiamo bene le loro caratteristiche. Ho detto che la conoscenza è correzione dell’errore per la sua intrinseca parzialità. Pertanto, possiamo partire dal presupposto che prima o poi un tale genere di aspettativa (che magari ha funzionato bene diverse volte) sia smentita prima o poi. In altre parole, l’esperienza ci mette prima o poi di fronte al fatto che gli oggetti Z non hanno la proprietà Y . Di fronte a un caso del genere, è chiaro che dobbiamo aver commesso un errore da qualche parte, e questo errore dobbiamo correggerlo. Ora, logicamente parlando l’errore può essere soltanto nelle premesse del ragionamento, ossia o nella formulazione della legge, e quindi nella proprietà Y , o nella scelta della classe di oggetti X. Quale delle due? Supponiamo che siamo di fronte a un primo e singolo caso di smentita. Si noti che qui abbandoniamo l’ambito della certezza logica perché stiamo effettuando una valutazione che comporta sempre un margine di incertezza. In realtà già prima c’era incertezza: infatti non c’è mai stata alcuna garanzia che l’applicazione della legge a una determinata collezione di oggetti avremmo ottenuto il risultato sperato (dato che, ad esempio, ogni legge, per la sua natura ipotetica, può essere falsa). Era solo la nostra fiducia nella legge (che avevamo visto funzionare bene nei casi precedenti) che ci dava un senso di certezza che però era in parte ingiustificato. Ora, di fronte a un singolo caso, è molto più saggio abbandonare la seconda premessa, perché la legge, proprio perché sperimentata in altri casi, è più difficile che sia erronea oltre al fatto che, essendo più generale, è più potente. In tale caso, facciamo un’abduzione. Tuttavia l’abduzione è un processo complesso. Logicamente parlando, quello che facciamo è innanzitutto inferire che la definizione della classe di oggetti non è stata corretta. In altre parole, procediamo cosı̀: Legge Tutti gli oggetti X hanno la proprietà Y . Negazione dell’aspettativa Ci sono oggetti Z che non hanno la proprietà Y . Negazione dell’ambito di applicazione Ci sono oggetti Z che non fanno parte della classe X. In altre parole, l’unico risultato cui ci può portare un’inferenza di tale genere è negativo: sulla base dell’esperienza che ci sono delle cose Z che non sono Y , sappiamo che ci sono oggetti Z che non fanno parte della classe X. Tuttavia nessuna inferenza ci darà mai la soluzione cercata, ossia di quale classe tali oggetti Z fanno parte. Per potere giungere a tale risultato c’è bisogno di un’intuizione. Quell’inferenza ci può mettere sulla pista ma arrivare a tale risultato richiede un qualcosa che non è logico ma è una libera associazione. Quando intendiamo risolvere un problema come in questo caso alterniamo fasi conscie con fasi di rielaborazione inconscia. Diversi scan del cervello mostrano che quando siamo coscienti tutte le aree del cervello sono eccitate [AULETTA 2011, Cap. 21]. Questo permette che tra aree diverse si possano creare relazioni tali da generare nuove associazioni. Si dice che il chimico Kekulè cercando di sapere quale fosse la forma della molecola di benzene abbia immaginato un serpente che si morde la cosa e in tale modo abbia trovato la soluzione: si tratta infatti di una molecola a forma circolare. Ora, non c’è alcuna relazione tra la molecola e il serpente se non una libera associazione. Avrebbe anche potuto immaginare un dolce a ciambella e sarebbe giunto allo stesso risultato. Si noti che ogni associazione è per sua natura incontrollabile proprio perché non risponde a leggi logiche. Essa semplicemente ci capita e quindi ha una fortissima componente casuale. Si può certamente incrementare la capacità di generare le giuste associazioni grazie a una maggiore conoscenza ed esperienza ed esercitando le nostre capacità nel risolvere i problemi. Ma alla fine, che ci si riesca o no è una questione di fortuna, e in ogni idea geniale c’è una buona componente di fortuna. Pertanto supponiamo che siamo fortunati e riusciamo a trovare in tale modo la soluzione. Che caratteristiche generali deve avere? Se avevamo identificato male gli oggetti Z ritenendo che facessero parte della classe X, è evidente che, come risultato di tale associazione, dovremo trovare una nuova classe di equivalenza X che sia la soluzione al nostro problema. Quali caratteristiche generali deve possedere questa nuova classe? Deve essere in genere più 4 ristretta della classe X di partenza. In altre parole, deve essere più specifica (deve comprendere meno cose). Infatti, se abbiamo commesso un errore nella identificazione dell’ambito di applicazione appropriato è perché non avevamo scelto gli oggetti in questione in modo sufficientemente preciso. Quindi, supponendo che la nostra intuizione sia felice (ossia che rappresenti una versa soluzione, cosa che soltanto l’esperienza successiva ci può mostrare), essa ci permette di effettuare l’inferenza seguente: Legge Tutti gli oggetti X hanno la proprietà Y . Nuovo ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X . Nuova conseguenza Pertanto ci aspettiamo che gli oggetti Z abbiano la proprietà Y . In altre parole, concludiamo il processo con una nuova deduzione sulla base di una nuova classe di equivalenza X . Pertanto, l’intero processo di abduzione si compone di tre fasi: 1. una fase negativa in cui inferiamo che la classe X di oggetti che avevamo scelto non va bene, 2. una fase associativa in cui intuiamo la soluzione, ossia la nuova classe X , e infine 3. una nuova deduzione basata su quest’ultima. Si noti che la legge non è stata minimamente toccata. Infatti, se vale che tutte le X sono Y vale a maggior ragione che tutte le X sono Y perché la classe X è in genere un sottoinsieme di X. Il processo precedentemente descritto rappresenta una correzione dell’errore. Tuttavia non è la sola possibile. Di fatto potrebbe essere che la soluzione da noi scelta ci serve ad affrontare alcune situazioni ma fallisce in altre. Quando tali fallimenti si accumulano e addirittura riguardano diversi e disparati oggetti del tipo X (aventi diverse caratteristiche), abbiamo ragione di ritenere che il problema non è più nello specifico campo di applicazione ma nella legge come tale, e quindi siamo portati a percorrere l’altra strada, ossia a sostituire l’esperienza che ci smentisce alla prima premessa. In tale caso dobbiamo effettuare un’induzione. Pertanto una induzione si compone innanzitutto di un’inferenza inconclusiva con la forma generale: Negazione dell’aspettativa Ci sono oggetti Z che non hanno la proprietà Y . Ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X. Negazione della legge La classe X non ha la proprietà Y . Come prima, tale inferenza non ci porta positivamente al nuovo risultato ma quest’ultimo è frutto nuovamente di un nuovo processo associativo. Se siamo fortunati, arriviamo all’individuazione di una nuova proprietà che ci permette di formulare una nuova legge. Che caratteristiche generali deve avere questo nuovo insieme di oggetti? Poiché avevamo trovato diversi oggetti che non rientravano sotto la legge, ne inferiamo che il nuovo insieme Y deve essere più ampio del vecchio insieme Y . Se tutte queste condizioni sono soddisfatte, siamo in gradi produrre una nuova deduzione con le seguenti caratteristiche: Nuova legge Tutti gli oggetti X hanno la proprietà Y. Ambito di applicazione Ci sono degli oggetti Z che fanno parte della classe X. Nuova conseguenza Pertanto ci aspettiamo che gli oggetti Z abbiano la proprietà Y. Anche qui l’intero processo induttivo comprende tre fasi: 1. una fase inconclusiva in cui inferiamo che avevamo definito male l’insieme Y , 2, una fase associativa in cui troviamo un nuovo insieme Y, e 3. una nuova deduzione basata su quest’ultimo. Si noti che la seconda premessa non è stata minimamente toccata. Pertanto le tre forme di inferenze costituiscono un circolo in cui sempre nuove aspettative (e quindi anche nuove deduzioni) vengono generate o specificando la classe di oggetti o ampliando le proprietà che determinano la legge. 4 Le teorie evolvono Pertanto le teorie scientifiche, come tutti gli altri sistemi dell’universo, hanno un naturale ciclo che può essere schematicamente inquadrato come una successione di tre fasi principali: 1. Quando una teoria nasce, inaugura la sua fase giovanile. In questo periodo dominano le aspettative che tale teoria sia in grado di aprire nuovi orizzonti di comprensione e di predizione. Essenzialmente, la comunità scientifica cerca di utilizzare il nuovo framework concettuale applicandolo a diversi ambiti e problemi con lo scopo di derivarne conclusioni innovative. Praticamente, è una fase di espansione della teoria. La forma di 5 ragionamento dominante in questo primo periodo è la deduzione, intesa come l’aspettazione di determinati risultati date delle ipotesi o delle leggi di carattere generale e la loro applicazione a un certo insieme di oggetti. Questa fase corrisponde a quella che Kuhn chiama la scienza ordinaria [KUHN 1962]. 2. A questa prima fase ne succede una seconda, che potremmo chiamare la fase della maturità di una teoria. E’ naturale che, nel corso delle applicazioni di una teoria scientifica a diversi ambiti problematici, emergano delle piccole imprecisioni oppure si presentino problemi che fanno resistenza ad essere trattati con tali metodologie. Infatti nessuna teoria o ipotesi generale (in quanto perfettibile) è in grado di descrivere compiutamente qualsiasi genere di fenomeno all’interno del suo dominio di applicazione. Poiché la teoria in questione è stata collaudata nella prima fase diverse volte venendo a rappresentare per tale ragione uno strumento prezioso, la comunità scientifica cerca di risolvere tali problemi introducendo delle correzioni alla teoria, andando ad intervenire sul modo in cui gli oggetti (gli ambiti di applicazione della teoria) sono stati definiti o classificati. La tipologia di ragionamento che domina in questa fase si chiama abduzione oppure ipotesi [PEIRCE 1878]. 3. Tuttavia, proprio per l’intrinseca limitatezza di ogni spiegazione umana, prima o poi gli errori di una teoria si accumulano e soprattuto iniziano a riguardare molteplici e disparati ambiti di applicazione, sicché la comunità scientifica diventa sempre più conscia che il problema non risiede nel come noi definiamo o classifichiamo gli oggetti (o gli stessi ambiti di applicazione) ma proprio nella teoria stessa, ove assumo che una teoria è data da un insieme di leggi o almeno di spiegazioni che hanno la natura generale di leggi. Questa è la fase della senilità la cui conclusione è necessariamente la fine di una teoria per fare posto a una più generale o più potente o comunque innovativa. Questa è la fase che Kuhn chiama delle rivoluzioni scientifiche. La forma di ragionamento che domina in tale fase, si chiama induzione. Le due ultime forme di ragionamento sono ampliative e pertanto, come abbiamo visto, sono costituite da una parte puramente logica e da una parte intuitiva o associativa che non è soggetta alla logica. Questo ciclo delle teorie scientifiche non implica che esse siano delle pure costruzioni arbitrarie o che siano intercambiabili a piacimento. Intanto, sebbene non esista mai una spiegazione ottimale di alcuni fenomeni (in linea teorica ce ne possono sempre essere di migliori), esistono di fatto spiegazioni migliori e spiegazioni peggiori. E nessuno sceglierà queste ultime in presenza delle prime. Inoltre, sebbene il cambiamento di un quadro teorico sia un’importante discontinuità (che ha fatto parlare Kuhn di cambiamento di paradigma), non tutti gli elementi di una teoria superata risultano obsoleti: alcuni vengono recuperati e integrati nelle nuove teorie mentre le vecchie teorie continuano ad essere usate in alcuni ambiti specifici perché risultano più pratiche (ad esempio la navigazione su acqua si effettua sulla base di un’astronomia tolemaica e non copernicana). Pertanto, sebbene con un processo complesso ed articolato, c’è un progresso reale delle conoscenze, nel senso che gli oggetti vengono sempre meglio definiti e le leggi diventano sempre più generali. Pertanto il difetto delle teorie idealistiche come quella di Kant è supporre che le spiegazioni scientifiche siano un costrutto soggettivo che si impone su una natura esterna, laddove invece esse, pur restando costruzioni soggettive, sono in realtà entità dinamiche che evolvono grazie allo stimolo correttivo dell’esperienza. Ciò che si evidenzia, invece, è il fatto che ogni teoria scientifica, come ogni costruzione umana (anche di tipo politico o economico) presenta sempre punti deboli e pertanto è soggetta ad avere una fine. Come vedremo questa caratteristica è in realtà comune a tutte le cose dell’universo. Infine, per quanto riguarda i rapporti tra la scienza e la società, sebbene, come vedremo, il progresso delle idee scientifiche risenta del generale clima culturale e sociale e a sua volta affetti significativi cambiamenti culturali e sociali, i rapporti non sono nemmeno talmente stretti da potere affermare che le teorie scientifiche siano il risultato di una certa cultura (o viceversa). Infatti, le teorie scientifiche vengono in ultima analisi giudicate dalla comunità scientifica per il loro merito, ossia per le loro capacità predittive ed esplicative, e, sebbene fattori politici o di altro genere abbiano la loro indiscutibile influenza sulla comunità accademica, prima o poi le teorie migliori si fanno strada. 5 Un universo in evoluzione Come accennato, le teorie scientifiche evolvono come qualsiasi altra cosa dell’universo. Anzi l’universo stesso evolve. I principi generali dell’evoluzione sono i seguenti: • Innanzitutto c’è una variabilità di possibili soluzioni. Senza variabilità non ci può essere evoluzione. • Poi c’è selezione, ossia non tutte le soluzioni sopravvivono. 6 • Infine le soluzioni che sopravvivono producono effetti nel tempo. In particolare, nel caso delle specie biologiche, gli individui che sopravvivono trasmettono il loro patrimonio genetico alla discendenza. Riscontriamo qui aspetti che abbiamo già incontrato. Infatti abbiamo già incontrato la variabilità quando abbiamo discusso dell’esperienza. La selezione rappresenta poi un insieme di condizioni oggettive che sono le stesse, nel caso dell’evoluzione biologica, per tutti gli individui e per tutte le specie. Quindi esse sono universali e perciò dello stesso tipo delle leggi naturali. Abbiamo però un elemento nuovo: la trasmissione ereditaria nel caso delle specie biologiche. A guardare bene tale trasmissione ereditaria non ha né il carattere del primo momento, né del secondo. Poiché si tratta degli effetti che possono essere trasmessi nel tempo, essa ha il carattere delle relazioni causali. La fisica classica, ed in particolare la meccanica classica supponeva che le leggi di natura si identificassero con i meccanismi causali. Tuttavia tale supposizione non ha fondamento epistemologico ed è in contrasto, come vedremo, da quanto ci suggerisce la meccanica quantistica. Infatti, ogni relazione causale suppone non soltanto l’esistenza di leggi naturali ma anche di precise circostanze di spazio e di tempo in cui tale processo avverrebbe come anche concernenti la natura degli oggetti coinvolti. Queste costituiscono tra l’altro le condizioni iniziali e al contorno, ossia la situazione di fatto quando si produce l’evento causale e il contesto in cui produce. Ma, se ammettiamo (com’è appunto il caso per i sistemi quantistici) una variabilità irriducibile, anche tali condizioni iniziali e al contorno ne saranno soggette. Per cui emergono due conseguenze importanti: • Le leggi non descrivono perfettamente tale variabilità ma al massimo la probabilità che alcuni eventi accadano. Vediamo quindi che la natura generale delle leggi e principi che noi abbiamo trovato nel meccanismo di spiegazione scientifica ha una sua controparte nel fatto che le stesse leggi che operano in natura (che le prime mirano a descrivere, sia pure imperfettamente) presentano questa caratteristica generale oppure globale. • Pertanto le relazioni causali sono una sorta di mediazione tra l’elemento delle leggi e l’elemento delle variazioni. Come è possibile? Per capire questo problema bisogna capire alcune caratteristiche della fisica classica. 6 La fisica classica Essenzialmente la meccanica calssica mirava a considerare ogni processo fisico come il risultato di interazioni locali basate su contatto diretto: frizione, collisione, trazione, spinta ecc. In sostanza, la meccanica classica presuppone che qualsiasi problema fisico possa essere ridotto a una forma di contatto tra due corpi. Tale approccio ai problemi fisici implica naturalmente una metodologia riduzionista: ogni genere di problema fisico si può ridurre a interazioni locali tra elementi irriducibili. Infatti, il sogno della meccanica è sempre stato quello di trovare costituenti ultimi ed irriducibili del mondo fisico come corpuscoli o atomi. Dato il suo enorme successo era naturale che si tendesse a considerare tale metodologia come universale e pertanto si considerasse qualsiasi genere di problema (biologico, psicologico, sociale, ecc.) come riducibile in ultima analisi ad azioni meccaniche tra elementi materiali. In sostanza, dal giusto requisito metodologico di ridurre un problema ai suoi minimi termini oppure ai termini più semplici (che però non ci dice nulla né sulla natura delle azioni e forze in gioco, né sul carattere degli oggetti o fattori coinvolti), si è poi passati a una visione dell’universo di genere metafisico (il meccanicismo) che ha pesato negativamente su alcuni sviluppi della scienza, in particolare ha ritardato la costruzione della teoria del campo elettromagnetico (le cui prima fondamenta erano state poste già nel XVII secolo) come anche di discipline come le scienze biologiche. Il XIX secolo è stato il secolo del trionfo della meccanica ma anche quello in cui si sono affermate due teorie che hanno contribuito non poco a cambiare la storia del pensiero scientifico preparando la strada alle grandi rivoluzioni del XX secolo. La prima novità concerne la termodinamica. Fino ad allora il sogno della meccanica era stato quello della costruzione di un motore perpetuo. Infatti, le equazioni della meccanica classica sono reversibili. Ossia, in teoria, si può partire da uno stato iniziale I di un sistema fisico e scrivere le equazioni che portano a un determinato stato finale F , ma si può anche partire da questo stato finale F e con le stesse equazioni fondamentali arrivare allo stato I. Pertanto, se si riuscisse a eliminare del tutto la presenza di fenomeni di dispersione energetica, un motore potrebbe funzionare in modo perfettamente circolare autoalimentandosi. Certo ci sarebbero diversi problemi tecnologici da affrontare e superare, ma in linea di principio la cosa era ritenuta fattibile. La comparsa della termodinamica nella prima metà del XIX secolo, grazie ai lavori di Carnot, Clausius e Lord Kelvin, ha infranto questo sogno per sempre. Precedentemente si considerava l’energia come una quantità fisica che presentava essenzialmente le stesse caratteristiche in qualsiasi tipo di sistema o contesto fisico. Invece si scoprı̀ che l’energia può esistere in diverse forme, caratterizzate da un maggiore o minore grado di disordine. In particolare, il calore era una forma di energia molto disordinata. Si scoprı̀ che un qualsiasi motore degrada necessariamente una 7 parte della sua energia iniziale in calore, ma il calore, in quanto energia più disordinata, è meno utilizzabile per svolgere lavoro di altre forme di energia più ordinata. A titolo di esempio, consideriamo un gas: il calore consiste nel moto disordinato delle molecole che compongono il gas. Invece un gas che è confinato in un pistone, viene compresso lungo una determinata direzione determinando cosı̀ un moto parallelo delle molecole lungo tale direzione. Pertanto, il gas è qui in uno stato molto più ordinato (tutte le molecole si muovono in parallelo e non più ciascuna indipendentemente dall’altra), e, proprio per questa ragione, è in grado di effettuare lavoro (come far funzionare un motore). Pertanto, trasformare parte dell’energia iniziale più ordinata in calore, significa che il sistema a mano a mano tende a ridurre la quantità di energia con cui potere effettuare lavoro. Quindi, se lo supponiamo isolato e rimettiamo in circolo continuamente la stessa energia, dopo un certo punto la parte rappresentata dal calore sarà tanto importante da paralizzare il sistema per surriscaldamento. Quindi, diventa impossibile costruire un motore perpetuo. Clausius diede il nome di entropia alla quantità che misura il disordine di un sistema. Pertanto, la cosiddetta seconda legge o principio della termodinamica ci dice che in qualsiasi sistema isolato l’entropia non può mai diminuire ma o rimane costante o aumenta, e in moltissime situazioni reali aumenta. Possiamo fare un esempio per capire il problema. Per produrre una tazzina ci vuole lavoro (e quindi energia ordinata che viene anche chiamata energia libera). Ma romperla è di gran lunga più facile (richiede molto meno lavoro) e difatti si può fare in migliaia di modi diversi (mentre per costruirla ci sono procedure obbligate). La conseguenza è che non osserviamo mai una tazzina rotta ricomporsi spontaneamente. Insomma, la termodinamica aveva trovato che i problemi fisici del mondo reale sono soggetti a irreversibilità e non sono reversibili come aveva presupposto la meccanica. Il secondo grande cambiamento riguarda la teoria dei campi, e in particolare la teoria del campo elettromagnetico, la cui formulazione compiuta si deve al genio di J. Clerk Maxwell intorno alla metà del XIX secolo. Si è detto che la meccanica classica contemplava soltanto interazioni locali. Questa era stata la ragione per la quale la forza gravitazionale, che sembra agire a distanza (ad esempio, dalla Terra alla Luna), era sempre stata guardata con sospetto e addirittura era stata considerata come una realtà non fisica verso la fine del XVIII secolo. Quello che la forza gravitazionale rappresentava era in realtà il primo esempio di campo fisico. La nozione di campo supponeva un’idea radicalmente nuova della fisica, come messo giustamente in luce da Einstein [EINSTEIN MW, pp. 160–61]. Basta considerare che cosa accade quando un meteorite entra nel campo gravitazionale terrestre: esso viene prima attirato verso la Terra, deviando dalla sua traiettoria originaria, poi accelera nella misura in cui si avvicina per poi disintegrarsi tra atmosfera e suolo se non gli accade di finire in orbita. In altre parole, il comportamento di tale oggetto fisco (il meteorite) varia in ogni punto dello spazio e in ogni momento del tempo a seconda della sua relazione con il centro del campo gravitazionale terrestre che coincide con il centro della Terra. Pertanto, un campo rappresenta una rete di relazioni tra diversi punti spaziali (nel senso che allontanandoci sfericamente dal centro del campo la forza diventa sempre più debole) e quindi è qualcosa di intrinsecamente irriducibile a interazioni locali tra corpi materiali. Pertanto, le relazioni causali di tipo meccanico non possono essere l’unico genere di meccanismo che opera in natura. 7 Ordine e disordine in natura Quanto visto in precedenza ci fa comprendere che l’universo è fatto di una mescolanza di ordine e disordine. L’entropia misura il grado di disordine e quindi esprime la variabilità locale, mentre le leggi di natura rappresentano l’ordine. A cosa si deve questo ordine? Abbiamo il massimo grado di disordine (e quindi di entropia) quando due o più sistemi fisici sono del tutto privi di collegamento. Come abbiamo visto, se delle molecole di gas sono libere di muoversi ciascuna in qualsiasi direzione indipendentemente dalle altre, abbiamo un elevato disordine. Ma se riusciamo a dare un movimento parallelo alle molecole, otteniamo un insieme molto più ordinato in grado di effettuare lavoro. E’ proprio quello che accade con un pistone di un automobile che con la sua forma cilindrica riesce ad imprimere un movimento parallelo alle molecole di benzina e quindi attiva un motore. Pertanto sono le correlazioni tra sistemi fisici ad essere la base dell’ordine e quindi anche delle leggi naturali. Tali correlazioni si possono infatti tradurre in delle simmetrie ossia in delle invarianze rispetto a un qualche aspetto. Un esempio di simmetria spaziale o strutturale è fornita dal lato destro e sinistro del corpo umano. Un altro esempio è fornita dalla varianza traslazionale, cioè il fatto che un sistema fisico non dovrebbe mutare caratteristiche se spostato nello spazio a parità di condizioni. Sintetizzando, possiamo dire che ci sono due principi generali che regolano i processi naturali del nostro universo: la continua generazione di varietà (che determina il disordine) e la continua attivazione di correlazioni e canali privilegiati (che determinano l’ordine). Si noti che la combinazione di questi due aspetti determina uno dei fenomeni più sorprendenti in natura: la continua generazione di strutture, di pattern. Basti pensare alle ali di una farfalla, 8 hydrogen bond one helical turn = 3.4 nm 3’ A A C A C T C G A T G C T T G A A C T C G G C C G T G C A G A C T G T G A C T T G sugar-phosphate backbone G T C A phosphate 5’ deoxirybose G C A G base C 3’ 5’ Figure 1: La struttura a doppia elica del DNA, la molecola che porta l’informazione genetica. I “denti” sono le cosiddette basi che portano l’informazione genetica. Ogni dente è agganciato al suo negativo di fronte (come negativo e positivo di una foto). I filamenti su cui sono fissati i denti sono una struttura a base di zuccheri e fosfati che si ripete identicamente. Si noti che l’elica è un motivo strutturale (un pattern) molto comune in strutture biologiche. Adattato da [AULETTA 2011, p. 214] alla tela di un ragno, alla pelliccia di una zebra o di un leopardo, alle figure che stormi di uccelli disegnano in cielo, alla doppia elica del DNA (vedi figura 1). La maggior parte di queste figure o forme mostrano certamente ordine ma nel contempo il loro ordine non è totalmente simmetrico, e viene infatti descritto matematicamente con i cosiddetti frattali. Ossia presenta delle variazioni continue ma ricorrenti. Pertanto il dinamismo evolutivo che abbiamo riscontrato caratterizzare tutta la natura è dovuto proprio alla mescolanza di ordine e disordine. In particolare, tutti i sistemi naturali tendono naturalmente al degrado e pertanto hanno una durata limitata. Tuttavia, in molte circostanze che possiamo osservare abbiamo una evoluzione nel senso più proprio della parola: quando un sistema acquisisce comportamenti che sono più complessi rispetto agli stadi precedenti. La complessità di un sistema consiste proprio nella maggiore capacità di integrare ordine e disordine, ossia nella capacità di integrare ordine ma incrementando nel contempo l’ordine. Un fenomeno del genere si osserva su scala evolutiva quando si passa dalle cellule batteriche a quelle eucariote, che compongono ad es. il nostro corpo. Un batterio è come un sacco in cui le diverse funzioni e strutture sono messe insieme un po’ alla rinfusa, ad es. il DNA è a contatto in permanenza con altre molecole. Tuttavia, quando si costituisce una cellula eucariota, che è nata probabilmente dall’aggregazione di diversi batteri, emergono molte più strutture di prima. Per tale ragione aumenta anche enormemente il numero di interazioni possibili tra queste parti e quindi si genererebbe un tale disordine da uccidere la cellula. L’evoluzione ha ovviato a questo compartimentando le diverse funzioni e strutture di modo che alcune di queste ultime possono interagire soltanto con alcune altre e in momenti determinati secondo una struttura gerarchica. Ad es. il DNA è ora segregato nel nucleo e interagisce con un’altra molecola, l’RNA, soltanto in alcune circostanze: l’RNA è la molecola che fa da tramite tra l’informazione genetica depositata nel DNA e la costruzione finale della proteina. Pertanto, anche l’ordine è aumentato. La struttura gerarchica dei sistemi complessi ci fa capire che essi rappresentano qualcosa di più che semplicemente dei pattern. I pattern sono per cosı̀ dire bidimensionali, mentre la gerarchia è tridimensionale. La complessità integra differenti pattern al suo interno ai diversi livelli della gerarchia e nei diversi moduli. Un esempio straordinario è rappresentato proprio dal modo in cui il DNA viene integrato in altre strutture per costituire poi il genoma (vedi figura 2). Tale crescita della complessità nel corso dell’evoluzione lo possiamo osservare chiaramente nel caso del progresso della conoscenza: infatti teorie più generali e oggetti meglio definiti in generale implicano teorie più articolate, come la storia stessa della scienza dimostra (e vedremo anche alcuni esempi). Ma quanto detto vale per i sistemi naturali più in generale. Infatti, possiamo osservare un simile processo anche per l’evoluzione biologica: specie che sono nate dopo sono in genere più complesse di specie nate prima (ad esempio i primati e l’uomo in particolare sono gli ultimi arrivati in senso cronologico). Ma ciò vale anche su un piano cosmologico. Infatti dal Big Bang ad oggi (ossia dall’evento che ha dato origine al nostro universo) sono stati generati prima gli atomi più semplici, poi ammassi di tali atomi e quindi, galassie, stelle, elementi chimici più complessi, pianeti, fino ad arrivare alla vita. Questo determina uno dei fenomeni più interessanti del nostro universo: l’emergenza [AULETTA 2015]: nuove strutture e funzioni, generalmente più complesse, si generano da precedenti strutture e funzioni. La caratteristica 9 Figure 2: Livelli di integrazione del DNA. (1) La struttura a doppia elica del DNA. (2) Il DNA viene pii avvolto due volte intorno a dei rocchetti chiamati istoni. (3) L’intera struttura viene condensata grazie a una proteina, la cromatina, con un proprio centro che si chiama centromero. (4) due copie di DNA si uniscono tramite il centromero. (5) Alla fine si genera il cromosoma (uno degli elementi del genoma) che qui viene mostrato in una fase della cosiddetta mitosi). Grazie a tale struttura gerarchica, l’informazione contenuta nel DNA resta di fatto incapsulata (un esempio di compartimentazione) e per essere resa operativa o attivata tale struttura deve essere spacchettata. Adattato da http://www.all-science-fair-projects.com/ science_fair_projects_encyclopedia/Chromatin. più evidente dell’emergenza è che operazioni che ai livelli strutturali e funzionali precedenti non erano possibili, qui diventano non solo possibili ma perfino la regola. Ad esempio, abbiamo detto che la tendenza spontanea dei sistemi fisici è quella al disordine (tendenziale aumento di entropia). Tuttavia, nei processi organici si riscontra qualcosa di molto diverso: un feto si sviluppa generando strutture sempre più differenziate e ordinate a partire da strutture meno differenziate e ordinate. Ho detto che questo dipende dall’attivazione di nuove correlazioni e in particolare, come vedremo, dallo stabilire di network. Ma il motore di tutto questo è il fatto che un organismo, grazie a tali network e alla sua struttura complessa, è in grado di usare l’energia che prende dall’ambiente in modo efficiente. Ossia non si limita soltanto a rispettare la legge di conservazione dell’energia (come qualsiasi sistema fisico) ma è in grado di far valere un nuovo principio: incrementare o mantenere per quanto possibile l’efficienza energetica, ossia la capacità di effettuare lavoro e quindi di generare nuove strutture. Possiamo vedere l’intera traiettoria di un organismo in termini di efficienza energetica, che, ad es. nel caso umano, è massima e addirittura si incrementa nella prima fase (infantile), arriva a una relativa stabilità nella fase matura, per poi decrescere con la vecchiaia [AULETTA 2011, Cap. 10]. 8 Segnali e informazione Se le teorie scientifiche e la loro evoluzione non sono dissimili da quanto accade per gli oggetti naturali, sorge la domanda di cosa accomuna queste due cose cosı̀ diverse. La teoria della relatività ci dice essenzialmente che tutti gli effetti causali possono essere intesi come propagazione di un segnale. Per segnale intendo qualsiasi variazione in un mezzo fisico–chimico, come ad esempio un’onda. D’altra parte, come vedremo, la meccanica quantistica ci suggerisce che tutti i sistemi quantistici siano in realtà informazione. Consideriamo l’informazione più da vicino. Definire cosa sia informazione è un compito non facile. L’informazione richiede due condizioni (necessarie): • Variabilità e • Condivisione. Non ci può essere informazione senza variabilità poiché l’informazione ha valore soltanto laddove c’è a monte una qualche incertezza, ossia l’informazione viene proprio a supplementare dei dati mancati per rimuovere l’incertezza. Ora, se fossimo in presenza di un fenomeno che si ripete regolarmente con certezza, non potremmo parlare di incertezza, e perciò, per avere incertezza, c’è bisogno di variabilità. Per esempio, dire che il sole sorgerà domani non ci fornisce informazione ma dire che domani ci sarà il crollo di un certo titolo in borsa è un’informazione preziosissima per l’aleatorietà degli scambi economici e quindi per l’ingente massa di denaro che vi è connessa. Ma non ci può essere informazione nemmeno senza condivisione, perché, affinché l’informazione possa essere recepita, c’è bisogno che almeno in parte sia condivisa. Ad esempio, se qualcuno mi parla in cinese non capisco perché io e il mio interlocutore non abbiamo una base linguistica comune. Ma se qualcuno mi parla in italiano di una questione a me ignota, entro certi limiti sono in grado di capirla. Questi due aspetti sono complementari, ossia sono entrambi necessari ma l’aumentare di un parametro comporta il diminuire dell’altro. 10 • Quando noi intendiamo poi ricevere di fatto un’informazione, dobbiamo aggiungere un terzo elemento, ossia operare una selezione tra alternative, un concetto che abbiamo già incontrato parlando di evoluzione. Nella variabilità dell’informazione è insito il concetto di alternatività. Infatti, possiamo parlare di informazione soltanto in termini di possibili alternative. Se intendo, ad es., comunicare qualcosa a qualcuno c’è bisogno che ciò che dico non possa essere previsto completamente (altrimenti non catturerei l’attenzione dell’interlocutore). Ma questo non sarebbe possibile se per ogni parola che pronuncio non ci fosse scelta tra alternative in grado di produrre quell’incertezza che rendo quanto dico informativo. Ora, se scelgo (una parola tra le altre) sto operando una selezione. Questi tre aspetti costituiscono tre fondamentali operazioni o connessioni intorno all’informazione: 1. L’aspetto della variabilità è garantito dal processare informazione. Qualsiasi fenomeno anche naturale che produce variabilità può essere considerato un processore di informazione. Il caso più classico è rappresentato dai computer, specialmente quando fanno calcoli. Ma un altro esempio è costituito dal nostro cervello che continuamente rielabora (processa) l’informazione sensoriale che riceve (ma anche quella che proviene dall’interno del corpo). Un altro esempio è costituito da un sistema fisico che intendiamo misurare. Se non fosse una sorgente di variabilità (e quindi un riduttore di incertezza), non avrebbe senso misurarlo. Il concetto matematico con cui si esprime tale incertezza si chiama appunto entropia (e anche se non tutta l’entropia qui considerata è termodinamica vale il viceversa), che si simboleggia con H. Quindi abbiamo variabilità (e incertezza) soltanto quando c’è un certo grado di disordine. 2. Il secondo aspetto, la condivisione di informazione si esprime matematicamente con il concetto di informazione condivisa (mutual information). Supponiamo che due persone vogliano comunicare e lo facciano con due stringhe (successioni) di simboli come le lettere dell’alfabeto. Queste due successioni possono essere espresse tramite due variabili (i cui valori sono le occorrenze delle stesse lettere), ad es. X e Y . L’incertezza del messaggio comunicato dalla prima persona sarà H(X) mentre l’incertezza del messaggio della seconda sarà H(Y ). In tale processo di comunicazione (i due interlocutori si alternano) c’è un’incertezza totale della comunicazione rappresentata da H(X, Y ). Ora, questa quantità è data dalla somma di queste due entropie meno l’informazione che i due partner condividono. Se i due interlocutori non condividessero alcuna informazione (rendendo qualsiasi comunicazione impossibile), avremmo che l’entropia globale di tale processo di comunicazione sarebbe uguale alla somma delle incertezze dei due comunicatori presi indipendentemente. Questo rappresenterebbe il massimo del disordine possibile (e quindi il valore massimo dell’entropia globale) perché le due emissioni di simboli si svolgerebbero in completa indipendenza l’una dall’altra. Sarebbero come due sordi che comunicano a parole. Invece l’informazione condivisa abbassa il disordine globale in quanto crea una qualche rispondenza tra le due serie di emissioni di suoni: i due interlocutori non sono sordi e parlano in qualche modo la stessa lingua. Se, viceversa, entrambi gli interlocutori ripetessero all’infinito la stessa stringa di simboli (e addirittura magari è la sola che conoscono), ci sarebbe soltanto condivisione. La variabilità sarebbe zero. Il dialogo non porterebbe ad alcuna informazione nuova. Pertanto abbiamo trovato una quantità (l’informazione condivisa) che misura il grado in cui c’è sia condivisione sia variabilità. Quindi l’informazione è in qualche modo un trade off, ossia una mediazione tra questi due aspetti. 3. Infine, bisogna selezionare ossia bisogna rendere l’informazione attuale ossia effettivamente ricevuta. In tale caso dobbiamo scegliere una delle possibili alternative che rappresenterebbe la lettura del messaggio. In sostanza, quando acquisiamo informazione su un sistema, stiamo diminuendo il suo grado di incertezza o disordine almeno relativamente a noi. Tuttavia, poiché ogni ricezione di informazione avviene tramite uno scambio fisico, c’è stato effettivamente un trasferimento di informazione dal sistema oggetto a noi osservatori: c’è stata un passaggio dall’informazione potenziale del sistema a quella acquisita di fatto da noi. E’ grazie alla selezione di informazione, laddove c’è stato un processore di varietà iniziale e c’è una condivisione, che possiamo acquisire informazione. Ad es., il nostro sistema percettivo riceve continuamente informazione dall’esterno. I segnali esterni sono la sorgente di varietà. Il fatto che abbiamo dei recettori (come quelli che sono presenti nell’organo ella vista o dell’udito), significa che condividiamo informazione con il segnale in questione (in altri termini, le cellule che fanno da recettori per l’occhio sono fatte in modo da ricevere quelle particolari onde elettromagnetiche). Nel momento in cui riceviamo un segnale su uno di questi recettori, il sistema percettivo opera una scelta, ad es. decide se diversi punti luminosi sulla retina costituiscono uno stesso oggetto oppure no. In tale modo, grazie a tutti e tre gli aspetti, abbiamo acquisito informazione. Pertanto vediamo subito che l’informazione rappresenta proprio la mescolanza di ordine e disordine che abbiamo considerato nel caso dei processi naturali. Inoltre, tale visione ci permette di capire la ragione delle correlazioni (e 11 qui di dell’ordine) dei fenomeni naturali: quando oggetti sono correlati essi condividono informazione. Pertanto ci sono ragioni per credere che ovunque nel nostro universo si scambia informazione e che tali messaggi si presentino innanzitutto nella forma di segnali fisici. 9 Tipi di spiegazione causale Se le correlazioni sono un principio di ordine del nostro universo, c’è ragione di supporre che esse contribuiscano alla relazioni causali che vi hanno luogo. Secondo il grande fisico M. Born, ogni relazione causale esprime un genere di dipendenza [BORN 1949]. Ora, le cause tradizionalmente discusse in fisica classica sono le cause meccaniche. Queste sono chiamate da Born cause temporali perché c’è una successione. Esse sono per natura dinamiche, ossia, data la causa ne consegue l’effetto. Ma c’è un altro significato, atemporale, proprio quello dato dalle correlazioni. Infatti anche qui abbiamo un dipendenza ma tale dipendenza non è dinamica ma è solo il fatto che un oggetto non è indipendente da un altro. Ma allora in cosa consiste questo fattore causale? Faccio un esempio. Il modo in cui sono disposti gli alberi in una foresta è un esempio di correlazione. Ad esempio possono costituire una barriera. Ora, se c’è un agente fisco in azione, ad es. il vento (che qui è una causa dinamica e meccanica), tale azione può essere bloccata dalla barriera o meglio canalizzata lungo alcune direzioni (in fondo anche bloccarla è una canalizzazione). Pertanto l’effetto di canalizzazione che si produce non avrebbe luogo senza la barriera, e perciò quest’ultima è un fattore causale. Tuttavia la barriera da sola non fa nulla, è una struttura inerte, e pertanto deve essere attivata da una qualche causa meccanica per potere svolgere un’azione causale (in tale caso sfrutta il principio fisico di azione–reazione). Ora, quando un segnale si propaga, siamo certamente in presenza di un’azione meccanica. Tuttavia, se questo segnale viene recepito da qualcuno c’è bisogno di un contesto appropriato, ad esempio di organi o apparecchi adatti per la ricezione di quel segnale. E tutte queste condizioni (al contorno) sono appunto correlazioni. Pertanto, qualsiasi acquisizione di informazione nel nostro universo avviene grazie alla combinazione di cause meccaniche e correlazioni. Ma poiché ho accennato che tutti i processi causali sono in ultima analisi scambio di segnali, allora questo vale per i processi causali in generale. E questo spiega perché i processi causali siano diversi sia dalla semplice variazione sia dal semplice ordine delle leggi. Per distinguere le correlazioni come cause dalle cause meccaniche chiamiamoli vincoli formali. Uno dei fenomeni più interessanti in natura è quando un numero elevato di sistemi interagiscono. Infatti si stabiliscono spontaneamente diverse correlazioni. L’incrocio di tutte queste correlazioni genera un network, ossia una rete in grado di generare effetti interessanti: vedi [AULETTA 2011, Cap. 6] e letteratura ivi citata. Abbiamo un impressionante numero di esempi di network del genere, basti pesare a un sistema ecologico, a una società umana, all’economia. Un network presenta alcune caratteristiche generali molto importanti. Come conseguenza dei due principi generali che abbiamo già sintetizzato, ossia la generazione della varietà e l’attivazione di correlazioni e canali privilegiati, abbiamo che i network sono governati da due regole: continua aggiunta di nuovi nodi e collegamenti preferenziali (di regola i nuovi nodi si attaccano ai nodi già esistenti che sono meglio collegati). In tale modo, si creano spontaneamente degli hub, ossia dei nodi che sono nevralgici per il funzionamento dell’intero network. Questo introduce di nuovo un elevato grado di ordine in presenza di un potenziale disordine. La compresenza di questi due aspetti genera la plasticità del network. In altre parole, se un network viene danneggiato (ad esempio dei nodi e quindi delle connessioni vengono distrutti) il network può continuare a funzionare in modo pressocché immutato purché non si toccano gli hub. Ma poiché questi ultimi sono pochi (proprio perché ci sono canali privilegiati che determinano una specie di processo selettivo) è improbabile che questo accada. Quando esistono dei network si generano nuovi e interessanti processi causali. La canalizzazione dei processi meccanici prodotta dai vincoli formali determina una situazione in cui gli stessi processi meccanici di ordine ad esempio fisico-chimico vengono sistematicamente e coordinatamente indirizzati o addirittura orchestrati in un certo modo. Questa è di nuovo una conseguenza naturale della generazione spontanea di hub. Ad esempio, prendiamo il sistema metabolico di un batterio (il più semplice organismo vivente). Innanzitutto si noti che ogni network metabolico può essere “inquadrato” in una struttura generale che per cosı̀ dire è comune a tutti i viventi, come mostrato in figura 3. Considerato l’enorme numero di sostanze chimiche e molecole presenti si potrebbe generare un numero catastrofico di reazioni chimiche incontrollate. Invece se ne genera un numero enormemente più ridotto e si tratta sempre delle stesse reazioni ripetute ciclicamente. Ad esempio, il numero di proteine che si potrebbero produrre è stato calcolato di essere dell’ordine di 10390 (ossia un miliardo moltiplicato per se stesso più di 43 volte: si pensi che il numero di particelle a noi note dell’intero universo è probabilmente sotto a 10100 ), ma quelle che di fatto si producono nell’organismo più complesso che c’è, l’uomo, sono “appena” tra 106 e 108 (ossia tra un milione e 100 milioni). 12 Figure 3: La complessisima struttura generale del metabolismo. Adattato da http://www.genome.jp/kegg/pathway/map/ map01100.html. In tale modo si producono degli effetti causali che sono chiamati top–down (dall’alto verso il basso), ossia un network a un livello più alto di una gerarchia di un sistema complesso come una cellula insieme a reazioni fisicochimiche spontanee genera degli effetti “pilotati”, ossia effetti che sono compatibili con la stessa sopravvivenza del network e dell’intero sistema (la cellula) [AULETTA et al. 2008]. Tali processi causali sono ovviamente emersi nel corso dell’evoluzione e una delle più chiare manifestazioni è proprio l’efficienza energetica, che non sarebbe possibile senza forme di causalità top–down. 10 La rivoluzione copernicana come esempio La visione cosmologica che ha dominato per molti secoli è quella ereditata da Aristotele e Tolomeo. Il cosmo aristotelico si presenta, a livello descrittivo, come un sistema di sfere concentriche fatte di un materiale particolare chiamato cristallino (o quintessenza), il cui centro è costituito dalla Terra. La più esterna è appunto quella delle stelle fisse, cosı̀ chiamate perché, pur modificando la loro posizione nel corso dell’anno terrestre, mantengono intatte le loro posizioni relative. Andando verso l’interno troviamo la sfera del pianeta più lontano dalla Terra (per le conoscenze dell’epoca): Saturno. I pianeti (pianeta = errante), a differenza delle stelle fisse, mutano di continuo la loro posizione relativa. Poi c’è la sfera di Giove, seguita da quella di Marte. Dopo Marte c’è la sfera del Sole, che comprende quella di Venere e poi quella di Mercurio. Infine l’ultima, sfera, quella della Luna, avvolge direttamente quello che possiamo chiamare oggi ‘il sistema terrestre’. Il movimento circolare delle sfere si trasmette continuamente dall’esterno verso l’interno per contatto diretto tra sfera e sfera: infatti, secondo Aristotele il movimento di un ente ha bisogno di essere continuamente alimentato da qualcosa d’altro già in movimento e, d’altra parte, se cessasse il contatto diretto, cesserebbe anche la comunicazione del moto. Allora cosa fa muovere la sfere delle stelle fisse, da cui prende origine il moto delle altre? Aristotele dice: Dio. E’ l’attrazione che egli, perfetto, esercita sul finito a produrre il moto. Né ha creato l’universo, che coesiste eternamente con Dio e da questo è eternamente mosso nel modo descritto. Naturalmente la visione del cosmo prima descritta, pur presentando qualità di semplicità ed esplicatività, non 13 poteva risolvere di per sé moltissimi problemi di ordine astronomico. E qui inizia lo sviluppo di una scienza astronomica in parte autonoma che poi troverà il suo corononamento nell’Almagesto di Tolomeo (II secolo d.C.). Figure 4: Retrocessione del moto di Marte. Adattato da [KUHN 1957]. Per capire i problemi maggiori bisogna considerare brevemente la situazione del sistema planetario cosı̀ come la conosciamo oggi. Il Sole occupa una posizione centrale mentre i vari pianeti compiono intorno ad esso un moto di rivoluzione. Partendo dal più interno, c’è prima Mercurio, poi Venere, quindi la Terra (intorno a cui orbita la Luna), quindi Marte, Giove e Saturno (a cui si aggiungono i pianeti scoperti successivamente, quali Urano, Nettuno e Plutone). Ovviamente a mano a mano che ci si allontana dal Sole le orbite diventano sempre più grandi e quindi richiedono intuitivamente periodi di rivoluzione orbitale sempre più lunghi (considerando tra l’altro che, come stabilisce la III legge di Kepler, la velocità dei pianeti diminuisce con l’allontanarsi dal Sole). Cosı̀ mentre Mercurio percorre la sua rivoluzione in 88 giorni terrestri e Venere in 225, Marte in 687 giorni, Giove in quasi 12 anni terrestri e Saturno in più di 29. Inoltre le orbite non sono perfettamente circolari (infatti sono ellittiche: è la I legge di Kepler). Figure 5: L’epiciclo. Adattato da [KUHN 1957]. Quindi il principale dei problemi che si presenta per l’astronomo aristotelico è il moto retrogrado dei pianeti. Infatti, nella realtà astronomica cosı̀ come la conosciamo oggi, abbiamo visto che la Terra ruota intorno al Sole occupando la terza orbita planetaria partendo dall’interno e che quindi, nel suo moto di rivoluzione, è sorpassata continuamente da Venere e sorpassa continuamente Marte. Ciò significa, prendendo il caso di Marte, che mentre dal I aprile al I giugno il pianeta rosso si muove apparentemente con un movimento diretto ad est sulla volta stellata, 14 successivamente inverte il proprio moto in direzione ovest, per poi ritornare dopo il I agosto al suo moto ‘normale’, descrivendo cosı̀ un cappio (vedi figura 4). Questa improvvisa retrocessione, o inversione di movimento deriva appunto dall’essere stato superato dalla Terra (è lo stesso effetto che si prova quando il treno su cui viaggiamo supera un altro treno e questo ci sembra muoversi in direzione contraria alla nostra). Sin dal III-II secolo a. C. Apollonio e Ipparco introdussero degli artifizi matematici in grado di riprodurre tale comportamento anomalo senza mutare l’essenziale della concezione aristotelica. La soluzione da essi introdotta si chiama epiciclo. Come dice la stessa etimologia si suppone che il pianeta (ad esempio Marte) non sia collocato nell’orbita che gli veniva tradizionalmente assegnata ma orbiti descrivendo un cerchio più piccolo (appunto l’epiciclo) intorno a un punto assegnato dell’orbita suddetta (chiamata deferente). In tal modo, grazie alla combinazione del moto del deferente e dell’epiciclo si può descrivere un movimento che presenta dei cappi esattamente come quelli di fatto osservati (vedi figura 5). Si noti che quello che gli astronomi stavano facendo erano appunto delle abduzioni: pur restando la Terra al centro del sistema e mantenendo la circolarità delle orbite, queste venivano specificate in modo sempre più particolare. Questa e simili soluzioni tecniche presentano però diversi problemi. Innanzitutto è difficilissimo accordare da un punto di vista filosofico l’idea di un epiciclo con quella delle sfere di cristallino: infatti il pianeta dovrebbe in realtà sfondare diverse volte la sfera di cristallino ‘uscendone fuori’ ed ‘entrandone dentro’, il che appare del tutto assurdo. Ma ci sono soprattutto rilievi epistemologici. Tutte le soluzioni di questo genere, prese isolatamente, non permettono di rendere conto delle irregolarità dei moti planetari, derivanti sia dalla diversità dei periodi orbitali sia dalla ellitticità delle orbite. Quindi, con il passare del tempo, e soprattutto con l’accrescersi della precisione nelle osservazioni astronomiche e della massa dei dati a disposizione, i diversi metodi furono sempre più combinati tra loro per rendere ragione di sempre nuove irregolarità, dando origine a soluzioni in cui, ad esempio, un epiciclo ruotava intorno a un punto dell’orbita di un altro epiciclo, e cosı̀ via. Il sistema dell’astronomia tolemaica diventava sempre più complicato, venendo cosı̀ a perdere un elemento fondamentale della costruzione aristotelica: la semplicità. Questo è un punto decisivo dato che una teoria è efficace solo in quanto risulti essere considerevolmente più semplice della realtà che intende descrivere. Oltre un certo punto critico la teoria cessa di avere un significativo potere esplicativo e diventa al limite inutilizzabile. Siamo entrati qui già nella fase della senilità di una teoria, dove a lungo andare si rendono necessari processi induttivi. Il secondo rilievo epistemologico è che tutte le soluzioni elencate in precedenza sono soluzioni ad hoc, ossia artifici tecnici per far quadrare i conti. Tuttavia, una vera soluzione non serve per far quadrare i conti rispetto a quello che già si sa e non si riesce a spiegare ma per portare alla scoperta di fenomeni nuovi ossia ignoti in precedenza. In altre parole, come accennato più sopra, le teorie si giudicano in base alla loro fertilità o rispetto alle aspettative che generano. Questo di fatto è in particolare vero per la prima fase delle teorie, ma ci aspettiamo da qualsiasi teoria tali caratteristiche. Qui si inserisce la rivoluzione copernicana, il completamento induttivo di tale processo. La rivoluzione copernicana è stata a tutt’oggi la più grande rivoluzione scientifica mai avvenuta, e ha preso le mosse dalla pubblicazione postuma nel 1543 del De revolutionibus orbium coelestium di Nicolò Copernico. Anzi, per molti, è stata la rivoluzione che ha posto le basi di ciò che noi oggi chiamiamo scienza. Questo è vero ma, come ricordato nell’introduzione, alcune parti della visione aristotelico-tolemaica non sono state del tutto abbandonate o rese invalide, e alla stessa rivoluzione copernicana ci si è arrivati tramite un complesso processo che ha visto all’opera diversi studiosi già nel medio evo. Pertanto anche qui c’è una certa continuità. Copernico era confrontato con una tradizione che offriva una accozzaglia di soluzioni ad hoc, spesso in contrasto tra loro e comunque poco armoniche e poco semplici. C’erano addirittura diverse tradizioni astronomiche spesso confuse tra loro. Inoltre, come abbiamo visto, gli errori si erano venuti accumulando nel tempo, per cui l’astronomia tolemaica appariva sempre più inadeguata. Infine la successiva introduzione di nuovi strumenti tecnici (il cannocchiale) permetteva di rilevare con ancora più acutezza gli errori nelle previsioni tolemaiche. Quella di Copernico è innanzitutto una nuova soluzione matematica che intende rispondere alle esigenze estetiche di armonia e semplicità. 11 Secondo esempio: la teoria dell’evoluzione Verso la fine del XVIII secolo era crescentemente chiaro che la Terra aveva una sua storia. Il ritrovamento di fossili su montagne come le Alpi suggeriva che in passato tali aree erano immerse nel mare. Inoltre suggeriva che fossero esistite in passato specie successivamente estinte. Tuttavia, la prima di idea di evoluzione biologica viene espressa da un grande naturalista francese agli inizi del nuovo secolo, Lamarck. Lamarck aveva capito che le diverse funzioni e caratteristiche biologiche che noi osserviamo negli odierni organismi erano evolute e che quindi le stesse specie biologiche dovevano avere subito significative 15 trasformazioni nel tempo e perfino nascere ed estinguersi. Lamarck aveva anche capito che l’ambiente era in qualche misura responsabile di tali processi. Per spiegarli, elaborò un modello secondo il quale l’ambiente influisce sugli organismi spingendoli ad acquisire o perdere determinate funzioni o caratteristiche. Uno degli esempi diventati più noti è quello del collo delle giraffe. Questi animali dovevano avere allungato il collo a seguito di precedenti mutamenti del loro ambiente che avevano portato gli alberi di cui si cibavano a crescere in altezza. Per potersi tenere “al passo” le giraffe avevano conseguentemente e progressivamente allungato il collo diventando una specie distinta a partire da un antenato più simile all’attuale zebra. Sebbene l’idea generale di evoluzione fosse abbastanza chiara in Lamarck e sebbene egli abbia anche definito abbastanza bene la nozione di specie biologica sessuata nei termini di una comunità di individui capaci di relazioni riproduttive e quindi di generare una discendenza, la sua visione del meccanismo dell’evoluzione era essenzialmente scorretta e bisognerà attendere Darwin per la soluzione del problema. Darwin, il grandissimo naturalista inglese che ebbe tra l’altro la possibilità di fare osservazioni sul campo alle isole Galapagos (e in presenza di una ricchissima varietà di specie viventi), comprese due cose fondamentali che sono poi diventate costitutive della teoria dell’evoluzione come la conosciamo ancora oggi [DARWIN 1859] (si noti che anche un suo contemporaneo, Alfred Wallace, arrivò a una soluzione simile): • Le specie viventi discendono tutte da un comune antenato unicellulare per successive ramificazioni dovute ai processi di speciazione. Oggi si preferisce parlare più di una comunità di cellule originarie ma l’idea fondamentale è rimasta immutata. • In secondo luogo Darwin aveva osservato come venivano selezionate nuove specie sia da allevatori che da coltivatori. Immaginò che un meccanismo simile doveva essere al lavoro in natura, sebbene in assenza di un piano e quindi in forme casuali e spontanee. Darwin si rese conto che la selezione di una specie nuova da parte di allevatori e coltivatori avveniva eliminando le varianti che non presentavano le caratteristiche desiderate. Ma questo significava selezione tra un numero di varianti già presenti nella popolazione. Da quest’ultimo punto Darwin trasse la corretta conclusione che l’ambiente non poteva avere una funzione istruttiva (non poteva determinare positivamente le caratteristiche di una specie), come aveva pensato Lamarck, ma doveva svolgere una funzione negativa di eliminazione di quelle varianti (la cui generazione avveniva in modo indipendente dall’ambiente) che risultavano incompatibili con le condizioni ambientali. In altre parole, le varianti biologiche erano generate per processi endogeni e quindi indipendentemente dall’ambiente. Darwin non fu in grado di indicare un meccanismo biologico che rendesse conto della generazione delle varianti. Tuttavia, su tali basi, egli elaborò l’articolazione del meccanismo fondamentale che è alla base non soltanto dell’evoluzione biologica ma di qualsiasi evoluzione in generale, che abbiamo già visto più sopra: la successione variabilità–selezione–trasmissione. Infatti, la teoria dell’evoluzione Darwiniana ha ormai ricevuto conferme di vario genere e pertanto è oggi una delle colonne portanti della biologia e quindi della scienza contemporanea in genere. Ma proprio perché è una teoria scientifica, è stata innanzitutto soggetta a integrazioni e correzioni di tipo abduttivo. La prima grande integrazione riguardava i meccanismi biologici che rendevano possibile la variazione. Abbiamo visto che Darwin non aveva una spiegazione. Tuttavia, pochi anni dopo la pubblicazione de Le origini, un monaco moravo che si occupava del giardino del monastero e in particolare dell’incrocio tra piante di piselli, si rese conto di un fenomeno straordinario: alcuni caratteri che in un certo numero di generazioni non si manifestavano, all’improvviso ricomparivano. Supponendo che la “mescolanza“ di caratteri biologici avvenisse secondo il modello continuo della mescolanza di fluidi, un carattere assente per diverse generazioni avrebbe dovuto stemperarsi a mano a mano (come quando diluiamo progressivamente un certo concentrato con acqua) fino a sparire del tutto. Il fatto che invece i caratteri ricomparissero suggeriva che questi stessi fossero regolati da unità discrete la cui combinazione dava origine alle funzioni e strutture biologiche che noi osserviamo. A tali unità discrete viene poi dato il nome di geni, anche se la scoperta della molecola, il DNA, di cui essi sono costituiti, è molto successiva e risale agli anni ’50 del secolo scorso: vedi figura 1. Si noti che siamo di fronte nuovamente a un tipico processo abduttivo. La scoperta di Mendel non mette in alcun modo in discussione la teoria darwiniana ma precisa soltanto il suo meccanismo biologico specificando che la determinazione biologica e le mutazioni di base non avvengono a livello delle funzioni dell’organismo ma a livello dei geni, i quali processi hanno poi come conseguenza anche gli effetti osservabili sull’organismo, compresa l’evoluzione delle specie. L’integrazione del contributo di Mendel nella teoria dell’evoluzione e la formulazione delle basi di quella che poi sarebbe diventata la teoria sintetica oppure neo–darwiniana, si trovano già nell’opera di Weismann alla fine del XIX secolo, ma la storia di tale sintesi è molto più lunga e complessa dato che ha dominato in realtà la biologia evoluzionistica almeno fino agli anni ’70 del secolo scorso. Nel corso di questo lungo arco di tempo tale teoria è 16 consolidata ed è venuta caratterizzandosi per diversi elementi chiave, alcuni dei quali possono essere sintetizzati cosı̀ (su questi problemi vedi [AULETTA 2011, parr. 9.2–9.4, 9.8] con letteratura ivi citata): • Il fatto che i geni sono distinti dai caratteri biologici osservabili suggerisce una netta separazione tra la dimensione genetica e la cosiddetta dimensione somatica che comprende tali fattori osservabili. Sebbene giusta in sé e sebbene sia giusta anche la conseguenza (che l’informazione si trasmette dai geni verso le proteine e le cellule somatiche e non vice versa), tale approccio ha comportato una conseguenza di non poco conto: una visione essenzialmente genetocentrica che ha fortemente ritardato non soltanto il sorgere di una biologia dello sviluppo ma anche la comprensione dell’intreccio di tali processi con quelli evolutivi. • Probabilmente ancora influenzati da una visione meccanicistica dell’universo fisico, i protagonisti di tale sintesi tendevano a porre una accento esclusivo sulla selezione naturale come unico fattore responsabile della speciazione e dell’evoluzione biologica. Tuttavia diventava difficile spiegare sulla sola base della selezione l’emergere di strutture e funzioni di grande complessità. C’era in qualche modo un anello mancante tra le variazioni endogene e casuali, da una parte, e la selezione, dall’altra. Cone conseguenza, alla selezione naturale si finiva per attribuire un significato non soltanto negativo (come era ancora vero per Darwin) ma addirittura un infondato carattere creativo. Con estrema laboriosità, a mano a mano si è imposta una visione più plastica e matura: si veda [AULETTA et al. 2011] per una sintesi. Vediamone brevemente i punti qualificanti. Il grande evoluzionista Waddington si rese conto già negli anni ’40 del secolo scorso che i processi di sviluppo (anche chiamati epigenetici) debbono risultare cruciali per l’evoluzione delle specie [WADDINGTON 1975]. Di fatto, il DNA codifica per l’informazione che dà luogo alla costruzione delle proteine all’interno delle cellule. Le proteine sono ovviamente cruciali per la vita in quanto forniscono il materiale per moltissime strutture biologiche e sono un po’ come le operaie delle cellule. Tuttavia le proteine non rappresentano affatto le funzioni superiori di un organismo (come il metabolismo o la respirazione) per non parlare della struttura generale dell’intero organismo. Se questo è vero già per organismi unicellulari, diventa drammaticamente vero per organismi multicellulari. Pertanto a mano a mano si comprese che la visione genetocentrica era insufficiente e perfino sbagliata. La nuovo visione teneva conto del fatto che l’informazione genetica è al massimo responsabile dell’“accensione” iniziale del processo di sviluppo (anche se perfino in questi stadi iniziali fattori epigenetici sono già importanti), ma a mano a mano che l’organismo si sviluppa lo fa in un complessissimo processo di segnali (sia scambiati al suo interno, sia con l’ambiente) che di continuo accendono e spengono particolari geni a seconda delle strutture che debbono costruire [GILBERT 2006]. Ad esempio, un seme di una pianta inizia il processo di sviluppo soltanto quando appropriate condizioni ambientali (ad es. in termini di temperatura ed umidità) sono presenti. Ma in tale modo non è il patrimonio genetico che l’evoluzione “sceglie” tramite la selezione naturale quanto piuttosto un co–adattamento tra organismo ed ambiente, e tale processo di co–adattamento è una nuova manifestazione della rilevanza causale delle correlazioni in termini di vincoli formali. I tempi estremamente lunghi della selezione naturale si giustificano proprio perché tale co–adattamento è un processo delicato e difficoltoso. Tale visione permette di comprendere che gli organismi non sono semplicemente il sostrato passivo su cui interviene la selezione naturale (come ancora riteneva il neo–darwinismo) ma sono fattori cruciali del processo di co–adattamento proprio in quanto modificano attivamente l’ambiente stesso. Dato che l’organismo è essenzialmente una “costruzione” a partire dall’informazione genetica, si capisce perfettamente che le maggiori novità biologiche (le famose mutazioni) come anche l’effetto della selezione naturale debbano essere cruciali proprio nella fase dello sviluppo. Si noti che in origine qualsiasi stimolo ambientale è di per se negativo, come Darwin aveva capito. E’ soltanto grazie al processo di co–adattamento che tale stimolo può essere successivamente “piegato” alle esigenze dell’organismo. Ad esempio, l’ossigeno è dannoso alla vita tanto che una delle cause maggiori dell’invecchiamento è la crescente ossidazione delle cellule e tessuti. Tuttavia, nel momento in cui (circa 600 milioni di anni fa) le piante verdi hanno colonizzato la terra ferma venendo ad immettere ossigeno nell’atmosfera, tutti gli animali terrestri (che avevano colonizzato le terre emerse parallelamente) hanno fatto dell’ossigeno il loro principio vitale tramite la respirazione. Ma qual è il meccanismo che permette una tale magia? E’ qui che entra in gioco l’altro cruciale fattore: l’autorganizzazione [KAUFFMAN 1993]. La materia vivente è un sistema complesso ove le relazioni tra componenti giocano un ruolo decisivo. Sebbene diverse strutture potrebbero essere in parte danneggiate senza incidere in modo sostanziale sulle capacità funzionali dell’organismo, resta pur vero che i vincoli che tali relazioni creano determinano un sistema di gerarchie e controlli che, se alterato, ha bisogno necessariamente di ristabilire nuovi livelli gerarchici e di controllo per potere sopravvivere [AULETTA 2011, capp. 8 e 11]. In tale modo il processo di speciazione può spiegarsi come un’alternanza di fasi casuali e processi di riorganizzazione. Possiamo ipotizzare che in una fase iniziale determinate mutazioni ambientali (ma anche endogene) creano 17 uno squilibrio nell’organismo (in una specie determinata). Poiché l’organismo tende a preservare il proprio stato di equilibrio (la sua omeostasi), esso cercherà di reagire (soprattutto nella fase dello sviluppo) in modo tale da contrastare la tendenza al tracollo. In generale può reagire o con nuove mutazioni genetiche o con espressione epigenetica di parti del genoma che fino a quel momento non erano state espresse. E’ stato dimostrato da Waddington che moscerini da frutta sottoposti a stress ambientali aumentano la variabilità genetica. Pertanto, possiamo supporre che in un modo o nell’altro l’organismo (almeno alcuni rappresentanti di una specie) siano in grado di generare in tale modo modifiche suscettibili di dare vita a nuove funzioni. Poiché però tali iniziali mutamenti sono avvenuti in modo casuale, è molto difficile che essi abbiano generato una risposta appropriata o completa in termini funzionali. Pertanto l’organismo si ritrova di fronte alle necessità di riorganizzare epigeneticamente le sue strutture e funzioni in modo tale da potere integrare tali modifiche. Tuttavia, a causa della insufficienza delle stesse mutazioni iniziali, tale processo non si può concludere subito in modo soddisfacente. Se l’organismo sopravvive, esso o un suo discendente ha bisogno di rinsaldare il suo equilibrio e di rendere più efficienti le soluzioni dando vita a nuova variabilità genetica. E il ciclo ricomincia daccapo. In tale modo, l’organismo può arrivare a soluzioni che rappresentano tutto sommato un ragionevole compromesso in termini di una buona stabilità. Tre cose vanno notate in questa sede: • La soluzione che in tale modo si raggiunge non è mai una soluzione ottimale, come era già implicito nell’idea di una selezione negativa propugnata da Darwin. E’ soltanto una soluzione che funziona. Ce ne potrebbero sempre essere di migliori. D’altra parte, una soluzione ottimale sarebbe pericolosissima per la vita. Infatti, significherebbe un sistema perfettamente adattato a un certo ambiente e pertanto esposto all’enorme rischio di essere subito eliminato al variare delle condizioni ambientali. La vita è perciò costretta soluzioni come si dice sub–ottimali. • Poiché qualsiasi genere di modifica è sempre pericolosa e soprattutto quella o quelle che riguardano livelli gerarchici superiori o funzionalità più fondamentali, la vita è estremamente conservativa e, sebbene introduca continuamente variazioni, lo fa senza mai eliminare completamente strutture e funzioni più antiche; anzi in genere le nuove strutture e funzioni vengono innestate sulle vecchie. Pertanto l’evoluzione non funziona come il lavoro di un ingegnere che pianifica a tavolino quali siano le soluzioni astrattamente migliori. E’ proprio questo punto a rendere la spiegazione fornita dall’Intelligente Design non appropriata: se le specie fossero il prodotto del lavoro di un disegnatore intelligente, il risultato sarebbe stato più di tipo ingegneristico. • Gli organismi sia nel corso della loro vita individuale (ontogenesi), sia nel corso della loro evoluzione vivono un equilibrio transiente. In altre parole, l’equilibrio è sempre precario e relativamente momentaneo. Per questo Waddingoton preferiva parlare di omeoresi invece di omeostasi (dinamismo invece di stasi). Poiché d’altra parte tale slittamento continuo dell’equilibrio avviene a livello di specie in condizioni in cui gli organismi sono costretti a innestare nuove funzioni sulle vecchie, l’evoluzione delle specie mostra mediamente una tendenza alla crescente complessità delle specie, come si è già accennato. In altre parole, mediamente oppure su periodi più lunghi, le nuove specie sono più complesse delle vecchie specie. Questo non significa dire che sono più adatte. Eucarioti unicellulari da un certo punto di vista possono essere considerati più adatti a sopravvivere dei mammiferi, ma l’evoluzione ha generato questi ultimi dai primi e non viceversa, com’è chiaro guardando l’albero dell’evoluzione. Un caso particolare è rappresentato dall’evoluzione dell’uomo. L’uomo è l’organismo più complesso della Terra (basti pensare alla complessità del cervello umano). Da quando ci siamo separati circa 6,5 milioni di anni fa dagli altri primati la nostra specie non soltanto è stata in continua evoluzione ma ha accumulato, in un lasso di tempo che, su scala evolutiva, è relativamente modesto, un tale numero di cambiamenti biologici da risultare forse privo di confronti con altre specie. La ragione di tale processo si deve a una peculiarità umana: la presenza di una cultura. La cultura rappresenta una modalità del tutto nuova di trasmissione dell’informazione di generazione in generazione. Tuttavia essa presenta le generali caratteristiche dell’evoluzione biologica. Infatti anche la cultura è soggetta a pressioni selettive e avviene tra beni o realtà culturali che preesistono alla selezione [RICHERSON/BOYD 2005]. La cultura consiste senz’altro nella trasmissione di tradizioni (in ultima analisi contingenti). Tuttavia, tale requisito è necessario ma non sufficiente. Anche altri primati (e cetacei) mostrano un senso per differenze tra gruppi nel modo in cui si effettuano delle operazioni e queste differenze vengono tramandate. Ma la cultura umana presenta un carattere che tali pratiche non hanno: essa è cumulativa [TOMASELLO 1999, TOMASELLO 2003]. Ossia, essa incrementa nel tempo continue migliorie di oggetti, idee, relazioni, ecc. Anche oggi il mercato premia sempre prodotti tecnologicamente innovativi. Tale capacità non sarebbe possibile senza una facoltà di apprendimento critico dei prodotti culturali (che manca agli altri primati) e senza una cooperazione attiva per produrli. Ma 18 z r y x Figure 6: Rappresentazione di un atomo di idrogeno: un elettrone (cerchio bianco) con carica negativa −e orbita a una distanza r intorno ad un protone con carica positiva +e (le cariche si debbono bilanciare per rendere l’atomo stabile). Adattato da [AULETTA/WANG 2014, p. 224]. per potere cooperare, studi recenti mostrano che c’è bisogno di una società nella quale vigano rapporti altruistici [FEHR/FISCHBACHER 2003]. Come si arrivati a tali risultati? E’ probabile che condizioni ambientali di grande variabilità abbiano reso efficace un comportamento altrettanto variabile, ossia non adatto a uno specifico ambiente. Di fatto una delle caratteristiche fondamentali dell’umanità è quella che viene chiamata improvisional intelligence [COSMIDES/TOOBY 2000, COSMIDES/TOOBY 2002], ossia la capacità tipicamente umana (che dipende dalla grande variabilità di comportamento) di estrarre dall’ambiente circostante informazioni e beni in modo non prefissato biologicamente ma riferito sempre a contesti e scopi specifici: ad esempio, una stessa sostanza può essere considerata o un veleno o una medicina a seconda dell’uso che se vuole fare e della quantità che si impiega. Si noti che questo spiega proprio il contesto generale in cui evolvono le teorie scientifiche, perché ci dice che possiamo accedere agli oggetti che incontriamo nell’epserienza in modo diverso e sempre più sofisticato ma che, proprio per questo, non riusciremo mai a superare la parzialità delle nostre conoscenze. Ci sono ragioni di ritenere che la teoria dell’evoluzione sarà superata da una nuova teoria più generale? E’ ancora presto per dirlo. Per ora non c’è stata ancora una sufficiente accumulazione di risultati che non si accomodano bene nel quadro del Darwinismo riformato di oggi giorno. Certamente prima o poi accadrà ma nessuno è in grado di fare previsioni in proposito. Per ora è la migliore spiegazione che abbiamo. 12 Terzo esempio: la meccanica quantistica Ho già fatto presente che il XIX secolo con la termodinamica e la teoria dei campi metteva già in discussione una serie di assunti della fisica classica. Questo processo trova il suo compimento nella nascita della meccanica quantistica (= MQ), una grande novità nella fisica del XX secolo. Infatti, essa • Mette in luce quell’aspetto relazionale tipico dei campi e lo amplifica in una sorprendente non–località. • Inoltre mostra l’esistenza di discontinuità in natura che fino agli inizi del secolo scorso non erano nemmeno considerate possibili. • Ma proprio per queste ragioni permette un trattamento unificato di luce e materia come non era mai stato possibile in precedenza. Partiamo dal secondo punto, che è anche il primo in ordine cronologico. Planck aveva tentato di affrontare il problema del corpo nero [PLANCK 1900, PLANCK 1900]. Si tratta di una sfera cava che assorbe luce ma non la emette. Se 19 (a) (b) Figure 7: pellets detection probability waves detection probability Supponiamo di inviare particelle (a) e onde (b) attraverso due fenditure. Le particelle si distribuiranno sullo schermo finale come due rose di pallini da caccia (con due rigonfiamenti nei due punti sullo schermo che si raggiungono in linea retta partendo dalle fenditure) mentre le onde daranno vita a tipici fenomeni di interferenza. Adattato da [AULETTA/WANG 2014, p. 75]. consideriamo il modello classico della luce, questa dovrebbe oscillare a qualsiasi frequenza (che misura quanti picchi di onde passano per un punto in un certo intervallo di tempo). Ma la teoria classica della luce era continua, e quindi andando a combinare tutte queste oscillazioni e considerando che la luce viene continuamente riflessa dalla superficie interna della sfera si ottiene una quantità di energia che è potenzialmente infinita, il che è evidentemente assurdo. Planck risolse il problema considerando che la struttura della superficie della sfera, essendo composta di atomi, era discontinua e quindi la luce riflessa poteva acquisire caratteristiche di discontinuità. Si badi che Planck non metteva in discussione che la luce fosse in se stessa continua, come voleva la teoria classica, ma risolveva il problema postulando che la luce acquisisse in queste particolari circostanze delle specifiche caratteristiche. Si trattava evidentemente di un’abduzione. Ma questo non fu l’unico problema. Agli inizi del ’900 si era capito che l’atomo non era cosı̀ indivisibile come si era pensato prima ma aveva una struttura che comprendeva particelle più piccole, come elettroni, protoni e neutroni (vedi figura 6); quest’ultimi due sono costituiti da particelle ancora più piccole (chiamate quark). La cosa sorprendente fu quando N. Bohr, basandosi sui precedenti lavori di Planck, scoprı̀ nel 1913 che gli elettroni (che grosso modo ruotano intorno al nucleo composto di protoni e neutroni), non si posizionano in modo continuo a qualsiasi distanza dal nucleo ma su specifici livelli orbitali e che possono passare a un livello successivo emettendo (quando si avvicinano al nucleo) e assorbendo (quando se ne allontanano) almeno un fotone [BOHR 1913]. Pertanto, il fotone rappresentava la quantità minima di energia possibile per permettere tali transizioni (discontinue). Si noti che la luce fino a quel momento, dopo gli esperimenti sulla diffrazione (su cui tornerò) era unanimemente considerata come un fenomeno ondulatorio e quindi continuo, mentre scoprire che era composta di particelle energetiche e quindi da quantità discrete di energia (i fotoni, appunto), era una vera rivoluzione. Di fatto, anche se i primi modelli che avevano ipotizzato una discontinuità dell’energia risalgono ai lavori di Planck sul corpo nero, il pieno riconoscimento da parte della comunità dei fisici che tale discontinuità fosse un fenomeno reale, almeno a scala atomica avvenne soltanto nel 1925, allorché Heisenberg, dopo un’accumulazione di diversi risultati sperimentali (sia con particelle materiali, sia con fotoni) che andavano in tal senso, pubblicò un famoso articolo che permetteva di trattare in modo matematico assolutamente generale tale problema [HEISENBERG 1925]. In quel momento nacque una nuova teoria. Si trattava di un perfetto esempio di induzione. L’altro effetto, ossia la straordinaria non–località dei sistemi quantistici è ancora più sorprendente: su questo problema vedi [AULETTA/WANG 2014, Cap. 10]. Per capirla, bisogna comprendere la differenza tra particelle discrete e onde (vedi figura 7). Le onde danno luogo a caratteristici fenomeni di interferenza: basti pensare a come le onde del mare si sovrappongono dando luogo a picchi locali molto elevati oppure a come la luce, quando passa attraverso una persiana quasi chiusa, dà luogo a caratteristiche strisce bianche e nere sulla parete opposta (un fenomeno noto come diffrazione): vedi figura 8. Fin qui stiamo parlando di un fenomeno puramente classico. Ora viene la parte quantistica. Supponiamo di inviare un singolo fotone attraverso le due fenditure. Abbiamo visto che un fotone rappresenta una quantità minima di energia che è perciò indivisibile. Tuttavia, quando arriva allo schermo finale, si scopre che questo fotone ha dato luogo ad interferenza, e perciò deve essere passato per entrambe le fenditure. Questo significa due cose: • Il fotone ha dato luogo a un fenomeno di auto-interferenza (ossia di interferenza con se stesso), che è classicamente inconcepibile. • Dato che il fotone non ha preso contemporaneamente due traiettorie localizzate (di cui potremmo seguire la posizione punto per punto) perché non è divisibile, l’unica conclusione è che si trova in uno stato globale. Ossia 20 wave 1 in-phase superposition wave 2 constructive interference wave 1 out-of-phase superposition destructive interference wave 2 Figure 8: Interferenza costruttiva e distruttiva. Per potere dare luogo a interferenza costruttiva le onde si devono sovrapporre (devo essere in fase), ossia picchi di una debbono corrispondere a picchi dell’altra, per dare vita a interferenza distruttiva bisogna che le onde siano fuori fase (a un picco corrisponde una valle e viceversa). Ovviamente sono possibili tutti i casi intermedi. [AULETTA 2011, p. 12]. UP DOWN entanglement misurazioni locali DOWN UP misurazioni locali Figure 9: Lo stato UP di una particella è collegato allo stato DOWN dell’altra e viceversa. non è localizzato da nessuna parte. Anche in questo caso, tutti i sistemi quantistici, non importa se fotoni o costituenti della materia, presentano questa caratteristica. Di fatto essi si comportano delle volte come se fossero particelle discrete, altre come onde. La ragione di questi diversi comportamenti è proprio nell’estrema sensibilità dei sistemi quantistici a qualsiasi dettaglio ambientale proprio per il fatto che si trovano in uno stato globale. In altre parole, la non–località dei sistemi quantistici li rende tutti sensibili gli uni agli altri e quindi interconnessi. Viviamo in un mondo ove non è possibile separare completamente i sistemi quantistici da altri sistemi quantistici. Tale interconnessione si chiama entanglement (intreccio), una forma particolare di correlazione. Supponiamo che due particelle siano collegate da un entanglement. Supponiamo che ciascuna possa stare sia in un certo stato fisico UP, sia in un certo stato fisico DOWN (vedi figura 9). Se ci limitiamo a misurare localmente (indipendentemente) ciascuna delle due non ci accorgeremo di nulla di strano. Anche se misurassimo mille particelle tutte in entanglement a coppia, vedremmo che localmente otterremmo nella metà dei casi UP e nella metà dei casi DOWN per ciascun gruppo (come nel caso di un lancio di una moneta). Ma se andassimo a confrontare i risultati di tutti questi lanci, resteremmo davvero sorpresi nel constatare che ogni volta che con una ottengo UP, con l’altra ottengo DOWN, e viceversa. Infatti, se tra le due non ci fosse alcun collegamento, mi aspetterei di ottenere in un quarto dei casi UP–UP, in un quarto dei casi DOWN–DOWN, in un quarto dei casi UP–DOWN, e in un quarto dei casi DOWN–UP. Invece qui ho nella metà dei casi UP–DOWN e nella metà dei casi DOWN–UP. Insomma, queste coppie di particelle sono ciascuna in uno stato globale tale che i possibili risultati delle misurazioni locali non sono indipendenti tra loro. 21 Anche qui vediamo come le correlazioni hanno una influenza causale come vincoli formali. C’è una conseguenza molto importante da considerare. I sistemi quantistici, in quanto globali, non predeterminano il tipo di risultato di misurazioni oppure interazioni locali. Questo l’abbiamo visto con l’esempio precedente: l’entanglement non altera i risultati locali delle misurazioni. Questo significa che gli stati globali della MQ determinano soltanto le probabilità di determinati eventi e non il loro accadere. Sappiamo che in metà dei casi avremo UP e in metà dei casi DOWN in base a una misura locale ma non possiamo prevedere se il prossimo risultato sarà UP o DOWN. Questo è evidente nel caso del decadimento radioattivo (gli atomi di un materiale radioattivo si disintegrano a mano a mano riducendone la massa). Possiamo calcolare le probabilità che una certa quantità di un materiale radioattivo ha di ridursi alla metà in un certo lasso di tempo, ma non possiamo prevedere quale atomo decadrà quando. Questo significa che le leggi quantistiche regolano soltanto le probabilità generali del nostro universo e non l’accadere dei singoli eventi (e pertanto la reversibilità delle leggi fisiche, che la MQ ha ereditato dalla meccanica classica, vale soltanto globalmente ma non determina processi locali, giustificando cosı̀ l’approccio termodinamico). Questo è in accordo con quanto detto in precedenza e permette proprio l’emergere di novità nel nostro universo che non sono prevedibili sulla base di quello che sapevamo prima. E’ perciò la circostanza generale e basilare che spiega perché tutte le nostre teorie sono imperfette. La domanda cruciale che viene da porsi è la seguente: cosa sono i sistemi quantistici? Essi sono essenzialmente informazione [D’ARIANO et al. 2015]. Infatti l’entanglement è la forma più “radicale” di informazione condivisa, come anche la discontinuità quantistica è la forma più radicale di variabilità. Inoltre, il primo fattore produce l’ordine globale, il secondo il disordine locale. Quindi l’informazione e lo scambio d’informazione sono davvero la cosa più basilare del nostro universo. Si noti che la meccanica quantistica è ancora nella sua fase giovanile. Non è stato infatti ancora trovato un singolo controesempio alle sue leggi. E’ quindi probabile che non smetterà di produrre risultati sorprendenti ancora per un certo tempo. References [AULETTA et al. 2008] Auletta, G., Ellis, G., and Jaeger, L., “Top-Down Causation by Information Control: From a Philosophical Problem to a Scientific Research Program”, Journal of the Royal Society: Interface 5: 1159–72; doi:10.1098/rsif.2008.0018. [AULETTA 2011] Auletta, Gennaro, Cognitive Biology: Dealing with Information from Bacteria to Minds, Oxford, University Press. [AULETTA et al. 2011] Auletta, G., Leclerc, M, and Martinez, R. (Eds.), Biological Evolution: Facts and Theories: A Critical Appraisal after 150 years after ”The Origin of Species” , Rome, G and B Press. [AULETTA/WANG 2014] Auletta, G. and Wang, S.–Y., Quantum Mechanics for Thinkers, Singapore, Pan Stanford Pub; doi:10.4032/9789814411721. [AULETTA 2015] Auletta, Gennaro, “Emergence: Selection, Allowed Operations, and Conserved Quantities”, South-African Journal of Philosophy 34: 93–105; doi:10.1080/02580136.2014.992156. [BOHR 1913] Bohr, Niels, “On the Constitution of Atoms and Molecules”, Philosophical Magazine 26: 1–25, 476– 502, 857–7. [BORN 1949] Born, Max, Natural Philosophy of Chance and Cause, Oxford, Clarendon, 1949, New York, 1964. [COSMIDES/TOOBY 2000] Cosmides, L. and Tooby, J., “Consider the Source: The Evolution of Adaptations for Decoupling and Metarepresentation”, in Sperber, Dan (Ed.), Metarepresentations: A Multidisciplinary Perspective, Oxford, University Press: 53–115. [COSMIDES/TOOBY 2002] Cosmides, L. and Tooby, J., “Unraveling the Enigma of Human Intelligence: Evolutionary Psychology and the Multimodular Mind”, in Sternberg, R. J. and Kaufman, J. C. (Eds.), The Evolution of Intelligence, London, Erlbaum: 145–98. [D’ARIANO et al. 2015] D’Ariano, M., Chiribella, G., and Perinotti, P., Quantum Theory from First Principles: An informational approach, Cambridge, University Press. 22 [DARWIN 1859] Darwin, Charles R., The Origin of Species, London, Murray, 1859; Sixth edition; Cambridge, University Press, 2009. [EINSTEIN MW] Einstein, Albert, Mein Weltbild, Frankfurt, Ullstein, 1993. [FEHR/FISCHBACHER 2003] Fehr, E. and Fischbacher, U., “The Nature of Human Altruism”, Nature 425: 785– 91. [FREGE 1884] Frege, Gottlob, Die Grundlagen der Arithmetik: eine logisch-mathematische Untersuchung über den Begriff der Zahl, Breslau, w. Koebner, 1884. [FREGE 1893–1903] Frege, Gottlob, Grundgesetze der Arithmetik, Jena, H. Pohle; I v.: 1893; II v.: 1903; reprint: Hildesheim, Olms, 1998. [KAUFFMAN 1993] Kauffman, Stuart A., The Origins of Order, New York-Oxford, Oxford University Press. [KUHN 1957] Kuhn, Thomas S., The Copernican Revolution: Planetary Astronomy in the Development of Western Thought, Cambridge, MA, Harvard University Press. [KUHN 1962] Kuhn, Thomas S., The Structure of Scientific Revolutions, Chicago, University Press, 1962; 2nd ed. 1970. [GILBERT 2006] Gilbert, Scott F., Developmental Biology, Sunderland, MA, Sinauer, 8th ed.. [GOODMAN 1954] Goodman, Nelson, Fact, Fiction, and Forecast, 1954; 3rd ed.: 1979; 4th ed.: Cambridge, MA, Harvard University Press, 1983. [HEISENBERG 1925] Heisenberg, Werner, “Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen”, Zeitschrift für Physik 33: 879–93. [HILBERT 1903] Hilbert, David, Grundlagen der Geometrie, Leipzig, Teubner. [PEIRCE 1866] Peirce, Charles S., “The Logic of Science or Induction and Hypothesis: Lowell Lectures”, in [PEIRCE W, I, 357–504]. [PEIRCE 1878] Peirce, Charles S., “Deduction, Induction, and Hypothesis”, Popular Science Monthly 13: 470–82; in [PEIRCE W, III, 323–38]. [PEIRCE 1887–88] Peirce, Charles S., A Guess at the Riddle, in [PEIRCE W, VI, 165-210]. [PEIRCE W] Peirce, Charles S., Writings, Bloomington, Indiana University Press, 1982-, vol.s I–. [PLANCK 1900] Planck, Max, “Über die Verbesserung der Wien’schen Spektralgleichung”, Verhandlungen der Deutschen Physikalischen Gesellschaft 2: 202–204. [PLANCK 1900] Planck, Max, “Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum”, Verhandlungen der Deutschen Physikalischen Gesellschaft 2: 237–45. [POPPER 1934] Popper, Karl R., Logik der Forschung, Wien, Springer, 1934, 8th ed. Tübingen, Mohr, 1984. [RICHERSON/BOYD 2005] Richerson, P. J. and Boyd, R., Not By Genes Alone: How Culture Transformed Human Evolution, Chicago, The University of Chicago Press. [RUSSELL 1902] Russell Bertrand, “Letter to Frege”, in J. van Heijenoort (Ed.), From Frege to Gödel, Cambridge (MA) 1967: 124–25. [RUSSELL 1903] Russell, Bertrand, Principles of Mathematics, 1903, 2d ed. 1937, London, Routledge, 1992. [TOMASELLO 1999] Tomasello, Michael, The Cultural Origins of Human Cognition, Harvard, University Press, 1999, 2003. [TOMASELLO 2003] Tomasello, Michael, Constructing a Language: A Usage–Based Theory of Language Acquisition, Cambridge, MA, Harvard University Press. [WADDINGTON 1975] Waddington, Conrad H., Evolution of an Evolutionist, New York, Cornell University Press. 23