LUDOVICO GEYMONAT Storia del pensiero ftlosoftco e scientifico VOLUME NONO Il Novecento (3) Con specifici contributi di Bernardino Fantini, Giulio Giorello, Corrado Mangione, Silvano Tagliagambe, Renato Tisato GARZANTI www.scribd.com/Baruhk I edizione: aprile 1972 Nuova edizione: novembre 1976 Ristampa 1981 © Garzanti Editore s.p.a., 1972, 1976, 1981 Ogni esemplare di quest'opera che non rechi il contrassegno della Società Italiana degli Autori ed Editori deve ritenersi contraffatto Printed in Italy www.scribd.com/Baruhk SEZIONE UNDICESIMA Per una nuova concezione del mondo realistica e razionalistica www.scribd.com/Baruhk www.scribd.com/Baruhk CAPITOLO PRIMO N ola introduttiva L'oggetto del presente volume è la contemporaneità, nel senso più pregnante del termine. In effetti, entro l'amplissimo ventaglio delle scienze odierne, la biologia e la logica - alle quali sono dedicati i capitoli secondo e terzo, costituenti in certo senso la prima parte del volume - possono venire a buon diritto considerate le scienze oggi più ricche di novità, le più promettenti per il futuro, le più feconde di sviluppi originali. Come è noto, non sono pochi a ritenere che la prima di esse (la biologia) abbia assunto negli ultimi tempi la posizione di « scienza-guida » occupata fino a qualche anno addietro dalla fisica. Aggiungiamo che di entrambe vengono analizzati, negli anzidetti capitoli, gli sviluppi più moderni, come - per la logica - la teoria delle categorie, di importanza capitale anche per la matematica, e come - per la biologia - la genetica molecolare che notoriamente si trova alla base del nuovo evoluzionismo nonché degli affascinanti dibattiti che si sono avuti intorno al caso e alla probabilità. Sia la trattazione della prima sia quella della seconda scienza richiedono, come il lettore vedrà, il ricorso a qualche tecnicismo; ma tale ricorso verrà tenuto nella minima misura possibile, dato il nostro esplicito intento di porre in luce, non solo il significato scientifico degli argomenti presi in esame, ma pure quello filosofico generale. Il fatto che, nei due capitoli in esame, i legami fra scienza e filosofia rivelino la loro essenzialità per entrambe, acquista un particolare significato nel presente volume; dimostra infatti che si tratta di legami ancora oggi di grande attualità, confutando così la pretesa che essi si riducano ormai a poco più che un ricordo del passato. Confessiamo francamente di scorgere in ciò una chiara conferma della validità dell'impostazione che abbiamo cercato di dare all'intera nostra opera, imperniata appunto sulla inscindibilità fra pensiero filosofico e pensiero scientifico. Né meno attuali o meno significativi risultano gli argomenti trattati nel 7 www.scribd.com/Baruhk Nota introduttiva quarto e nel quinto capitolo (che possono considerarsi come costituenti la seconda parte del volume). Il quarto fornisce infatti un ampio resoconto cr1t1co di uno dei più v1v1 dibattiti che stanno appassionando da circa un decennio la cultura filosofica e scientifica anglo-americana: il dibattito sul significato della crescita della scienza, sul suo carattere razionale o meno, sui modelli più idonei a farci cogliere tale razionalità, posto che esista. Il quinto affronta poi in forma originale il complesso problema, di natura non solo teorica ma anche politica, dei rapporti tra scienza e filosofia nell'Unione Sovietica. Al fine di farcelo cogliere in tutti i suoi aspetti, ne delinea la storia a partire dal I 92 I, seguendo ne le alterne vicende durante gli ultimi anni della vita di Lenin e poi durante la lunga era staliniana per giungere fino ai nostri giorni. Parecchie pagine del più vivo interesse sono dedicate al « caso Lysenko » e ai dibattiti intorno all'interpretazione filosofica della meccanica quantistica, studiati - sia quello che questi - su abbondante materiale pressoché sconosciuto in Occidente. L'importanza culturale di questi due capitoli è evidente, come è evidente il nuovo contributo che essi recano alla tesi, poco sopra accennata, circa l'interesse essenziale che presenta ancora oggi, non meno che in passato, il problema dei legami tra scienza e filosofia. Ovviamente questo problema viene attualmente formulato in termini diversi da quelli usati nei secoli scorsi, ma ciò non toglie nulla alla sua centralità. Ed è pure rimarchevole che esso possegga un peso altrettanto grande in due culture così diverse come quella anglo-americana e quella sovietica. Finora la cosa era relativamente nota per la prima, ma non per la seconda; uno dei meriti incontestabili di Silvano Tagliagambe, autore del quinto capitolo, sta proprio nell'averci fatto scoprire l'incidenza del problema anche nell'Unione Sovietica, erroneamente considerata ancora oggi, specialmente in Italia, come impermeabile a queste raffinatissime indagini. Quanto all'attualità delle varie questioni discusse nell'ultima parte del volume, cioè nei capitoli sesto e settimo (quali ad esempio la questione della gestione sociale della scuola o quella della neutralità della scienza), non è il caso di aggiungere parola, tanto essa appare evidente. In effetti, tali capitoli affrontano, in forma teoretica più che storica, alcuni nodi centrali della nostra civiltà largamente dibattuti in Italia come all'estero. Non già che prescindano da ogni considerazione storica, ma possono esimersi dal discuterla direttamente, perché basta loro far riferimento ai numerosi capitoli di specifico argomento storico contenuti nei volumi precedenti. Possono anzi considerarsi come la conclusione di tali volumi, cioè come il punto di approdo delle indagini ivi ampiamente svolte. www.scribd.com/Baruhk Nota introduttiva In quanto tali, hanno un carattere non solo teorico ma in certo senso programmatico, perché cercano di enucleare le più profonde esigenze della scuola e della cultura odierne, e su questa base si sforzano di indicare alcuni impegnativi suggerimenti, nella convinzione che possano riuscire di qualche utilità a chi intenda darvi una risposta seria e consapevole. 9 www.scribd.com/Baruhk CAPITOLO SECONDO La nuova biologia DI BERNARDINO FANTINI I • INTRODUZIONE Con la trattazione sostanzialmente storica che è stata seguita nei precedenti capitoli di quest'opera dedicati alla biologia, siamo giunti alle soglie di quella che viene chiamata la « nuova biologia », per sottolineare il carattere di profonda svolta che si è verificato nelle scienze biologiche, nel loro complesso, intorno al I 9 5o, svolta le cui premesse, come abbiamo visto nel capitolo IV del volume ottavo, erano già state poste negli anni trenta e quaranta. Si dovrebbe infatti parlare, più che di svolta, di un momento di sintesi, di incontro fra filoni di ricerca che sembravano incomunicanti, di unificazione all'interno di una teoria unitaria di interpretazioni che sembravano contrapposte (come nello studio dell'evoluzione, dove la teoria moderna, che unifica l'approccio genetico e quello morfologico ed ecologico, non a caso è detta «sintetica»). La stessa nascita della genetica molecolare che, nel bene e nel male, ha segnato profondamente tutta la biologia contemporanea, è un momento di sintesi fra conoscenze ed interpretazioni teoriche che erano state raccolte ed avanzate da decenni, una sintesi che prima o poi, per dire così, « doveva esserci ». Ma come sempre nella storia della scienza, un momento di sintesi audace diviene il punto di partenza per nuovi programmi di ricerca, per una reinterpretazione di vecchie teorie, anche delle più consolidate, per gettare nuova luce su aspetti rimasti ancora non spiegati, per prevedere nuovi risultati sperimentali. Tutto il complesso delle ricerche biologiche nella sua fase attuale è caratterizzato da questo processo di costruzione di nuove interpretazioni della realtà della vita, basato sulla teoria sintetica della evoluzione da una parte, sulla biologia molecolare dall'altra e sul loro incontro-confronto. La « svolta sintetica » non ha portato solo ad un incredibile aumento di conoscenze ma soprattutto ha permesso di fondare su basi più solide che nel passato lo sforzo di costruzione di una teoria generale della biologia, anche se questo sforzo si è spesso limitato ad una più rigorosa chiarificazione dei principali termini esplicativi e metodologici, senza impegnarsi nella costruzione dello « scheletro logico del sistema esplicativo » (Ernst Nagel). IO www.scribd.com/Baruhk La nuova biologia Fino agli anni quaranta infatti, se si eccettua, forse, la sola genetica, che sin dall'inizio aveva assunto una struttura quasi assiomatica, la biologia era rimasta una scienza puramente descrittiva, che si limitava alla raccolta dei dati ed alla loro correlazione. Il dibattito teorico era molto vasto ma riguardava i principi primi, era sganciato dalla ricerca militante. La biologia molecolare e la teoria sintetica dell'evoluzione si pongono invece immediatamente, e prepotentemente, come spiegazioni scientifiche e non prevalentemente speculative dei fenomeni biologici, dei quali diviene possibile individuare cause e modalità sulla base di alcuni principi teorici generali. Parliamo di spiegazioni e non di spiegazione perché, come meglio vedremo in seguito, la teoria dell'evoluzione e la biologia molecolare si pongono come spiegazioni alternative, l'una sostanzialmente storica e teleologica, l'altra funzionalistica, di un unico oggetto: la complessità coordinata dei sistemi biologici, nella sua multiforme varietà di livelli di organizzazione. Sulla base di questa generalizzazione delle proprie capacità esplicative, la biologia, pur senza raggiungere ancora i livelli teorici sui quali si era mossa all'inizio del secolo la fisica, si impegna nella assiomatizzazione e formalizzazione delle teorie, nella elaborazione di modelli generali, nella ridefinizione dei metodi, degli schemi interpretativi, dei principali concetti ed enunciati. Di conseguenza, si estende anche l'interesse per la filosofia della biologia e per la sua storia, che diviene uno strumento di chiarificazione e di ridefinizione dei fondamenti teorici, parte integrante della stessa costruzione delle teorie scientifiche. Nostro compito, in questo capitolo, sarà enucleare, dal vasto panorama delle scienze biologiche nel periodo 1940-70, i filoni di ricerca più rilevanti, i nodi teorici, i problemi epistemologici aperti, gli aspetti che hanno un maggiore rilievo filosofico e culturale, senza pretendere- non ci basterebbe lo spazio né ci interessa in questa sede - , di fare un resoconto esaustivo. Per ottenere ciò non potremo, data la vicinanza nel tempo, seguire un criterio di ricostruzione cronologica né crediamo sia facile individuare precise linee di pensiero fra loro separate da mettere a confronto, a causa della estrema varietà delle posizioni teoriche e culturali, anche all'interno di singoli settori e talvolta del singolo autore, e il carattere tuttora aperto del dibattito, continuamente arricchito da nuovi dati e nuove interpretazioni teoriche. Non crediamo utile nemmeno una trattazione per discipline. La biologia moderna infatti è abbastanza frastagliata in singoli settori specialistici, ciascuno dei quali ha dato contributi essenziali all'insieme delle conoscenze ed alla definizione dei nodi teorici, ma che non è possibile, se non si vuol cadere in un antologismo banale ed inconcludente, seguire nel suo particolare sviluppo. La multidisciplinarità, quindi, e la varietà delle posizioni teoriche e culturali che caratterizzano buona parte della biologia, dove un oggetto è affrontato da Il www.scribd.com/Baruhk La nuova biologia diversi punti di vista, sia sperimentali che interpretativi, che culturali, consiglia di puntare l'attenzione più sull'oggetto stesso che sulle diverse posizioni che con esso si confrontano. Occorrerà quindi seguire una trattazione per problemi, scegliendo, anche a costo di drastiche esclusioni e di raggruppamenti che non sempre potranno essere condivisi, quei temi scientifici che hanno avuto ed hanno maggiore valore euristico e rilievo teorico, culturale e filosofico. Il tema unificante di questo insieme di problemi, se si vuole trovarlo, potrebbe essere quello della spiegazione scientifica in biologia, intesa sia come spiegazione dell'oggetto biologico, sia come spiegazione con concetti e teorie biologiche di altri aspetti della natura, ed in particolare del comportamento e del pensiero. Da quanto detto, risulta che il primo problema da affrontare riguarda la collocazione della biologia nei confronti delle altre scienze, la fisica, la chimica e la matematica da una parte e la psicologia e le cosiddette scienze umane dall'altra. Nella nostra trattazione dovremo quindi, innanzitutto, analizzare in dettaglio i rapporti della biologia con le scienze fisico-matematiche, rapporti che, diversamente dal passato, non sono, specie negli ultimi anni, a senso unico, basati cioè sull'utilizzazione delle conoscenze e dei metodi fisici e chimici sul terreno biologico, ma rapporti di scambio estremamente fecondi. Lo prova l'uso di concetti tipicamente biologici - gerarchia, organizzazione, omeostasi, selezione naturale - in fisica e viceversa l'ampia utilizzazione di concetti fisici e matematici in biologia. L'analisi del contributo dato alla biologia dalle scienze fisiche in questo secolo (in particolare dalla meccanica quantistica, dalla termodinamica, dalla cibernetica e, per entrare direttamente in campo biologico, dalla biofisica e dalla biochimica) ci fornirà elementi conoscitivi e linguistici per comprendere le fasi successive della «nuova biologia», che proprio dall'incontro fra scienze fisiche e biologiche ha derivato nuovi concetti. Passeremo poi ad analizzare, nel loro sviluppo storico e nella loro formulazione attuale, i due pilastri della moderna biologia, e cioè la teoria sintetica dell'evoluzione e quella che potremo complessivamente chiamare la spiegazione molecolare. Preferiamo parlare di spiegazione molecolare dato che il termine biologia molecolare nell'uso ha acquisito un particolare campo d'azione, chè non corrisponde al grande tentativo di spiegare il complesso delle funzioni dei sistemi viventi sulla base delle strutture molecolari e delle loro aggregazioni meccaniche in livelli gerarchici più elevati. Affronteremo, nell'ambito di questo paragrafo, i due settori che maggiormente hanno beneficiato della trattazione molecolare. Il primo è la genetica, o almeno una parte di essa, che viene appunto chiamata genetica molecolare, dato che alcune branche genetiche ed in particolare la genetica di popolazione per la verità molto poco hanno in comune con la biologia molecolare e tendono invece a collegarsi più stretta12 www.scribd.com/Baruhk La nuova biologia mente alla teoria dell'evoluzione (genetica evoluzionistica). Quindi tratteremo della embriologia, intesa in senso lato, cioè come l'insieme degli studi sui processi ontogenetici che portano dall'uovo fecondato all'individuo maturo. La teoria dell'evoluzione si pone al centro della biologia moderna, non solo perché è il quadro di riferimento necessario per ogni teoria biologica, ma perché costituisce realmente il punto di congiunzione fra le scienze « della natura » esterne all'uomo e le scienze dell'uomo stesso, della sua struttura al tempo stesso biologica e psicologica. I rapporti fra l'evoluzione biologica e l'evoluzione culturale e sociale nell'uomo, ma non solo nell'uomo, si pongono, in effetti, come una discriminante netta fra diverse concezioni del mondo e non a caso hanno costituito e costituiscono anche oggi, e forse più di ieri, perché nel frattempo sono di molto aumentate le conoscenze su entrambi i tipi di evoluzione, un terreno di vivace battaglia culturale e teorica e, in ultima _ istanza, politica. A questo stesso filone esplicativo, quello evoluzionistico, si riallacciano anche le moderne correnti di studio del comportamento animale e umano sviluppatesi rigogliosamente solo dopo gli anni quaranta e presto divenute oggetto di esaltazioni acritiche e di attacchi altrettanto gratuiti. L'etologia, ossia lo studio delle basi biologiche del comportamento, ha acquistato, come vedremo, una propria autonoma collocazione, basata su solide conoscenze sperimentali e su autonomi principi esplicativi. Nel penultimo paragrafo dovremo confrontarci con il problema che, insieme con la natura della vita, costituisce la maggiore sfida alla biologia moderna e alle sue capacità esplicative: la natura del pensiero, le sue basi biologiche, il rapporto fra il biologico e lo psichico. Al termine della nostra trattazione, affronteremo i nodi metodologici ed epistemologici e infine culturali e filosofici che gli sviluppi delle scienze biologiche pongono alla riflessione teorica. A partire dagli anni cinquanta la biologia si pone come oggetto sempre più privilegiato dell'insieme delle riflessioni teoriche e metodologiche, diviene- il punto di riferimento sul quale misurare la capacità esplicativa di altre discipline scientifiche. La fisica e la matematica, in particolare, confrontandosi con l'oggetto biologico, che non possono più evitare se vogliono costruire teorie generali, elaborano nuovi concetti, nuovi principi esplicativi. La biologia si pone oggi al centro della riflessione filosofica e culturale, ed anche dell'attenzione del grande pubblico, non solo per l'enorme massa di conoscenze che in pochi anni è riuscita ad accumulare, ma soprattutto perché rappresenta ciò che rappresentò la fisica all'inizio del secolo: il punto di riferimento costante per la riflessione teorica, il crogiuolo da dove emergono concetti e teorie in grado di modificare in profondità l'immagine che l'uomo ha del mondo e di se stesso. www.scribd.com/Baruhk II I R A P POR T I C O N L E S C I E N Z E F i S I C O-M A T E M A T I C H E 1) Fisica e biologia Avremmo forse dovuto chiamare questo paragrafo semplicemente « biofisica ». Così facendo però, ci saremmo imbattuti in una difficoltà tradizionale che si incontra quando si parla delle cosiddette discipline di confine: quella di darne una definizione. Del termine biofisica si è fatto e si fa tuttora un ampio uso (anche per indicare la mera applicazione di tecnologie fisiche allo studio di problemi biologici, se non alla semplice analisi), ma un accordo su cosa debba rientrare in questa disciplìna non esiste. Definizioni del tipo «la biofisica è l'insieme dei campi di ricerca sugli organismi viventi che richiedono l'uso di concetti e metodologie tipiche della fisica » o del tipo « la biofisica si occupa dei problemi al limite fra la fisica e la biologia », che spesso si tro.vano nelle prime pagine dei trattati di biofisica; oscillano tra una concezione totalizzante, per cui la biofisica diviene semplicemente l'applicazione di ogni tipo di metodo e concetto fisico alla biologia ed è quindi solo della biologia fatta con particolari metodi, e una restrittiva, che però lascia fuori buona parte della ricerca spesso importante che sotto questo nome si fa su materiali biologici.l Per definire una scienza non basta individuarne alcune tecniche né isolare dei problemi particolari che non sono specificamente affrontati dalle discipline « tradizionali», ma occorre definirne i criteri esplicativi e la struttura logica, e vedere se questa è o meno autonoma. Per queste difficoltà di definizione, preferiamo parlare più in gene>:ale dei rapporti tra fisica e biologia. Questi rapporti hanno avuto una storia piuttosto complessa. Mentre nell'Ottocento, nell'ambito soprattutto dei programmi meccanicistici, la fisica era la base e il modello dei criteri esplicativi dei fenomeni biologici, e la fisiologia è stata il risultato di questa volontà di descrivere fisicamente le funzioni biologiche fondamentali, all'inizio e fino alla metà di questo secolo vi è stata una frattura abbastanza netta, a causa di un divergere degli interessi rispettivi dei biologi e dei fisici. La fisica infatti, con la relatività e la meccanica quantistica, viene ad occuparsi di oggetti o troppo piccoli o troppo grandi rispetto a quelli bioI Una dimostrazione di tali difficoltà è evidente nella seguente definizione data da M. Ageno: « La biofisica assume come dati di partenza i principi generali della fisica.e tutte le note conseguenze che da essi .derivano per via deduttiva, e si pro;:>ane di spiegare in base ad essi la possibilità dell'insorgere di sistemi materiali quali gli organismi viventi, nonché l'intera fenomenologia cui questi danno luogo. » Se si interpreta in senso lato questo tipo di definizione, ogni studio con metodi fisici ed ogni spiegazione con concetti fisici dei fenomeni biologici possono rientrarvi; se la si interpreta in senso stretto si identificherebbe la biofisica con la spiegazione fisica di processi naturali delimitati nel tempo (in parole povere l'origine della vita). E questo è certo per lo meno singolare; sarebbe infatti la prima volta che una disciplina viene definita non sulla base dei propri principi teorici, metodologici e tecnici o dal suo campo di applicazione ma da un lasso di tempo. 14 www.scribd.com/Baruhk La nuova biologia logici, mentre la biologia, dopo il sostanziale fallimento del programma meccanicistico,1 si andava impegnando nella costruzione di un proprio sistema teorico, basato su concetti autonomi. Il legame fra la biologia e la fisica si ripristina, più che con l'affermazione di una nuova disciplina, col diretto passaggio di molti fisici allo studio dei processi vitali; molti di questi infatti, anche per un certo esaurirsi delle problematiche della fisica in senso stretto, scoprono, come dice Max Delbruck, « per la prima volta i problemi della biologia », divengono semplicemente dei biologi, portando con loro non tanto l'uso di tecniche fisiche particolari quanto soprattutto un metodo di ricerca ed un rigore teorico allora non molto diffusi nel mondo biologico. Dal punto di vista propriamente teorico, i contributi maggiori alla conoscenza biologica da parte della fisica sono venuti dal confronto fra due delle maggiori teorie fisiche contemporanee, la meccanica quantistica e la termodinamica statistica, con l'organizzazione biologica e la sua modificazione evolutiva. a) Meccanica quantistica e biologia. La meccanica quantistica all'inizio si era praticamente disinteressata dei fenomeni vitali, nonostante che alcuni processi biologici, come le mutazioni, i processi di regolazione ed i fenomeni di trasporto sembrassero coinvolgere atomi isolati e singole molecole, elettroni delocalizzati ed anche singoli quanti di energia, come nella fotosintesi clorofilliana, e avrebbero potuto essere trattati con metodi quantomeccanici. Le difficoltà che si frappongono a questa trattazione, che ridurrebbe almeno parte della biologia alla meccanica quantistica, risiedono in primo luogo nel fatto che tali singoli eventi elementari non sono mai isolati ma fanno parte di una lunga catena di relazioni che comporta in genere aspetti tipicamente macroscopici. La meccanica quantistica, nella sua attuale formulazione, non è in grado di trattare adeguatamente le interazioni fra micro e macrofenomeni. L'altra difficoltà per una trattazione quantomeccanica dei fenomeni vitali consiste nel fatto che i sistemi biologici a livello più semplice, ed in particolare le proteine e gli acidi nucleici, non possono essere considerati né macroscopici né microscopici perché il numero di particelle che li compongono è troppo piccolo per una trattazione macroscopica (nei termini della termodinamica statistica classica) e troppo grande per una trattazione quantomeccanica. La applicazione dei metodi quantistici ha svolto un· ruolo importante nel calcolo dei parametri chimici e fisici delle molecole di interesse biologico. Soprattutto grazie al metodo semiempirico di approssimazione LCAo (Liner comI Il programma meccanicistico in biologia, sviluppatosi negli anni I87o-1920 fu cosa diversa dal meccanicismo fisico (si veda il voL v). Il fatto stesso che il meccanicismo biologico si sia affermato solo quando ormai il programma la- placiano mostrava ampie crepe, è indice di un tipo di riduzione che proprio dalla crisi del meccanicismo fisico e dai nuovi principi teorici della termodinamica e della chimico-fisica traeva stimoli per una impostazione riduzionistica. www.scribd.com/Baruhk La nuova biologia bination oj atomic orbitals) è stato possibile calcolare i valori energetici e gli indici elettronici delle molecole o dei gruppi funzionali. Tali valori e indici determinano le proprietà chimiche e chimico-fisiche essenziali delle molecole e permettono quindi una interpretazione della loro struttura e del loro comportamento nelle reazioni. Il frutto più recente di questa tecnica, l'analisi conformazionale, permette di calcolare la struttura teoricamente più stabile di una molecola, che confrontata con quella ottenuta sperimentalmente, ad esempio mediante diffrazione ai raggi X, può venire via via affinata sino a raggiungere una elevata risoluzione, rendendo possibile la predizione del suo comportamento nelle diverse condizioni naturali o sperimentali. Particolarmente studiato è il fenomeno della delocalizzazione elettronica lungo la molecola. La quasi totalità delle molecole di interesse biologico, compresi gli acidi nucleici e le proteine, sono molecole parzialmente o completamente coniugate; contengono cioè molti legami di tipo TI. Ciò renderebbe possibile una « delocalizzazione elettronica generalizzata in buona parte dalla superficie molecolare » (A. Szent-Gyorgy) in grado di permettere la stabilità strutturale, mediante risonanza, delle molecole ad alto contenuto energetico, e il trasferimento di energia o di segnali tramite veloci perturbazioni elettroniche. Come suggerisce H. Frolich, questa delocalizzazione potrebbe dare origine a vibrazioni elettroniche coerenti ad alto contenuto di energia che svolgerebbero il ruolo di stimolo e di segnale (oltre che di immagazzinamento di energia). Un processo quantistico sarebbe così all'origine di un processo macroscopico, mediante un meccanismo di tipo « catastrofico » (cioè con rottura totale dell'equilibrio preesistente e comparsa di un nuovo tipo di equilibrio). Si deve tuttavia notare che: 1) lo stimolo si applica ad una struttura preesistente, la cui origine non viene spiegata ma presupposta e 2) il corso futuro dell'evento «catastrofico» è determinato da questa struttura (e dal suo «ambiente») e non dall'evento microfisico scatenante. Una descrizione quantomeccanica dei sistemi biologici potrà quindi es~ere ottenuta solo affrontando il problema della struttura dei sistemi intermedi, che non può essere descritta con le ordinarie variabili termodinamiche e che richiede quindi la determinazione di altre osservabili macrofisiche. Su questa linea si sono mosse le ricerche di due fisici, Gustav Ludwig e Ilya Prigogine, che hanno elaborato delle teorie generalizzate in grado di spiegare il passaggio dalla microfisica alla macrofisica. Non possiamo in questa sede occuparci della macrodinamica quantistica di Ludwig, in quanto si tratta di una teoria prettamente fisica. Dobbiamo invece esaminare la teoria di Prigogine che si pone come una possibile soluzione della tradizionale dicotomia fra evoluzione fisica ed evoluzione biologica, cercando di fornire un substrato rigorosamente fisico alle leggi che regolano la comparsa e lo sviluppo dell'ordine biologico. 16 www.scribd.com/Baruhk La nuova biologia b) Termodinamica e biologia. Nella termodinamica classica l'evoluzione fisica di un sistema è descritta dal secondo principio della termodinamica che lega il verificarsi di fenomeni irreversibili all'aumento della funzione di stato entropia, S. Secondo il principio d'ordine di Boltzmann, l'entropia è una misura del disordine molecolare, della probabilità di esistenza di un certo stato. La legge di aumento dell'entropia è quindi una legge di progressiva scomparsa di ordine e di organizzazione. L'evoluzione organica e lo sviluppo ambientale sembrano andare esattamente nella direzione opposta, verso una maggiore organizzazione, verso l'aumento dell'ordine, verso configurazioni «improbabili». Superando questo paradosso la teoria di Prigogine si pone come una generalizzazione della termodinamica classica, in grado di spiegare sia la distruzione che la formazione di strutture. Innanzitutto, osserva Prigogine, il principio d'ordine di Boltzmann è valido per i sistemi all'equilibrio, ma non per quelli lontani dall'equilibrio termodinamico. Un sistema, se dotato di sufficienti riserve esterne di energia e di materia, può restare in « un regime costante diverso da quello di equilibrio >>. Mentre una struttura cristallina è un sistema Ìn equilibrio, incapace di evoluzione, i sistemi lontani dall'equilibrio termodinamico possono generare altri tipi di strutture, « dissipati ve », « associate ad un principio d'ordine interamente differente che si potrebbe chiamare ordine attraverso fluttuazioni». Questo tipo d'ordine tra l'altro non è nuovo in biologia: la genetica delle popolazioni, gli studi matematici di Vito Volterra, Alfred J. Lotka, John B.S. Haldane sulle popolazioni e sulla selezione naturale si basavano proprio su sistemi «lontani dall'equilibrio» in cui si raggiunge una stabilità attraverso fluttuazioni (del patrimonio genetico). In un sistema isolato la seconda legge della termodinamica dS jdt =o esclude qualunque diminuzione di entropia e quindi qualunque formazione di strutture ordinate. Ma i sistemi biologici sono sistemi aperti e per questi la variazione dell'entropia può essere definita come dS = deS dtS dove deS è il flusso di entropia proveniente dall'esterno e dtS è la produzione di entropia associata ai processi irreversibili che avvengono nel sistema. Ora, se nel sistema vi deve essere una diminuzione di entropia, dato che dtS è sempre positivo o nullo si deve avere deS < o, cioè il sistema deve ricevere un flusso di entropia dall'esterno. Un processo di auto-organizzazione può avvenire, quindi, solo in un sistema aperto, in interazione costante con l'ambiente, in condizioni di non equilibrio (altrimenti deS e dtS sarebbero nulli) e inoltre le subunità che costituiscono il sistema devono essere fortemente accoppiate termodinamicamente, in quanto solo in questo modo uno dei sottosistemi può evolvere nella direzione opposta àlla disorganizzazione. Sulla base di queste caratteristiche Prigogine e P. Glansdorff hanno enun- + 17 www.scribd.com/Baruhk Esempio di struttura dissipativa in idrodinamica: l'instabilità di Bénard. Si scalda dal di sotto un sottile strato liquido. A causa dell'applicazione di tale vincolo, il sistema si allontana dall'equilibrio corrispondente al mantenimento di una temperatura uniforme nèllo strato. Per piccoli gradienti di temperatura, il calore viene trasportato per conduzion.,, ma a partire da un gradiente critico, si osserva anche un trasporto per convezione. La figura mostra le cellule di convezione fotografate verticalmente. Si noti la sistemazione regolare delle cellule che hanno una forma esagonale. dato un teorema termodinamico secondo il quale gli stati stazionari v1ctno all'equilibrio sono asintoticamente stabili, cioè dotati di meccanismi che riportano il sistema al suo stato normale mediante smorzamento dopo una perturbazione. Tuttavia, al di là di una soglia critica lontana dall'equilibrio (in condizioni non lineari), gli stati stazionari possono divenire instabili e il sistema può seguire diversi processi di tipo strutturale. In particolare vi può essere una rottura delle simmetrie esistenti con la comparsa di organizzazioni spaziali di ordine più elevato, una comparsa di un regime variabile nel tempo (ad esempio oscillazioni chimiche) oppure un passaggio da uno stato stazionario ad un altro. Al di là della instabilità, quindi, il sistema può raggiùngere una configurazione ordinata. A queste strutture è stato dato il nome di « dissipative » per indicare 18 www.scribd.com/Baruhk La nuova biologia che la struttura viene mantenuta grazie ad una dissipazione di energia invece che dalle forze molecolari (come nei cristalli). Tali strutture richiedono un livello minimo di dissipazione all'interno del sistema, livello che viene mantenuto costante grazie all'azione di opportuni vincoli di non equilibrio. Se tali vincoli scompaiono il sistema perde la sua organizzazione, seguendo una evoluzione retta dal secondo principio della termodinamica. L'organizzazione biologica può quindi essere spiegata in base a leggi termodinamiche precise (di una termodinamica generalizzata) e alla conoscenza dei constraints (vincoli) esterni. L'esistenza di un ordine strutturale e funzionale in biologia non può essere spiegata ammettendo l'esistenza di leggi fisiche irriducibili, ma associando le condizioni di formazione e di distruzione di strutture a diverse condizioni termodinamiche, rispettivamente lontano e vicino all'equilibrio termodinamico. Come il principio d'ordine di Boltzmann permetteva di dedurre la struttura di un corpo inanimato, così le strutture dissipative, le successioni di instabilità « ci permettono di sperare che ciò che vi è di essenziale nei fenomeni della vita sia deducibile da "primi principi" [...] e non sembra affatto irragionevole pensare che il fenomeno vita sia altrettanto prevedibile che lo stato cristallino e lo stato liquido» (Prigogine). È questa una limpida enunciazione di un programma rigidamente monistico, di unificazione di tutta la natura all'interno di una teoria fisica. Si tratta però di una « riduzione » fondata su di una solida base scientifica e metodologica, sulla consapevolezza che gli assiomi di una teoria per poter spiegare fenomeni qualitativamente differenti devono ampliarsi e trasformarsi in profondità. La teoria delle strutture dissipative ha trovato ampie conferme, anche sperimentali, soprattutto nel campo del metabolismo, della « organizzazione metabolica », per spiegare la quale sono stati elaborati modelli della organizzazione funzionale a livello molecolare. Ma restano ancora da chiarire i rapporti fra strutture dissipative e processi tipicamente biologici, come la differenziazione, la specificità biologica e soprattutto l'origine di quei vincoli che permettono di mantenere il sistema in condizioni termodinamiche adatte alla creazione è alla conservazione dell'ordine biologico, al tempo stesso funzionale e strutturale. 2) Biochimica Nello stesso periodo in cui avveniva la frattura fra fisica e biologia, si veniva definendo come scienza la biochimica, che acquistava, mediante autonomi concetti e metodi specifici, un proprio oggetto: la descrizione dei complessi cicli metabolici che avvengono all'interno delle cellule e del bilancio energetico dello stesso metabolismo e di tutta la vita cellulare. In poco più di 30 anni, dai primi studi sulla catena respiratoria iniziati verso il 1910 sino alla definì- www.scribd.com/Baruhk La nuova biologia zione dei principali cicli metabolici, intorno agli anni quaranta, si compie una delle più importanti innovazioni, spesso sottovalutata, preludio indispensabile alla «rivoluzione molecolare ». La situazione all'inizio del secolo non era delle più facili, la cellula era considerata niente altro che un sacchetto di enzimi, senza alcuna organizzazione interna, praticamente inaccessibile ad una analisi causale.l La stessa parola protoplasma (protos in greco significa primo) « era usata non solo per coprire la nostra ignoranza degli eventi intracellulari, ma anche per suggerire che questi non erano suscettibili di analisi ulteriore» (J.B.S. Haldane). Insistere sulla necessità di una organizzazione anche a livello cellulare fu, tra l'altro, un merito indiscutibile dell' organicismo. a) La composizione e l'organizzazione. I metodi della biochimica sono sostanzialmente due, uno analitico ed uno analogico. Il primo, un metodo tipicamente chimico, rompe, attraverso passi via via più drastici, le complicate strutture cellulari per studiarne le proprietà ed i parametri chimici, classificando le molecole e le aggregazioni molecolari cosl ottenute. Un primo risultato importante di questo metodo analitico è la dimostrazione della omogeneità chimica di tutta la biosfera. I risultati dell'analisi della composizione chimica della biosfera mostrano come solo alcuni elementi chimici, situati nei primi periodi della tabella periodica di Mendeleev, si trovano negli organismi. Su un totale di 92 elementi naturali, infatti, solo 16 sono presenti in tutta la biosfera ed altri 8 in tracce in alcune specie. Questa scelta è molto ristretta, non è affatto casuale e non risponde alla frequenza relativa degli elementi chimici nell'ambiente in cui gli organismi vivono. Quindi, e questa è una prima conclusione. di notevole importanza, la vita seleziona solo, alcuni elementi, evidentemente più « adatti » al complesso metabolismo dell' organismo. Tale selezione è probabilmente il risultato di una lunga evoluzione prebiotica, di scelte fatte all'inizio dell'evoluzione biologica. Questa selezione non è stata però casuale in quanto, sulla base di calcoli stereochimici e quantomeccanici, è possibile mostrare che i quattro elementi fondamentali della vita, C, H, N, O, che da soli costituiscono fino al 95,5% del peso di un organismo vivente, formano un gruppo chimico per alcuni aspetti omogeneo. In particolare si tratta dei quattro più leggeri elementi in grado di formare legami covalenti stabili e sono i soli che formano legami doppi e tripli (legami 1t) sufficientemente stabili. Se si accetta 'l'ipotesi della omogeneità fisica e chimica dell'universo, non è azzardato affermare che qualunque forma di vita esista nell'universo I « La vita, » scriveva C. Bernard, « contrariamente all'idea di Aristotele, è indipendente da ogni forma specifica. Essa risiede in una sostanza definita dalla sua composizione, e non dalla figura, il protoplasma » (Lefons sur /es phenomènes de la vie, 1885). Ancora negli anni quaranta il famoso modello di Delbriick e Szilard della regolazione enzimatica si basava su equilibri multipli fra le concentrazioni delle proteine e non sulla loro struttura. 20 www.scribd.com/Baruhk La nuova biologia debba basarsi sui quattro elementi sopra visti, ed essere quindi, esclusival!lmft dal punto di vista biochimico, in larga parte simile alla nostra. Al livello superiore di organizzazione, l'analisi biochimica delle molecole di interesse biologico ha portato a risultati grosso modo simili. Anche qui avviene una scelta, da parte dell'organismo, di un insieme molto ristretto di gruppi chimici. Ogni specie sceglie all'interno di famiglie chimiche un particolare composto e sempre quello. Così ad esempio, fra l'enorme varietà di aminoacidi possibili, nelle proteine se ne trovano solo venti ed essi, salvo piccole isolate modificazioni, sono gli stessi in tutti gli organismi attualmente conosciuti. Questa sorprendente capacità di selezione si rileva anche nella scelta particolarmente sottile che l'organismo è in grado di fare fra i diversi isomeri ottici (composti chimici identici ma aventi una struttura spaziale differente). Di fronte all'enorme diversità delle forme biologiche, il numero dei composti biochimici è incredibilmente limitato e diffuso uniformemente. Si può trattare anche in questo caso di una « decisione » presa nei primi passi della evoluzione prebiotica, incorporata nel meccanismo di memoria dell'organismo e quindi perpetuata. Si può affermare che ogni forma di vita attualmente esistente ha caratteristiche generali comuni, scelte in base ad una rigorosa selezione, e con ogni probabilità derivate da una origine comune. Questa somiglianza non significa identità, anzi, anche al livello biochimico, esiste una variabilità molto elevata nella composizione chimica delle cellule, nella loro configurazione strutturale, nella attività metabolica. La varianza totale è così elevata che non a torto si può parlare di «individualità biochimica» (Roger Williams). È caratteristico della vita che, nonostante questa indeterminazione nelle strutture molecolari e nei processi metabolici, le cellule di un dato tipo siano molto simili tra loro e soprattutto siano in grado di mantenere la loro individualità invariata per un lungo periodo di tempo (lungo naturalmente in confronto ai tempi del ricambio chimico). Il secondo metod~ della biochimica è quello analogico, basato sulla costruzione di modelli dei cicli metabolici da ve:rificare poi in vivo o in vitro. La critica che veniva rivolta al metodo analitico, cioè di distruggere l' organizzazione del vivente nel momento stesso in cui cominciava a studiarla -- il famoso principio tanatologico avanzato anche da Bohr per sostenere l'irriducibilità della vita alla fisica - , non era fuori luogo. Rompendo la « scatola >> si può certo vedere « cosa c'è dentro » ma non si può dire niente sul « come é fatta dentro», qual è la sua struttura e come questa struttura si modifica nel tempo. La biochimica dovette quindi elaborare delle tecniche particolari con cui studiare l'organizzazione cellulare e la sua funzione. (Si devono ricordare la spettroscopia di assorbimento e il metodo isotopico.) Sebbene tutti i metodi biochimici siano stati importanti, decisivi sono stati 21 www.scribd.com/Baruhk La nuova biologia soprattutto la utilizzazione degli enzimi purificati e un metodo dovuto alla genetica, cioè l'uso di particolari ceppi mutanti di organismi che perdono la capacità di sintetizzare un dato enzima (auxotrofi). La reazione metabolica si blocca quindi ad un certo stadio e il prodotto relativo si accumula nell' organismo. In questo modo è stato possibile chiarire nelle grandi linee i principali cicli metabolici della cellula, soprattutto quelli della catena respiratoria. Anche qui osserviamo che tutti i processi chimici sono standardizzati e diffusi in tutta la biosfera. In particolare tutte le principali classi di alimenti sono catabolizzate formando i radicali acetilici dell'acetil-coenzima A, la cui completa ossidazione, mediante il ciclo del citrato (ciclo di Krebs), produce anidride carbonica (convergenza catabolica). L'uniformità della biosfera si manifesta quindi sia al livello della composizione che della cinetica chimica. · L'uso degli isotopi, associato con la diretta osservazione delle strutture subcellulari mediante la microscopia elettronica, ha portato a chiarire definitivamente che la cellula non è un « sacchetto di enzimi » in quanto vi è una distribuzione differenziata e costante nel tempo dei diversi composti nelle strutture cellulari, una precisa disposizione che Marcel Florkin chiama topochimica cellulare. Il citoplasma è ·la sede delle degradazioni anaerobiche, sui ribosomi avvengono le sintesi proteiche, la catena respiratoria è localizzata nei mitocondri, nel nucleo è condensata larghissima parte del materiale ereditario, i lisosomi tengono ben chiusi e isolati pacchetti di enzimi che potrebbero scindere in breve tutti gli altri costituenti cellulari. La cellula quindi non è omogenea ma è spazialmente strutturata; non basta la specificità enzimatica a rendere conto dell'attività cellulare e ciò dovrebbe portare a notevoli cautele nella conclusione da più parti avanzata che sia possibile sintetizzare la cellula mescolando insieme i diversi componenti. Ancora una volta è l'organizzazione spazio-temporale dei sistemi viventi che sembra svolgere un ruolo decisivo. Proprio per la presenza di questa complessa organizzazione strutturale si è di nuovo e con forza sviluppata la teoria cellulare, cioè la affermazione che l'unità biologica minima funzionale è distinta e limitata da una membrana. In natura «tutti i sistemi biologici funzionanti sono cellulari» (H.J. Morowitz). Ma questa organizzazione strutturale è tutt'altro che statica. Le ricerche con gli isotopi hanno confermato una tesi avanzata già dai primi biochimici e cioè che i costituenti chimici della cellula sono sostituiti con una velocità di molto superiore a quella con cui vengono distrutte le strutture stesse. Sono le «forme», gli «schemi» (patterns) a rimanere stabili e non la loro base materiale. L'intera cellula si presenta come un sistema aperto in uno stato stazionario (steat(y state), nel quale vi è continuo scambio di materia e di energia fra l'ambiente e il sistema. Le relazioni chimiche sono intercollegate in patterns, in « reti metaboliche » piuttosto complesse, con molte vie alternative per giungere ad un identico 2.2. www.scribd.com/Baruhk carboidrati vari amminoacidi 1 anidride carbonica Convergenza catabolica. Le principali vie secondo le quali avviene il catabolismo convergono a imbuto sui radicali acetilici delle molecole dì acetilcoenzìma A, che sono quindi ossidati ad anidride carbonica ' ' mediante il ciclo del citrato. risultato finale, dotate di una precisa sequenza non solo temporale ma probabilmente, come abbiamo visto, anche spaziale. In particolare, la cellula tende a fissare alcuni cicli insostituibili (quello di Krebs, ad esempio) « prevedendo » dive!sL. ingressi, meccanismi alternativi per giungervi partendo anche da .diversi prodotti. La ridondanza delle vie metaboliche è quindi un meccanismo omeostatico per garantire i meccanismi fondamentali' della vita in ogni condizione ambientale. · In CC?nclusione sembra che le vecchie idee sulla necessità di un principio regolatore della vita riprendano forza da questi dati. È l'attività del vivente che assume comuni elementi chimici e li organizza in un modo funzionale ai propri ,bisogni fisiologici ed ecologici (J ohn Z . Y oung). Si affaccia cqsì l'idea di un www.scribd.com/Baruhk La nuova biologia « programma », di un « piano di organizzazione » che viene trasmesso in ogni replicazione cellulare. b) Evoluzione chimica. Presumendo, come sembra prgbabile, una comune origine degli organismi attuali, l'analisi delle differenze biochimiche può permettere di trovare delle relazioni filogenetiche fra i div~rsi gruppi di organismi. Così il numero di aminoacidi differenti presenti in due molecole omologhe presenti in specie diverse (ad es. emoglobina umana e di cavallo) ci dà, approssimativamente, il numero di mutazioni e ci permette quindi di valutare qualitativamente i rapporti evoluzionistici fra le due specie. Un numero scarso di aminoacidi differenti e quindi un piccolo numero di mutazioni geniche stanno a dimostrare che le due specie si sono separate in epoca relativamente recente. Analizzando la struttura primaria di una particolare proteina in varie specie è possibile costruire un albero filogenetico per mettere in evidenza i rapporti evoluzionistici fra le diverse specie. Le proteine fungono cioè da « fossili viventi » per determinare l'« evoluzione chimica». La proteina maggiormente studiata da questo punto di vista è il citocromo c, che si trova praticamente in tutte le cellule eucariotiche (dotate cioè di un nucleo ben delimitato da una membrana), una proteina facilmente isolabile, di piccole dimensioni, ma dalla storia molto antica. La comparsa del citrocromo (o meglio dei citocromi perché si tratta di un gruppo di enzimi accettori di elettroni) avvenne infatti all'inizio della storia della vita, fu un passo evolutivo di estrema importanza perché incrementò di molto le fonti di energia disponibili, permettendo di liberare l'energia ottenuta ossidando lo zucchero non tutta insieme ma poco alla volta. Se si prendono i due citocromi c più diversi, quello dell'uomo e quella della muffa del pane (Neurospora crassa) che differiscono per il 40% dei siti relativi degli aminoacidi, si vede che alcuni tratti della sequenza primaria sono assolutamente identici e dove si sono avute delle sostituzioni, la selezione naturale le ha permesse solo con aminoacidi molto simili tra loro. Evidentemente la pressione selettiva sui meccanismi metabolici elementari non è così forte come per gli aspetti morfologici o comportamentali. È questo un aspetto che ritroveremo parlando dell'evoluzione biologica: la velocità evolutiva aumenta man mano che cresce il livello di organizzazione. L'evoluzione del citocromo sembra avvenire solo grazie a modificazioni casuali del gene, indipendentemente dalla pressione selettiva che si esercita nell'intero organismo. È quindi uno strumento utilissimo per chiarire i rapporti fra mutazione, caratteri genotipici ed evoluzione della specie. c) Endocrinologia. Fino alla fine del secolo xrx si credeva che l'apparato di regolazione che permetteva all'organismo di mantenere nel tempo le pro- www.scribd.com/Baruhk Albero filogenetico, che mostra la derivazione .degli organismi attuali, costruito sulla. base di analisi al calcolatore delle proteine omologhe del citocromo c, una sostanza complessa che si trova in versioni similari in specie differeflti. La sequenza di aminoacidi che costituiscono le proteine omologhe è lievemente diversa in ognuno degli organismi indicati al punto terminale dei rami. L'analisi delle differenze mostra le relazioni ancestrali che determinano la topologia dell'albero. I programmi del calcolatore · tabiliscono le sequenze degli aminoacidi presenti nei nodi dell'albero (numeri nei circo/etti) e calcolano •ih:lumero di mutazioni che devono essersi verificate durante l'evoluzione (numero sui rami). -prie funzioni altamente coerenti fosse solo il sistema nervoso, anche se vi erano già solide evidenze sperimentali riguardo all'azione sulle funzioni del corpo e sul metabolismo di specifiche sostanze chimiche secrete dalle ghiandole endocrine, che Ernest Starling aveva chiamato nel 1905 «ormoni» o «messaggeri chimici». La biochimica fra il 1920 e il 1950 isolò in forma cristallina molte di .queste sostanze, ne descrisse la struttura e i parametri chimici funzionali, ne chiarì le derivazioni metaboliche e ne sintetizzò molte in laboratorio. 25 www.scribd.com/Baruhk La nuova biologia Il carattere omeostatico dell'organismo viene mantenuto da «due sistemi di comunicazione: il lento sistema postale dei messaggi chimici e il rapido sistema telegrafico dei nervi» (J.D. Bernal). Il sistema endocrino esercita questo controllo con un tipico processo a feed-back (controreazione) che ha come «calcolatore centrale» l'ipofisi. Questa ghiandola secerne infatti specifici ormoni che agiscono su altre ghiandole endocrine, regolandone l'attività seèretiva. Gli ormoni prodotti da queste ultime a loro volta, oltre a svolgere la loro funzione regolatrice su funzioni fisiologiche e comportamentali (sviluppo e comportamento sessuale, equilibrio idrosalino, l'intero metabolismo ecc.), inibiscono la secrezione ormonale dell'ipofisi. Si instaura così un delicato equilibrio omeostatico che regola la concentrazione dei diversi ormoni nel sistema endocrino. Inoltre, la stessa ipofisi è in interazione bidirezionale con l'ipotalamo grazie allo scambio di informazioni e nervose e ormonali. L'ipotalamo, una struttura del sistema nervoso la quale, come è stato dimostrato recentemente, produce anch'essa degli ormoni, è in grado di disinibire la produzione delle gonadotropine da parte dell'ipofisi. I due meccanismi regolatori del metabolismo dell'organismo, quello nervoso e quello ormonale, vengono quindi ad incontrarsi, costituendo un'unica rete intricata e coordinata. Esiste quindi un luogo dell'encefalo (incredibilmente vicino alla sede indicata da Cartesio per la ghiandola pineale che avrebbe dovuto essere il posto di incontro fra l'anima e il corpo) nel quale avviene l'interazione fra sistema nervoso e sistema endocrino. d) Genetica chimica. Il successo raggiunto dalla biochimica nel chiarire i processi metabolici fondamentali dell'organismo, poneva in termini ancora più drastici un problema da tempo irrisolto, e cioè il modo in cui i geni controllano il complesso schema di reazioni che è alla base delle principali funzioni biologiche: l'alimentazione, la crescita, la riproduzione. Il grande risultato della genetica (con Thomas H. Morgan) era stato la dimostrazione che il controllo di larga parte dello sviluppo e del comportamento attuale dell'organismo era localizzato in determinate porzioni del cromosoma. Ma come questo controllo si esercitava era ancora molto oscuro. Dato che il metodo di descrizione più adeguato era allora lo studio della cinetica chimica, si elaborò un modello dell'azione del gene come una serie di passi di sintesi chimica, ognuno dei quali catalizzato da un enzima specifico. Si trattava di collegare il gene, studiato dalla genetica, con il carattere fenotipico, sempre più descrivibile in termini biochimici. George W. Beadle e il biochimico Edward L. Tatum iniziarono a lavorare sulla muffa del pane, Neurospora crassa, allo scopo di « determinare se e come i geni controllano le reazioni biochimiche conosciute». Usando dei mutageni, Beadle e Tatum provocarono la formazione di mutanti incapaci di sopravvivere in z6 www.scribd.com/Baruhk ipofisi azione morfogenetic~ e differenziamento regolazione metabolic~ metamorfosi (aumento del metabolismo basale, lotta contro il freddo) l i anti-immunitaria metabolismo organico particolari terreni di coltura. Tali mutanti crescevano solo se veniva aggiunta nel loro terreno ':lna particç>lare sostanza chimica. Dato' the la biochimica aveva dimostrato che H 'metabolismo era sotto il controllo enzimatico, ne conclusero che <<è Ìl).teramente valido supporre che i geni, che sono essi sfessi una , parte ael sistema, controllano . ~ règolano le reazioni specifiche o agendo .direttamente come enzimi (a quel tempp si pensava ancora ·che i geni· fossero di nàtura proteica) oppure detèrminando la specificità degli enzimi». Si formula così la famosa equazione: un gene = un .enzima. . c e) Embriologia chimica. L'embriologia aveva avuto un grande sviluppo prima in forma descrittiva e comparata e poi come embriologia sperimentale (o « cagsale »)alla fine dell'Ottocento e all'inizio del Novecento, acquisendo con- www.scribd.com/Baruhk La nuova biologia cetti t~9rici importanti quali determinazione, regolazione, gradiente e campo morfogenetico. Nonostante il tentativo di collegare embriologia e genetica compiuto da T. H. Morgan, questi due campi restavano separati e non comunicanti, anche perché gli organismi studiati dal punto di vista genetico erano poco noti dal punto di vista embriologico e viceversa. Non si poteva supporre nessun meccanismo per spiegare il passaggio dal gene al carattere durante la morfogenesi e i concetti di regolazione e di determinazione restavano essenzialmente descrittivi. Sulla base dei successi ottenuti nella caratterizzazione biochimica dei processi fisiologici, gli embriologi, a cominciare da Joseph Needham (Chemical embriology, 1931 ), cominciarono a studiare chimicamente le varie fasi della morfogenesi. Rapidamente dalla fase puramente compilativa. delle sostanze presenti, l' embriologia chimica cominciò ad individuare processi, strutture sp~zio-temporali. Si ricercarono in particolare, dopo la prova fornita nel 1932 da H. Bautzmann che un « organizzatore » ucciso è ancora in grado di indurre la formazione di un sistema neurale, le possibili sostanze «inducenti». Ma per tali ricerche tuttavia, come afferma Jean Brachet, uno dei protagonisti di questo periodo, << improvvisamente arrivò l'insuccesso e l'eccitazione cessò [... ]dato che l'ectoblasto poteva reagire allo stesso modo (induzione neurale) a un "grande numet~. di sostanze chimiche». 3) I modelli in biologia Il ruolo dei modelli in biologia è stato sempre molto esteso. Anche la difficoltà di descrivere i fenomeni biologici in termini statici, di unificare la vasta eterogeneità delle forme e delle funzioni, i pericoli del metodo analitico che, come abbiamo visto nel caso della biochimica, sollevava non poche difficoltà di ordine teorico e metodologico, hanno favorito in tutta la storia <ielle scienze biologiche la costruzione di modelli, il cui scopo è stato quello di. ricostruire analogicamente alcune proprietà o tutto l'insiem(:! dell'organismo, mediante strutture e relazioni note. Si indicano in genere con lo stesso termine « modello » due procedimenti assai diversi fra loro. Il primo consiste nel ricercare delle corrispondenze analogiche fra un oggetto naturale e un .oggetto artificiale, del tipo ad esempio degli automi settecenteschi di Vaucauson o dei moderni apparati bionici che imitano alcune funzioni dell'organismo. Cioè <~ si raffrontano delle forme analoghe e si inducono degli usi simili» (C. Bernard). Non si simulano solo determinate funzioni, ma si cerca di ricostruire le relazioni esistenti tra le strutture che sono legate alle funzioni. Anche se il modello e il sistema reale sono costruiti con materiali totalmente differenti, il modello ha il compito di , stabilire una corrispondenza fra i due diversi insiemi di relazioni. Il secondo tipo di modello si basa sulla costruzione di un insiemè di definizioni, stabilite in un particolare linguaggio. formale, in generale di tipo maz8 www.scribd.com/Baruhk La nuova biologia tematico, che descrive i r4pporti esistenti fra gli elementi costitutivi di un dato oggetto empirico e la loro descrizione in ter-mini formali: Fra il modéllo formale, astratfo (costituito ad esempio da uri insieme di equazioni differenziali, 0 da una figura geometrica o topologica o da un insieme di relazioni sintattiche o semantiche in un qualsiasi linguaggio formale) e la realtà empirica si viene quindi a stabilire una corrispondenza biunivoca, di modo che certe strutture presenti nel modello e le loro modificazioni neftempo corrispondono alle strutture e alle modificazioni reali. Il valore euristico di un modello consiste nella possibilità che offre di selezionare fra le funzioni e le strutture del reale alcune relazioni particolari che si considerano caratterizzanti un dato fenomeno. Esso è quindi una versione semplificata della complessità del reale che permette di isolare alcune relazioni funZionali e strutturali. La validità di un modello si giudica sulla base della sua att!tudine a far emergere relazioni e proprietà prima non conosciute. L'u:l:ilità dei modelli cresce naturalmente con l'aumentare della complessità del sistema in esame. Se un modello (ad esempio una equazione n".illtematica) era utile per descrivere certi sistemi semplici, diventa necessario per i sistemi complessi ed in particolare per i sistemi biologici, per semplificarne i caratteri, isolando quelli ritenuti più importanti, in modo da non rischiare di restare aggrovigliati in una congerie di dati e di misure. ' Nonostante il largo uso che in biologia si è fatto dei model.l(;" esistono tuttora grossi equivoci di fondo sulla loro reale funzione. In fisica, un modello, come l'analogia fra una corrente elettrica e un fluido o l'uso dei modelli meccanici macroscopici dell'atomo, svolge la funzione di mediatore fra una teoria e le osservazioni sperimentali; il formalismo matematico di una teoria serve da modello per un'altra teoria applicabile in un diverso campo fenomenico, meno noto o meno soggetto ad una ana:lisi sperimentale. Ma ciò che garantisce la possibilità di trasferire i risultati ottenuti con ir modello nella spiegazione del fenomeno meno noto è la corrispondenza che è 'posSibile stabilire fra le leggi generali, espresse in forma matematica, dei due campi féhomenici. Di qui, anche, l'importanza della matematica come strumento conoscitivo. Ma questo non avviene in biologia. I modelli biologici, infatti, siano essi meccanici o logici, non si basano sulla possibilità di stabilire una relazione di corrispondenza fra le leggi generali. Questi modelli stabiliscono delle corrispondenze esclusivamente analogiche fra. le strutture o fra le funzioni, cioè fra realtà concrete e non sì pongono come un procedimento di astrazione teorica della realtà empirica. La scarsa consistenza teori~a della più parte delle scienze biologiche fa sì che rion si possa parlare di biologia matematica nello stesso senso in cui si parla di fisica matematica. In biologia quindi è presente non solo il rischio di considerare un modello come una rappresentazione intuitiva del reale, come accac;leva nel caso dei modelli atomici meccanici, ma anche quello di « conferire www.scribd.com/Baruhk La nuova biologia al modello un valore di rappresentazione» (G. Canguillhem) dimenticando che un modello non è niente altro che la sua funzione. Si tende a credere che i meccanismi presenti nel modello siano non già una rappresentazione astratta di quelli reali, ma ne siano una replica, sia concreta che logica. Il modello diventa l'oggetto stesso, l'organismo è una macchina. Un'altra riflessione di carattere generale sull'uso e l'abuso dei modelli si sviluppa quando, « tenendo conto della dinamica storica di quelle mediazioni fra le teorie (e le progettazioni di esperienze), si vede che la caratteristica più prégevole di un modello consiste appunto nella possibilità di farne un uso provvisorio e cioè come costrutto flessibile. E si comprende altresì come un modello possa facilmente trasformarsi in ostacolo per ulteriori sviluppi delle conoscenze, qualora non se ne faccia quell'uso critico che trae appunto vigore dalla sua flessibilità» (E. Bellone). Ciò è stato particolarmente evidente ad esempio nel Settecento, quando il modello dell'animale-macchina cartesiano si tradusse in un freno alla ricerca biologica, freno che venne superato solo dalla stuoia vitalistica francese la quale, rivendicando una autonomia o meglio una specificità al vivente, permise di impostare un programma di ricerca sp-erimentale di estrema importanza per la costituzione della biologia come. scienza·. a) Modelli cibernetici. Da quando Norbert Wiener scrisse il suo famoso libro Cybernetics, pubblicato nel 1948, questo termine ha avuto un'ampia fortuna 'ed è stato utilizzato ad indicare una varietà di discipline scientifiche e di tecniche fra loro molto diverse. Ci occuperemo in questo paragrafo s-olo di due aspetti di questa multiforme varietà e cioè: 1) la cibernetica come strumento, matematico più che fisico, per la costruzione di modelli formali e di simulatori analogici; 2) l'uso di concetti e metodi della teoria matematica dell'informazione nella spiegazione dei fenomeni biologici, in particolare dell'ereditarietà. Un modello, si diceva, è una selezione di alcuni aspetti del reale che si considerano particolarmente importanti per la spiegazione della struttura e del comportamento di un sistema complesso. In cibernetica, il concetto che si pone alla base di questa costruzione di modelli è quello disistema organizzato, di organizzazione, intesa come l'insieme'' delle relazioni funzionali esistenti fra le diverse parti del sistema e che il sistema tende a mantenere stabili, anthe in pre· · senza di disturbi provenienti dall'esterno. L'organizzazione è intesa in senso astratto, senza alcun riferimento al substrato materiale di cui è costituita - e per questo si possono studiare in modo simile sia le macchine che gli animali-, è una « forma ». Fra· diversi sistemi, anche eterogenei, può esistere un isomorfismo e essi possono quindi essere descritti con un identico modello cibernetico, in quanto « due modelli sono idèntici se il rapporto dei loro ordinamenti pùò essere espresso come corrispo!]-deriza biunivoca» (Wiener). -- www.scribd.com/Baruhk La nuova biologia I sistemi complessi sono considerati « scatole nere » (black boxes) di cui si conosce solo l'ingresso e l'uscita, attraverso la cui modificazione è possibile studiare il comportamento del sistema. Se sistemi .tra ·loro diversi mostrano comportamenti simili se ne deduce una analogia di struttura interna. Compito della cibernetica è quindi costruire dei modelli atti a «descrivere tutti i sistemi dotati di un certo comportamento» (W. Ross Ashby). La difficoltà da sempre incontrata dai biologi di collegare determinate organizzazioni a strutture presenti all'interno di esse, viene superata dalla cibernetica con un salto netto, abbandonando qualsiasì tentativo del genere, considerato inutile per una comprensione dell'organizzazione. La cibernetica si indirizza solo allo studio « della " complessità " come argomento a sé stante » (Ross Ashby); l'organizzazione è un dato primario, irriducibile. Si tratta quindi di una disciplina di tipo essenzialmente funzionalistico e comportamentistico; suo oggetto sarà il comportamento di un sistema, indipendentemente dal sp.bstrato materiale o dalle leggi fisiche che lo reggono. Il turbamento di uno stato iniziale stabile può portare il sistema lontano dalle condizioni che possono permettere un ritorno all'equilibrio preesistente, per cui avviene una « catastrofe » e si instaura un nuovo ordine, in genere ad un livello di complessità, intesa come numero e qualità delle relazioni interne al sistema, superiore. . . In particolare se il sistema, come ad esempio i sistemi biologici, è dotato di una proprietà autocatalitica - cioè tale che se ha luogo in qualche punto del sistema aumenta la probabilità che si verifichi in un'altra parte-, tal~ sistema risulta instabile in assenza di tale proprietà e basta una singola deviazi~ne dall'equilibrio per dare inizio ad una traiettoria che si allontana sempre più dallo stato preesistente. Nonostante la consapevolezza dimostrata dai più rigorosi studiosi di cibernetica del carattere formale, astratto dei mod,elli, anche di quelli fisici che possono essere costruiti per verificare alcuni comportamenti, molto spesso si presenta in cibernetica il pericolo di considerare i modelli non come costrutti teorici, come strumenti euristici, ma come una ricostruzione effettiva della realtà. Le macchine tecnologicamente avanzatissime costruite per trattare le informazioni ·e funzionanti grosso modo come macchine cibernetiche hanno in effetti mostrato di possedere tali funzioni così simili a quelle di un organismo vivente da far parlare della possibilità di sostituire l'uomo stesso con un suo modello cibernetico (più in particolare il suo cervello con un« cervello elettronico»). Se ciò ha avuto l'indubbio merito di rigettare fra le posizioni ideali~tiche tutti i tentativi di stabilire una differenza fra l'uomo e le macchine sulla base di « funzioni irrepetibili » o cose del genere, tuttavia ha portato a grossi rischi di impoverimento dell'analisi sull'uomo, sulla sua natura biologica e culturale, ripristinando in·· forma modernissima i vecchi modelli meccanicistici. www.scribd.com/Baruhk La nuova biologia Fin dalla sua nascita.: la biologia teorica ha oscillato fra due poli opposti. Da una parte si è sforzata di descrivere riduzionisticamente un sistema sulla base delle sue parti, avendo come modello la meccanica statistica, la teoria cinetica dei gas. In questo caso, si potevano ricostruire le proprietà di un sistema a partire dalla semplice interazione fra i costituenti elementari. Il secondo modello è stato appunto quello della macchina, in cui ogni parte del sistema svolgeva un compito determinato con diversi livelli di organizzazione (i vari organi). Come nota René Thom il primo modello è più adatto al calcolo, ma dimentica l'organizzazione; vi è una enorme ridondanza morfologica e le proprietà del sistema non mutano se si diminuisce o si aumenta di poco il numero di componenti. Al contrario nel modello meccanico, come ad esempio un orologio o un calcolatore, vi può essere una ripetizione di pezzi, ma non una ridondanza in quanto anche la rottura di una ruota dentata o di un nucleo di ferrite può arrestare il meccanismo. Entrambi i modelli rispecchiano alcuni aspetti della realtà biologica e possono quindi essere utili in quanto- tali ma non possono essere assolutizzati. Tra l;altro l'analogia fra organismo e macchina vale per gli animali, almeno al livello degli organi, dato che non vi è ridondanza morfologica, ma non vale per i vegetali nei quali la ridondanza è regola (semi, frutti, rami ecc.). « Cosl l'idea di vegetali-macchine è certo un po' bizzarra» (R. Thom). Passiamo ora ad esaminare l'influenza della cibernetica in biologia, legata alla utilizzazione generalizzata di alcuni nuovi concetti, in primo luogo, i concetti di inforlflazione e di messaggio che· hanno avuto un successo senza pari, anche in campi dove la loro applicazione non è sufficientemente fondata sul piano scientifico, ma riveste più spess~ un ruolo sostanzialmente analogico. La teoria matematica dell'informazione di C. Shannon e W. Weaver è in real- . tà una teoria della comunicazione, in quanto studia il modo di trasmettere un messaggio entro un canale fisico minimizzando il rumore prodotto dal canale stesso. Ogni simbolo dell'alfabeto con cui è scritto il messaggio ha la stessa proba' bilità di verificarsi, ogni messaggio ha un proprio « contenuto di informazione » specific;ato da un numero positivo. Quindi i due messaggi « aperto » o «chiuso», avendo lo stesso numero di lettere, hanno per la teoria della comunicazione lo stesso contenuto di _informazione in quanto il concetto di informazione di Shannon-Weaver è quantitativo e completamente indipendente dal signtficato del messaggio, dalla sua semantica. Questo tipo di concetto è stato più Volte applicato in biologia, ad esempio per calcolare il « contenuto di informazione » di una data catena di DNA. Tuttavia ciò che interessa nella sequenza di nucleotidi del DNA è l'ordine in cui sono disposti i diversi simboli . e il significato che si legge in una tripletta di nucleotidi. Per la teoria della comunicazione, che studia statisticamente il processo di propagazione di un messaggio, inteso come una serie di simboli equiprobabili all'intenio di un alfabeto dato, invertire un codone è indifferente. Ma questo è decisivo per l'orga- www.scribd.com/Baruhk La nuova biologia nismo, in quanto può essere sintetizzata una proteina anziché un'altra necessaria. La stessa evoluzione, se interpretata come evoluzione' del codice genetico, sarebbe scarsamente significativa dal punto di vista della teoria della. comunicazione in quanto non fa che scambiare di posto singole lettere all'interno del messaggio: il contenuto di informazione non cambia, ma il significato di tale informazione può cambiare moltissimo. Dunque nell'accezione biologica dell'informazione « il concetto di probabilità è scomparso e l'idea di qualità, di valore specifico fa parte del concetto biologico di informazione genetica» (André Lw:off). Vediamo ora brevemente un altro concetto che ritroveremo spesso in q_uesta nostra trattazione, quello di programma, mutuato dalla scienza degli elaboratori elettronici ad indiCare il meccanismo interno di un sistema che ne regola il funzionamento, anche se la cibernetica utilizza raramente tale concet~o, in quanto il suo campo di studio è l'insieme dei fenomeni di regolazione e di controllo, indipendentemente dalla struttura del meccanismo regolatore e della sua origine; la fonte del controllo può essere sia interna sia esterna al. sistema e la cibernetica ne prescinde assumendola come un dato di fatto. Ogni macchina il cui comportamento implica delle discontinuità qualitative, cioè diversi stati successivi nel tempo, oppure la messa in funzione di diverse parti del sistema in successione regolare senza intervento dall'esterno, deve avere un sistema regolatore, che « codifica » tali discontinuità, possiede una « rappresentazione >> della successione degli stati di questa, come un insieme di fori su una banda di carta o un particolare ordinamento degli stati eccitati dei nuclei di ferrite nella « memoria » di un elaboratore elettroPico o, latu sensu, la sequenza di nucleotidi del DNA, che contiene in effetti una rappresentazione del futuro svilup·po dell'individuo. 11 possesso di un « organo programma » è evidentemente tipico solo di sistemi dt elevata complessità. Deve infatti esser possibile che una parte del sistema si separi dal resto del sistema e si specializzi nella attività regolativa. L'ambizioso tentativo della biologia molecolare è stato quello di attribuire una base ftsica al concetto di programma, identificandolo con la sequenza nucleotidica del DNA. Il più elementare meccanismo di interazione fra .il comportamento di un sistèma e il suo K organo programma » è quello di feed-"back o controreazione, mediante il quale il comportamento di un sistema viene confrontato con il risultato da conseguire, e se vi è uno scostamento dall'obiettivo da raggiungere determinati meccanismi sono. in grado di modificare alcuni parametri in modo da ridurre tale scostamento al minimo. Per i biologi, da sempre alla ricerca di una teoria giustificativa del comportamento teleonomico degli organismi viventi, non c'era niente di meglio di una teoria fisica che permettesse di determinare il compbrtamento attuale di un sistema ·sulla base dello « scopo » da nggiungere. Il comportamento degli animali diviene una serie continua di 33 www.scribd.com/Baruhk La nuova biologia feed-back, « la selezione naturale è un processo ~ibernetico, un enorme feedback in grado di rispondere alle sollecitazioni ambientali trasmettendo l'informazione ai geni» (Dobzhansky), i «cicli di reazione organici sono processi di regolazione e feed-back» (Krebs). Ma, come precisano anche gli stessi cibernetici, ad esempio Ross Ashby, il concetto di feed-back è poco utile al di fuori del proprio particolare campo di applicabilità. Il criterio di stabilità mediante feedback è applicabile e trattabile scientificamente solo per sistemi semplici e dotati di una particolare struttura (ed è per questo che il concetto di jèed-back ha poco spazio nella teoria formale della comunicazione). Nell'organismo esistono certamente strutture e funzioni che possono essere interpretate mediante modelli a controreazione: i riflessi condizionati, determinate relazioni fra cervello e muscoli, i meccanismi che regolano la temperatura del sangue o la concentrazione di zuccheri e di sali, determinati accoppiamenti di reazioni enzimatiche. Ma questi sono innanzi tutto solo una piccola parte dell'insieme dei processi biologici, nei quali l'ordine viene realizzato mediante interazioni di tipo dinamico, in genere grazie alla presenza di stati stazionari, che non possono essere descritti mediante controreazioni. Anche per il concetto di feed-back va quindi ripetuto quànto detto a proposito dei modelli; non si tratta di identificare un modello con una certa realtà ma di descrivere a livello formale i comportamenti dei sistemi ancora non noti per ottenere maggiori conoscenze l e questo significa la sconfitta del vecchio sogno meccanicista di considerare gli organismi delle « macchine viventi ». La cibernetica, infatti, fa uso di concetti (relazione, coordinazione, selezione, apprendimento, omeostasi, sopravvivenza) estranei alla scienza meccanicistica. «Il vitalismo ha vinto a tal punto che anche i meccanismi corrispondono alla struttura temporale degli organismi» (Wiener). Ma, se si accetta l'impostazione idealistica della cibernetica confondendo l'analogia formale con l'identità sostanziale, si giunge facilmente, come fa appunto Wiener, ad accomunare alla sconfitta del meccanicismo metafisica quella del materialismo « diventato poco più che un cattivo sinonimo di " meccanicismo" ». b) Modelli matematici. In questi ultimi anni l'applicazione dei metodi matematici alla biologia, che per secoli era limitata all'aritmetica e ad un poco di I Questo vale in particolare per i meccanismi di regolazione, il cui scopo è di mantenere determinate variabili essenziali all'interno di un insieme di valori. E questo può essere fatto a livello formale. Per esempio i vari stati tra cui può trovarsi un topo sono molti (può assumere diverse posizioni, può essere affamato o meno ecc.) ma solo un insieme di questi stati, T1, ... , Tk, corrisponderanno alla espressione « topo vivente » cioè alla stabilità. Se ora il topo viene assalito da un gatto G il topo sopravviverà solo se il risultato della operazione G(Ti) sarà uno stato compreso fra T1 ... Tk, relativo al concetto di « topo vivo ». Quindi due concetti appartenenti a due teorie diverse, quello fisico-matematico di stabilità e quello biologico di sopravvivenza, « possono essere messi in una ben precisa relazione fra di loro; i fatti sperimentali e i teoremi relativi ad uno dei due concetti possono essere utilizzati per l'altro, purché la "traduzione " sia corretta » (Ashby). È questo l'uso di mediazione dei modelli di cui si parlava sopra. www.scribd.com/Baruhk La nuova biologia algebra, si pone l'obiettivo di costruire modelli matemat1c1, geometnc1 o analitici, che permettano non solo di descrivere, ma anche di teorizzare e di predire i fenomeni, di scoprire nuove relazioni nel reale. La scarsa utilizzazione dei metodi matematici in biologia l può essere fatta risalire, oltre che all'insufficiente spessore teorico e al carattere prevalentemente descrittivo della maggior parte delle discipline biologiche, a due ragioni principali. Anzitutto al fatto che i metodi matematici classici sono stati elaborati per semplici sistemi dinamici (la interazione fra gli elementi) oppure, grazie ai metodi statistici, per descrivere il comportamento macroscopico di un sistema, rinunciando alla possibilità di una descrizione completa di tutte le interazioni all'interno del sistema. Non viene presa in considerazione una struttura intermedia fra le singole molecole e il sistema nel suo complesso. Ma nei sistemi biologici nessuna di queste trattazioni è applicabile, come abbiamo visto anche per la termodinamica, perché si tratta di sistemi difficilmente riproducibili, nei quali in molti casi è un singolo evento microscopico che, amplificato, cambia totalmente la morfologia del sistema. La seconda ragione, più profonda, deriva da un carattere tipico dei fenomeni biologici, cioè la stretta interazione fra funzione fisiologica e struttura. Ma una struttura, una forma è rileva bile grazie alle discontinuità presenti nel mezzo e tali discontinuità sono difficilmente esprimibili in termini matematici, per lo meno in forma quantitativa. Una descrizione quantitativa di un fenomeno si basa infatti su funzioni analitiche continue. Se una biologia matematica diviene sempre più necessaria non solo per descrivere ma per spiegare teoricamente i fenomeni biologici, ciò non significa che debba essere « necessariamente una biologia analitica, ma [dovrà essere] una biologia nella quale si utilizzano strutture non quantitative, come quelle della topologia, per esempio » (G. Canguillhem). A parte alcuni tentativi di costruire modelli matematici applicabili in sistematica, in anatomia comparata, in morfologia descrittiva, i principali contributi matematici alla biologia sono da ricercarsi nei modelli ecologici elaborati da A. ]. Lotka e V. Volterra negli anni venti- una vera e propria dinamica delle popolazioni - nell'isolato tentativo del « grande visionario» (Thom) d' Arcy 'I'hompson e soprattutto nella genetica di popolazione, dove l'utilizzazione dei metodi statistici ha permesso di costruire modelli dell'equilibrio genetico di una popolazione e delle sue modificazioni nel corso delle successive generazioni. Thompson, con la sua « teoria delle trasformazioni cartesiane », studiava le relazioni geometriche fra forme affini, senza analizzarle carattere per carattere, procedimento tipico della . anatomia comparata, ma ricavando le « linee definite ed ordinate» che durante l'evoluzione hanno trasformato «sotto l'in1 Ovviamente non ci riferiamo ai metodi matematici utilizzati nella descrizione chimicofisica di alcuni fenomeni biologici. Si tratta in questo caso di un uso indotto; intendiamo invece riferirei alla costruzione di modelli matematici volti alla spiegazione diretta dei fenomeni biologici. 35 www.scribd.com/Baruhk (a) ,.. r (b) ~ ~ \ _1\.__l/ " f.\ \ l (e) (c) Un esempio del metodo di W. d'Arcy Thompson per trovare le affinità geometriche fra il carapace o scudo dorsale di diversi granchi. (a) Geryon; (b) Corystes; (c) Scyramathia; (d) Paralomis; (e) Lupa; (f) Chorinus. sieme di sistemi di forze più o meno semplici e riconoscibili » una specie in un'altra. Astraendo dal substrato materiale delle forme e dalle forze agenti, Thompson ricercava una descrizione matematica della morfogenesi tramite semplici trasformazioni geometriche bidimensionali. L'insufficiente struttura matematica e la carenza dell'analisi della dinamica del sistema gli ha impedito di ottenere risultati concreti, confermabili dalla ricerca biologica moderna. Una descrizione su due dimensioni è davvero troppo semplice per la complessità dei sistemi biologici. Ma tale programma, dei cui limiti era d'altronde ben conscio Thompson, è stato ripreso con maggior potenza matematica dal topologo René Thom, sulla base di un audace sviluppo della topologia differenziale e della analisi qualitativa, introdotta da Poincaré alla www.scribd.com/Baruhk (a) (c) (a) Polyprion. (b) Pseudopriacanthus al/11.•. (c) Scorpaena. (d) Antigonia cupros. fine del secolo XIX. Dei modelli proposti da Thom indichiamo solo le possibili implicazioni biologiche, senza addentrarci nella complessa trattazione matematica e tenendo conto, come dice lo stesso Thom, del carattere di tentativo che essi hanno, in mancanza di prove sperimentali per la loro convalida. Per superare i limiti all'approccio atomistico riduzionista e di quello strutturale, Thom si propone di studiare ciò che questi hanno in comune e cioè la loro e.stensione spaziale, la loro morfologia. Riallacciandòsi alla « grande époque » della biologia, alla disputa fra Cuvier e Geoffroy de St. Hilaire sul « piano di organizzazione » dell'organismo, Thom si schiera dalla parte del secqndo, che pasava la identificazione della specie sulla disposizione topologica relativa degii organi, privilegiando la forma rispetto alla funzione, contro l'atteggiamento 37 www.scribd.com/Baruhk La nuova biologia riduzionistico di Cuvier che privilegiava la descrizione funzionale, su cui si è mossa tutta la biologia successiva fino alla biologia molecolare. I modelli che Thom propone, come primo passo della edificazione di una « teoria generale dei modelli » sono modelli dinamici, compatibili con una morfologia empiricamente data. Come tutti i modelli matematici, questi evitano ogni ricorso «alle proprietà» del substrato delle forme oppure alla natura delle forze agenti e possono essere utilizzati per descrivere ogni tipo di morfogenesi, da quella delle forme biologiche a quelle geologiche, linguistiche, sociologiche. L'uso dei modelli viene giustificato con un argomento classico e cioè l'ipotesi di semplicità, da Thom chiamata « ipotesi di genericità: in ogni circostanza la natura realizza la morfologia locale meno complessa compatibile con le condizioni iniziali locali ». Il ripetersi di particolari morfologie viene spiegato come in ogni modello tramite l'isomorfismo fra le situazioni dinamiche che lo generano. Ogni tipo di fenomeno è descrivibile perché dietro l'infinita varietà dei suoi aspetti è rintracciabile una qualche permanenza di forma. « Ogni scienza è lo studio di una fenomenologia »; lo scienziato si pone di fronte alla realtà isolando un certo insieme di fenomeni che lo interessano e li descrive come una morfologia in uno spazio-tempo che chiamiamo « spazio substrato » di questa morfologia. Ogni morfologia è dedotta dalla osservazione nello spaziotempo usuale, anche se non sempre lo spazio substrato della morfologia è lo usuale··spazio-tempo euclideo della fisica classica. La caratteristica principale di una forma è che essa si manifesta grazie ad ·una serie di discontinuità qualitative nello spazio substrato, che separano degli spazi «regolari» (tali cioè che in un certo intorno U(x) ogni punto y ha -la stessa apparenza qualitativa di x). L'insieme di queste discontinuità (che Thom chiama «catastrofi») descrive la morfologia del sistemà e del processo dinamico. Scopo della « teoria delle catastrofi » sarà quindi spiegare la morfogenesi, la dinamica delle forme e la loro permanenza. Se le discontinuità qualitative resistono a piccole perturbazioni delle condizioni iniziali esse sono strutturalmente stabili.l Tutti i sistemi sperimentali devono essere strutturalmente stabili in quanto deve essere possibile dopo un c~rto intervallo di tempo ottenere di nuovo, e da un altro sperimentatore, la stéSsa morfologia. _ , .. La stabilità strutturale non può per Thom essere spiegata attraversO,l'interazione fra gli oggetti più elementari nei quali la forma può essere dec;omposta, come nelle spiegazioni riduzionistiche o « atomiche », ma è · conpessa r Se una funzione F(x) viene leggermente perturbata e se la "funzione perturbata G = F oF ha ancora: la stessa forma topologica della + + funzione iniziale, la funzione F(x) è detta strutturalmente stabile. Un esempio è il classico oscillatore lineare. www.scribd.com/Baruhk I modelli di fenomeni morfogenetici, che presentano delle discontinuità qualitative, possono essere rappresentati topologicamente in uno spazio-tempo a quattro dimensioni. Ogni tipo di morfologia può essere descritta come la combinazione di catastrofi elementari che sono state classificate da R. Thom. Ognuna di queste catastrofi elementari può rappresentare schematicamente semplici processi morfogenetici (m;lla figura sono rappresentate le catastrofi elementari più complessè, ottenute con l'ausilio di un elaboratore elettronico). alla struttura algebrico-topologica che viene chiamata, come in Eraclito, il « logos , delÌa forrna ». Successivamente, per designare lo stesso concftto; Thom adotta la terminologia introdotta in embriologia da C. H. Waddingtort, rendendola totalmente astr~tta, e .c;hiama « creodo » (dal greco xp~, òò6ç = cammino obbligato) 'e--più in generale ((campo . morfogenetico)} la struttura matematica: in . . grado di descrivere !t= forme strutturalmente st~,bili. .. · . Un~ certa l;llorfologia può in g~nere essere decomposta in qeodi elemeq;; ta.ri -.assoéiàti alle « ca,tastrofi elementari» _.che possono essere raggruppati ih uri « :vocaba}ado » finito. In ge~erale si ha a che fare con un « insieme » di mor,fologie differenti; tuttavia alcune associazioni di ·creo di appaiono più facilmente di altre. -Molto spesso si poss~no ~splicitare .Lvin coli (contraintes) che devonO essere imposti alle condizioni iniziali affinché qt;teste associazioni siano a ·loro volta strutturalmente stabili. Si parla in questo caso di « creodi condizion~li >>: "« Per esempio, la presenza di un essere vivente in un dominio dello spazio richiede la pres·enza, nelle condizioni iniziali, di un altro essere vivente che ne è il genitore (Omne vivum ex ovo). » La nozione di creodo condizionale permette quindi di 'descrivere s~l piano puramente morfologico l'ordine gerarchico; _il mod~llo a_stratto· costituito dalla associazione dei creodi elementari costituisce la struttura del sistema, che in genere è invariartte entro un certo intervallo di tempo. L'oggetto di studio delle discipline; tìiorfologiche è costituito proprio dai creodi condizionali, cioè dalle condizioni che I?ermeÙono ad un sistema di fun. . zionare come una: struttura stabile e èoerente. 39 www.scribd.com/Baruhk La nuova biologia Ogni tipo di oggetto strutturalmente stabile è necessariamente un sistema regolato, può esistere cioè solo per certi valori dei parametri che definiscono il sistema stesso. Quando questi parametri escono dall'insieme dei valori normali si mettono in moto dei meccanismi correttori. L'insieme dei meccanismi di regolazione può venire descritto geometricamente dalla «figura di regolazione », cioè dal creodo del sistema. (Un esempio tipico di un sistema regolato è dato da un punto materiale posto in un bacino di potenziale.) Nel sistema vi è un attrattore della dinamica tale che per t-+ oo tutti i punti del sistema hanno come limite l'attrattore. In generale questo attrattore non è puntiforme ma può essere una figura più complicata (una traiettoria chiusa, una superficie ecc.). Se vi sono più attrattori distinti, questi entrano in competizione,- e si può parlare di « lotta», di « conflitto » tra questi attrattori. Nerisulta che la figura di regolazione presenta dei « punti deboli » e cioè i punti di separazione fra i bacini di due attrattori (come nel caso dell'asino di Buridano). Un sistema complesso verrà quindi diviso in domini associati ad attrattori diversi; questi domini sono separati da punti catastrofici, l'insieme dei quali costituisce la morfologia del sistema. Quando molti creodi, o attrattori, agiscono contemporaneamente il conflitto fra di essi spesso si organizza spazialmente mediante una configurazione strutturalmente stabile, anch'essa retta da un creodo, gerarchicamente superiore. La stabilità di un oggetto deriva dalla competizione fra campi elementari la cui lotta· genera «la configurazione geometrica strutturalmente stabile che assicura la regolazione ». La dinamica del sistema si conforma ad una « " figura di regolazione globale" che funziona come " centro organizzatore" rispetto ai differenti sotto-creodi che governano l'evoluzione dei sistemi elementari ». Abbiamo cosl contemporas1.eamente la presenza di sottosistemi, la cui evoluzione è soggetta ad un determinismo locale in linea di principio riducibile alle forze della chimica-fisica e l'esistenza di un «piano», di un modello dato a priori. In ogni processo naturale è così possibile determinare i creodi del processo « isolotti di determinismo separati da zone dove il processo è instaqile ». Si viene a determinare la presenza al tempo stesso di aspetti deterministici e indeterministici; così la relazione dei creo di fra loro è indeterminata ma la loro azione complessiva può avere un risultato determinato, governato dal « centro organizzatore » dell'intero processo, che lo riferisce ad un modello universale di cui qùel processo è una «copia». I due punti di vista tradizionali della spiegazione del vivente, quello riduzionistico e qrtello strutturale, sono entrambi da prendere in considerazione, superandone i limiti. Il primo, cercando di comprendere la produzione di una certa morfologia, ricercandone le cause, si scontra nella difficoltà di precisare la nozione di 'causa e difficilmente permette la descrizione dei fenomeni discon- www.scribd.com/Baruhk La nuova biologia tinui; l'approccio strutturale assume la morfologia come una combinazione di campi morfogenetici elementari, regolari, dalla cui associazione è possibile ottenere una certa forma ma questo approccio non riesce a spiegare la presenza e la dinamica delle strutture. Per superare i limiti dello strutturalismo che considera la strtlttura in se stessa, occorrerà occuparsi della « spiegazione », reintroducendo il tempo, la dinamica delle strutture. La teoria delle catastrofi spiega la 'presenza delle strutture e « giustifica dinamicamente la loro apparizione e la loro stabilità. Si trova così reintrodotta la nozione di causalità e la conseguente intellegibilità: il modello delle catastrofi, in effetti, riduce tutti i processi causativi ad uno solo, la cui giustificazione intuitiva non pone problemi, il conflitto, padre, secondo Eraclito, di tutte le cose ». Può certo sembrare poco scientifico basare la spiegazione della stabilità strutturale sull'idea di conflitto. Ma, nota Thom, in un periodo di «antropomorfismo delirante» (messaggio, informazione, programma ecc.) «nella misura in cui si fa del " conflitto " un termine che esprime una situazione geometrica ben definita non c'è alcuna obiezione all'uso di questo termine per descrivere rapidamente e qualitativamente una data situazione dinamica». III · LA SPIEGAZIONE MOLECOLARE r) Le ongznt Non v'è dubbio che la vasta risonanza, non solo scientifica, avuta negli ultimi anni dal dibattito biologico, le discussioni accese a livello filosofico e culturale, le grandi attese anche pratiche per la « rivoluzione biologica >> siano dovute agli ultimi sviluppi della teoria sintetica dell'evoluzione ma soprattutto ai risultati della biologia molecolare, della spiegazione dei meccanismi fondamentali della vita in termini di interazioni fra molecole. 1 La migliore spiegazione del perché fu adottato il neologismo biologia molecolare l'ha data Frands H. C. Crick: «Sono stato costretto a definirmi un biologo molecolare'perché mi era difficile continuare a rispondere che ero un misto di cristallografo, biofisico, biochimico e genetista. » La biologia molecolare effettivamente non si presenta come l'ultima fase della discesa al sempre più piccolo, che aveva contrassegnato la biologia degli ultimi secoli, sino a raggiungere il livello minimo di organizzazione, quello molecolare; si tratterebbe in ~tlesto caso di niente altro che di una branca della morfologia o dell'anatomia. La~biologia molecolare è invece, sin dall'inizio, un grande tentativo di unificare .l' I Per comprendere l'entità del salto concettuale operatosi si. ricordi quanto scriveva il grande genetista W. Batesori nel 1916: «È inconcepibile che particelle di cromatina o di qualsiasi altra sostanza, per quanto complessa, siano 4otate di quella capacità che dobbiamo attribuire ai fattori che stiamo considerando [i geni] [... ] supporre che le particelle di cromatina, indistinguibili l'una dall'altra e quasi omogenee rispetto a tutte le prove chimiche, siano portatrici nella loro natura materiale di tutte le proprietà della vita supera i limiti del più convinto materialismo. » '• 41 www.scribd.com/Baruhk La nuova biologia in un quadro coerente e euristicamente fruttuoso un vasto insieme di conoscenze sui « meccanismi della vita » che restava alquanto eterogeneo e dotato di scarso potenziale esplicativo. Questo quadro coerente è però il frutto di contributi tra loro del tutto differenti, come origini teoriche e come metodi, che solo dopo molti anni troveranno una sintesi. Grosso modo si potrebbe dire che all'origine della biologia molecolare hanno contribuito due «scuole», la scuola inglese, che studiava la struttura tridimensionale delle macromolecole di interesse biologico, e il cosiddetto « gruppo del fago », un eterogeneo e ristretto nucleo di scienziati, raggruppato attorno al fisico Max Delbriick, che cercava nuovi metodi, più rigorosi a livello teorico, per chiarire le basi della informazione genetica. Le differenze sostanziali fra questi due indirizzi possono essere individuate innanzitutto nel peso attribuito ai diversi metodi di spiegazione. Gli strutturisti inglesi davano scarsa importanza alla genetica, studiavano la forma delle molecole e «l'evoluzione, utilizzazione e ramificazione di questa forma nella ascesa a sempre più elevati livelli di organizzazione [...]. La biologia molecolare è in modo predominante tridimensionale e strutturale» (William T. Astbury). Conosciuta la forma delle molecole si tratta di collegare la struttura alla sua genesi e alle funzioni che svolge. Il nuovo imperativo metodologico che viene dalla biologia molecolare è: « se non capite una funzione studiate una struttura» (F. Crick). Il gruppo del fago era invece interessato alla genetica molecolare, studiava il DNA non riguardo alla sua struttura tridimensionale, bensì solo alla informazione (monodimensionale) immagazzinata nelle specifiche coppie di basi azotate e al suo ruolo nella replicazione. Vi erano perciò due indirizzi nettamente diversi, l'uno strutturista e tridimensionale, l'altro informazionista e manodimensionale, i quali, «sebbene ognuno seguisse costantemente i seminari organizzati dall'altro, avevano meno da dirsi in termini di reale comunicazione intellettuale di quanto si possa credere» (John C. Kendrew). Tuttavia la differenza di fondo fra i due indirizzi è da ricercarsi in un modo radicalmente diverso di considerare i rapporti fra la biologia e la fisica e il ruolo svolto dalla biochimica nella spiegazione dell'ereditarietà. La biologia molecolare, intesa in senso strutturale, è erede diretta degli studi di cristallografia ai raggi X, iniziati sin dal 1912 da W. H. Bragg e continuati insieme al figlio W. L. Bragg. Sono proprio due allievi dei Bragg, W. T. Atsbury e John D. Bernal,l che iniziarono alla fine degli anni trenta l'analisi strutturistica delle pro: teine e degli acidi nucleici, evidenziando in queste macromolecole una regoI John D. Berna!, fisico e cristallografo, considerato l'iniziatore della strutturistica inglese su materiali biologici, appartiene a quel gruppo di grandi scienziati inglesi che aderirono al marxismo, del quale si è parlato nel capitolo Iv del volume ottavo. Applicando, per la verità alquanto schematicamente, i concetti esplicativi del materialismo dialettico, Berna! ha svolto un intenso lavoro teorico ed anche storico (Science in history, I955). www.scribd.com/Baruhk La nuova biologia larità strutturale considerata allora tipica solo dei cristalli; si cominc10 così ad intravedere la possibilità di spiegare le funzioni fisiologiche delle cellule grazie alla configurazione tridimensionale delle molecole. Il primo frutto decisivo dell'approccio strutturale fu opera però del chimico americano Linus Pauling, che nel 1951 propose la struttura ad a-elica come struttura secondaria delle proteine, grazie alla utilizzazione di modelli in scala. Gunter S. Stent sostiene la tesi che, mentre il gruppo dei biologi molecolari informazionisti era prevalentemente ostile alla biochimica, « la scuola tridimensionale o strutturale può essere considerata come una branca della biochimica, della quale condivideva le ipotesi di lavoro riguardo alla biologia ». È certo vero che gli strutturisti si muovono in una ottica tradizionale, presente già da tempo. Tuttavia l'affermazione che alla base delle funzioni biologiche vi sia la struttura tridimensionale delle molecole è totalmente nuova, in quanto i biològi avevano sino ad allora cercato di individuare la specificità dell' organizzazione dinamica sulla base di eventi biochimici (particolari reazioni e particolari sostanze). Il metabolismo era sostanzialmente governato dalla concentrazione degli enzimi, non dalla loro struttura. La stessa regola one gene-one enzyme, di Beadle e Tatum, legava un gene ad una proteina come composto chimico e non specificamente alla struttura terziaria e quaternaria dell'enzima stesso. Lo scopo della strutturistica era invece di studiare la struttura in sé, quasi indipendentemente dalla composizione dettagliata della proteina. Era alla presenza di sacche idrofile e idrofobe, di siti particolarmente reattivi convenientemente disposti nello spazio che si associava una data proprietà fisiologica. È questo che ha portato Pauling a sostenere la teoria della complementarità tra la struttura del substrato e quella del catalizzatore e Monod a enunciare la gratuità della composizione chimica di un enzima allosterico nei confronti della sua funzione biologica. Mentre i biochimici cercavano di derivare l'ordine biologico dal disordine della cinetica enzimatica, uniformandosi così al procedimento tipico della termodinamica e della chimico-fisica, la biologia molecolare spiega l'ordine con un ordine preesistente. Le strutture che i citologi e i morfologi studiavano e la · presenza di sostanze chimiche dotate di funzionalità biologica sulla base di specifiche strutture molecolari vengono riunite in una sintesi chiara: alla concezione colloidale del « fondamento fisico della vita » si sostituisce una concezione strutturale. Gli agenti chimici sono le strutture di determinate sostanze macromolecolari, la funzionalità di un enzima è direttamente associata solo ad una fra le migliaia di strutture spaziali possibili. Quello che all'inizio del secolo sembrava al genetista Bateson « superare il sogno del più convinto materialista», e cioè l'identificazione del gene con una struttura tridimensionale microscopica, inizia a divenire una realtà ben concreta e scientificamente veri43 www.scribd.com/Baruhk La nuova biologia ficata. D'ora in poi « non esiste alcuna linea di demarcazione tra strutture in senso molecolare e in senso anatomico, le macromolecole hanno strutture intelligibili all'anatomista e le piccole strutture anatomiche (tubuli, lamine ecc.) sono molecolari in un senso intelligibile al ch1mico » (Peter Medawar). La sintesi fra forma biologica e forma chimica è quindi una svolta determinante, che dà origine ad un nuovo tipo di spiegazione scientifica. I risultati estremamente importanti della scuola strutturistica non avrebbero tuttavia svolto un ruolo rivoluzionario senza l'integrazione con un punto di vista totalmente diverso. La strutturistica è infatti un approccio eminentemente descrittivo, non riesce a svolgere un ruolo euristico perché non si pone il problema di come la struttura si forma, si mantiene stabile e viene trasmessa ad ogni generazione. È il problema dell'« informazione genetica », affrontato di petto dall'altra scuola, quella « informazionale », appunto, che aveva una origine intellettuale completamente diversa. Mentre i biologi molecolari strutturali operavano guidati dall'assunto che la fisica potesse dare importanti contributi alla biologia, alcuni dei primi biologi molecolari informazionali erano motivati « dalla fantastica e non convenzionale idea che la biologia poteva dare significativi contributi alla fisica» (G. S. Stent). Il grupp0 del fago si era infatti costituito intorno a Max Delbriick, allievo di Niels Bohr. Bohr aveva cercato di « stabilire se all'analisi dei fenomeni naturali non manchi ancora qualche elemento fondamentale per la comprensione della vita sulla base delle esperienze fisiche » concludendone che « la mera esistenza della vita andrebbe considerata in biologia come un fatto elementare, allo stesso modo come in fisica atomica l'esistenza del quanto di azione va accettata come un dato primario non derivabile dalla meccanica ordinaria». Ne risultava che la sola via per conciliare le leggi fisiche coi cosiddetti aspetti finalistici dei fenomeni biologici era tenere conto delle differenze sostanziali tra le condizioni di osservazione. Cosl il meccanicismo, il tentativo di ridurre i fenomeni biologici alla chimico-fisica, e il finalismo, la rivendicazione del carattere autonomo di certi aspetti dei fenomeni biologici, sono descriziov.i complementari che « sottolineano il carattere di reciproca esclusione di condizioni di osservazioni ugualmente indispensabili », allo stesso modo in cui sono complementari la trattazione ondulatoria e quella corpuscolare in meccanica quantistica. Nonostante i suoi limiti teorici che discuteremo in seguito, l'impostazione generale di Bohr, cioè la necessità di ricercare leggi più generali di quelle della fisica di allora per poter spiegare i fenomeni biologici, la « funzione peculiare della vita », segna in profondità tutti i fisici che negli anni successivi si dedicano alla ricerca biologica. Tale funzione peculiare della vita è l'ereditarietà ed è a questa che l'allievo di Bohr, Max Delbriick, si rivolge, studiandone con concetti autonomi il substrato materiale, il gene. 44 www.scribd.com/Baruhk La mappa genetica del batteriofago T4 mostra le posizioni relative dei più di 75 geni finora identificatj in base alle mutazioni. I tratti in nero pieno nella circonferenza indicano la localizzazione dei geni interessati allo sviluppo della normale forma del fago. I disegni nei riquadri mostrano quali componenti virali sono presenti nelle cellule infettate da mutanti che mancano dei geni indicati. Per esempio, una deficienza del gene rr o 12 produce una particella completa ma debole. Una deficienza del gene 57 produce una particella mancante delle fibre della coda (William B.- Wood e R. S. Edgar, «Scientific American », 1967). Questo per alcuni versi doveva essere un cristallo, in quanto solo un cristallo, pensavano la maggior parte degli scienziati, può mantenere una morfologia perfettamente regolare e può servire da stampo per produrre altri cristalli dello stesso genere e configurazione. Ma non può essere un cristallo perio"dico, comé quelli inorganici, che ripetono costantemente piccole « celle » semplici, perché in questo ·modo non si potrebbe spiegare la molteplicità delle organizzazioni cui può dare origine. Il cromosoma deve essere, quindi, un 45 www.scribd.com/Baruhk La nuova biologia - «cristallo aperiodico» (Erwin Schrodinger), capace di resistere «per lunghi periodi alla influenza perturbatrice dell'agitazione termica cui la sostanza ereditaria è continuamente esposta ». Delbriick, in collaborazione con il genetista N. Timofeef-Ressovsky, elabora un modello molecolare per il gene e per la mutazione: « Il gene non è niente altro che un tipo particolare di molecola. » Con il modello molecolare non è pii:t « inconcepibil_e » che il gene contenga un codice in miniatura del piano di sviluppo e i mezzi per realizzarlo e si spiega anche il carattere discontinuo delle mutazioni. Queste sono infatti solo dei cambiamenti di configurazione irt una parte della molecola e, come ogni transizione di tipo chimico, non presentano forme intermedie. Il modello di Delbriick e le tesi teoriche che vi sono dietro vengono popolarizzate da un breve libro scritto da Erwin Schrodinger nel 1945, What's Life ?, nel quale il padre della meccanica ondulatoria, con passione e chiarezza di vedute, indica ai giovani fisici, colpiti moralmente dall'uso distruttivo della energia atomica, il nuovo affascinante campo. Significativamente Schrodinger accetta solo la prima parte delle argomentazioni di Bohr e cioè « la ovvia incapacità della fisica e chimica di oggigiorno a dare una spiegazione » dei fenomeni vitali, ma crede nella possibilità che ciò sarà possibile in futuro quando si scopriranno altre leggi della fisica «fino ad oggi sconosciute, le quali tuttavia, una volta scoperte, formeranno parte integrante di questa scienza, esattamente come le precedenti ». Nel 1932. Delbriick lascia la Germania nazista e si trasferisce negli Stati Uniti, dove inizia a studiare da tutti i possibili punti di vista un oggetto biologico particolarmente interessante, il sistema costituito dal batterio Escherichia coli, un ospite generalmente innocuo dell'intestino umano, e dal gruppo dei sette batteriofagi T che lo invadono. I microorganismi, che erano stati solo considerati dal punto di vista medico, diventano un terreno di studio privilegiato per la biologia. I batteri ed i virus permettono infatti di ottenere migliaia di generazioni in poco tempo e poco spazio, sono struttù,ralmente semplici (anche se non lo sono affatto chimicamente e funzionalmente) e dotati di un metabolismo piuttosto flessibile che permette di provocare « variazioni controllate e riproducibili » nelle popolazioni batteriche e infine sono facilmente trattabili biochimicamente per estrarne i componenti elementari. Il sistema fago-batterio diviene l'oggetto ideale per lo studio dell'autoduplicazione e delle basi fisiche dell'ereditarietà. Il programma di Delbriick è « studiare nel dettaglio il comportamento delle cellule viventi » formulando i concetti e le teorie « senza paura di contraddire la fisica molecolare ». Si crea cosl un « nuovo approccio intellettuale alla biologia che darà finalmente un significato al male impiegato termine biofisica». Verso il 1940 Delbriick viene raggiunto da Alfred Hershey e Salvatore E. Luria: nasce il gruppo del fago che dal 1945 organizza a Cold Spring Ha:rbor www.scribd.com/Baruhk La nuova biologia una serie di scuole estive, la vera fucina della biologia molecolare. Inizia quella che G. Stent chiama la «fase romantica» della nuova disciplina, caratterizzata dall'introduzione in genetica dei microorganismi, di un rigore teorico e di una logica sperimentale precedentemente sconosciuti. Si chiariscono i meccanismi con cui il virus infetta il batterio e vi si moltiplica, le mutazioni dei batteri e il meccanismo di replicazione genetica. Già da qualche anno Martin Schlesinger aveva dimostrato che i batteriofagi erano costituiti solo da proteina ed acido nucleico e che le loro proprietà biologiche erano dovute ad una molecola in grado di autoriprodursi. Ma si trattava della proteina, come molti, compreso il gruppo del fago, allora pensavano, oppure dell'acido nucleico, questa molecola considerata di supporto, a prima vista scarsamente adatta a trasportare l'informazione genetica cosl multiforme? Nel 1944 I. Avery, C. M. MacLeod e M. McCarty avevano pubblicato su di una rivista medica, il « J. of Experimental Medicine », le conclusioni della ricerca di « una qualche sostanza chimica capace di provocare una variazione ereditaria e predicibile chimicamente indotta e diretta specificamente da un composto chimico noto », in modo da spiegare lo strano fenomeno osservato da J. F. Griffith nel 1928 e cioè la trasformazione di un tipo di pneumococco inattivo in un altro attivo; un esempio, il primo osservato in laboratorio, di trasmutazione di una specie in un'altra. La conclusione del lavoro di Avery eta che «la fondamentale unità del principio trasformante è un acido nucleico del tipo dessosiribosio ». La pubblicazione di questo lavoro è attualmente considerata come la data di nascita della biologia molecolare ma tale giudizio è dato a posteriori perché in quegli anni pochissimi avevano afferrato l'importanza fondamentale .del lavoro di Avery. L'articolo si presentava come un classico lavoro di batteriologia senza evidenti agganci con la genetica. Lo stesso autore, anche se pensa, e lo dice privatamente, che l'« agente trasformante » « si comporta come un virus ma può essere un gene», nell'articolo non parla mai di gene, mutazione ecc. Solo nelle conclusioni prende in esame asetticamente tale possibilità insieme ad altre e non tenta alcuna generalizzazione. Ma nel ristretto ambiente dei primi biologi molecolari, la scoperta di A very scoppia come una bomba. Erwin Chargaff inizia a studiare la struttura degli aciqi nucleici, giungendo a dimostrare che ogni specie ha un DNA caratteristico, con una diversissima composizione in basi, ma sempre rispondente alle eguaglianze G = C e A = T. Successivamente Alfred Hershey e Martha Chase dimostrano che il risultato sperimentale ottenuto da Thomas Anderson, facendo « esplodere » le teste dei fagi e osservandole al microscopio elettronico, sulla base della quale era stata avanzata l'ipotesi «estremamente comica che solo il DNA virale riesca a trovare il modo di entrare nella cellula ospite, agendo in essa come un principio trasformante per alterare i processi di sintesi», era tutt'altro 47 www.scribd.com/Baruhk La nuova biologia che comica. Marcando con isotopi radioattivi la' componente proteica si dimostrava che questa non entra nella cellula. La situazione era ormai matura per il passo decisivo e questo avviene per l'interazione, anche fisica, fra la scuola informazionale e quella strutturistica. Un allievo di Luria, James O. Watson, dopo l'incontro con il fisico inglese M. H. F. Wilkins, che aveva ottenuto ottime figure di diffrazione del DNA, inizia a studiare la struttura degli acidi nucleici. Nel 1951 si trasferisce a Cambridge nel laboratorio di J. Kendrew dove incontra Francis Crick col quale inizia lo studio di un modello tridimensionale del DNA, seguendo la tecnica che aveva proprio allora portato Pauling a chiarire la struttura ad a-elica delle proteine. Si trattava di «imitare Linus Pauling e batterlo al suo stesso gioco» (Watson). Ma, in realtà, non era una corsa contro il tempo; nonostante quanto si sia scritto sull'argomento, Pauling non sarebbe giunto, o almeno non così presto, alla conclusione che il DNA era una doppia elica. Watson e Crick partono infatti non da una semplice analisi strutturistica, ma introducono dei principi genetici nella determinazione della struttura. Si trattava cioè di trovare un modello strutturale che non solo fosse sovrapponibile alle figure sperimentali di diffrazione, ma spiegasse come il DNA poteva portare l'informazione genetica e come, quando una cellula si divide, ogni nuova cellula contiene una copia identica del DNA. Tale informazione deve essere contenuta nelle basi dato che, come aveva mostrato Chargaff, sono queste le sole variabili presenti. L'idea più credibile era assegnare alle sequenze delle basi il ruolo di codice. Ma come sono disposte le sequenze? Scartato un modello con tre eliche, che sarà elaborato anche da Pauling, si giunge ad un modello a due filamenti e infine alla sua natura «complementare», cioè l'appaiamento mediante legami idrogeno fra coppie di basi A, T e C, C. Una base funziona come il negativo dell'altra. Se la doppia elica si scioglie ogni singola catena può agire come stampo di una nuova catena complementare. Il modello di Watson e Crick viene pubblicato su« Nature» nel 1953. Contrariamente al modello dell'a-elica, il modello del DNA è estremamente euristic-o, apre nuove possibilità in quanto contiene in sé le indicazioni principali per -capire come funziona il materiale genetico. Inizia una nuova fase della biologia molecolare dedicata a chiarire i principi fondamentali della genetica molecolare. 2) La genetica molecolare Il modello a doppia elica del DNA è di per sé una sintesi di un insieme di conoscenze prima eterogeneo, suggerisce possibili soluzioni ad una vasta quantità di problemi e fa intravedere nuove possibilità di ricerca. « La situazione, » scrive Niels Bohr a questo proposito, « era molto simile a quella in cui vennero a trovarsi i fisici con la scoperta del nucleo atomico che completò www.scribd.com/Baruhk La fotografia mostra la diffrazione dei raggi X provocata da un cristallo di DNA. La struttura elicoidale del DNA è suggerita dal disegno incrociato dei raggi X diffratti. (Dott. Robert Langridge). la conoscenza dell'atomo in misura inaspettata, spingendoli a trovare come poteva venire impiegata per ordinare le informazioni accumulate sulle proprietà chimiche e fisiche della materia. >> Molti fenomeni genetici sembrano trovare còn il modello a doppia elica del DNA la propria base mo!eco!are. È infatti semplice postulare. un meccanismo per il crossing-over, cioè il processo di scambio di materiale genetico fra cromosomi omologhi. Questo può avvenire mediante la rottura e la riunione di molecole di DNA, anche se la spiegazione di questo processo a livello molecolare è tuttora molto poco chiaro. Le catene di DNA sono infatti considerate strutture chiuse e, in termini di interazioni molecolari, nori si vede perché « due molecole .di DNA omologhe dovrebbero attrarsi reciprocamente» (Watson). Anche le mutazioni puntiformi, interessanti cioè un singolo gene, possono essere attribuite alla sostituzione di una base, un semplice processo chimico. Una volta accettata l'idea che il contenuto genetico di una cellula è localizzato nel suo DNA nucleare anche le mappe cromosomiche, che erano state il grande risultato della genetica classica o formale, trovano il corrispondente molecolare. Ogni singolo focus genico sarà associato ad un pezzo della catena del DNA. Dato che i biochimici da tempo sostenevano che la cellula non fosse altro 49 www.scribd.com/Baruhk -..,- / / / gene / / / cromosoma / / / / / / H -cH -t- / _c_ / / ... / D('lA RNAm Polipeptìde Il « dogma » della genetica molecolare. che la somma delle strutture proteiche e delle attività catalitiche degli enzimi, capire come il gene, la molecola di DNA, guida la sintesi delle proteine significa avere a portata di mano «il segreto della vita». L'obiettivo della biologia molecolare diviene esplicito: « comprendere tutte le caratteristiche degli esseri viventi come interazione coordinata di piccole e grandi molecole» (Watson). L'interazione era stata grosso modo chiarita dalla biochimica, in particolare da.., gli studi sul metabolismo. Con il modello a doppia elica sembra ora disponibile un meccanismo per spiegare l'origine della coordinazione. Tale meccanismo viene proposto, ancora, da Watson e Crick sotto la forma di « dogma centrale della biologia molecolare »: DNA ----:r RNA --+ catena polipeptidica L'« informazione» va dall'acido nucleico alla proteina e non viceversa. Con la proposta del dogma centrale ha inizio la fase «dogmatica» (Stent) della biologia molecolare. A differenza della prima fase che aveva richiesto una ricerca « a tastoni » di una sintesi non prevedibile, anche se era chiaro in quale direzione tale sintesi sarebbe stata trovata, la nuova fase è soprattutto di applicazione, di chiarificazione dei singoli aspetti del meccanismo di sintesi proteica, di individuazione di tutte le specie molecolari in esso implicate e della loro struttura tema- www.scribd.com/Baruhk La nuova biologia ria e quaternaria. Alle ardite generalizzazioni, succede una serie di ricerche prettamente sperimentali, che mettono a punto una serie di tecniche estremamente sofisticate, basate essenzialmente su uno sviluppo dei metodi biochimici. Se i risultati spettacolari non mancano, tuttavia questo tipo di attività di ricerca segna anche il limite della biologia molecolare e in un certo senso una sua involuzione. Diviene infatti spesso privilegiato il momento tecnologico, di analisi strumentale di singoli aspetti a scapito della riflessione e delle generalizzazioni teoriche, limitando in questo modo anche il campo esplicativo della teoria stessa. Il DNA può svolgere funzioni sia autocatalitiche che eterocatalitiche, dirigere cioè la propria duplicazione e la polimerizzazione delle proteine tramite un intermedio, o meglio una serie di intermedi, costituita da diversi tipi molecolari di un altro acido nucleico a filamento singolo, l'RNA, contenente uracile al posto della timina. Il DNA agisce come stampo (template) per la sintesi di una coppia delle proprie catene polinucleotidiche, grazie ad un meccanismo << semiconservativo », basato sulla formazione di legami idrogeno complementari, e di catene polinucleotidiche di RNA che a loro volta dirigono la sintesi delle proteine. Se è chiaro dal modello di Watson e Crick come può avvenire la specificazione della sequenza fra i nucleotidi (tramite la complementarità dei legami idrogeno), più difficile è capire come dalla sequenza di nucleotidi si passa alla sequenza ·di aminoacidi. L'accoppiamento non può essere una base - un aminoacido-, perché le basi sono solo 4 e gli aminoacidi 20. Ogni aminoacido dovrà quindi essere specificato da ; nucleotidi (una« tripletta » o <<codone»). Si presenta di fronte ai ricercatori un problema affascinante: la decifrazione del codice genetico che lega una singola tripletta ad un aminoacido. Tale decifrazione è dovuta alla possibilità di ottenere in vitro, mediante tecniche enzimatiche e di sintesi çhimica, dei poli-nucleotidi sintetici regolari, ripetizione di una sequenza nota (ad esempio CUCUCU ... ). Il primo che fu otfenuto, poli - U, era capace di dirigere in vitro la sintesi di una catena polipeptidica formata solo da fenilalinina. Il primo codone è decifrato: UUU = fenilalinina. Estendendo questa tecnica, con l'uso di copolimeri misti e regolari, fu presto possibile decifrare quasi l'intero codice genetico. Ne deriva un'altra potente conferma delle tesi di una comune discendenza di tutte le forme di vita attualmente esistenti sul nostro pianeta: il codice è universale, è lo stesso per tutti gli organismi, dai virus all'uomo. Ma come viene letto il codice, qual è il meccanismo molecolare che permette il passaggio dalla sequenza lineare dei nucleotidi del DNA a quella degli aminoacidi nelle proteine? Qual è in altre parole il meccanismo della sintesi proteica? È questa la seconda domanda di fondo che ha occupato i biologi mo!ecolari nella fase << dogmatica ». I risultati della biochimica topologica, grazie all'uso sempre più vasto de- www.scribd.com/Baruhk Il codice genetico Secondo nucleotide Primo nucleotide Terzo nucleotide Lys Asn Lys Asn Thr Thr Thr Thr Arg Ser Arg Ser Ile Ile Gin His Gin His Pro Pro Pro Pro Arg Arg Arg Arg Leu Leu Leu Leu Glu Asp Glu Asp Ala Ala Ala Ala Gly Gly Gly Gly Val Val Val Val ter Tyr ter Tyr Ser Ser Ser Ser ter (?) Cys Trp Cys Leu Phe Leu Phe M et Ile A c -G u I simboli A, C, G, U indicano le basi (adenina, citosina, guanina e uracile) che si trovano nella catena di RNA e di DNA (dove l'uracile è sostituito dalla base analoga timina, T) . Queste basi costituiscono le «lettere» dell'alfabeto in cui è scritto il «messaggio» genetico. Poiché le proteine contengono venti aminoacidi (indicati nella tabella con il nome abbreviato, Ser = serina, Phe = fenilalanina ecc.), due basi non sarebbero state sufficienti, in quanto avrebbero permesso solo r6 combinazioni possibili. Se un gruppo di tre basi codifica un aminoacido, le possibilità sono 64, largamente sufficienti. Quindi ogni « tripletta » di basi codifica uno specifico aminoacido; è la « parola » (in linguaggio scientifico còdone) che indica un aminoacido; p. es.: AAG = lisina. La sequenza dei codoni lungo l'elica del DNA specifica esattamente la sequenza degli aminoacidi lungo la catena proteica. Come si può notare il codice è degenere, "cioè la maggior parte degli aminoacidi ha più di una tripletta che lo codifica. I simboli ter (UAA, UGA, UAG) significano chain termina! signa!, cioè segnale di fine catena, che indica quando quella specifica proteina è stata interamente trascritta. Inoltre i codoni AUG (Met) e GUG (Val) sono segnali di inizio catena, indicano il sito dove ha inizio la trascrizione di una catena proteica. Il codice genetico è universale, ogni aminoacido è specificato dalla stessa tripletta in tutti gli organismi. 52· www.scribd.com/Baruhk La nuova biologia - gli isotopi, aveva dimostrato che la sintesi proteica avveniva non nel nucleo, ma nel citoplasma, su minuscoli corpuscoli, i ribosomi, formati da proteine strutturali e da un tipo particolare di RNA (l'r-RNA). Già nella prima formulazione del «dogma» era previsto l'intervento dell'RNA come stampo intermedio per la sintesi delle proteine. L'RNA doveva quindi essere in grado di passare dal nucleo al citoplasma, attraversando la membrana nucleare e giungendo sino ai ribosomi dove poteva guidare la sintesi delle proteine. Questo tipo di RNA, chiamato RNA messaggero (m-RNA) per la sua funzione di «trasferire un messaggio» e isolato da François Jacob e Jacques Monod, è composto di catene polinucleotidiche relativamente corte, capaci di specificare una o più proteine. Semplici considerazioni stereochimiche avevano portato ad escludere che le proteine potessero sintetizzarsi direttamente sull'm-RNA, in quanto non esiste una complementarità di tipo chimico fra le catene laterali degli aminoacidi e le basi azotate. Occorreva quindi supporre l'esistenza di un « adattatore » fra l'RNA messaggero e le proteine. Per superare queste difficoltà fu avanzata l'ipotesi che un terzo tipo di RNA, trovato nelle cellule e chiamato transfer, t-RNA, ancora più piccolo della m-RNA, fosse dotato di una struttura tridimensionale capace di interagire stereochimicamente, grazie ad una «cavità» specifica, con un singolo aminoacido. Il t-RNA è dotato alla estremità opposta rispetto a quella che interagisce con l'aminoacido di un anticodone (cioè una tripletta di nucleotidi esattamente complementare alla tripletta che codifica l'aminoacido trasportato da quel t-RNA) che permette il suo appaiamento con il codone dell'm-RNA che si trova sui ribosomi e che, legando le singole molecole di t-RNA, pone a contatto i singoli aminoacidi permettendo la formazione dellegame peptidico. L'm-RNA scorre sui ribosomi come un nastro sulle testine di un registratore e a mano a mano si forma l'intera catena polipeptidica. Chiarito il meccanismo della sintesi proteica si profila un problema che i biochimici avevano cercato invano di risolvere e cioè il controllo della velocità di sintesi delle varie molecole proteiche. Come abbiamo visto, infatti, esiste nella cellula una grande varietà di molecole diverse, le cui relative concentrazioni possono variare a seconda del particolare substrato su cui la cellula cresce, della presenza di particolari enzimi, dello stadio a cui si trova il ciclo cellulare; inoltre il fabbisogno di proteine varia moltissimo durante il differenziamento. Quali sono i meccanismi capaci di assicurare la sintesi selettiva delle proteine nelle diverse condizioni ed in tempi diversi? Dato che, come è ovvio dopo il dogma centrale, la produzione di proteine è sotto il controllo genico, come viene regolato il funzionamento dei geni stessi? L'ipotesi introdotta per chiarire i meccanismi fondamentali della regolazione cellulare da parte di Jacob e Monod costituisce una nuova, importante svolta teorica, che in un certo senso è una estensione, un completamento del www.scribd.com/Baruhk La nuova biologia dogma centrale. Tale ipotesi si basa sulla esistenza di un particolare gruppo di molecole, chiamate repressori, in grado di combinarsi con siti specifici del DNA (geni strutturali o « cistroni »), bloccando in questo modo la trascrizione dei corrispondenti m-RNA. Anche queste molecole, isolate poi come proteine, sono codificate dal DNA cromosomico e i geni che le codificano sono chiamati geni operatori (o regolatori). All'insieme del gene operatore e dei geni strutturali da esso controllati si dà il nome di operone che è una specie di « paragrafo » del « messaggio » del DNA. Per spiegare l'estrema specificità dell'interazione fra substrato e repressore, e fra questo e il corrispondente gene operatore, Jean Pierre Changeux, Monod e Jeffries Wyman hanno proposto il cosiddetto« meccanismo allosterico ».Esistono come abbiamo visto degli enzimi che svolgono contemporaneamente funzioni di catalizzatore e di regolazione nei confronti di un metabolita essenziale. Quindi tali enzimi devono essere in grado di « riconoscere » due classi differenti di molecole: il segnale regolatore e il substrato della reazione catalizzata, e inoltre devono essere altamente sensibili anche a piccole variazioni della concentrazione di questi. Il problema principale da risolvere è sapere come la proteina riesce a modificare la propria funzionalità biologica sulla base dei segnali regolatori. Dato che questi processi sono osservabili anche in vitro, al di fuori cioè dei meccanismi cellulari, la biologia molecolare fa l'assunzione, conformemente alla sua ipotesi di fondo, che tutte le proprietà degli enzimi siano collegate alla loro struttura tridimensionale. « Il riconoscimento e l'integrazione di singoli regolatori devono essere semplici proprietà meccaniche degli enzimi » (Changeux). Basterà quindi conoscere la struttura della proteina, la natura dei siti implicati nei legami, le modificazioni" strutturali conseguenti all'interazione con il segnale regolatore o il su bstrato per spiegare il meccanismo della regolazione. Alla base del modello di Monod, Wyman e Changeux c'è un meccanismo di amplificazione mediante il quale un primo legame in una parte della molecola produce un aumento della velocità di formazione di altri legami sulla stessa molecola (cinetica sigmoide).l Tutte le proteine allosteriche sono costituite dall'aggregazione di sottunità distinte, in grado di stabili1 e una cooperatività fra loro. Un legame in una parte dell' oligomero provoca un cambiamento di conformazione nel resto della struttura quaternaria. La proteina allosterica dispone quindi di siti di legame diversi per il substrato e per i segnali regolatori, tra i quali si stabiliscono delle reazioni indirette tramite leggere modificazioni conformazionali. È l'equiI Questo effetto era stato osservato da Christian Bohr, padre del fisico Niels, fin dal 1903 nell'emoglobina; Bohr, osservando che la curva che descriveva la cinetica di reazione dell'assorbimento di ossigeno aveva una forma partico- !are che dimostrava un incremento della velocità di reazione man mano che la reazione avveniva, suppose correttamente che l'ossigeno fosse capace di autoregolare la propria fissazione sull'emoglobina. www.scribd.com/Baruhk DNA xxx:x:xxxxxxxx DNA X:XXXXXXXXXX::X fattore ~ di controllo DNA-Polimerasi XXX:X:XXXXXXXX ~~i RNA-Polimerasi -,:: ~\-ç 1 A - - - -- --- RNA-t aminoacidi enzima attivante (am 1noac11S1ntetas1) -~ ~~a~~~a~ll Schema riassuntivo del ciclo di autoriproduzione biosintetica della cellula. librio tra questi stati conformazionali, differenti per l'affinità ai ligandi specifici, che permette all'enzima di svolgere il suo ruolo regolatore. A conclusioni analoghe è giunto Daniel E. Koshland che ha proposto un modello, diverso da quello di Monod, per spiegare il controllo biologico, chiamato della« complementarità indotta». L'ipotesi da lui avanzata suppone che la specificità enzimatica non sia insita di per sé nella struttura tridimensionale della molecola, ma che la forma complementare dell'enzima nei confronti del substrato venga indotta « così come una mano produce un cambiamento nella forma di un guanto». L'enzima è quindi flessibile ed un ruolo importante è svolto dal substrato. Una proteina con effetti cooperativi positivi è molto più sensibile a piccole fluttuazioni dell'ambiente rispetto ad una proteina non allosterica. Così l'emoglobina, un tetramero con effetto cooperativo positivo, è un trasportatore di ossigeno molto più attivo ed efficiente della mioglobina che invèce è monomerica e di conseguenza non presenta effetto cooperativo. Quindi la cooperazione positiva è uno «strumento di amplificazione » che permette un'ampia regolazione da parte di piccoli segnali. Esistono anche effetti di cooperazione 55 www.scribd.com/Baruhk La nuova biologia negativa, nei quali il primo legame induce delle modificazioni conformazionali che rendono più difficili i successivi legami. Ciò ha un ruolo importante per diminuire la sensibilità di alcuni enzimi alle fluttuazioni ambientali, stabilizzando quei processi biochimici che devono rimanere costanti. Lo stesso repressore genetico può quindi essere considerato come una proteina regolatrice di tipo allosterico, la cui interazione con il substrato provocherebbe una modificazione allosterica di configurazione tale da rendere la proteina incapace di bloccare il gene operatore. In conclusione, dall'insieme dei meccanismi di sintesi proteica e della sua regolazione emerge una impostazione di fondo abbastanza chiara. Tutte le funzioni e le strutture cellulari sono descrivibili tramite l'interazione fra molecole. Il progetto di Delbruck di trovare «altre leggi della fisica» sarebbe stato quindi battuto. Tutte le reazioni all'interno della cellula sono descritte nei termini usuali della chimica e della fisica. La sostanza ereditaria sembra operare solo rompendo e ristabilendo legami idrogeno. Per i biologi molecolari più rigidi il DNA é il centro unico di tutta l'attività cellulare, una struttura chiusa, cui ogni singolo passo della vita deve in ultima istanza collegarsi. La vita è, come si dice in gergo, «DNA-centrica». Tuttavia questo programma si traduce presto in un paradigma che orienta l'attività di ricerca, talvolta !imitandola, divenendo un ostacolo allo sviluppo delle conoscenze. Esamineremo nel seguito alcune obiezioni di fondo alla «spiegazione molecolare » e i tentativi di trovare una sintesi più generale dei concetti fondamentali della biologia. Vogliamo invece brevemente far notare qui che anche per i meccanismi fondamentali illustrati sopra per la regolazione sono state avanzate soluzioni alternative che si basano su una impostazione teorica e metodologica alquanto differente e sollecitano un atteggiamento teorico più critico. In particolare gli studi sugli eucarioti (cioè organismi veramente cellulari, con nucleo circondato da una membrana il cui ruolo è tra l'altro quasi completamente sconosciuto) non si sono dimostrati una semplice generalizzazione dei risultati ottenuti sui batteri. L'affermazione ricorrente che « quello che vale per l'Escherichia coli vale anche per l'elefante>> non sembra più soddisfare molti ricercatori. Così, mentre la regolazione genica mediante l'eliminazione del repressore viene considerata dimostrata nei batteri, non altrettanto lo è per gli eucarioti. Si tende a superare l'assolutezza del controllo genico per mettere in rilievo il ruolo del citoplasma. Gli esperimenti mediante trapianti cellulari mostrano che quando il nucleo di una cellula con scarsa attività di sintesi viene trapiantato in una cellula attiva, molti geni entrano in funzione. Le relazioni fra nucleo e citoplasma sembrano quindi più complesse della semplice uni direzionalità nucleo-+ citoplasma. I cromosomi degli eucarioti sono nucleoproteine, cioè complessi di acidi nucleici e di proteine. Le proteine della cromatina sono di due tipi, istoni e proteine non istoniche. Gli istoni sono proteine basiche contenute in un rap- www.scribd.com/Baruhk La nuova biologia porto I : I con il DNA. Diversi esperimenti indipendenti hanno portato alla conclusione che gli istoni normalmente funzionano inibendo la capacità dei geni di essere trascritti in RNA e inoltre aumentando la stabilità della doppia elica del DNA. Ciò sarebbe confermato dal fatto che quando la cellula sintetizza il DNA (durante la fase S del ciclo cellulare) sintetizza contemporaneamente gli istoni che ne assicurano la stabilità e bloccano immediatamente i segmenti di DNA appena replicati. In questo modo gli istoni non sembrerebbero altro che i repressori individuati nelle cellule batteriche e spiegati con il modello di interaziòne allosterica. Tuttavia gli istoni dimostrano una totale uniformità chimica anche per diverse specie e quindi una mancanza di specificità, che impedisce il riconoscimento e la possibilità di influenzare particolari geni. Vi sono poi le proteine non istoniche, anch'esse sintetizzate, come tutti i prodotti cellulari, nel citoplasma. Tuttavia, a differenza degli istoni, queste proteine non si associano subito al DNA nucleare ma si mantengono in uno stato di flusso fra cromatina e ambiente citoplasmatico. Contrariamente agli istoni, le proteine non istoniche mostrano una enorme eterogeneità sia dal punto di vista della composizione in aminoacidi che del loro peso molecolare e del rapporto con gli altri componenti della cromatina. In particolare le proteine non istoniche sono specie-specifiche e all'interno dello stesso organismo tessuti diversi contengono differenti proteine non istoniche. La presenza di proteine non istoniche sembra caratteristica di uno stato attivo del DNA, che sintetizza RNA. Sarebbero quindi queste proteine a svolgere il ruolo di molecole regolatrici in grado di riconoscere specifici segmenti del DNA. È la presenza di proteine non istoniche a determinare quali geni saranno trascritti nelle varie parti dell'organismo e ugualmente ad assicurare la modulazione nel tempo della trascrizione genica. Secondo un modello recentemente proposto, una proteina non istonica specifica per un gene reagirebbe con l'istone che lo blocca, liberando il relativo segmento di DNA che può così iniziare la sintesi di RNA messaggero. Questa visione della regolazione genica differisce in un punto sostanziale dal modello « DNA-centrico » nel quale un gene è controllato da un altro gene, e così via. Le proteine non istoniche, certo sotto controllo genico, come ogni prodotto cellulare, sono però anche soggetti ad altri tipi di controllo. Così è stato dimostrato che gli ormoni steroidei, provocando cambiamenti di composizione e di metabolismo delle proteine, alterano il quadro della trascrizione genica. Lo stato di flusso dinamico di queste proteine non istoniche fra cromatina e citoplasma assicura inoltre una maggiore flessibilità ai meccanismi di regolazione ed aumenta notevolmente il ruolo dell'ambiente cellulare ed extracellulare nella trascrizione dei geni e quindi nella vita della cellula. Sono quindi gli scambi fra organismo e ambiente che determinano quali parti del DNA vanno trascritte e la loro velocità di trascrizione. Il DNA è il « magazzino » dell'informazione ereditaria ma da solo non è la vita. www.scribd.com/Baruhk La nuova biologia 3) Il differenziamento cellulare e la morfogenesi La comprensione dei meccanismi della regolazione genica è l'obiettivo principale di ricerca della terza fase della biologia molecolare, chiamata da Stent « accademi~a », perché intorno al 1963 la disciplina si istituzionalizza, trova un posto preciso all'interno dei corsi universitari e una autonomia riconosciuta nei confronti delle altre discipline biologiche. Si diffonde la convinzione che « tutti i paradossi siano stati superati e non rimanga che esaminare i dettagli» (Stent) ancora aperti nello studio della ereditarietà. È questo un procedimento metodologico tipico; non appena sia stato chiarito un fenomeno fondamentale, proposto un modello esplicativo rivelatosi valido ed euristicamente fruttuoso non resterebbe altro da fare che applicarlo estensivamente; chiarito il primo passo il resto non sarebbe che una meccanica generalizzazione dei principi esplicativi, della tecnica per ottenere nuove conoscenze, nuove evidenze sperimentali. Resta il fatto che tali « dettagli » sono in realtà problemi di grande rilievo la cui soluzione può portare a stravolgere gli stessi concetti di base della biologia. Si tratta in primo luogo di capire lo sviluppo embrionale, i processi responsabili della morfogenesi degli organismi differenziati; c'è poi il problema di chiarire i meccanismi che assicurano la coordinazione dell'organismo, la sua attività omeostatica (il sistema nervoso e il sistema endocrino) e la difesa della unicità di questa omeostasi grazie alle risposte immunitarie; c'è infine il problema dell'origine della vita e della sua evoluzione. Si tratta di «dettagli» che impegnano a fondo i presupposti teorici e metodologici della spiegazione molecolare, ma dei quali, almeno nella loro attuale espressione, questi non riescono a rendere conto. La morfogenesi viene spiegata come un caso particolare di regolazione genica che, bloccando la trascrizione in tempi diversi di diversi siti del DNA, dà origine alla differenziazione cellulare, alla organizzazione dei tessuti e infine dell'organismo nella sua interezza. Alcuni esperimenti giustamente celebri compiuti da John Gurdon mediante trapianti nucleari hanno confermato una ipotesi avanzata già dal gruppo del fago, e cioè che tutte le cellule di un organismo multicellulare, anche le più lontane nella forma e nelle funzioni, hanno lo stesso contenuto in geni. Il differenziamento avviene perché soltanto una piccola parte, variabile fra lo o, 1 e il 10% del totale, della informazione genetica viene espressa. Il resto è bloccato, si pensa tramite represso ti specifici, o in forma reversibile- per cui una cellula se variano le sue condizioni ambientali può perdere la specificità e tornare a funzionare come una cellula non differenziata- oppure in forma irreversibile. Si presentano a questo punto due problemi di fondo: da cosa viene stabilita la serie srazio-temporale con cui i diversi geni iniziano e terminano la www.scribd.com/Baruhk La nuova biologia loro trascrizione? È totalmente sotto il controllo genico, di modo che i diversi passi sono tutti « programmati » nel « messaggio » contenuto nell'uovo fecondato, oppure svolge un ruolo determinante l'ambiente nel quale questo« messaggio » viene a trovarsi? La s~conda questione: ammettiamo che i geni siano in grado, nel momento e nel luogo adatto, a dare il via alla sintesi delle proteine necessarie. Ma i geni specificano la sequenza primaria della proteina; come si passa da questa alla struttura terziaria e alla quaternaria? E çome, soprattutto, ha luogo la morfogenesi, cioè la creazione di strutture sempre più organizzate e complesse? La biologia molecolare risponde a queste domande con una generalizzazione dei risultati ottenuti sui meccanismi più semplici e considera il differenziamento e la morfogenesi differenti solo dal punto di vista quantitativo e quindi facilmente riducibili agli stessi principi fondamentali. Così, dato che i risultati sperimentali mostrano che la conformazione attiva fra le migliaia possibili di un enzima sembra prodursi spontaneamente, in quanto è la più favorita dal punto di vista energetico, e che, in opportune condizioni, è possibile ricostruire in provetta un virus a partire dai suoi componenti, se ne conclude che gli organelli cellulari, la cellula stessa ed i tessuti sono il risultato della « spontanea aggregazione » (J. Monod) delle parti prodotte dal gene. L'organizzazione della cellula sarebbe quindi completamente determinata dalla struttura intrinseca delle molecole costituenti. Diventa in questo caso possibile porsi_ l'obiettivo di ricostruire l'intera cellula a partire dal «mucchio» di tutti i suoi componenti, sotto l'azione di forze puramente chimico-fisiche. La morfogenesi diviene autonoma, spontanea e poggia solo « sulle proprietà di riconoscimento stereospecifico di cui sono dotate le proteine [ ... ] . La formazione di un tessuto e il differenziamento di un organo si devono considerare come la risultante integrata di interazioni microscopiche multiple, dovute ad alcune proteine e basate sulle loro proprietà stereospecifiche di riconoscimento mediante la formazione spontanea di complessi non covalenti » (Monod). Si tratta dell'enunciazione di un rigido programma meccanicistico, estremamente ambizioso, di una« meccanica dello sviluppo » che riduce tutte le multiformi strutture e funzioni degli organismi alle « istruzioni » inscritte nei geni. Anche l' ontogenesi diviene « molecolare ». Questo programma incontra tuttavia solide resistenze sia a livello sperimentale, a causa di una serie di risultati che difficilmente possono essere inquadrati in questa ipotesi, sia a livello teorico che metodologico. Se è abbastanza facile, infatti, accettare una spiegazione· meccanicistica di una invarianza (il perpetuarsi sempre uguale del gene) non lo è altrettanto per un processo dinamico nel tempo e così estremamente sottil~ come il differenziamento e lo sviluppo embriologico. Un punto di vista opposto al riduzionismo suggerisce che il 111odello del59 www.scribd.com/Baruhk Il controllo che il nucleo esercita sulla struttura delle cellule è stato dimostrato alcuni anni fa in una esperienza compiuta con l'alga unicellulare Acetabularia. Ne furono impiegate due specie, l'Acetabularia mediterranea (in alto a sinistra) e l'Acetabularia crenulata (in alto a destra), che differiscono per la struttura del cappello. In ambedue le specie, come mostra la parte superiore del disegno, se il cappello viene rimosso la cellula ne rigenera un altro uguale a quello originario. Se il cappello e il nucleo sono rimossi dalla Acetabularia mediterranea e un nucleo dalla Acetabularia crenulata viene innestato nella cellula, come mostrato in basso, il nuovo cappello che si formerà somiglierà alquanto a quello della specie Acetabularia crenulata. Se questo secondo cappello è rimosso, si rigenererà un altro cappello identico a quello della Acetabularia crenulata. l'organizzazione sia autonomo rispetto alle interazioni chimico-fisiche. Si dovrebbe supporre l'esistenza di un piano al quale i successivi passi dell'autogenesi dovrebbero conformarsi, un piano certamente non metafisica ma determinato dalla organizzazione preesistente della cellula. In questo caso, una volta perduta l'organizzazione cellulare non la si potrebbe ricostruire mettendo nello stesso recipiente tutte le molecole. Il « dogma » fondamentale della teoria cellulare « ogni cellula deriva da una cellula » sembra di nuovo svolgere un ruolo determinante nella spiegazione biologica e la cellula torna ad essere l'« atomo della biologia». Il processo di organizzazione della struttura viene guidato da strutture analoghe preesistenti. 6o www.scribd.com/Baruhk La nuova biologia La risposta più attendibile alle questioni prima enunciate sembra essere meno rigida del programma meccanicistico: nessuno nega infatti che « l'impressionante precisione di funzionamento con la quale i geni rispondono alle necessità della cellula e dell'organismo è insita nei geni stessi, nella loro struttura e nella struttura delle sostanze che essi producono» (Luria), ma i meccanismi di regolazione che dirigono tale potenzialità dipendono in larga misura dalle condizioni in cui la cellula si viene a trovare, soprattutto dalla preesistenza di una « entità organizzante ». « I geni dicono alla cellula quali materiali produrre, ma il modello esistente sulla superficie cellulare dice a questi materiali come organizzarsi in ciascun sito, agendo come guida o " istruttore" per perpetuare il modello esistente » (Luria). Accanto alla continuità chimica del DNA, esiste anche la continuità della forma. '-Una situazione analoga si può ritrovare in un altro campo in cui la biologia molecolare ha saggiato le proprie capacità esplicative, quello del sistema immunitario. Anche qui si cònfrontano due atteggiamenti. Il primo direttamente derivato dall'approccio biochimico, e per questo chiamato immunologia strutturale, afferma che gli anticorpi riconoscono l'antigene tramite una complementarità di tipo chimico. Sino agli anni quaranta, prima della scoperta dei meccanismi della sintesi proteica, era stata avanzata, soprattutto per opera,di Pauling, la teoria« istruttiva» della formazione dell'anticorpo secondo_ la, quale l'interazione fra antigene e anticorpo selezionava fra le molte çonforinazioni proteiche termodinamicamente possibili quella complementare _all'antigene. Il dogma centrale toglieva spazio a questa teoria istruttiva perché la struttura di una proteina è determinata geneticamente e non può «.modellarsi » a contatto con l'antigene. Sono state così avanzate le teorie selettive, in particolare la teoria della selezione clonale proposta da Frank M. Burnet e da Joshua Lederberg, che privilegia il ruolo delle cellule linfoidi. Esisterebbero fra queste dei cloni cellulari, cioè linee di cellule derivanti dalle divisioni successive di una singola cellula, ognuna delle quali sarebbe in grado di« riconoscere» un solo antigene esistente in natura. Normalmente le cellule di un clone sono poche ma non appena una di queste reagisce con un anticorpo corrispondente, riconosciuto tramite « recettori » specifici disposti sulla superficie cellulare, inizia a moltiplicarsi con incredibile velocità (dopo 4 giorni di un fattore 4ooo). Queste cellule sintetizzeranno e metteranno nel sangue gli anticorpi necessari. Il ru_olo dell'antigene è dunque limitato allo « scàtenamento » di un meccanismo la cui informazione è preesistente nella cellula competente. Un antigene ha quindi il ruolo di agente selettivo di un dato clone. Alla evoluzione dei cloni si può applicare una teoria della « selezione naturale », simile a quell~ darwiniana che si applica agli individui. In questo caso, la selezione avverrebbe sulle cellule dello stesso individuo per selezionare i cloni immunologicamente competenti. L'insieme dei www.scribd.com/Baruhk La nuova biologia cloni esistenti e quindi il totale delle reazioni immunitarie può essere o determinato dalla storia evolutiva della specie e quindi già esistente nell'uomo oppure, come per Burnet, le cellule acquisterebbero la competenza a reagire ad un antigene per mutazione somatica. Questa seconda ipotesi introduce nozioni estranee alla genetica classica, e cioè la comparsa di informazione nuova per mezzo di mutazioni soìnatiche. Si pensa che l'aggregazione delle cellule sia ottenuta tramite un sistema di comunicazione (basato probabilmente su segnali chimici, come gli ormoni e l' AMP-ciclico) che rende disponibile una «informazione di posizione ». Ogni cellula riceverebbe dalle cellule vicine anche non in contatto diretto dei segnali sulla propria collocazione all'interno del tessuto; questi segnali potrebbero inibire o liberare specifici siti ge~ici, facendo acquisire alle cellule stesse il differenziamento necessario' in qi.u:lla data posizione. Se, come nel caso della rigenerazione di un arto amputato in certe specie, alle cellule viene a mancare una parte dell'informazione di posizio~e, esse possono di nuovo perdere il proprio differenziamento e tornare a riprodursi, rigenerando il tessuto asportato. Fatta una prima osservazione e cioè che la natura chimica del segnale non è indispensabile alla teoria (esso potrebbe essere, come sostengono alcuni fisici, di natura elettromagnetica o termodinamica), anche l'ipotesi di molecole-segnali è difficilmente inquadrabile in un contesto di interazioni microfisiche fra le strutture delle molecole. Dovrebbe essere immaginato - cosa che per la verità alcuni biologi molecolari, come Monod, tendono a fare - un meccanismo alquanto complesso fatto di piccoli passi s~ccessivi costituiti da interazioni chimiche di tipo allosterico. . Più probabile, anche sulla base dei risultati sperimentali, sembra -essere una regolazione dello sviluppo ontogenetico ad opera di « campi morfogenetici », il più semplice dei quali è un gradiente di concentrazione di una particolare specie chimica. I gradienti hanno il grande vantaggio di permettere una regolazione estremamente fine (piccole variazioni possono dare origine a grandi cambiamenti morfogenetici) e soprattutto permettono di postulare un riconoscimento dinamico, mentre sia l'interazione enzima-substrato che quella anticorpoantigene sono essenzialmente statiche. Si tende ad estrapolare queste considerazioni derivandone indicazioni di carattere generale sullo sviluppo degli organismi superiori. Di fatto l'embriologia moderna ha utilizzato in modo estremamente fruttuoso i risultati della biologia molecolare, divenendo da embriologia chimica embriologia molecolare, integrando però queste conoscenze all'interno di un discorso autonomo presente da tempo,l che riv~ndica l'importanza di concetti estranei alla semplice 1 Risale infatti addirittura ad Aristotele il concetto di gradiente morfogenetico per cui la capacità di sviluppo (« potenzialità») decresce andando dalla testa verso la coda dell'animale. 6z www.scribd.com/Baruhk ---~ spore ·.· aggregazione \\ ;i~ \ ····· , 1-!t,:~(Jli;lt• differenziamento e morfogenesi maluro ·~ o' ~b·: ~ ........~ ····· '"~.: . '""t.c.,.. '4Z' •" -·-l l o Le acrasiali, durante il loro ciclo vitale, passano dalla fase unicellulare ad un livello superiore di organizzazione mediante la formazione di colonie mobili nelle quali le cellule individuali subiscono una primitiva differenziazione. Dato che le singole cellule hanno un diametro di 15 micron mentre la distanza media fra le cellule nella fase disaggregata è di 200 micron, l'aggregazione non è dovuta alle forze di superficie provenienti dal contatto diretto fra le membrane cellulari. Si è supposto quindi l'esistenza di un gradiente chimico di una certa sostanza chiamata acrasina e che si è rivelata essere niente altro che il « solito » AMP ciclico che svolge un ruolo importante nella circolazione ormonale che orienta le cellule verso un centro di aggregazione. Questo processo è stato interpretato come la formazione di una struttura dissipativa spaziale (nel senso di Prigogine) basata sulla rottura delle simmetrie di distribuzione uniforme delle cellule e sulla produzione di acrasina lontano dall'equilibrio termodinamico. a) formazione di un centro di aggregazione; b) condensazione radiale delle amebe verso il centro; c, d) tappe finali e formazione di uno pseudo-plasmodio. trattazione molecolare, come quelli di campo morfogenetico, di sostanza inducente, di gradienti di polarità ecc. Il processo di morfogenesi richiede innanzitutto la presenza ad un certo stadio del processo di sviluppo di una polarità, cioè una direzione preferen- www.scribd.com/Baruhk Sin dal 1744 A. Trembley aveva osservato che piccole sezioni di un piccolo polipo d'acqua dolce, l' Hydra, erano in grado di sviluppare un animale intero. R. Gierer ha recentemente ottenuto animali completi a partire da cellule isolate. La polarità determina la posizione delle regioni della nuova testa nelle idre rigenerate da preparati di cellule singole. In un esperimento tipico si ottengono le cellule da due regioni gastriche, delle quali una (C) è più vicina alla testa. Gli aggregati cellulari delle due regioni vengono poi disposti in diverse sequenze e o sservati. Si trova che le teste (indicate dai tentacoli) si sviluppano preferibilmente dalle regioni C. ziale lungo il campo r.:qorfogenetico, che serve da « sistema di riferimento » per le differenziazioni. Un certo insieme di sostanze inducenti (morfogenetiche), quasi sicuramente molecole di m-RNA, si disporr~, quindi in uno schema stabile, precostituendo in questo modo la ·. struttura finale delle cellule differenziate. Già nelEoocita, la cellula che poi formerà l'uovo, avviene la sintesi di una grande quantità di ribosomi e di molti tipi diversi di RNA messaggero che si distribuiscono asimmetricamente. Prima della fecondazione esiste già un piano di organizzazione che determina lo sviluppo embrionale. Nelle prime fasi dello sviluppo, la sintesi delle proteine è codificata dai messaggeri preesistenti, di origine materna e sono queste proteine a svolgere il ruolo di regolatore della successiva attività genica del nucleo, che inizia dopo la fine della gastrulazione. Da questo punto in poi «la morfogenesi è l'opera dei geni nucleari che agiscono attraverso messaggeri stabili» (Jean Brachet). Si deve inoltre considerare che la differenziazione cellulare segue l'organo genesi con un ritardo di qual- www.scribd.com/Baruhk a c La polarità che determina la posizione delle di'verse parti delle idre. çhe si rigenerano, può essere basata sulla distribuzione graduale dei tipi cellulari o di qualche componente cellulare. Il gradiente, ma non la sua concentrazione, determina quale estremità della sezione di una idra sarà.jlttivata '(~dangoli neri). Si pensa che l'attivatore prodotto agisca come una preconfigurazione per ·la ·formazione della testa. Questa ipotesi spiega come due sezioni adiacenti (b, c) possano sviluppare Ciascuna una testa proprio all'estremità più vicina a quella originaria. che giorno. Quello che sarà il sistema nervoso si forma, grazie ad una induzione morfo,genetica da parte di un «organizzatore» (Spemann), in una precisa regione della gastrula che dà origine ad un campo morfogenetico, prima della comparsa delle cellule nervose d~fferenziate. La forma precede quindi la funzione ed è tale forma che organizza il· differenziamento e la 'costituzione · dei tessuti. L9 sviluppo dell'embrione è determinato da campi morfogenetici distribuiti e specifici: così se si trapianta l'abbozzo di un arto nella regione caudale, questo si differenzierà in una coda. Anche se, come sembra, si potrà attribuire un campo morfogenetico ad una distribuzione ordinata di molecole e trovare così le basi biochimiche della induzione, non di meno l'origine del campo stesso va rinviata ad una organizzazione preesistente. Come scrive·Brachet, che sostiene di essere stato un embriologo molecolare « senza saperlo » già dai primi anni quaranta, « l'intero meccanismo chimico che presiede agli stadi iniziali dello sviluppo è già stato preparato durante l'oogenesi [...] durante gli stadi iniziali di sviluppo 65 www.scribd.com/Baruhk La nuova biologia l'importanza del citoplasma è di gran lunga superiore a quella del nucleo ». Si ripropone così di nuovo un dilemma tradizionale: preformismo o epigenesi? Per la biologia molecolare tutto lo sviluppo embrionale è contenuto nella sequenza delle basi azotate del DNA e la struttura compiuta « può dunque realizzarsi in modo autonomo e spontaneo senza intervento dell'esterno. La sua costruzione epigenetica non è dunque una creazione ma una rivelazione». A parte l'opinione di Monod che questo processo sia epigenetico (se niente viene aggiunto in seguito tale costruzione è preformistica e n_on epigenetica, dato che la forma futura è ugualmente visibile nella sua «rappresentazione» e non solo nella sua realizzazione), a questa concezione meccanicistica se ne co_ntrappone un'altra, che valorizza invece il ruolo dell'ambiente nella costruzione dell'individuo e ribalta il punto di vista della biologia molecolare: gli aspetti preformistici dell'ontogenesi vengono attribuiti ad una organizzazione precedente, l'organismo chè produce l'uovo, mentre ai geni viene attribuito il compito, non predeterminato ma epigenetico, di sintetizzare le proteine richieste dalla dinamica di sviluppo della cellula. Man mano che tale sviluppo procede, diviene determinante l'attivazione selettiva di determinati geni o gruppi di geni. Ma tale attivazione sembra essere dovuta all'effetto del citoplasma: è di nuovo all'organizzazione ed al piano ad essa sottostante che si deve risalire per spiegare l'ordine spazio-temporale con cui si svolgono i processi ontogenetici. Alcuni modelli dinamici della morfogenesi che partono dalla accentuazione del ruolo di tale piano o « progetto » di sviluppo, e si muovono quindi in una prospettiva esattamente opposta a quella della biologia molecolare, sono stati proposti dal genetista e embriologo Conrad H. Waddington, nella loro forma propriamente biologica, e dal matematico René Thom, del quale abbiamo a lungo parlato in precedenza, nella loro forma generale, astratta, valida per ogni tipo di processo morfogenetico, alla quale ci riferiamo nella nostra trattazione. Per Thom la regolazione genetica si svolge attraverso un « programma » di « catastrofi » (cioè di discontinuità qualitative) co .erettrici che dirigono lo sviluppo embriologico, impedendo a questo di uscire dai limiti della norma. Corrispondentemente alle sue posizioni teoriche generali, Thom pensa che « la stabilità dell'individuo o della specie si basa su una competizione fra" campi" la cui lotta genera la configurazione geometrica strutturalmente stabile che assicura la regolazione, l' omeostasi del metabolismo e la stabilità della riproduzione ». Per Thom il problema dello sviluppo ontogenetico non può essere risolto tramite il passaggio « automatico » dal codice -lineare alla str~ttura tridimensionale delle macromolecole, con sottintesa « aggregazione spontanea » di queste, ma va visto nel quadro generale della corrispondenza fra morfologie, della trasmissione della stabilità strutturale fra morfologie. In ogni gamete (cellula germinale) si-ricostituisce il «centro organizzatore della dinamica globale della specie [ ... ] la figura di regolazione specifica ». 66 www.scribd.com/Baruhk La nuova biologia La figura di iegolazione fornisce le « norme di comportamento » nelle diverse situazioni possibili. Non stupisce quindi che esista « un grossolano isomorfismo tra le figure di regolazione di specie animali anche lontane filogeneticamente, perché i vincoli impost'i dalla regolazione dell' omeostasi degli animali sono grosso modo gli stessi per tutti e compensati dalle stesse funzioni; questi campi genereranno ·strutture variabili e differenti secondo la specie solo nel dettaglio della organogenesi ». L'unità del vivente è dovuta alla comune discendenza ma anche dalla uniformità dei vincoli che . assicurano la stabilità strutturale dell'organismo. «Dimenticare i vincoli spaziali, energetici, chimicofisici che devono essere risp~ttati affinché una analogia di forma possa realizzarsi>> e attribuire tutto alla «informazione genetica» «significa cadere nel pensiero magico (o delirante)». In questo modo si evita di considerare il « gene » chiuso in se stesso, autosufficiente, dotato di una unica proprietà, l'« invarianza riproduttiva» (Monod). «Dire che l'eredità biologica è una comunicazione di informazione significa, in un certo senso, tornare ad Aristotele, significa ammettere che vi è nel vivente un logos inscritto, conservato e trasmesso [... ] definire la vita come un senso inscritto nella materia, significa ammettere tesistenza di un a priori oggettivo, di un a priori propriamente materiale e non più soltanto formale» (G. Canguillhem). In conclusione, quindi, dei tre aspetti dei sistemi biologici, e cioè la « invarianza riproduttiva>), la presenza di un «progetto» (Jacob) e la morfogenesi autonoma, solo il primo ha trovato una spiegazione coerente e rigorosa nei termini della biologia molecolare,. mentre il differenziamento e la morfogenesi sembrano implicare concetti diversi ed altri tipi di spiegazione, legati al riconoscimento di un « modello », di un ((piano )) nello sviluppo morfogenetico; restano ancora un problema tutto·da risolvere, soprattutto a livello teorico. 4) L'istanza sistetnica Sin da quando J. H. Woodger per primo ed isolato aveva tentato negli anni trenta di costruire una assiomatica della biologia, è costantemente presente nel dibattito teorico una posizione che tende a presentare l'organismo come un «tutto » dinamicamente inteso, come uno « schema » (pattern) di reazioni, come una « forma » piuttosto che, staticamente, come una struttura costante sulla base delle semplici interazioni fra gli elementi costituenti, come una « attività » (Young) tipica di un organismo che assume materia dall'ambiente e la organizza in un modo caratteristico. Si mette in particolare l'accento sulla capacità dell'organismo di mantenere costante l'organizzazione vivente e le sue caratteristiche principali indipendentemente dalle variazio;ni dell'ambiente, mediante una serie di attività (alimenta- www.scribd.com/Baruhk La nuova biologia zione, respirazione, movimento, riproduzione) determinate ereditariamente, adatte a mantenere la continuità della vita. Per quanto si dia certamente per possibile una descrizione, ma non una spiegazione, in termini chimico-fisici di particolari caratteristiche di una cellula, come la replicazione genetica, l'azione degli enzimi, la formazione ed il funzionamento di una membrana ecc., si mette invece fortemente in dubbio che sia possibile spiegare « la indispensabile coesistenza cooperativa di tutte queste caratteristiche» (Paul Weiss). Non è possibile costruire pezzo a pezzo uri organismo come una macchina perché le molecole biologiche sono scelte, evolutivamente, proprio in base alla loro partecipazione ad un . insieme di reazioni organizzate. Esiste certamente un. «controllo molecolare dell'attività cellulare» ma anche un <<controllo cellulare dell'attività molecolare >>. E per questo è impossibile sintetizzare ex novo una cellula senza l'intervento attivo di un'altra cellula, che apporta la necessaria organizzazione « controllante ». Perciò si può affermare « omnis organisatio ex organisatione » (Weiss). Una sorprendente affermazione del fisico Michael Polanyi sull'identità fra organismi e macchine e sulla loro comune · distinzione dai processi puramente chimico-fisici, che conclude in malo modo una sottile analisi critica dei sistemi viventi, si basa sul concetto di condizioni limitanti (boundary conditions) che « costringono » le leggi chimico..:fisiche a svolgere particolari funzioni. Le condizioni limitanti sono estranee al processo che limitano e quindi «.trascendono le leggi della chimica e della fisica », e non interferiscono con esse. Nella morfogenesi le condizioni limitanti sono fornite dal « programma genetico », dalla molecola di DNA, la cui composizione in basi è indipendente dalle forze chimiche presenti nella molecola (se fosse dipendente, nota giustamente Polanyi, una sequenza particolare sarebbe termodinamicamente favorita e quindi si formerebbe con maggiore probabilità delle altre sequenze, diminuendo di molto e al limite annullando il contenuto di informazione). La morfogenesi è quindi una struttura a controllo duale, uno chimico-fisico, l'altro fornito dalle condizioni limitanti. Le condizioni limitanti sono disposte in una gerarchia di complessità e generalità via via crescente fino alla coscienza e alla responsabilità, in cui il livello superiore « limita » la funzione del livello inferiore ed è ad esso irriducibile. Al tradizionale principio organismico viene dato un contenuto che è possibile descrivere fenomenologicamente. Il grave limite di Polanyi, che ne fa davvero un« criptovitalista » (Crick), sta nel non poter spiegare l'origine delle condizioni limitanti, da un punto di vista materialistico, basandosi sulle sole proprietà dei livelli inferiori di organizzazione della materia. Egli è perciò costretto a presùmere che i livelli più elevati della vita siano da sempre presenti in tracce prima di divenire evidenti. Da una medesima istanza sistemica hanno origine le riflessioni sviluppatesi 68 www.scribd.com/Baruhk La nuova biologia nei paesi socialisti e in particolare nell'uRSS sui caratteri del vivente. Basandosi soprattutto su concetti mutuati dalla cibernetica - che dopo una prima condanna ideologica ha avuto un grande sviluppo, non solo come terreno di ricerca, ma anche .come modello esplicativo dei sistemi biologici e come supporto scientifico alla interpretazione sovietica del materialismò dialettico - gli scienziati (e filosofi) sovietici cercano di conciliare il determinismo con la teleologia nella spiegazione delle relazioni complesse, statiche e dinamiche, che si svolgono nell'organismo. I sistemi viventi, che vengono collocati all'interno della più generale categoria dei sistemi capaci di autoregolazione, svolgono delle azioni che possono essere codificate (programmate) sia nelle strutture genetiche ereditarie che nei sistemi fisidlogici dotati di dispositivi per verificare il risultato di un'azione particolare (Petr K. Anohin). Questo « programma » è, quindi, un « modello previsionale » del fine dell'azione (lvan Frolov); in questo modo il concetto di finalità verrebbe a perdere il suo carattere idealistico, essendo basato su una struttura materiale. Ma questa concezione chiamata « determinismo organico » rimane alquanto oscura e somiglia troppo. ad una conciliante soluzione ad hoc. La combinazione fra aspetti deterministici e aspetti, tel~ologici se può descrivere alcune particolari caratteristiche fisiologiche, non riesce a render conto delle proprietà generali dei sistemi viventi e soprattutto del passaggio fra i diversi livelli gerarchici e dell'origine dei « programmi » e dei « codici » che « prefigurano il fine ». Il problema di fondo resta dunque quello della spiegazione dell'emergenza di livelli di organizzazione superiori, del loro funzionamento attuale e della loro storia evolutiva. IV • L'EVOLUZIONISMO Al termine del precedente paragrafo, osservavamo che il criterio metodologico usualmente posto alla base della spiegazione molecolare,- e cioè la possibilità di ridurre tutti i fenomeni biologici a particolari manifestazioni di leggi chimiche e fisiche, si scontra con la difficoltà di dare una spiegazione alla presenza di un « modello », di « un piano di organizzazione » cui sembrano sotto-: stare gli stessi fenomefl4 molecolari. L'organizzazione del-. v~yente, e cioè « il modo in cui i componenti sono organizzati in schemi (patterrts) ordinati che sono più permanenti delle stesse sostanze che li compongono» (Georg L. Stebhins) intesa non in senso statico ma dinamico, come attività omeostatica, richiede quindi un altro tipo di spiegaziqne scientifica, che «differisce profondamente dal riduzionismo » (Jacob). Compito della teotia dell'evoluzione, sin da Darwin, è stato spiegare, senza ricorrere ad entità sovrannaturali o non fisiche, l'origine dell'organizzazione biologica e la sua evoluzione, cioè il suo graduale modificarsi con il tempo, i modi di tale evoluzione e le sue cause. Essa cerca di rispondere alla domanda « come www.scribd.com/Baruhk La nuova biologia è successo? » per trovare una risposta esauriente alla difficile domanda « a quale scopo? ». Da questo punto di vista è vero che l'evoluzione, lo studio della continuità e diversità della vita attraverso l'eredità e l'evoluzione è «la più grande teoria unificatrice della biologia» (Ernst Mayr). Nel seguito esamineremo in dettaglio il significato di questa contrapposizione fra due tipi così diversi e così egualmente fondamentali di spiegazione scientifica in biologia, quella riduzionista e quella composizionista o, meglio, storica. In questo paragrafo dovremo invece analizzare le posizioni più recenti dell'evoluzionismo, individuarne i presupposti teorici e metodologici e le conseguenze scientifiche e culturali. I) La teoria sintetica La moderna teoria dell'evoluzione, come è stato già accennato nel capitolo del volume ottavo, è il risultato della sintesi fra diverse discipline biologiche, in particolare la genetica, l'ecologia, la paleontologia e la sistematica. Grosso modo possiamo dire che la teoria considera l'evoluzione come un processo con due componenti: la produzione delle variazioni durante il processo di trasmissione dei caratteri e l'emergenza delle varianti ad opera della selezione naturale. n primo aspetto è il campo della genetica, che studia la natura della sostanza ereditaria, il modo in cui questa viene trasferita durante la riproduzione e-quali sono i rapporti fra questo materiale ereditario (genotipo) con i caratteri che risultano dallo sviluppo dell'individuo (fenotipo). Di fronte a questi problemi i genetisti si pongono in due modi diversi anche se spesso presenti contemporaneamente; alcuni studiano i meccanismi molecolari della trasmissione dei caratteri ereditari, cercando di rispondere al quesito « come si produce questa variazione? » (genetica molecolare, tendenzialmente riduzionistica). Per altri invece l'analisi delle variazioni genetiche deve spiegare l'adattamento evolutivo. La variazione genetica è vista, storicamente, come base dell'evoluzione adattativa (genetica evoluzionistica). Non basta quindi studiare la variazione genetica in sé, occorre prendere in considerazione come scrive Dick Lewontin le «potenzialità per l'evoluzione adattativa delle variazioni genetiche »; occorre conoscere le relazioni fra gene e organismo viste nel loro rapporto con l'ambiente, con una data situazione ecologica, studiare quali sono « i nessi fra proprietà ecologiche e sistemi genetici specifici». Su questo punto avviene la «moderna sintesi» (Julian Huxley) fra la genetica, che studia il gene e la sua interazione con gli altri geni e con l'ambiente, la paleontologia, lo studio dei fenomeni evolutivi a lungo termine, l'unica scienza « in grado di studiare in modo appropriato la dimensione temporale» (Mayr), l'ecologia, come studio delle reciproche relazioni fra gli organismi e di questi con l'ambiente in cui vivono, e la sistematica comparata, che, occupandosi del difficile compito di definire una classificazione per il mondo IV www.scribd.com/Baruhk La nuova biologia vivente, studia la specie, l'unità della classificazione, uno dei più importanti livelli di organizzazione, le cui modificazioni successive e le ramificazioni in specie distinte (« origine delle specie ») costituiscono il parametro di fondo dell' evoluzione. La rigida contrapposizione esistente nei primi trent'anni del nostro secolo fra i neodarwinisti, che consideravano la selezione naturale come l'unico fattore dell'evoluzione, e i mutazionisti (i primi genetisti), che rimproveravano alla teoria della selezione naturale l'incapacità di spiegare l'origine delle variazioni evolutive e consideravano la comparsa casuale e improvvisa, per salti bruschi, di queste variazioni, l'unica vera forza motrice dell'evoluzione, viene superata mediante la unificazione delle due teorie con una « sintesi moderna » opera soprattutto di Julian Huxley, del genetista Theodosius Dobzhansky, del paleontologo George Gaylord Simpson e del tassonomista Ernst Mayr. «Il mutazionismo non è un'alternativa al neodarwinismo, ma un suo complemento» (Simpson). La teoria sintetica non cerca un fattore unico dell'evoluzione, ma considera numerosi fattori interagenti come responsabili della evoluzione, dei quali fattori occorre valutare le rispettive funzioni e il peso relativo. Tali fattori possono essere raggruppati in due gruppi, uno responsabile della produzione di variazioni, l'altro degli effetti selettivi dell'ambiente. Si tratta realmente di una sintesi çhe unifica i singoli fattori, senza annullarne la specificità e la relativa indipendenza, in un quadro coerente, in una spiegazione unitaria. Come effetto di questa sintesi cambiano molti dei tradizionali concetti, in particolare le concezioni sul rapporto fra gene e carattere. Il fenotipo non è più· considerato come un mosaico risultante dalla combinazione di caratteri individuali singolarmente controllati in modo deterministico dai geni, ma come il risultato di un complesso di elementi in relazione tra loro. L'« epigenotipo » (Waddington) è il risultato del conflitto fra forze diverse, genetiche e ambientali. A un punto di vista sostanzialmente statico, preformista in cui il fenotipo è il risultante dello sviluppo meccanico del genotipo, se ne sostituisce uno dinamico, epigenetico. «La plasticità fenotipica» (Mayr), le differenze che si notano fra i diversi fenotipi sono in parte genetiche ed in parte ambientali. Il genotipo ·si limita a determinare la norma di reazione di un organismo e cioè il modo in cui questo è in grado di rispondere ai diversi ambienti nei quali viene a trovarsi, mantenendo entro limiti più ·o· meno larghi di variazione i caratteri fondamentali della specie. Il settore della genetica evoluzionistica che più contributi ha dato alla teoria· sintetica dell'evoluzione è la genetica di popolazione, lo studio dell'origine e della dinamica della variazione genetica nella popolazione. È la popolazione, il livello di integrazione intermedio fra l'individuo e la specie, il vero substrato dell'evoluzione. L'evoluzione« è un mutamento nella composizione genetica delle www.scribd.com/Baruhk La nuova biologia popolazioni [... ] l'individuo si sviluppa, la popolazione evolve» (Dobzhansky). I risultati più importanti di questo approccio alla teoria dell'evoluzione riguardano la possibilità di descrivere e spiegare la stabilità delle frequenze geniche nella popolazione e la velocità. di differenziazione (divergenza) di tali frequenze in popolazioni parzialmente o interamente separate. Attraverso sofisticati modelli matematici, che non contemplano la possibilità di una diretta verifica sperimentale dei risultati da essi dedotti, e lo studio sperimentale della variazione genotipica all'interno di una popolazione, la genetica di popolaziom; compie un passo necessario per la descrizione di un processo evolutivo: la conoscenza della .distribuzione statistica delle frequenze genotipiche (pool genico di una popolazione). La legge fondamentale della genetica di popolazione, quella di HardyWeinberg, afferma la costanza della frequenza dei geni di una popolazione infinitamente grande e interfeconda, con accoppiamenti casuali e in assenza di selezione, migrazione o mutazioni. Le ricombinazioni cromosomiche quindi non spiegano il mutamento evolutivo ma assicurano solo una enorme variabilità all'interno della popolazione. Il meccanismo della ricombinazione mendeliana assicura ad· ogni specie la capacità di produrre una quantità incredibile di patrimoni genetici diversi. Se i genitori sono eterozigoti rispetto a n geni non omologhi, il numero di individui con patrimo,nio genetico diverso che essi possono procreare è uguale a 4n. Se n è uguale a 50, una stima limitativa, il totale sarà 450, un numero di molto superiore a quello di tutti gli organismi viventi presi insieme. «È quindi assai improbabile che due persone qualsiasi (tranne il caso dei gemelli identici), parenti fra loro o no, abbiano mai avuto o possano mai avere la stessa costellazione di geni » (Dobzhansky). Alla variabilità genotipica si assomma poi la variabilità fenotipica, ancora maggiore, perché ogni genotipo sviluppandosi epigeneticamente incontra un ambiente diverso da quello di tutti gli altri. . I vantaggi evolutivi di un'alta variabilità genetica all'interno di una popolazione sono evidenti. Un grande numero di genotipi diversi aumenta infatti la probabilità che qualcuno di questi sia in grado di sopravvivere a drastici mutamenti ambientali. È quest6 il significato biologico della riproduzione sessuata. Durante la meiosi, cioè il processo che porta alla formazione dei gameti, i cromosomi omologhi tendono ad appaiarsi, a rompersi in più punti ed a scambiarsi frammenti cromosomici (crossing over). Questo fenomeno di incrocio ricombinativo porta ad una alta variabilità genetica e anzi fa sì che la ricambinazione dovuta alla riproduzione sessuata sia « la causa principale della variabilità » (Giuseppe Montalenti).. L'importanza della riproduzione sessuata è anche provata dal fatto che essa comparve molto presto nell'evoluzione, circa 1 500 milioni di anni fa, prima della divergenza evolutiva fra piante e animali. Analoghe considerazioni sono alla base del significato di un'altra innovazione evolutiva, la morte, non accidentale ma imposta dallo stesso programma 7Z www.scribd.com/Baruhk La nuova biologia genetico. La variabilità esig~ la comparsa di sempre nuovi individui, la morte fa parte integrante di. ogni organismo evolutivamente selezionato. Oltre alla ricombinazione, i principali fattori responsabili della variabilità genetica in una popolazione sono individuati in genere: 1) nelle mutazioni; z) nelle deviazioni standard; 3) nella migrazione genica; 4) nella selezione naturale. Vi è tuttavia una grande differenziazione di posizioni riguardo al peso da attribuire ad ognuno dei singoli fattori. z) Le cause e il significato della variabilità genetica La teoria sintetica ha di molto diminuito il ruolo delle mutazioni come «motore>> dell'evoluzione, !imitandolo alla predisposizione del materiale grezzo sul quale opera la selezione, grazie alla introduzione di nuovi fattori genetici nel pool della popolazione. Le mutazioni, nonostante la loro rarità come eventi singoli (la loro frequenza è in media ro- 5 nell'uomo), si verificano in realtà spesso. Se si considera che lo zigote (uovo fecondato) umano contiene non meno di ventimila geni, si ha (z X ro 4 X ro- 5 = o,zo) che almeno il zo% dei nati porta uno o più geni mutanti (per non parlare della mutazione somatica, che si verifica cioè nelle cellule non germinali). Quindi la mutazione è tutt'altro che rara. Certo sono rare le mutazioni che producono trasformazioni radicali del genotipo in quanto la maggior parte delle mutazioni produce effetti di lievi entità, in genere interessanti solo manifestazioni fisiologiche (ad esempio singole sostituzioni di aminoacidi nelle catene proteiche). Le mutazioni sono considerate casuali non perché « sprovviste di causa » ma nel senso che non sono finalizzate all'adattamento evolutivo. Non è possibile trovare alcuna relazione fra una determinata mutazione e un particolare insieme di condizioni ambientali. Di qui, se si tiene conto che l'assetto di un organismo è determinato dal complesso del suo corredo cromosomico e che quindi l'evoluzione richiederà non una singola v.ariazione ma una nuova sistemazione generalizzata di tale complesso, deriva l'impossibilità di spiegare con le sole mutazioni la comparsa di combinazioni genetiche più adatte delle precedenti. Un altro processo che non è evolutivamente attivo ma fornisce materiali per l'azione della selezione naturale incrementando la variabilità genetica è costituito dall'insieme delle flut!uazioni casuali che avvengono nel pool genico di una popolazione ad ogni generazione. Le frequenze nella discendenza presentano infatti delle differenze rispetto alle frequenze del pool dei genitori. In popolazioni molto grandi l'effetto di queste fluttuazioni è molto piccolo (è nullo per popolazioni infinitamente grandi, come quelle postulate nella legge di Hardy-Weinberg, per cui la popolazione è stabile) ma può assumere una grande importanza per popolazioni piccole. Le fluttuazioni sono cioè una nuova fonte di variabilità genetica che viene sottoposta al vaglio della selezione naturale. Come le mutazioni, anche le fluttuazioni sono casuali nei riguardi dell'adattamento. 73 www.scribd.com/Baruhk La nuova biologia La terza fonte di variabilità sono le migrazioni (flusso genico). Tutte le popolazioni sono infatti aperte e ad ogni generazione individui provenienti dal di fuori inseriscono i propri geni nel pool della popolazione. Gli studi ecologici fanno ritenere che «l'immigrazione contribuisca almeno per il 9o% all'ingresso di" nuovi" geni in ogni popolazione locale» (Mayr). In sé il flusso genico tende a diminuire l'adattamento della popolazione al suo ambiente ecologico; tuttavia esso è un fatto evolutivo estremamente importante a lungo termine, specialmente nel processo della speciazione. Il solo studio della base genetica della evoluzione di una popolazione non è sufficiente per caratterizzare pienamente il fenomeno evolutivo. La genetica di popolazione non riesce a spiegare la comparsa o l'estinzione di una specie, perché non affronta il nodo centrale, teorico e metodologico, dell'adattamento. La famosa frase di Dobzhansky, «l'evoluzione è la variazione della composizione genetica di una popolazione», non definisce l'evoluzione, ma solo la sua base dinamica, in quanto la variazione evolutiva può essere spiegata solo collegando la variazione genetica alla diversità nel tempo e nello spazio degli organismi, diversità che comporta aspetti fisiologici, morfologici e comportamentali. 3) Selezione naturale La differenza sostanziale fra le teorie neodarwiniste dell'inizio del secolo e la teoria sintetica moderna riguarda la caratterizzazione del principale fattore evolutivo darwiniano, la selezione naturale. Il neodarwinismo, esasperando l'importanza di questo aspetto, molto al di là di quanto aveva fatto Darwin, aveva un concetto puramente negativo di selezione, intesa come un processo che distrugge - ma non completamente perché alcuni geni mutanti dannosi possono « filtrare » fra le maglie della selezione andando a costituire il cosiddetto « carico genetico»-le variazioni che diminuiscono l'adattamento (fitness) dell'individuo. Questo concetto di selezione corrisponde certo ad un aspetto importante dell'evoluzione ed è stato in effetti incorporato nella teoria sintetica, dove tale selezione viene chiamata« stabilizzante» (Schmalhausen), «normalizzante» (Waddington) o «pulente», clearning (Lewontin). Si tratta tuttavia di un processo conservativo più che evolutivo. Anche quando al concetto di selezione come sopravvivenza del più adatto si sostituisce quello di selezione come riproduzione differenziale (l'individuo più adattato avrà più discendenti e di conseguenza la frequenza dei geni di cui è portatore aumenterà nel pool genetico della popolazione) la selezione resta uri processo negativo che non spiega il processo positivo che porta all'evoluzione. La teoria sintetica allarga il significato di selezione naturale individuandone forme diverse. Una di tali forme è quella chiamata «differenziante» che ha luogo quando una popolazione affronta contemporaneamente diversi ambienti che favoriscono patrimoni genetici distinti. Ciò aumenta la fitness di quelle po- 74 www.scribd.com/Baruhk La nuova biologia polazioni dotate di una elevata variabilità genetica. In effetti una mutazione di· per sé non è né benefica né dannosa, lo diventa quando il fenotipo mutante viene collocato in un particolare ambiente. Inoltre, come abbiamo detto, lo ~viluppo ontogenetico è il risultato dell'interazione fra geni e fra questi e l'ambiente e un gene che in combinazione con certi geni è dannoso può essere utile quando viene ricombinato con altri geni. È vantaggioso quindi per una popolazione che può trovarsi di fronte ad una varietà di ambienti mantenere tali geni « adattativamente ambivalenti» (Dobzhansky). Un tipo particolare di tale ambivalenza si ha nei geni che accrescono l'adattamento degli individui quando sono in forma eterozigote (forma allelica differente nello stesso locus) ma sono dannosi negli omozigoti (che portano cioè la stessa forma allelica). L'esempio più celebre e più studiato è quello del gene S dell'anemia falciforme che quando è omozigote provoca un forma di anemia quasi sempre letale - dovuta alla sostituzione di acido glutammico con valina nella catena beta dell'emoglobina, sostituzione che provoca una drastica riduzione dell'affinità per l'ossigeno (Perutz e Lehmann). Tuttavia in forma eterozigote questo gene sembra dare una relativa immunità alla malaria di modo che nelle regioni dove la malaria falciparum è endemica, gli eterozigoti per il gene S hanno un vantaggio selettivo ed è per questo che nelle zone malariche la talassemia è presente in forma endemica. « Quindi la riserva di variabilità costituita da tutti i geni recessivi che esistono in una popolazione e si perpetuano è un bagaglio estremamente importante, che solo può consentire alla specie di far fronte a mutate condizioni di ambiente» (Montalenti). Calcoli matematici mostrano che l'adattamento medio della popolazione è massimo quando i due geni (normale e mutante talassemico) raggiungono un equilibrio, funzione della pressione selettiva. Dato che il genotipo eterozigote è il più adatto, la popolazione conterrà due o più tipi di individui geneticamente distinti (polimorfismo). La selezione naturale mantiene i geni normali e falciformi in un polimorfismo equilibrato (negli ambienti malarici): è la forma « equilibrante » della selezione naturale. Un'ultima forma di selezione è quella « direzionale » da Darwin considerata la più importante, che opera ricostituendo il pool genetico di una popolazione in accordo con le variazioni ambientali. La comparsa di nuovi parametri ambientali (più caldo o più freddo, un nuovo predatore ecc.) favorirà alcuni genotipi, sfavorendone altri. Dato che gli ambienti sono in realtà sempre mutevoli questa forma di selezione naturale è continuamente in azione. Riassumendo, l'analisi delle diverse accezioni del concetto di «selezione naturale» sembrerebbe dimostrare più una confusione che una capacità di spiegazione unitaria. Si tratta, al contrario, di un risultato teorico di estrema rilevanza: la teoria sintetica, come abbiamo già visto, abbandona tentativi di isolare delle cause uniche, ma considera nella loro reale complessità i fenomeni biologici. 75 www.scribd.com/Baruhk La nuova biologia Le differenze che possono ritrovarsi fra i diversi studiosi dell'evoluzione riguardano esclusivamente il maggiore o minor peso da attribuire ad una forma o all'altra di selezione oppure una loro più precisa definizione, ma tutti accettano come un dato di fatto la multiformità degli agenti evolutivi, in« lotta» fra di loro. 4) Adattamento Un altro aspetto della teoria dell'evoluzione sul quale esistono ampie divergenze di interpretazione riguarda le Yie di adattamento e il significato stesso del termine « adatto ». Anche qui, tuttavia, al di là delle divergenze sulle applicazioni a problemi specifici e a singoli aspetti, esiste una diffusa uniformità nella valutazione del ruolo dell'adattamento e delle sue modalità principali. Innanzitutto si è passati dalla valutazione in assoluto dell'adattamento come quella data da Spencer «sopravvivenza del più adatto», Survival of the ftttest, dopo molti dubbi accettata, in mancanza di una chiarezza sui modi reali di adattamento, dallo stesso Darwin) ad una valutazione relativa: « nessun organismo è adatto in assoluto, p\lÒ solo essere adattato ad un certo ambiente» (Dobzhansky). L'uso del superlativo implica infatti l'esistenza di un genotipo più adatto di tutti gli altri (e Spencer pensava a quello dell'uomo o forse a quello di una razza o di una classe sociale) mentre c'è «una grande schiera di genotipi che costituiscono la norma adattativa della specie» (Dobzhansky). L'uso del superlativo inoltre porta ad una tautologia nella definizione del « più adatto ». Chi è the ftttest sopravvive, ma viene definito il più adatto proprio chi sopravvive. Questa tautologia viene eliminata se si considera la relatività dell'adattamento. Tale relatività è anche uria esigenza evolutiva. Un perfetto adattamento ad un certo ambiente porta alla sovraspecializzazione che può assicurare un successo a breve termine ma rischia di provocare l'estinzione anche con piccole modificazioni ambientali. Di qui l'importanza non solo dell'adattamento ma anche della adattabilità, cioè la possibilità di cambiare i propri tratti adattativi al mutare dell'ambiente. Vi sono due meccanismi che assicurano l'adattabilità, uno a breve, l'altro a lungo termine. Il primo, adattabilità fisiologica, è individuale e può modificare il fenotipo dell'individuo. Come abbiamo visto infatti, ogni genotipo ha una propria norma di reazione che delimita il numero dei possibili fenotipi che possono prodursi in date condizioni arp?iertali. ,pgni tratto di un individuo è quindi il risultato del prodotto fra la norma clfreazio~e e la «biografia» (Dobzhansky) di quel dato individuo. Le modificazioni ambientali possono produrre profonde modificazioni fenotipiche nelle funzioni che tali fenotipi svolgono. Ciò è stato osservato soprattutto per i yeg(:!t!lli che hanno delle norme di reazione piuttosto flessibili e possono produrre fenotipi molto differenziati, ma è un meccanismo fondamentale anche per gli animali. www.scribd.com/Baruhk La nuova biologia Il meccanismo a lungo termine che assicura l'adattabilità è quello genetico, che si produce mediante il cambiamento della norma di reazione (ovviamente prodotto non direttamente dalle condizioni ambientali ma dall'azione congiunta della variabilità genetica e della selezione naturale) e vale per le popolazioni e le specie. Esistono quindi due tipi di omeostasi, quella fisiologica che mantiene costanti i fondamentali processi fisiologici indipendentemente dalle variazioni ambientali-, c-reando· dei meccanismi che adattano tali processi alle mutate condizioni, e quella evolutiva che assicura «la continua correzione delle istruzioni dei sistemi viventi» (Y oung). L'adattabilità genetica è per questo anche chiamata plasticità evolutiva. Esistono quindi aspetti contraddittori tra loro che costituiscono la base stessa della vita. L'adattabilità a breve e soprattutto a lungo termine richiede la possibilità di modificazioni adattative. Esiste un conflitto dinamico fra la tendenza del patrimonio genetico a conservare rigidamente un determinato tipo di organizzazione (e ciò spiega sostanziale unità dei caratteri fondamentali della vita) mediante efficienti meccanismi di replicazione e riparazione genetica, di isolamento e di selezione (omeostasi genetica) e la necessità di una continua viariabilità, ottenuta attraverso le mutazioni, i flussi genetici, il polimorfismo, che assicuri la possibilità di adattamento (adattabilità) a diversi ambienti. 5) Il progresso nell'evoluzione L'adattamento e la fitness darwiniana sono quindi relativi e si riferiscono ad individui, popolazioni o specie in un dato tempo e in un dato ambiente. « La selezione naturale tende a massimizzare la fitness darwiniana rispetto agli ambienti che esistono qui e ora. Non ha informazioni sul futuro e non può pianificare "strategie" evolutive» (Dobzhansky). L'evoluzione organica è quindi, come si dice, « opportunistica >'>, raggiunge il vantaggio immediato, anche a scapito di svantaggi adattativi futuri, con possibile rischio di estinzione. In questo modo la teoria dell'evolHzione ha definitivamente fatto piazza pulita di tutte le concezioni più o meno antropomorfiche che vedevano nella natura una linea evolutiva, un « asse privilegiato » (Theilhard de Chardin) conducente direttamente all'uomo,_« lo- scopo finale da raggiungere» (Lecomte du Nouy). L'uomo non è necessariamentè più adatto al suo ambiente di una mosca, di un pesce, di un pino o di una ameba. Tuttavia, anche a livello intuitivo, l'evoluzione del mondo vivente mostra nel suo complesso un progresso, un avanzamento, individuabile nel sempre più elevato livello di brganizzazione e in una impressionante diversificazione del mçndo organico, frutto di un « irradiamento » della vita in una enorme varietà di nicchie ecologiche. L'apparente para,dosso può essere risolto se si distingue l'adattamento dalla adattabilità. I camblatp.enti evolutivi possono portare ad una diminuzione della 77 www.scribd.com/Baruhk La nuova biologia flessibilità. evolutiva. Così si pensa che i virus non siano le forme più elementari di vita ma piuttosto siano derivati da antenati più complessi e organizzati per mezzo di un processo di superspecializzazione che ha portato ad una evoluzione regressiva. Il progresso nell'evoluzione può essere misurato sulla base della probabilità che una specie ha di lasciare discendenti dopo un :lungo periodo di tempo; questo comporta l'adattamento all'ambiente attuale ma anche una plasticità evolutiva che renda possibile il suo adattamento ad ambienti futuri. I più progrediti saranno quegli organismi « che sono idonei (who ftt) al loro attuale ambiente e i cui discendenti saranno idonei (wi/1 ftt) agli ambienti futuri» (J.M. Thoday). Un progresso nella adattabilità coincide con un più alto grado di indipendenza del sistema dal suo ambiente, di individualizzazione, con un aumento della capacità omeostatica dell'organismo. Ciò comporta un incremento della capacità del sistema di raccogliere e conservare-informazioni provenienti dall'ambiente, formandosi una« rappresentazione» dell'ambiente capace di modificarsi con l'« esperienza », man mano che cambiano gli ambienti. Ciò porrà l'organismo in grado di « prevedere » il suo cotpportamento per raggiungere i propri fini biologici (e nell'uomo anche culturali, sociali, etici). Il progresso nell'evoluzione può quindi essere misurato dall'incremento del livello di organizzazione dei sistemi che isolano l'organismo dall'ambiente e che assicurano uria più precisa « rappresentazione » ambientale, in primo· luogo grazie ad un sistema nervoso, agli organi di senso e ai meccanismi di coordinamento delle. attività fisiologiche. L'uomo, da questo punto di vista, è certamente il prodo~to più alto del-. l'evoluzione biologica. Ci siamo un po' dilungati nella desct:izione dei principa)i criteri esplicativi della teoria dell'evoluzione perché dal peso relativo che si attribuisce ad ognuno di essi derivano diverse impostazioni teoriche, culturali, e, per quanto riguarda l'evoluzione umana, anche politiche. Una prima differenziazione si ha riguardo all'origine della variabilità genetica e al suo peso nell'evoluzione. Per la teoria «classica» le modificazioni evolutive sono essenzialmente dovute alle mutazioni, che si verificano casualmente e raramente e interessano solo una scarsa percentuale dei loci genetici mentre gli altri restano omozigoti·per il gene «selvatico» (cioè non mutato). La teoria sintetica considera invece di piccola importanza le variazioni ottenute/ tramite sostituzione genica e privilegia invece, la ricombinazione, la deriva genetica e i flussi tra popolazioni. Una popolaz~one che si riproduca sessualmente ha una &rande quantità · di geni eterozigoti e quindi. iL ~umeto di alleli che si segregano ad ogni generazione è molto grande. ~e- fosse valida la teoria classica, la diversità genetica all'interno··della popolazlone .~arebbe 'molto limitata, ma sarebbe elevata tra le popolazioni. Nell'uofl1p in particolare acquisterebbero una rilevanza biologica le razze dato che 0 www.scribd.com/Baruhk La nuova biologia le 'differenze tra le razze sarebbero maggiori delle differenze nelle razze. Ciò . nQn i.i verifiç'à"per la teoria sintetièa ~ anzi alcuni evoluzionisti, spinti da questa polemi~a, tendono anche tro"ppo a « modellare >> le teorie ~.i concetti sul quadro di una societ4 .democratica, con distinzioni fra classi purché nQn chiuse per la quale la m~ggior parte delle variazioni in una specie si hanno al!'inter:~o_, di una popblaziòne. Lé. differenze genetiche tra le razze sarebbero perciò minori delle differenze che possono trovarsi all'interno di una stessa razza. Inoltre se la variabilità è scarsamente •significativa riguardo all'evoluzione si può pensare ad una eugenetica, cioè alla costruzione di un « genotipo superiore » tramite selezione, puramente negativa, dei mutanti non adatti. Per la teoria sintetica invece la variabilità genetica è una condizione necessaria per. l'adattamento e soprattutto per l'adattabilità. È falso l'obiettivo di creare una umanità fatta di milioni di Einstein, di Freud, di Lenin, di Beethoven (o magari di Rodolfo Valentino): « La standardizzazione biologica e sociale annienta la umanità» (N. P. Dubinin). È la diversità, genotipica e fenotipica, che ha dato all'uomo il successo evolutivo e anche la possibilità di dare origine agli Einstein, ai Freud ecc, « Se si desiderasse trasformare gli uomini in angeli attraverso la selezione, sarebbe più agevole selezionare una disposizione angelica che un paio di ali>> (Dobzhansky). Chi privilegia la concezione classica della selezione naturale in genere è pessimista sulle possibilità evolutive della specie Homo sapiens. L'evoluzione sociale ed economica, ed anche etica, ha portato ad un drastico allentamento della pressione selettiva normalizzante, mentre, con l'aumento delle radiazioni (raggi X, radiazioni nucleari ecc.) e delle sostanze mutagene nell'ambiente, il ritmo di mutazione tende ad aumentare. Il carico genetico della specie umana aumenterebbe sempre più perché la « morte genetica.» diminuisce notevolmente. Sembra profilarsi così il rischio di un « crepuscolo biologico » dell'umanità, come già proclamava Francis Galton agli inizi del secolo. Di qui le proposte di « operare una selezione deliberata e rigorosa » (M,onod) in attesa dell'ipotesi fantascientifica di poter intervenire, con la cosidd~tta «ingegneria genetica», direttamente sul genotipo. , Tuttavia secondo la teoria dell'equilibrio della struttura della popolazione, come ha mostrato I. M. Lerner basandosi sulle esperienze degli allevatori, spesso la migliore produzione si ottiene con gçnotipi eterozigoti rispetto a più geni (cioè con un'maggiore :earico genetico). La selezionè differenziante e quella equilibrante danno luogo ad una varietà di geni coadattati l'un l'altro. Come abbiamo detto, infatti, ciò che conta per la selezione non è l'adattamento di questo o quel singolo gene, ma del fenotipo nel suo complesso. Delle mutazioni che, se eterozigote, aumentano le probabilità di sopravvivenza in un certo ambiente, come nel caso del gene dell'anemia falciforme, aumenteranno l'adattamento. 79 www.scribd.com/Baruhk La nuova biologia D'altronde molti organismi che mostrano un alto adattamento hanno anche delk «imperfezioni» che dovrebbero essere svantaggiose per il progresso evolutivo. Questo si può -dire ad esempio per il parto nella specie umana, doloroso e rischioso. Ma, si diceva, la selezione è opportunista, ed opera con l'in~ tero genotipo. Le difficoltà della nascita sono probàbilmente una conseguenza della posizion~ eretta, èhe rende l'uomo molto più idoneo all'uso degli utensili. Il difetto è quindi mantenuto perché è correlato con un vantaggio adattativo molto più importante. È quindi pensabile, anche se onestamente si ammette la non completezza degli studi sul significato biologico e sociale dei carichi genetici, che l'allentamento della selezione normalizzante certo non elimina le malattie genetiche, che possono anche essere curate e risolte in altro modo, soprattutto intervenendo sull'ambiente per diminuire i rischi di mutazione, ma non impedisce tuttavia il mantenimento dell'adattamento e della adattabilità della specie umana. Recentemente la teoria classica è stata ripresa sulla base dello studio della evoluzione a livello molecolare, analizzando il DNA e i suoi prodotti in RNA e proteine in differenti specie. Ciò permette di ottenere valutazioni quantitative sulle variazioni evolutive e sulla stabilità dei sistemi genetici che confermano a livello genetico i risultati ottenuti mediante l'analisi biochimica. La teoria sintetica si occupa essenzialmente dei caratteri morfologici e fisiologici degli organismi le cui modificazioni per mutazione sono in genere svantaggiose per l'adattamento della specie. Tuttavia, sostengono alcuni genetisti molecolari moderni ed in particolare M. Kimnra e T. Ohta, molte mutazioni non cambiano drasticamente la struttura o le funzioni di un organismo e possono quindi essere ugualmente incorporate nel genoma. Si tratterebbe quindi di mutazioni « neutre o press'a poco neutre». Si conoscono 59 varianti della emoglobina umana (dovute a sostituzioni di uno o più aminoacidi), 43 delle quali sembrano non avere effetti fisiologici rilevanti. Se la sostituzione di un aminoacido in un enzima prodotto da una mutazione avviene in un sito non attivo l'enzima può funzionare lo stesso egualmente bene. La mutazione sarebbe in questo caso indifferente all'azione della selezione naturale. Que~te mutazioni neutrali o quasi neutrali possono poi diffondersi e fissarsi nella popolazione tramite una deriva genetica casuale (random genetic drift), cioè una variazione nella frequenza genica che si verifica in una popolazione ristretta (rispetto al numero totale di ricombinazioni possibili). Il ruolo principale della selezione naturale in questo caso è conservare le funzioni di una molecola già stabilite; essa svolge quindi un ruolo negativo e non costruttivo. La velocità dell'evoluzione è determinata dalla velocità con cui avvengono le mutazioni e con cui queste si fissano nella popolazione per mezzo della deriva genetica (evoluzione non darwiniana o non-adattativa). In effetti, lo studio dell'evoluzione molecolare, compiuto mediante l'arraSo www.scribd.com/Baruhk La nuova biologia lisi comparata delle sequenze di aminoacidi di diverse proteine appartenenti a specie anche lontane filogeneticamente, mostra che la velocità evolutiva misurata in termine di sostituzioni di aminoacidi (o nucleotidi) è costante per anno nelle diverse linee evolutive (se la funzione non cambia) come se la sostituzione avvenisse per fissazione casuale di mutazioni neutre, anziché per generazioni, come dovrebbe essere secondo la teoria sintetica. Generalizzando questo ragionamento ai caratteri morfologici, si può affermare che anche le vatiazioni nella statura, nel peso ecc., « possono essere soggette a variazioni dovute alla deriva genetica » (Masatoshi Nei). Il messaggio genetico sarebbe quindi derivato totalmente dall'interno del DNA. «La variazione evolutiva non è imposta dall'esterno, essa deriva dall'interno. La selezione naturale è l'editore, piuttosto che il compositore, del messaggio genetico». (]. L. King e T. H. Jukes). Il motore principale dell'evoluzione per i non-darwinisti non è più la selezione naturale, ma il caso che presiede alle mutazioni e alla deriva genetica. Benché le mutazioni non siano più considerate come salti bruschi che danno origine all'improvviso a modificazioni macroscopiche, ma come variazioni minute e spesso insignificanti, esse «sembrano essere il fattore primario dell'evoluzione sia a livello molecolare che a livello morfologico » (M. Nei). 6) Caso e necessità nell'evoluzione Il ruolo dei fenomeni casuali non è affatto sottovalutato dalla teoria sintetica. Abbiamo già detto del significato « casuale » attribuito alla mutazione e alla ricombinazione genetica e la deriva genetica è spesso considerata, ad esempio da Mayr, come il primo p~sso della speciazione. Esiste tuttavia una reale contraddizione fra il punto di vista estremo della teoria sintetica, per cui ogni variazione genetica anche a livello molecolare ha un significato adattativo, e l'altrettanto estrema teoria della assoluta casualità delle mutazioni e quindi dell'evoluzione. Si è verificato un curioso rovesciamento teorico fra i sostenitori del determini~mo e dell'indeterminismo nella teoria dell'evoluzione. Nel passato il m~ccanicismo riduzionistico era stato legato ad un rigido determinismo per cui un fenomeno biologico poteva essere completamente descritto una volta note le leggi fisiche e le condizioni iniziali (e la giustificazione portata dai biologi per un atteggiamento meccanicista si basava appunto sull'esigenza di eliminare l'« arbitrarietà »). Viceversa l'organicismo, con il principio di equifinalità, di omeostasi, accettava l'indeterminatezza riguardo al futuro comportamento del sistema (che sarebbe stato infatti determinato dagli eventi esterni all'ambiente interno). La situazione si è ora completamente capovolta, non solo perché anche la fisica ha abbandonato il determinismo meccanicistico e non considera poco scientifico attribuire un ruolo importante nella spiegazione scientifica a leggi probabi81 www.scribd.com/Baruhk La nuova biologia listiche, ma perché sono cambiati i presupposti teorici nell'interpretazione dei fenomeni biologici. La moderna forma di meccanicismo che prende a modello di spiegazione quella molecolare intende interpretare ogni fenomeno sulla base di cause attuali dovute all'interazione chimica fra le macromolecole biologiche, che aggregandosi « spontaneamente », « automaticamente » danno origine alle diverse strutture dalle quali dipendono le funzioni. L'organismo è una macchina chiusa, un sistema « assolutamente incapace di ricevere un'istruzione qualsiasi dal mondo esterno », un sistema « interamente e profondamente conservatore » (Monod). Ma alla base dell'evoluzione vi sono proprio le «modifiche al programma )) che, in quanto il meccanismo di replicazione (( non prevede )) variazioni, sono da attribuire al caso. Le mutazioni sono quindi accidentali e poiché esse rappresentano la sola fonte possibile di modificazioni dirette o indirette del testo genetico ne consegue che soltanto il caso è all'origine di ogni novità: « il caso puro, il solo caso, libertà assoluta ma cieca, alla radice del prodigioso edificio dell'evoluzione» (Monod). All'indeterminismo assoluto nell'origine del substrato materiale dell'evoluzione si associa una concezione rigidamente deterministica della selezione naturale che determina inesorabilmente il destino delle singole mutazioni quando queste si manifestano al livello dell'organismo. «Usciti dall'ambito del puro caso, si entra in quello della necessità, delle più inesorabili determinazioni » (Monod). Nell'un caso e nell'altro, negandòne i presupposti, si nega l'evoluzione. E, conseguentemente, Monod afferma che «per la teoria del giorno d'oggi l'evoluzione non è affatto una proprietà degli esseri viventi, in quanto ha le sue radici nelle imperfezioni stesse del meccanismo conservatore che, invece, rappresenta il loro unico privilegio ». È evidente in queste posizioni l'influsso dello strutturalismo, cosi vasto nella culturà francese.· Monod infatti separa nettamente la struttura attuale (il sincronico) dalla sua storia (il diacronico) considerando il primo logicamente prioritario rispetto al secon~o, conformemente alle tesi strutturaliste. « L'invarianza precede di necessità la teleonomia. » Questo intreccio fra assoluto determinismo e indeterminismo altrettanto assoluto è il frutto di una concezione rigidamente meccanicistica: tutto ciò che può essere spiegato sulla base di interazioni «meccaniche» (cioè chimico-fisiche) è rigidamente determinato; il resto, in particolare quei fenomeni in cui è determinante il parametro « storia », viene invece attribuito al caso assoluto, che diviene un modo per mascherare una incapacità esplicativa. Parafrasando il programma meccanicistico di Laplace si potrebbe dire che, per un biologo molecolare, se un demone conoscesse la disposizione di tutti i geni nei cromosomi (e conoscesse il codice genetico) potrebbe con esattezza determinare il destino di ogni singola particella dell'individuo portatore di quei geni. L'unica fonte di pertu:i:bamento di questo perfetto meccanismo sarebbe il caso « assolutamente 82 www.scribd.com/Baruhk T, spazio fenotipico Rappresentazione schematica dei percorsi di trasformazione del genotipo di una popolazione da una generazione alla successiva. G e P sono gli spazi delle descrizioni genotipiche e fenotipiche. Gt, Gt', G2 e G2' sono descrizioni genotipiche a vari intervalli di tempo in generazioni successive. Pt, Pt', P 2 e P 2 ' sono descrizioni fenotipiche. T1 , T2·, T a e T4 sono leggi di trasformazione.- imprevedibile». L'evoluzione diviene in questo modo la lotta fra due demoni: quello dell'invarianza riproduttiva perfetta e quello del caso assoluto. Per gli evoluzionisti l'adattamento così accurato fra gli organismi e il loro ambiente non può essere il frutto del puro caso. Certo non si può andare alla vana ricerca di leggi evolutive assolute e deterministiche, né cercare una spiegazione in cui l'ambiente sia direttamente la causa e le modifìcazioni evolutive l'effetto. Tuttavia «il procedere dell'evoluzione è diretto dalla selezione naturale, non dall'indirizzo delle mutazioni» (Dobzhansky), e, data una struttura di una popolazione in una data situazione ecologica, se vi è una variabilità genetica della popolazione, l'azione della selezione naturale «appare del tutto deterministica». Secondo un modello recentemente proposto da Richard Lewontin, che rias- www.scribd.com/Baruhk La nuova biologia sume grosso modo lo stato attuale della genetica evoluzionistica, si potrebbe dare una descrizione completa della dinamica di una popolazione, descrivendo lo stato genetico delle popolazioni e « le leggi di trasformazione dello stato che siano dinamicamente ed empiricamente sufficienti ». L'intero processo evolutivo potrebbe così essere descritto dinamicamente mediante tra~formazioni vettoriali all'interno e tra gli spazi genotipico e fenotipico. Tuttavia questa descrizione non è completamente deterministica, perché in ognuna delle trasformazioni intervengono fattori tipicamente casuali o non prevedibili. Inoltre essa non spiega, ma prende per dati i parametri dell'evoluzione: la selezione e l'adattamento. Anche la frequenza ed il tipo delle mutazioni sono controllate geneticamente e determinate dalla selezione naturale. Il processo di mutazione favorisce infatti la variabilità genetica e sarà quindi selezionato in quelle specie che vivono in ambienti mutevoli. L'evoluzione di un certo organismo si presenta come «il più probabile risultato netto dell'azione di tutte le numerose forze selettive che hanno agito sui suoi antenati» (P. Medawar). Il determinismo della teoria sintetica ha un carattere non meccanico, ma storico. L'evoluzione è un fenomeno sostanzialmente storico e, come per tutti i fenomeni storici, il suo sviluppo futuro non può essere previsto. La teoria dell' evoluzione spiega ma non fa .previsioni. È questo un risultato importante: una descrizione della vita in termini di cause attuali, chimico-fisiche, può fornirci previsioni sul futuro comportamento del sistema, ma deve presupporre alcuni parametri a priori (il «piano»). Al contrario una spiegazione storica ci permette di 'dire come un sistema è giunto ad essere come ci si presenta all'analisi ma non ci permette di fare previsioni deterministiche sul suo futuro. Si è in una contraddizione epistemologica fra due spiegazioni tra loro contrapposte. Le diversità di atteggiamento a proposito del caso e della necessità nell'evoluzione sembrano dovute ad un tentativo di privilegiare o l'uno o l'altro dei due aspetti, oppure di considerarli in tempi e su livelli diversi, come in Monod. È possibile però avanzare una terza soluzione, nella quale il caso e la necessità cooperino anziché opporsi, giungendo ad affermare, con Epicuro, che «tutto ciò che esiste nell'universo è frutto del caso e della necessità». Il caso allivello delle mutazioni o delle ricombinazioni genetiche non contraddice l'esistenza di un coordinamento a livello gerarchico superiore di questa casualità, grazie all'esistenza di vincoli (constraints) di natura essenzialmente storica. La variabilità nei sottosistemi (i geni per la cellula, la cellula per l'organismo, l'individuo per la popolazione ecc.) è necessaria per saggiare tutte le possibilità esistenti in un dato ambiente fisico e biologico. Tale variabilità permette infatti di selezionare la configurazione più adatta all'insieme dei vincoli (interni, determinati cioè dalla storia evolutiva della specie, e esterni, determinati dalle condizioni ecologiche). Esiste quindi un legame dialettico, diremmo, fra la molteplicità indeterminata www.scribd.com/Baruhk La nuova biologia locale dei sottosistemi (che possono anche essere ognuno diretto da un rigido determinismo, come nel caso della trascrizione genica) e la univocità non deterministica (o meglio determinata storicamente) del comportamento globale della struttura di livello superiore. Da questo punto di vista sia la teoria sintetica, sia le diverse spiegazioni molecolari appaiono ancora insufficienti e unilaterali. La contrapposizione fra la concezione deterministica e quella indeterministica dell'evoluzione si riflette nel dibattito sul significato e sulle modalità dei tre « passi » decisivi dell'evoluzione organica: l'origine della vita, la formazione della specie, la comparsa dell'uomo. 7) Il problema delle origini La quasi totalità degli scienziati oggi ammette, materialisticamente, che la vita si sia originata dalla non-vita come « conseguenza di una qualche legge generale» (Charles Darwin), valida cioè per tutta la materia. L'evoluzione si presenta come « un processo storico, continuo, che esclude ogni fattore creativo che operi completamente de novo [... ]. Ogni configurazione nasce da una configurazione precedente» (Simpson). Su questa base la spiegazione dei « salti» evolutivi va ricercata nelle proprietà, nelle strutture e nelle funzioni degli stati preesistenti e nelle leggi che li governano. Diviene così possibile porsi il problema di costruire dei modelli, da riprodurre sperimentalmente, di tali « salti » allo scopo non di ticreare il cammino effettivo percorso dall'evoluzione organica sulla terra, in quanto essendo un prodotto storico questo è unico e non può essere ricostruito identicamente in laboratorio, ma di stabilire la possibilità di derivare questo tipo di processi da leggi generali, descriventi un insieme molto vasto e sostanzialmente stocastico di comportamenti, uno dei quali potrebbe essere stato il percorso effettivo della vita sulla terra. Spiegare l'origine della vita richiede innanzi tutto dimostrare la possibilità che in particolari condizioni ambientali si possano formare tutti i composti elementari tipici dei sistemi biologici. Sulla base dei dati astronomici, geochimici, geofisici e paleontologici, si presume che l'ambiente esistente sulla superficie della terra 4 miliardi di ,anni fa fosse una atmosfera riducente contenente larghe quantità di idrogeno, ammoniaca, metano, acqua, ossido di carbonio e anidride carbonica. Miller nel 19 53, mediante scariche elettriche in questa atmosfera riprodotta artificialmente, ottenne molti composti organici, dimostrando la possibilità di una evoluzione chimica sulla terra primordiale, cioè un moltiplicarsi delle specie chimiche presenti ed un loro differenziarsi che può aver prodotto tutte le molecole chimiche che la vita utilizza per il suo mantenimento. D'altro canto successive ricerche astrofisiche e radioastronomiche hanno dimostrato - rendendo inutili ulteriori esperimenti di sintesi in laboratori dei biomonomeri- che anche nello spazio interstellare si trovano i possibili precursori di ogni tipo di molecole organiche. www.scribd.com/Baruhk La nuova biologia La polimerizzazione di questi biomonomeri, probabilmente in soluzione acquosa che garantisce le condizioni fisiche necessarie alle reazioni di polimerizzazione, può avere dato origine, ed anche questo è stato ottenuto in laboratorio, ai polimeri fondamentali della vita: polisaccaridi, lipidi, polipeptidi e polinucleotidi. Ma la disponibilità degli elementi chimici che costituiscono il « vivente » non spiega la vita e la sua comparsa. Innanzitutto è necessario un processo di individualizzazione dei sistemi prebiotici, cioè la separazione fra il sistema vivente e l'ambiente. I modelli biochimici proposti, sin dal 1929, da A. L Oparin hanno dimostrato che dei sistemi chimici isolati (« coacervati ») possono «evolvere», cioè semplicemente favorire la polimerizzazione al proprio interno, ma tuttavia siamo ancora lontani dall'affrontare il problema principale dei sistemi viventi descritti a livello molecolare e cioè l'autoconservazione e l'autoriproduzione. La «rivoluzione molecolare », dando un più preciso significato a questi tetmini, li lega alla capacità del sistema di dotarsi di meccanismi in grado di conservare e trasmettere l'informazione genetica. Si potrebbe dire che esistono larghe evidenze sperimentali e valide teorie che spiegano le due fasi estreme dell'evoluzione organica e cioè da una parte l'evoluzione « prebiotica », chimica, e dall'altra, l'evoluzione propriamente darwiniana, cioè l'evoluzione delle singole specie e la comparsa di nuove specie. Manca tuttavia l'anello intermedio fra questi due aspetti, la fase di autoorganizzazione degli « individui », connessa con la capacità di replicare tale autoorganizzazione. Tale difficoltà rispecchia una contraddizione esistente a livello epistemologico. Abbiamo visto infatti che nessuna delle due principali spiegazioni scientifiche usate nella biologia contemporanea, quella funzionale e quella evoluzionistica, riesce a dare una spiegazione unitaria del complesso dei fenomeni biologici. La spiegazione funzionale, causale, infatti, può descrivere il funzionamento dettagliato in termini chimico-fisici di singoli sistemi molecolari o anche cellulari ma deve assumere come dati alcuni parametri tipicamente biologici. Tali parametri vengono allora attribuiti ad una teoria non fisica, la teoria dell'evoluzione, che rischia però di divenire, facendo continuamente ricorso al caso, un deus ex machina. D'altro canto, la spiegazione evoluzionistica dimostra come una certa organizzazione biologica è giunta ad essere come è oggi, ma non può spiegare i processi che hanno portato alla sua comparsa originaria. Manca cioè una teoria generale che spieghi le origini e il modo di operare attuale delle funzioni biologiche principali e dei meccanismi che ne assicurano la coerenza, la persistenza e l'affidabilità. La teoria dell'evoluzione biologica attualmente è applicabile, a meno di generalizzazioni la Ct.'i validità è messa in dubbio dagli stessi evoluzionisti, solo a sistemi già dotati di alcune proprietà tipicamente biologiche, come 86 www.scribd.com/Baruhk La nuova biologia la capacità di autoduplicazione e la presenza di una memoria, a sistemi cioè che mostrano già un certo grado di organizzazione gerarchica. La caratteristica dei sistemi viventi non è una determinata struttura, ma la complementarità fra struttura e funzione che presuppone la variabilità nel tempo, incompatibile con il concetto di permanenza. « Ciò che appare qualitativamente eccezionale nella materia vivente [è] l'evoluzione temporale dei vincoli che mettono il sistema in grado di eseguire attraverso i suoi moti semplici funzioni collettive. In altre parole, partendo da un sistema comune di leggi dinamiche per i moti a livello microscopico, si osserva che la materia vivente evolve verso " gerarchie " di ordine collettivo mentre la materia vivente verso un disordine collettivo>> (Piero Caldirola). Si tratta quindi di esaminare, come ha fatto il fisico H. H. Pattee, la possibilità di una spiegazione fisica del controllo gerarchico e della sua evoluzione nel tempo, dando una caratterizzazione al concetto di constraint, cioè di « costrizione >> o regola che si presenta in un insieme di elementi e che limita i gradi di libertà dei moti delle singole parti che costituiscono l'insieme (ad es. nello sviluppo dell'organismo «le interazioni collettive delle cellule vicinali contro"llano la crescita e l'espressione genetica di una cellula singola»). Ma come è possibile che un sistema di atomi soggetti a leggi deterministiche possa sovrimporre ai complicati moti singoli una regola funzionale addizionale (constraint) che produce una « semplice funzione collettiva »? In fisica ciò si ottiene (ad esempio nel caso di una particella in una scatola) limitando dall'esterno i gradi di libertà senza incidere nelle equazioni del moto. Si ottengono cosl delle gerarchie strutturali, come i cristalli e le molecole, in cui la regolarità è dovuta alla perdita selettiva di gradi di libertà. Ma in biologia tale limitazione deve avvenire all'interno di un sistema gerarchico autonomo: deve esserci quindi una qualche memoria, separata dal resto del sistema, che è Forigine dei constraints dinamici. Ma qual è l'origine spontanea dei sistemi gerarchici? Come è possibile spiegare in termini fisici la comparsa nei sistemi di materia di descrizioni interne, di sistemi di memoria? L'evoluzione chimica prebiotica è divergente, tende cioè a moltiplicare le specie chimiche, a differenziarle. L'evoluzione biologica è invece un processo convergente che riduce l'arbitrarietà nel sistema, giungendo ad una organizzazione funzionale coerente che riproduce se stessa. Come si passa dalla divergenza alla convergenza? Vi devono essere evidentemente dei vincoli nel sistema stesso, che a livello molecolare possono essere individuati dalla presenza delle tipiche molecole informazionali. Si scontrano a questo proposito due posizioni nettamente contrapposte. La prima sostanzialmente indeterministica attribuisce l'origine di tali sistemi autoorganizzantisi al caso. La probabilità di ottenere una benché semplice mole- www.scribd.com/Baruhk La nuova biologia cola proteica da una distribuzione casuale è praticamente nulla. Se si prende una catena polipeptidica di 100 aminoacidi '(cioè molto piccola) per ogni aminoacido di tale catena si ha una scelta fra zo possibilità, tanti sono infatti gli aminoacidi naturali. Avremmo un numero di possibili catene chiuse pari a zo100 cioè 101ao. Se si considera che l'età della terra è «solo» 1ol? secondi è evidente che se anche la terra fosse costituita solo di .aminoacidi non basterebbe neanche supporre 10 tentativi al secondo per esaurire tutte le possibilità. Questo calcolo, basato sulla teoria matematica dell'informazione, ha portato molti biologi ad affermare che l'origine della vita sia stato un evento talmente raro da poter essere considerato unico e irripetibile. Tutti i successivi passi evolutivi sarebbero anch'essi il frutto di un caso «completamente cieco». Queste conclusioni si basano sull'ipotesi, tipica della teoria della comunicaziòne, che ogni singola « cifra » del messaggio abbia la stessa probabilità a . prÙ)"ri. Come abbiamo>visto, ciÒ non è vero per il << messaggio » biologico che ha un significato, un valore qualitativo e non soltanto quantitativo, dato che non è possibile valutare la probabilità della vita dal calcolo delle sue forme attuali, prescindendo dall'ambiente e dalla storia di un dato oggetto biologico. L'informazione risultante dall'evoluzione ha un significato definito e il suo contenuto in bits non ci permette di caratterizzare il grado di autoorganizzazione di un sistema funzionale. Manfred Eigen ha elaborato un modello matematico per spiegare l'origine dell'autoorganizzazione della materia, introducendo il concetto di «selezione» nella dinamica molecolare e mostrando che, al livello molecolare, « le regole di selezione possono essere basate su proprietà chimiche [ ... ] su precisi termini molecolari che possono essere descritti dalla teoria quanto-meccanica ». Introducendo particolari « criteri di selezione » è possibile descrivere matematicamente il processo convergente che isola determinate combinazioni di composti chimici in grado di autoorganizzarsi. La semplice presenza di catalizzatori nel sistema prebiotico non spiega la crescita autocatalitica perché il catalizzatore in una reazione chimica all'equi.librio agisce allo stesso modo sia sulla reazione diretta che su quella inversa. Occorre quindi, attraverso l'introduzione di vincoli, portare e mantenere il sistema lontano dall'equilibrio termodinamico, dove le reazioni autocatalitiche diventano instabili (in quanto la velocità della reazione inversa può essere trascurata). Tali instabilità danno origine, come dimo:.;tra la trattazione termodinamica di Prigogine, a fluttuazioni che possono sub1re una amplificazione che rompe le simmetrie preesistenti e fa passare il sistema in un nuovo stato stazionario con creazione di ordine (strutture dissipative). Sono queste fluttuazioni nella fase divergente dell'evoluzione chimica che rappresentano la base per un comportamento evolutivo. Il valore selettivo rappresenta quindi la variabile decisiva dell'evoluzione, 88 www.scribd.com/Baruhk La nuova biologia come avevano già proposto R. A. Fischer, J. B. S. Haldane e S. Wright formulando la genetica di popolazione. Anche a livello dell'evoluzione molecolare si introducono così le conclusioni della teoria sintetica. Rispetto a questa tuttavia vi è una differenza importante. La teoria sintetica infatti identifica grosso modo l'evoluzione con la selezione naturale. L'evoluzione avviene nel momento stesso in cui avviene la selezione. È proprio questo però che rende probabilmente insufficiente, come già detto, la teoria sintetica nella sua formulazione attuale. Almeno a livello dell'evoluzione prebiotica occorre infatti distinguere fra la selezione di stati alternativi e l'evoluzione degli stati selezionati. Il primo passo costituisce il processo convergente che sceglie fra tutti gli stati possibili alternativi quelli dotati di più elevato « valore selettivo ». Il secondo passo è di nuovo un processo divergente dovuto alle modificazioni evolutive degli stati selezionati. Tra le condizioni per la selezione e per l'evoluzione può esistere una competizione in quanto « la stessa selettività è in equilibrio tra la precisione e la flessibilità dinamica[ ...]. L'evoluzione rappresenta una procedura di ottimizzazione sotto certi vincoli imposti dai criteri evolutivi » (Eigen). Di fronte alle continue modificazioni ambientali il « progresso » evolutivo consisterà nella aumentata capacità del sistema di utilizzare una maggiore informazione che fornisce un più elevato valore selettivo. A pari contenuto di informazione saranno selezionati quei sistemi che avranno una maggiore velocità di formazione, una più lunga durata di vita (stabilità) o una più accurata precisione nella replicazione. Tutti questi parametri, alla base dell'evoluzione dei sistemi molecolari dotati di capacità di autoregolazione, sono descrivibili in termini fisici e chimici. Sembra cosl trovare una bèm fisica il problema della comparsa di sistemi autoorganizzantisi e dotati di memoria che costituiscono come abbiamo visto l'elemento di saldatura, anche teorica, fra la spiegazione riduzionistica della vita e quella storica, evoluzionistica. Sembra così possibile dare « una fondazione fisica e una formulazione quantitativa al principio darwiniano. In questa forma il principio non si riferisce semplicemente ad un percorso storico, ma piuttosto ad una legge fisicamente deducibile che governa il processo generale di autoorganizzazione della materia » (Eigen). Nonostante il carattere indeterminato della strada percorsa, il processo evolutivo è nondimeno inevitabile in quanto è basato su un principio fisico deducibile. Il modello di Eigen mostra che «ciò è non solo inevitabile "in linea di principio" ma anche sufficientemente probabile in un realistico lasso di tempo » purché in presenza « di appropriate condizioni ambientali e del loro mantenimento » grazie ad un continuo flusso di energia libera, condizioni che « sono esistite sulla terra e devono ancora esistere su molti pianeti dell'universo ». Il caso e la necessità ancora una volta cooperano anziché opporsi. Le fluttuazioni rappresentano l'elemento aleatorio, in deterministico,. ma la crescita di www.scribd.com/Baruhk La nuova biologia tali fluttuazioni, la loro stabilizzazione e selezione, grazie al « valore selettivo », rappresentano la necessità. Come scrive Monod, «se si considera solo il caso, l'origine della vita appare un fenomeno essenzialmente imprevedibile [...] né più né meno della particolare configurazione di atomi che costituiscono il sasso che tengo in mano». È vero che non possiamo calcolare l'esatta posizione degli atomi ad un dato istante, ma tale calcolo non avrebbe alcun senso dato che ciò che vi è di essenziale nel sasso, le sue proprietà macroscopiche termodinamiche e meccaniche, possono essere calcolate dal principio d'ordine di Boltzmann; allo stesso modo un «principio d'ordine interamente differente» (Prigogine) l'ordine attraverso fluttuazioni può rendere conto del fenomeno della vita. 8) L'origine delle specie Sin dalla sua origine il darwinismo si è soprattutto occupato della modificazione evolutiva della specie. A dispetto del titolo, nel capolavoro di Darwin il problema dell'origine delle nuove specie era rimasto abbastanza in ombra e lo stesso era avvenuto nella riflessione dei neodarwinisti. La ragione principale di ciò è che lo studio scientifico della speciazione è divenuto possibile solo con la comprensione della natura del materiale genetico e delle relazioni fra genotipo e fenotipo. La modificazione evolutiva del mondo vivente avviene attraverso due meccanismi: 1) la modificazione adattativa di ogni singola specie attraverso il cambiamento del pool genico delle popolazioni mendeliane (anagenesi o evoluzione per phyla) e 2) la divergenza fra specie diverse con la creazione di unità evolutive indipendenti (cladogenesi o evoluzione per ramificazione). Come abbiamo visto parlando della genetica di popolazione la selezione naturali.! non può operare una differenziazione all'interno della stessa popolazione. È tutta la popolazione nel suo complesso che si adatta in quanto la selezione equilibrante tenderà ad impedire un eccessivo discostamento nella variazione genetica (regressione verso la media; è questo che fa sì che da genitori molto più alti del normale in genere nascano figli più bassi, cioè più « in media », o viceversa per i genitori di bassa statura). Quindi, a meno che non intervengano dei meccanismi che impediscano l'accoppiamento fra varianti e il resto della popolazione, questa evolverà complessivamente e potrà originare nuove specie solo per anagenesi. Tale è probabilmente la storia evolutiva dell'uomo, in quanto si pensa che dopo gli australopitechi sia esistita una sola specie che si è evoluta da Homo erectus a Homo sapiens. Nuove specie possono formarsi solo grazie all'instaurazione di meccanismi di isolamento che impediscono la ricombinazione genetica (la separazione geo-:" grafica, lo sfasamento nel tempo dei periodi riproduttivi, l'instaurarsi di norme comportamentali diverse nel corteggiamento ecc.). Se questi meccanismi sfa- www.scribd.com/Baruhk La nuova biologia voriscono la ricombinazione genetica, i genotipi diventano così differenti da essere incapaci di generare una progenie normale. Altrettanto complessa, e molto meno chiara, è la spiegazione dell'origine dei grandi phyla, cioè della formazione di generi, famiglie, classi (chiamata macraevoluzione in contrapposto allo studio della variazione evolutiva al livello più basso, la specie, o microevoluzione). Sia per la micro· che per la macroevoluzione si confrontano ancora due teorie, l'una deterministica e l'altra indeterministica. Da una parte si sostiene che la differenziazione delle specie è completamente determinata dalla selezione, per cui ciascuna specie sarebbe idonea ad un habitat leggermente diverso. Altri invece sostengono che l'origine delle specie è determinata soprattutto da mutazioni casuali, per cui anche all'interno dello stesso habitat possono coesistere specie diverse in concorrenza fra loro (per il territorio, il cibo ecc.). In effetti riesce difficile spiegare l'estrema varietà delle specie esistenti (e quella presumibilmente molto maggiore delle specie estinte o trasformatesi in altre specie) solo grazie aJla differenziazione degli habitat. Soprattutto fra gli insetti si trovano all'interno di uno stesso habitat, spesso limitato nello spazio, ad esempio uno stagno, moltissime specie filogeneticamente poco distinte. Nello stesso ambiente o in ambienti simili è favorita non la differenziazione, ma quel complesso processo che viene denominato « convergenza genetica » che tende a produrre cambiamenti adattivi identici da parte di specie anche molto diverse filogeneticamente (così, per fare un esempio un po' grossolano, il delfino assume la forma di un pesce, pur essendo un mammifero, perché si è adattato allo stesso ambiente dei pesci). È quindi probabilmente decisiva anche qui la coesistenza di aspetti casuali e di aspetti deterministici. I. meccanismi di selezione e di isolamento tendono a conservare deterministicamente un genotipo che produce organismi «bene adattati» (omeostasi genetica), ma d'altronde sono possibili variazioni casuali che modificano gli aspetti non essenziali dell' organizzazione, dando tuttavia origine a nuove specie. Molto studiato negli ultimi anni è stato il processo di speciazione dovuto a riarrangiamenti cromosomici. Si pensa infatti che nuove specie possano essere derivate non dalla somma di piccole mutazioni geniche, che non possono costituire delle barriere riproduttive, ma da importanti riarrangiamenti cromosomici, anch'essi casuali ma per molti aspetti determinati evolutivamente. In effetti l'esame dettagliato del corredo cromosomico di specie affini mostra che pochissime e talvolta una sola differenza cromosomica possono spiegare la formazione di una nuova specie. Un gatto e un puma hanno -esattamente gli stessi cromosomi ma differiscono per una inversione cromosomica peri centrica (cioè il rovesciamento di un pezzo di cromosoma rispetto al centromero) su uno dei 38 cromosomi. Lo scimpanzé e l'uomo posseggono praticamente gli stessi cromosomi e solo circa il 2% della totalità del materiale genico sembra differire www.scribd.com/Baruhk La nuova biologia grazie a riarrangiamenti cromosomici, insieme a molte probabili mutazioni a livello delle singole basi nucleotidiche. . Se queste idee saranno confermate potrebbero fornire un supporto sperimentale a due teorie che abbiamo già incontrato. In primo luogo l'affermazione che il genoma va considerato nel suo insieme, come un tutto; esso non sarebbe costituito dalla somma (come le perle in una collana) di geni, in quanto i riarrangiamenti sembrano non implicare singoli geni; determinante sarebbe invece l'organizzazione del materiale cromosomico, i rapporti fra i diversi geni. L'altra conseguenza teorica di una evoluzione per riarrangiamenti cromosomici è un nuovo modo di vedere i salti bruschi nell'evoluzione, sui quali avevano insistito, contro la selezione naturale, i primi genetisti e che erano stati troppo trascurati dalle teorie neo darwiniane dell'evoluzione. Dei salti bruschi, casuali, nel solito senso di «non finalizzati all'adattamento», possono aver svolto un ruolo certo decisivo nell'evoluzione e spiegherebbero le grandi trasformazioni morfogenetiche che non possono essere spiegate sommando piccoli cambiamenti mutazionali. Se il fenotipo di un individuo è determinato dalla « norma di reazione » della specie, una trasformazione di questa produrrà un diverso « campo morfogenetico » che guiderà la formazione di un fenotipo nuovo ma tuttavia armonico e funzionale. La vecchia ipotesi del « visionario » d' Arcy Thompson delle trasformazioni complessive di un organismo, prodotte da una unica trasformazione genetica e spiegabili tramite semplici operazioni topologiche, avrebbe così una conferma insperata. 9) Evoluzione biologica ed evoluzione culturale Come abbiamo detto, la documentazione fossile, che si è molto arricchita negli ultimi anni, sembra dimostrare che l'evoluzione dell'uomo ~ia avvenuta gradualmente, per accumulo di modificazioni successive, non necessariamente collegate fra loro («evoluzione a mosaico») come nel caso della stazione eretta che sembra aver preceduto l'aumento del volume cerebrale. Fra l' Australopithecus, la specie che dovrebbe aver preceduto la specie Homo da essa derivata anageneticamente, e la specie attuale Homo sapiens sapiens vi sarebbe stata una trasformazione ininterrotta e costante, tesi confermata anche dall'analisi degli utensili rinvenuti presso i fossili. Su una cosa, tuttavia, gli evoluzionisti affermano « la possibilità di un qualche cambiamento brusco » in quanto « l'uomo moderno è davvero diverso » (Young) da tutti gli altri animali. Tale cambiamento brusco consiste nella comparsa, come prodotto più elevato dell'evoluzione organica, di un altro tipo di evoluzione, quella culturale. L'evoluzione culturale si presenta come la conseguenza ultima di un processo adattivo biologico: la conquista di un'attività autonoma da parte dell'individuo e della popolazione che si manifesta in questo caso come comportamento e quindi molto più flessibile e idoneo a rispondere ad anche minime variazioni www.scribd.com/Baruhk La nuova biologia ambientali ed ecologiche oppure, nelle sue manifestazioni superiori, a cambiare l'ambiente per adattarlo alle proprie esigenze. Il massimo dell'adattamento si otterrà attraverso l'apprendimento e la trasmissione non genetica di tali comportamenti. Ciò fornisce la capacità di trarre profitto dall'esperienza propria, da quella dell'intera popolazione e delle popolazioni passate, per regolare il proprio comportamento secondo le richieste e le esigenze dell'ambiente non solo naturale ma «sociale)>, costituito cioè anche dall'insieme degli individui con cui si entra in una relazione comportamentale. La qualità più favorita da questo punto di vista è una elevata educabilità. Difatti «la cultura è il mezzo più potente che l'uomo ha di adattamento all'ambiente; e a sua volta l'educabilità geneticamente condizionata è il più potente mezzo di adattamento biologico dell'uomo alla cultura » (Dobzhansky). La notevole plasticità di sviluppo culturale dell'uomo gli è evidentemente conferita dal suo genotipo: è quindi un tratto della specie dovuto alla selezione naturale. Detto in parole povere, determinato evolutivamente sarebbe solo tale estrema plasticità e flessibilità degli strumenti conoscitivi dell'uomo, mentre cosa verrà appreso e tramandato esula dall'evoluzione biologica. Per questo « la cultura è parte della biologia dell'uomo anche se viene tramandata socialmente e non per mezzo dei geni, è una caratteristica della nostra specie come il collo lungo è una caratteristica della giraffa » (Soul Tax). L'uomo quindi ha una evoluzione a due componenti: la biologica e la culturale. Ma qual è il rapporto fra queste due « evoluzioni »? Le posizioni estreme che si confrontano a questo proposito hanno in comune una rigida separazione fra i due aspetti. La prima, ectogenetica, sostiene che tutti i cambiamenti che avvengono nell'uomo siano indipendenti dal suo patrimonio genetico. Gli uomini sarebbero non solo uguali, ma anche geneticamente simili. Dato che l'uomo (presumibilmente) non è cambiato molto in milioni di anni perché mantiene le stesse caratteristiche morfologiche e le dimensioni del suo cervello sono pressappoco le stesse, se ne conclude che l'evoluzione biologica dell'uomo è compiuta ed egli si evolve solo socialmente e culturalmente. «Da un punto di vista biologico,» scrive l'antropologo L. White, «l~ differenze fra gli uomini sembrano davvero insignificanti, in confronto alle loro somiglianze. Anche dal punto di vista del comportamento umano tutto tende ad indicare l'assoluta insignificanza dei fattori biologici di fronte all'importanza della cultura[ ... ]. Nei riguardi delle differenze di comportamento, perciò, possiamo considerare l'uomo una costante, la cultura una variabile. » La seconda posizione, autogenetica, sostiene l'opinione esattamente contraria; la cultura può «limare i dettagli» ma in fondo tutto è determinato dal genotipo, per cui« alcuni sono nati per comandare, altri per ubbidire [•.. ]. I materiali ereditari contenuti nei cromosomi sono la sostanza solida che in ultima analisi determina il corso della storia» (C. D. Darlington). 93 www.scribd.com/Baruhk La nuova biologia Queste due poslztoni così contrapposte sono strettamente accomunate da una visione riduttiva e meccanica del rapporto genotipo-fenotipo, che porta o a negare l'influenza del genotipo perché questo non riuscirebbe a spiegare la flessibilità comportamentistica dell'uomo o a negare tale flessibilità non riuscendo a collegarla meccanicamente al patrimonio genetico. In primo luogo si deve notare che il fenotipo non comprende solo le caratteristiche anatomiche o fisiologiche ma anche quelle comportamentali, ed è l'insieme di queste caratteristiche che costituisce la capacità adattiva di una specie, modificata dall'evoluzione. Ora non c'è dubbio che i tratti comportamentali possono variare con una velocità enormemente superiore a quella con cui si modificano i tratti fisiologici o anatomici. Un altro punto di vista, analogo con il primo dei due sopra considerati, seppure non identificabile con esso, afferma che l'uomo è solo un portato storico, sulle cui capacità non incide in nessun modo la componente genetica. Si è spesso fatto l'errore, anche in campo marxista, di considerare l'uomo solo in quanto «essere sociale» che entra in contatto con la natura dall'esterno, mediante il lavoro, dimenticando che tale contatto avviene «anche attraverso l'ereditarietà e, più ancora, gli innumerevoli altri influssi dell'ambiente naturale sul suo corpo e quindi sulla sua personalità intellettuale, morale, psicologica » (S. Timpanaro), cioè attraverso l'insieme delle attività dell'uomo. Si accetta, come è indispensabile, la capacità determinante del livello socioeconomico sugli aspetti sovrastrutturali (etici, politici ecc.) che mantengono tuttavia una relativa autonomia, ma ci si rifiuta di ammettere il carattere determinante della struttura biologica nel comportamento culturale e sociale dell'uomo, comportamento che, peraltro, mantiene una relativa autonomia. Se ancora occorresse, si potrà ribadire qui che tale determinazione non è rigida e univoca, in quanto, anche solo rimanendo nell'ambito dei caratteri morfologici e fisiologici, e a maggiore ragione per quelli comportamentali, ivi compresi quelli culturali, non esiste una rigida subordinazione del fenotipo al genotipo. Ciò che il genoma determina è solo la norma di reazione che regola le attività dell'organismo; cosa esso sarà realmente è il frutto della interazione fra l'ereditarietà e la storia individuale dell'organismo stesso. Non c'è contraddizione fra diversità genetica ed uguaglianza umana, non esiste un'unica natura umana ma tante nature umane che per realizzarsi completamente - e nella uguale possibilità di questa realizzazione sta l'uguaglianza degli uomini - hanno bisogno di condizioni naturali, sociali e culturali diverse. Assicurare l'uguaglianza fra le persone richiede la consapevolezza della diversità degli individui. La specie umana ha acquisito la sua posizione nella natura proprio grazie a tale estesa variabilità genetica - che non comporta anzi rifiuta giudizi di merito sulla « validità » dei singoli genotipi. L'evoluzione culturale innesta nella evoluzione biologica un altro tipo di 94 www.scribd.com/Baruhk La nuova biologia evoluzione che ne è la conseguenza ma che la trascende. La maggior parte dei mutamenti è avvenuta non perché le popolazioni umane sono cambiate dal punto di vista genetico ma perché sono cambiate da quello sociale e culturale, in quanto « l'uomo adatta il suo ambiente ai suoi geni molto più che i suoi geni all'ambiente» (Dobzhansky). È questa capacità di adattamento attivo che si trasmette con la cultura. La potenzialità dell'evoluzione culturale si è sviluppata grazie all'evoluzione del pool genico dell'uomo, che ne ha formato le premesse biologiche, ma non è deducibile da tali premesse. I due tipi di evoluzione sono in rapporto di relativa indipendenza in quanto l'evoluzione biologica è alla base di quella culturale, e a sua volta l'evoluzione culturale modifica quella biologica (si pensi all'influsso che ha il comportamento sulla ricombinazione genetica in quanto può favorire certe unioni, sfavorirne altre ecc. agendo così sull'equilibrio genico della popolazione). L'evoluzione umana non può essere concepita come un processo puramente biologico né esclusivamente come storia della cultura e della socializzazione dell'uomo. Il futuro dell'uomo sarà quindi determinato dalla interazione, con diverso peso relativo, fra questi due momenti, entrambi caratteristici della realtà umana. Con la comparsa della cultura e della coscienza si ha quindi un nuovo « salto » evolutivo. È sui caratteri di tale salto e sulle sue· modalità che occorre soffermarsi. Si tratta di un salto brusco, di una rottura totale che separa l'uomo dal resto della natura oppure si tratta di una svolta evolutiva che produce un nuovo livello di organizzazione che tuttavia mantiene legami inscindibili (ma non rigidi) con i livelli sottostanti? L'esasperato insistere sulla unicità dell'uomo, sul suo distacco netto dagli altri animali, sembra nascondere una precisa venatura antropocentrica. Se l'uomo non è più il beniamino degli dei, il centro dell'universo « può esserne il centro spirituale. L'uomo e l'uomo soltanto sa che il mondo si evolve e che lui stesso si evolve insieme al mondo » cosicché « in un certo modo Darwin ha sanato la ferita inflitta da Copernico e da Galileo» (Dobzhansky). Anche per Monod, come Dobzhansky influenzato dalla « teologia evolutiva » di Theilhard de Chardin, l'uomo è un « avvenimento unico», «il nostro numero è uscito alla roulette; perché dunque non dovremmo avvertire l'eccezionalità della nostra condizione?>>. Siamo di nuovo nell'ambito del « caso assoluto », assolutamente imprevedibile. « L'uomo, » afferma Monod, riecheggiando posizioni esistenziali così diffuse nella cultura francese, « finalmente sa di essere solo nell'immensità indifferente dell'universo da cui è emerso per caso.» Occorrerà però valutare nel concreto e scientificamente l'entità del salto evolutivo prodotto dalla comparsa dell'uomo. L'unicità dell'uomo deriva da certi aspetti peculiari che singolarmente possono essere ritrovati in altre specie ma che solo in lui si trovano combinate in maniera tanto significativa da far emergere nuove proprietà, da innestare un processo, che resta naturale, qualita95 www.scribd.com/Baruhk La nuova biologia tivamente diverso. «Probabilmente è l'organismo più cosciente di sé e con assoluta sicurezza il solo che sia consapevole delle sue origini, della sua propria natura biologica » ma tuttavia « è una specie diversa di animale, non proprio un animale diverso » (Simpson). Per valutare quindi l'entità del «salto evolutivo>> occorrerà studiare comparativamente il comportamento dell'uomo rispetto agli altri animali (etologia) e individuarne il substrato materiale con lo studio fisico, biologico e logico del cervello, l'organo di più elevata integrazione delle attività dell'organismo. V.~· LE BASI BIOLOGICHE DEL COMPORTAMENTO Nonostante che Darwin vi avesse dedicato buona parte del suo The descent of man (L'origine dell'uomo) e un'opera specifica The expression of the emotions in man and animals (L'espressione dei sentimenti negli animali e nell'uomo), lo studio del comportamento animale, senza essere abbandonato del tutto, era rimasto molto in ombra per parecchi decenni. Le ragioni sono molteplici; innanzitutto vi è la difficoltà intrinseca che lo studio del comportamento animale difficilmente può essere analitico ma richiede una impostazione globale; inoltre uno studio evoluzionistico del comportamento richiede un'analisi comparata e storica, la prima di difficile esecuzione, in quanto occorrono molto tempo e metodi che permettano di studiare gli animali in libertà; la seconda ovviamente di estrema difficoltà in quanto va portata avanti indirettamente dato che i fossili conservano gli aspetti morfologici ma certo non quelli comportamentali. D'altro canto lo studio del comportamento umano era isolato da quello animale perché, da parte degli psicologi, si reputava enorme la distanza in questo campo fra l'uomo e gli animali. Lo studio del comportamento umano, la psicologia, trascurava completamente le basi biologiche, le considerava insignificanti rispetto ai fattori ambientali, in primo luogo quelli culturali. La zoopsicologia, soprattutto quella americana (comportamentismo), risolve il comportamento animale in una serie di circuiti stimolo-risposta, dovuti agli effetti ambientali immediati, riproducibili quindi in laboratorio. Il comportamento diviene esclusivamente apprendimento mediante condizionamento ad alcuni stimoli ambientali «qualificanti» o «frustranti», un indirizzo di ricerca questo che parte da Pavlov e giunge, perdendo per strada il carattere materialistico, a J. B. Watson e soprattutto a B. F. Skinner. Questo tipo di metodo, se permette di ottenere risultati sperimentali, grazie al classico metodo analitico, perde di vista la realtà dei fenomeni studiati, in quanto le condizioni di studio sono completamente artificiali, lontane dall'ambiente naturale e soprattutto, trascurando i fattori biologici, perdono di vista un parametro esplicativo fondamentale, la storia evolutiva della specie, che ne determina in buona parte il comportamento. www.scribd.com/Baruhk La nuova biologia Occorre quindi studiare scientificamente il comportamento dell'animale nel suo ambiente naturale e tenendo conto delle basi biologiche ereditarie. È questo il compito che si pone l'etologia, la scienza comparata del comportamento animale, di diretta derivazione darwiniana. Il suo metodo è osservativo e comparativo: si tratta di osservare il comportamento degli animali allo stato naturale, o in ambienti modello, interferendo il meno possibile con le normali condizioni ambientali. Si tratta di una scienza essenzialmente descrittiva, che non si impegna, almeno nella fase attuale, nella teorizzazione del comportamento. Essa ricerca analogie parziali e circoscritte fra diverse specie animali, evitando ingiustificate estrapolazioni. La titubanza a formulare leggi generali deriva anche dal fallimento del tentativo compiuto dal comportamentismo di costruire una « teoria generale del comportamento » basata sull'esame sperimentale di un ristretto insieme di condizioni osservative, molto meno complesse di quelle reali. Il concetto unificante dell'etologia è quello di omologia comportamentale, cioè l'uguaglianza di tratti comportamentali in specie aventi una comune evoluzione filogenetica. Tali omologie « vengono impiegate come prova per la costruzione di tassonomie orientate filogeneticamente e per la ricostruzione dello sviluppo evolutivo delle specie» (A. R. Diebold). Ma ciò richiede il superamento del pregiudizio secondo il quale il comportamento è determinato solo dall'ambiente e non anche trasmesso geneticamente. È il valore adattivo del comportamento che lo stabilizza e ne permette la trasmissione ereditaria. L'etologia privilegia quindi la spiegazione storica, evoluzionistica rispetto a quella causale. Nella sua fase più teorica, l'etologia elabora modelli comportamentali, basandoli non sul supporto materiale, causale dei singoli gesti, ma utilizzando concetti esplicativi autonomi o comunque non riconducibili ai caratteri fisiologici e morfologici dell'animale. Si tratta quindi di modelli astratti che studiano il comportamento di un sistema indipendentemente dai meccanismi che dirigono ed effettuano tale comportamento. Buona parte del dibattito teorico in etologia riguarda l'esistenza o meno di una dicotomia fra innato e appreso, fra istinto e apprendimento. Konrad Lorenz, specialmente nella prima fase della sua riflessione teorica, tende a mettere l'accento sul carattere innato, « determinato geneticamente>>, della più parte dei tratti comportamentali. L'istinto è un'azione fissa, « completamente» indipendente da stimoli esterni, programmata dal patrimonio genetico e controllata dal sistema nervoso centrale. Nell'animale esistono dei meccanismi costruiti ereditariamente per rispondere ad una combinazione specifica di stimoli in vista del soddisfacimento di un istinto che costituisce il « fine » del comportamento. L'innato (l'istinto) è quindi totalmente separato dall'appreso (il comportamento variabile, plastico, funzionale ad un certo ambiente). Come alcune volte sottolinea lo stesso Lorenz, ma soprattutto come aveva mostrato la genetica evoluzionistica, l'affermazione« determinato geneticamente» 97 www.scribd.com/Baruhk La nuova biologia non comporta l'assoluta indipendenza del carattere fenotipico dall'ambiente. Anche per i tratti di cui è stata dimostrata una larga parte di determinazione genetica non si può prescindere dall'ambiente. Occorre respingere - scrive Dobzhansky - il « vecchio errore secondo cui un carattere o una funzione deve essere o ambientale o genetico mentre in verità di solito è l'uno e l'altro». Fra innato e appreso non esiste quindi una separazione ma neanche una unificazione o una subordinazione di un aspetto rispetto all'artro. Sono due aspetti distinti dello sviluppo dell'individuo strettamente interagenti: nessun tratto comportamentale è completamente innato né completamente appreso. Questo tipo di ~elazione fra istinto e apprendimento diviene evidente in quella particolare forma di apprendimento, chiamato dagli etologi imprinting, cioè « impressività » o « impronta ». Si tratta di un condizionamento istantaneo che si verifica solo in un ben detertninato periodo della vita dell'individuo. Nell'esempio più noto gli anatroccoli che tra le I 3 e le I 5 ore (ttà critica) di vita hanno sentito la voce umana anziché quella dell'anitra, seguiranno sempre un modello di anitra maschio con voce umana anziché la femmina «vera». Si tratta di un apprendimento irreversibile che provoca reazioni rigide ed automatiche, e quindi simili a quelle considerate innate e molto diverse da quelle provocate da altri tipi di apprendimento. Tuttavia l'apprendimento per imprinting è più rigido degli stessi comportamenti innati. Nel comportamento istintivo l'animale preferisce sempre l'oggetto naturale che deve soddisfare un istinto e si adatta ad uno artificiale solo in mancanza del primo mentre dopo l'imprinting l'animale segue sempre l'oggetto dal quale ha ricevuto l'impronta. Delle oche allevate artificialmente si rifiutano di aggregarsi agli altri gruppi familiari ma seguiranno lo stesso allevatore, che considerano loro «mamma» (0. Heinroth e Lorenz). L'imprinting si basa quindi su un particolare miscuglio di elementi innati e appresi e consiglia particolare prudenza nel considerare innati dei comportamenti, quando potrebbero invece essere solo dei condizionamenti velocissimi e irreversibili. Anche qui sembra determinata geneticamente solo la diJponibilità a subire l'imprinting. Come affermano gli evoluzionisti «ciò che i geni deterrÌÌinano non sono gli aspetti bensì il processo stesso» (Dobzhansky). L'apprencÙmento per imprinting è quindi unà··fo;mazione individuale di una canitteristica tipica della specie. La dicotomia fra istinto e apprendimento, affermata spesso rigidamente da Lorenz, ma da lui stesso contraddetta, viene superata nella cosiddetta etologia di lingua inglese, in genere considerata contrapposta alla scuola creata da Lorenz e da Karl von Frisch. Così per Robert H. Hinde questa dicotomia è solo una « astrazione », una classificazione operata dallo sperimentatore ma non corrispondente alla realtà, in quanto tutti i processi sono processi di apprendimento che avvengono in interazione con l'ambiente. Il comportamento implica un www.scribd.com/Baruhk La nuova biologia « nesso complesso di eventi nel tempo », « un intricato mosaico di fattori » e l'analisi sperimentale seleziona arbitrariamente in segmenti del tempo i singoli eventi che si verificano in esso. L'apprendimento durante lo sviluppo ontogenetico non è una continua e ininterrotta interazione fra genotipo e ambiente, ma è discontinua perché si realizza in alcuni periodi (sensitive periods) che si alternano a periodi di« sviluppo prevalentemente interno» (Nikko Tinbergen). Inoltre l'apprendimento avviene selettivamente, mediante i modelli tipici della specie. E molte delle diversità di comportamento fra le specie derivano dalla diversità del programma di apprendimento, determinato geneticamente. Questo criterio esplicativo può rendere conto delle differenze fra specie nella acquisizione dei tratti comportamentali. Ogni specie infatti « non può apprendere n'imporle quoi, n'imporle comment, n'imporle quand [qualunque cosa, in un qualunque modo e in qualsiasi tempo])) (R. Chauvin). L'apprendimento è selettivo e specie-specifico: ogni animale è filogeneticamente adatto ad apprendere alcune cose piuttosto che altre, in determinati periodi e in circostanze ambientali che variano da specie a specie. Questa variabilità nelle risposte comportamentali rafforza ulteriormente la tesi di una determinazione genetica, e quindi «innata)), dell'apprendimento. Ma si tratta di una determinazione non rigida, come in alcuni periodi Lorenz, riprendendo l'atteggiamento meccanicistico di Monod, sembra suggerire, ma flessibile perché si basa sulla interazione fra due meccanismi adattativi entrambi importanti l'« adattamento filogenetico e la modificazione adattativa» (Lorenz), il primo dovuto all'interazione (indiretta) fra specie e ambiente nel corso dell'evoluzione, la seconda dovuta alla interazionè individuo-ambiente che si svolge soprattutto durante l'ontogenesi. La differenza fra istinto e apprendimento, afferma W.H. Thorpe, si riferisce solo al grado di rigidità e plasticità dei diversi tratti comportamentali. Alcuni meccanismi comportamentali saranno « refrattari ad ogni alterazione modificativa per la semplice ragione che effettivamente contengono la programmazione filogenetica dei processi di apprendimento)) (Lorenz). Questo tipo di riflessione interviene direttamente nell'analisi del rapporto genotipo-fenotipo. L'etologia rappresenta un completamento della teoria sintetica dell'evoluzione, non solo perché valorizza il ruolo dei tratti comportamentali del fenotipo rispetto a quelli morfologici e fisiologici, da sempre privilegiati dagli eToluzionisti, ma anche perché ne mette in discussione criticamente .e positivamente uno dei presupposti teorici, di particolare importanza nello studio delle basi biologiche dell'uomo. (Non è un caso che i maggiori evoluzionisti abbiano intensamente partecipato a convegni dedicati al comportamento, apportando e ricevendo notevoli spunti critici.) Gli evoluzionisti, in particolare Julian Huxley ma anche Dobzhansky, tendono a separare l'evoluzione culturale dall'evoluzione biologica considerandole parallele e dotate di velocità 99 www.scribd.com/Baruhk MaschiO Femmina si espone fa ,,da guida verso il nido . f :: t>egue mostra l'ingresso del nidò entra nel nido : ~ stimola con il muso feconda le uova depone le uova Parata nuziale di una coppia di spinarelli. Ricostruzione schematica delle azioni scatenanti del maschie e della femmina. molto diverse. Nel comportamento degli animali superiori i caratteri biologie vengono ridotti a fare da sfondo a quelli comportamentali che li sovrastano li regolano: l'evoluzione culturale si sovrappone a quella biologica. L'etologia rimette in discussione lo stesso concetto di «cultura», consi derato « trascendente » rispetto alla « natura », e la considera come una parft certo la più importante, dei comportamenti appresi e trasmessi non genetica mente ma direttamente tra gli inçlividui della specie, anche a prescindere da contatto specifico col particolare ambiente a cui quel comportamento dev1 adattarsi. Il legame tra natJ.Ira e cultura diviene più stretto; la componente bio logica nell'animale e nell'uomo non viene limitata ai fattori fisiologici ma in terviene nel complesso delle attività dell'organismo in quanto è il complesso d tale attività a determinare il successo evolutivo di una specie. Buona parte de comportamento affettuoso verso i piccoli è anche determinato geneticamente e viceversa, determina il futuro genetico della popolazione (permettendo ai gio vani di giungere all'età della riproduzione, mantenendo cosl o aumentando l: 100 www.scribd.com/Baruhk La nuova biologia frequenza dei loro geni all'interno del pool della popolazione). Questo intreccio lo si può anche ritrovare nel carattere innato dei riti del corteggiamento; in questo caso la determinazione genetica è prevedibile in quanto minimi spostamenti del rituale possono impedire l'accoppiamento e quindi favorire l'isolamento riproduttivo, che può dare origine, come abbiamo visto, a nuove specie. La maggior parte dei comportamenti della specie riguardano la vita sociale; è questa infatti che moltiplica i rapporti fra gli individui che per le specie non sociali si riduce all'accoppiamento o. allo scontro per la difesa del territorio. D'altronde il carattere prevalentemente descrittivo della etologia, che non si cura di una spiegazione causale dei singoli comportamenti, deve limitarsi alle manifestazioni esterne di capacità comportamentali, osservando appunto gli animali nella loro vita sociale. Lo studio del comportamento sociale è un oggetto privilegiato della etologia, perché in questo caso il metodo comparativo fra le diverse specie dà risultati attendibili, essendo l'analogia garantita dalla identità del fine del comportamento sociale (l'accoppiamento per la riproduzione, l'aggressione per la difesa del territorio ecc). Mettendo in rilievo il comportamento sociale negli animali e la sua « determinazione» genetica, l'etologia toglie spazi(f.a due pregiudizi sin troppo dif~ fusi e cioè che un comportamento sociale sia tipico solo dell'uomo e che esso sia totalmente appreso e indipendente dalle sue basi genetiche. I vari tipi di comportamento sociale degli animali (territorialismo, comunicazione, gioco, comportamento sessuale, aggressività ecc.) vengono ricondotti ad alcuni concetti esplicativi fondamentali, dai quali è possibile derivare « causaimente » gli altri. Il più semplice comportamento sociale è quello dell'accoppiamento, in quanto interazione e cooperazione di due individui di sesso opposto per un fine primario: la riproduzione. Alcune specie richiedono ai piccoli un periodo di tempo più o meno lungo prima che questi possano autonomamente provvedere alla propria esistenza. In questo caso la coppia si stabilizza oltre il semplice accoppiamento per prendersi cura dei picc<Jli. È questo un secondo tipo di comportamento sociale. Nel terzo tipo la vita sociale supera le dimensioni della famiglia per costituire un gruppo, che in molte specie è solo una estensione della famiglia e ne conserva i fini, ampliando e rendendo più sensibili i mezzi per soddisfarli. All'interno del gruppo - se è tale e non è solo una somma di individui simili, come in uno sciame di moscerini - si stabilisce una gerarchia ordinata basata su regole di subordinazione che possono essere più o meno precise e rigide. In alcune specie inferiori tale gerarchia è determinata direttamente dallo sviluppo fenotipico a livello morfologico in quanto ad un certo punto dello sviluppo embrionale vi è una differenziazione, i cui meccanismi sono oscuri, fra linee diverse che portano a fenotipi completamente diversi anche ad una osIO l www.scribd.com/Baruhk La nuova biologia servazione superficiale (ad es. individui « soldato » o « operaio » nelle formiche e nelle termiti). Nelle specie superiori invece la gerarchizzazione è comportamentale e si determina sulla base della competizione fra i diversi individui del gruppo, in genere basata sulla forza, ma spesso anche su altri caratteri, come l'aspetto estetico, la taglia fisica, la capacità di eseguire con particolare abilità i « riti » che determinano la posizione gerarchica. Anche questa gerarchizzazione ha un significato evolutivo in quanto l'individuo che è al vertice della gerarchia, oltre ad avere il compito di proteggere l'intero gruppo, si riproduce molto più degli altri. In questo modo i suoi geni, che si sono dimostrati particolarmente «adatti», aumentano di molto la loro frequenza nella popolazione. Ancora una volta nel passaggio evolutivo dal comportamento solitario al comportamento sociale vi è un aumento netto del grado di variabilità nella risposta adattativa della specie. Gli individui solitari hanno comportamenti molto stereotipati, mentre gli animali sociali mostrano una grande flessibilità di comportamento. Ciò è evidente ad esempio nella attività costruttiva degli insetti o degli uccelli studiata da Karl von Frisch e dalla cosiddetta etologia francese. Nella costruzione dei nidi o delle tele le specie non sociali dimostrano una estrema rigidezza. Al contrario le specie sociali (api, termiti) sono capaci di una ampia flessibilità nella scelta del materiale (basata su una capacità di riconoscere le furme adatte) e nella manipolazione del materiale. La forma complessiva del nido è tuttavia specie-specifica ed è possibile riconoscere una specii dalla forma del nido e dal materiale utilizzato per costruirlo. Per raggiungere il risultato (la costruzione del nido) si ha una cooperazione fra gli individui basata non su compiti rigidi innati ma su una coordinazione esterna. Il comportamento di un individuo viene determinato da quello degli altri nel loro complesso. Così nelle termiti, all'inizio della costruzione, ogni individuo inizia a costruire un nido per conto suo; vi sono quindi delle rido ndanze, delle fluttuazioni aleatorie nel comportamento. Quando però un nido ha raggiunto una dimensione critica mano a mano tutti gli individui si assoderanno nella costruzione di questo nido (che costituisce, potremmo dire, un « attrattore» nel senso di Thom). Ciò diminuisce i gradi di variabilità, la ridondanza del sistema. Nella costruzione quindi «non c'è un piano di cui gli operai sarebbero a conoscenza e la mancanza di coordinazione è pressoché perfetta; ma esiste una sorta di "coordinazione esterna", un insieme di reazioni molto semplici il cui effetto va quasi sempre nel senso del compimento dell'opera comune » (Remy Chauvin). Rientra fra i tipi di comportamento sociale, anche se ne è a prima vista l'esatto contrario, l'aggressività, la« pulsione alla lotta», a cui è dedicato uno dei libri più belli e più dibattuti di Lorenz (Das soj!,enannte Base. Zur Naturj!,eschichte der Aggression [Il cosiddetto male. Per una teoria natttrale dell'aggressività, 1963]). Lorenz colloca l'aggressione, insieme col suo opposto, la fuga. tra gli istinti 102 www.scribd.com/Baruhk La nuova biologia « fondamentali » (gli altri sono la nutrizione e la procreazione) « geneticamente determinati » che vengono « scatenati » da appositi stimoli. Per gli etologi di lingua inglese, l'aggressione non è un istinto fondamentale ma solo una manifestazione dell'istinto riproduttivo. Tuttavia anche in questo caso l'aggressività, se non è innata in senso lorenziano, è però « programmata internamente » (Tinbergen) ed è determinata sia da variabili interne che esterne (Hinde). L'aggressione può essere sia interspecifica (e riguarda soprattutto, ma non solo, la predazione e la concorrenza per una stessa fonte alimentare) sia intraspecifica, tra individui della stessa specie che vivono « in società » cioè interagiscono fra loro. L'aggressività permette la distribuzione territoriale degli individui- che oltre ad assicurare ad ogni nucleo familiare una quantità di cibo sufficiente, impedisce il caos nelle relazioni nella famiglia e fra questa e il resto del gruppo - , la selezione dei migliori soggetti riproduttivi, stabilendo o rovesciando l'organizzazione gerarchica del gruppo, la difesa della prole (propria e talvolta anche di quella altrui). Proprio per sottolinearne l'aspetto positivo, in genere gli etologi distinguono fra aggressività, di per sé non distruttiva, e istinto di distruzione, che può essere anche isolato cioè indipendente dalla motivazione dell'aggressione. L'aggressione non è distruttiva, ma costruttiva, essendo volta alla salvaguardia e alla evoluzione della specie; i suoi effetti dannosi sono limitati da «meccanismi frenanti», anch'essi innati e specifici, come la subordinazione gerarchica o i meccanismi di « pacificazione » che possono deviare l'aggressività su oggetti « sostitutivi » o spesso trasformarla in « ritualizzazioni filogenetiche» (Lorenz) in cui l'aggressione è per così dire solo « mimata ». Inoltre gli etologi associano all'istinto aggressivo anche gli istinti di gruppo (l'« amicizia», l'« amore») come manifestazioni in direzione diversa dello stesso tipo di comportamento sociale. Ciò sarebbe dimostrato dal fatto che il primo passo del corteggiamento nuziale consiste proprio in riti di pacificazione fra i due individui. Ogni tipo di interazione sociale comporta meccanismi di comunicazione talvolta molto elaborati. Ogni specie dispone di diverse attività capaci di emettere segnali, la cui flessibilità è molto variabile, sino a raggiungere lo ~tatus di un vero e proprio linguaggio simbolico. La famosa « danza delle api » è una rappresentazione simbolica della strada da seguire per giungere sino al cibo. Sono comunicazioni simboliche anche l~ varie « parate » fatte per il corteggiamento o per ottenere un posto di rilievo all'interno della gerarchia del gruppo. Sia i segnali che la tendenza a reagire a determinati segnali sono specie specifiche in quanto «ogni animale ha l'istinto innato ad eseguire solo i segnali caratteristici della sua specie e a reagire solo ad· essi» (Tinbergen). Un tipo di rappresentazione che possiamo ugualmente definire simbolica la si può ritrovare nelle espressioni facciali negli animali superiori e nell'uomo, già studiate da Darwin, che P. Leyhausen associa a stàti specifici della combinazione fra atteggiamenti di minaccia, di inquietudine, di timore. www.scribd.com/Baruhk ~-- ,.~· ..-F.~...• • (b~ La danza dell'addome, eseguita dall'ape nera, comunica alle altre operaie la posizione della fonte di cibo recentemente scoperta, prendendo come riferimento la posizione del sole. Se la danza è compiuta al di fuori dell'alveare (a), il tratto in linea retta è rivolto direttamente verso la fonte di cibo. Se la danza viene invece compiuta all'interno dell'alveare (b), l'ape si orienta in base alla gravità: la direzione opposta a quella della forza di gravità indica la posizione del sole. L'angolo x è uguale in entrambe le danze. La distanza della fonte di cibo dall'alveare è indicata dalla velocità con la quale viene compiuta la danza. L'esistenza di così complicati meccanismi di comunicazione, anche in specie inferiori, che possono sempre essere collegati al raggiungimento di un fit;~.e preciso in genere non «cosciente» (la riproduzione, l'alimentazione, ma anche fini più immediati come la minaccia, la coordinazione nel lavoro ecc.) ripropone, ad un livello diverso, il tradizionale problema . della finalità nella natura, senza che ad esso, data l'impostazione biologica dell'etologia, si possa sfuggire attribuendo il comportamento dotato di fine alla presenza di una « co104 www.scribd.com/Baruhk La nuova biologia scienza » (che sarebbe in questo caso generalizzata a tutti gli animali) e considerando « meccanico » tutto il resto. È in effetti difficile evitare di parlare di « scopo » esaminando ad esempio la costruzione dei nidi, durante la quale sembra che l'animale confronti continuamente il già costruito e i mezzi da costruzione di cui dispone con una « immagine mentale » del nido stesso. Anche in questo caso potremmo risolvere la falsa dicotomia ripetendo quanto detto a proposito dell'evoluzione: gli «scopi» sono programmati filogeneticamente, sono un frutto della storia delle specie. Il progresso nella evoluzione consiste nella progressiva autonomizzazione dell'individuo, che sviluppa un comportamento, e un sistema nervoso in grado di dirigerlo, per raggiungere tali scopi fondamentali in modo da dipendere sempre meno dalle condizioni ambientali. Lungo la scala evolutiva i comportamenti dotati di fine acquistano sempre maggiore rilevanza. Gli stessi problemi si pongono, ad un più elevato livello di difficoltà, sia intrinseca sia dovuta a posizioni pregiudiziali extrascientifiche, nello studio etologico di quella specie diversa di animale che è l'uomo. I rischi di estrapolare arbitrariamente all'uomo i risultati ottenuti con altre specie sono senz'altro presenti. D'altronde il linguaggio usato dagli etologi è notevolmente antropomorfico ed è quindi abbastanza facile, dopo aver attribuito agli animali comportamenti umani, assumere un atteggiamento zoomorfico nei confronti dell'uomo. La difficoltà maggiore però non sta in questo rischio, che può essere evitato, quanto piuttosto nel fatto che studiando l'uomo viene meno il requisito metodologico fondamentale della etologia e cioè la necessità di studiare l'animale nel suo ambiente naturale oppure in modelli che riproducono tale ambiente. È ora evidente che per l'uomo non si può neanche parlare di ambiente naturale in quanto sin dall'origine la specie umana ha modificato il proprio ambiente ed ora vive nella stragrande maggioranza dei casi in ambienti più o meno artificiali. L'evoluzione culturale ha poi modificato l'insieme delle relazioni interumane, rendendo così difficile separare il comportamento «naturale» da quelli dovuti alla cultura e all'apprendimento. Anche nei casi patologici (sordità o cecità ecc. sin dalla nascita) che impediscono l'apprendimento e quindi dovrebbero permettere di isolare i caratteri realmente innati, la situazione è non sempre chiara. Queste ragioni spiegano il relativo ritardo della etologia umana che si può dire sia solo agli inizi. Alle stesse ragioni si deve far risalire il ruolo straordinario svolto dall'antropologia nello studio del comportamento umano. Questo influsso è d'altronde bidirezionale e la stessa antropologia, per lungo tempo considerata una « scienza umana », sottintendendo con ciò la sua estraneità alla biologia, ha ricominciato a dare la giusta importanza ai fattori biologici nello studio del comportamento e della storia dell'uomo. Anche ammettendo l'unicità dell'uomo, lo studio delle basi biologiche del www.scribd.com/Baruhk La nuova biologia suo comportamento può basarsi sulla etologia comparata in quanto « certi aspetti del comportamento, che sono nascosti nella complessità della realtà umana, possono essere studiati più agevolmente nelle loro forme più semplici» (Binde). L'etologia umana è sostanzialmente un ritrovare l'animale nell'uomo grazie ad una analisi comparata delle sue proprietà comunemente considerate tipiche. Come afferma Irenaus Eibl-Eibesfeldt, riproponendo la vecchia distinzione operata dagli anatomisti ottocenteschi, l'etologia umana si basa non sulla analisi delle omologie, cioè delle somiglianze fenotipiche determinate geneticamente, ma su quella delle analogie funzionali, cioè la somiglianza dei caratteri anche in specie molto lontane filogeneticamente dovuta al fatto che quei caratteri sono stati sottoposti alle stesse pressioni selettive. In parole povere, cerca non o non solo le somiglianze con le scimmie ma le affinità comportamentali con tutte le specie animali. Per caratterizzare la specificità dell'uomo si deve partire, piuttosto che dal suo carattere sociale, dalla cultura, che costituisce lo strumento principale di acquisizione e trasmissione della socialità stessa. All'interno dell'etologia e talvolta, come in Lorenz, all'interno della stessa evoluzione teorica di un autore, vi è una oscillazione fra i due poli opposti di interpretazione del passaggio evolutivo costituito dalla comparsa della cultura umana. Da una parte vi è il culturalismo, diffuso nell'ambito dell'antropologia, che esalta il ruolo della cultura annullando quasi totalmente quello della base biologica. Dall'altra vi è un pericolo di zoomorfismo riduzionistico che annulla ogni differenza fra l'uomo e il resto del mondo animale, attribuendo alla cultura umana solo una variazione quantitativa rispetto alla «cultura animale». Si tratta quindi dell'alternativa fra continuismo e discontinuismo, fra l'affermazione di un «salto brusco » e la sottolineatura di una evoluzione graduale. Questa alternativa ne presuppone anche una metodologica e teorica. Se si accetta infatti l'ipotesi culturalistica l'uomo diviene oggetto esclusivo delle «scienze sociali» o «scienze umane»; nell'ipotesi riduzionistica queste ultime si dimostrano inutili in quanto tutto il comportamento dell'uomo potrebbe essere ridotto ad una descrizione biologica. Una dicotomia dello stesso genere la si può trovare nella interpretazione di quel carattere innato che maggiormente ha fatto discutere: la « pulsione alla lotta», l'aggressività. Se si accetta la tesi che l'aggressività fa parte dell'ambito appreso (culturale) essa può essere annullata, eliminando le condizioni ambientali che la provocano (M. F. A. Montagu), in particolare le frustrazioni, cioè gli impedimenti al raggiungimento di uno scopo. Se al contrario si accetta l'innatezza, l'istintività dell'aggressione (come è in Lorenz e come era anche in Freud), questa non può essere annullata ma solo frenata e dev~ata. Gli etologi tuttavia, ammettendo l'innatezza della aggressività umana, non accettano il pessimismo etico « frutto di semplicismo intellettuale e di negli106 www.scribd.com/Baruhk La nuova biologia genza osservativa » (Lorenz) di certi etologi (come Robert Ardrey) che attribuiscono un ruolo intrinsecamente malvagio e distruttivo all'aggressione. Solo con l'uomo l'aggressione diviene distruttiva perché viene meno« l'equilibrio fra capacità di uccidere ed inibizione istintiva a farlo» (Lorenz) a causa della eliminazione delle relazioni con l'ambiente extraspecifico, della introduzione nell'ambiente umano di fenomeni (sovraffollamento urbano, ritmi lavorativi eccessivi ecc.) che esasperano la pulsione aggressiva e dell'introduzione di strumenti di distruzione a distanza che non permettono lo « scatenamento » di quei meccanismi (sottomissione, paura del sangue, grida di dolore ecc.) che quasi sempre impediscono agli animali di portare l'aggressione al limite estremo. Non v'è dubbio che uno dei grandi meriti della etologia è di aver dimostrato l'inconsistenza ùel culturalismo, anche se ciò le è costato talvolta la ricaduta in uno zoomorfismo non giustificato. L'etologia non solo ha messo in evidenza la base biologica nel comportamento umano che rimane relativamente indipendente anche nella evoluzione culturale ma ha dimostrato che fra l'uomo e il resto del mondo animale vi è una distinzione ma non una separazione. Ognuno dei caratteri che tradizionalmente si considerano tipici dell'uomo si può ritrovare, in forme certo meno sviluppate e non interrelate, anche in specie lontane filogeneticamente. Così ad esempio « la capacit]t di usare degli strumenti è presente nel repertorio di comportamenti dell'animale e viene utilizzata nella alimentazione solo quando la situazione ecologica lo richiede » (W. H. Thorpe). Un altro carattere importante nell'uomo è il gioco, che è stato a lungo considerato fine a se stesso ma che ha invece una importanza biologica, in quanto facilita l'apprendimento e l'acquisizione di abilità manuale. Il gioco .è« il risultato dell'irrequieta curiosità, estensibilmente senza scopo, che si esprime nella spinta a esplorare e scrutare la natura delle cose e a godere di forme, suoni, colori, pensieri e idee » (Dobzhansky). Ma il gioco è diffuso fra tutti i vertebrati, in particolare uccelli e mammiferi, e risponde esattamente allo stesso scopo che ha nell'uomo, pur se con gradi diversi in quanto la sua importanza via via maggiore è certo connessa con il prolungamento dell'età infantile, dovuta al prolungamento del periodo di apprendimento, massimo nell'uomo. Se il tratto tipico dell'uomo è la possibilità di trasmettere cultura attraverso il linguaggio verbale e la « integrazione superindividuale » delle esperienze e delle conoscenze acquisite individualmente, occorre dire che sia l'uno che l'altra sono presenti in molti animali superiori. La trasmissione di cultura, per imitazione, avviene ad esempio negli scimpanzé presso cui i giovani apprendono ad usare i bastoni osservando gli altri e sperimentando direttamente. Ma anche tale capacità d'apprendimento è «programmata filogeneticamente», in quanto i babbuini che osservano gli scimpanzé utilizzare i bastoncini 107 www.scribd.com/Baruhk La nuova biologia per « pescare » le termiti non imparano mai queste tecniche, anche se sono altrettanto ghiotti di termiti. Abbiamo quindi ancora uno stretto intreccio fra innato e appreso, fra ereditato geneticamente e trasmesso culturalmente. Un discorso molto simile si può fare per il linguaggio. Non vi è dubbio che « il linguaggio umano è il prodotto di capacità generali, intellettuali e cognitive esclusivamente umane» (Hinde). La comunicazione non verbale e non simbolica già mette in dubbio la tesi culturalistica della« unicità» del linguaggio umano, ma anche per il linguaggio simbolico sono state avanzate negli ultimi anni delle ipotesi sulla capacità di simbolizzazione negli animali superiori. Delle vestigia di comunicazione simbolica si possono trovare nella danza delle api e fanno riflettere i risultati suggestivi ottenuti da B. R. e R. A. Gardner e D. P. Premack i quali hanno insegnato a degli scimpanzé a comprendere e usare un linguaggio verbale, utilizzando delle rappresentazioni visive delle parole in quanto gli scimpanzé non sono nemmeno fisiologicamente in grado di produrre espressioni vocali differenziate. Questi esperimenti sono stati criticati, anche dagli etologi, perché manca la condizione metodologica di fondo dell'etologia, l'ambiente naturale, e si sostiene che l'acquisizione di quel particolare comportamento può essere dovuta ad una « convergenza adattativa» dell'animale al nuovo ambiente. Tuttavia i risultati ottenuti pongono molto in difficoltà la tesi della separazione dell'uomo dagli animali superiori sulla base del linguaggio verbale. Infine, alcuni etologi, ed in particolare Thorpe, sottolineano la presenza nel mondo animale di comportamenti che possono essere comparati (analogicamente e non omologicamente) a quelli « superiori » dell'uomo: il senso estetico, il senso morale, la coscienza. «Gli uccelli presentano un senso artistico che porta a soddisfazione sia visiva che acustica» (Thorpe). Alcune specie di uccelli sono in grado di scegliere colori fra loro « omogenei » per adornare il rifugio e alcuni esemplari di queste specie, posti di fronte a oggetti di varie forme, sceglieranno i disegni simmetrici e ritmici; altre specie sono in grado di combinare e variare il canto, utilizzando tra l'altro gli stessi intervalli musicali che utilizza l'uomo (e questo ha fatto suggerire, dato che non vi è alcuna ragione anatomica nell'uomo per la preferenza di tali intervalli, che questi siano stati appresi dall'ambiente proprio ascoltando il canto degli uccelli). Del comportamento « etico » abbiamo parlato a lungo; con un eccesso di antropomorfismo, criticato giustamente dagli evoluzionisti, ci si può riferire ad esso in molti casi di comportamento altamente cooperativo all'interno di un gruppo. Per Lorenz e Tinbergen molti comportamenti considerati morali (come le cure parentali) sono solo comportamenti sociali istintivi, simili a quelli degli animali superiori. Anche per la coscienza sono stati fatti tentativi analoghi, caratterizzando 108 www.scribd.com/Baruhk La nuova biologia la coscienza come « percezione interna », come autoconsapevolezza e come idea della unità, della «totalità» (Thorpe) cercando di far vedere come ognuno di questi aspetti sia presente negli animali superiori. La coscienza sarebbe un proc::sso essenziale della regolazione dei sistemi nervosi da un certo grado di eompìessità in poi e se ne conclude che essa « sia una tappa evolutiva necessaria che la selezjone naturale deve superare prima che gli animali complessi possano essere adattabili al loro ambiente [... ] la coscienza è presente solo al di sopra di un certo livello di organizzazione» (Thorpe). È questo, nonostante il suo carattere ancora enunciativo, un risultato importante. Il dibattito sulla coscienza era stato sempre basato sulla scelta fra l'unicità della coscienza dell'uomo o la estensione della coscienza a tutta la natura (panpsichismo). Il nuovo indirizzo lega materialisticamente la comparsa della coscienza al grado di organizzazione della materia e alla sua storia evolutiva. Ci addentriamo così in un terreno che manifesta i limiti, le carenze metodologiche dell'etologia, in quanto trascura l'esame delle basi materiali del comportamento e della coscienza, il sistema nervoso, e privilegia il comportamento sociale a scapito di quello cognitivo (percezione, memoria, attenzione, anticipazione ecc.). Solo integrando i due approcci e legandoli alla sociologia e alla psicologia si potrà giungere ad una comprensione complessiva del comportamento. Concludendo potremmo dire che la più coerente etologia umana, escludendo sia il culturalismo che il riduzionismo zoomorfico, « riconosce la " differenza" fondamentale che intercorre fra l'uomo e gli stessi animali superiori, ma non la converte in una " separazione" » (Giovanni De Crescenza). Il comportamento umano non è riducibile alla società animale ma da questa deriva per via evolutiva. Molti dei caratteri « umani » sono presenti nelle società animali ma solo nell'uomo raggiungono un livello adeguato e soprattutto una presenza contemporanea e una interazione che li portano ad un livello realmente superiore. Non si tratta né di un mutamento solamente quantitativo né di salti bruschi, « assolutamente imprevedibili», ma di un processo di continuitàdiscontinuità che non arbitrariamente possiamo chiamare dialettico. VI . IL CERVELLO ED IL PENSIERO Lo studio dei rapporti fra il comportamento dell'uomo, la sua attività cosciente e intelligente e il substrato materiale di tale attività è al tempo stesso antico e nuovo. Si può dire infatti che esso sia iniziato con il sorgere della riflessione filosofica e a questa sia rimasto sempre strettamente legato, ma che solo recentemente, dalla fine del secolo scorso, abbia acquisito una sua caratteristica posizione all'interno della scienza, anche a costo all'inizio di una separazione dalla filosofia. Lo studio dei processi cerebrali ha sempre mantenuto www.scribd.com/Baruhk La nuova biologia però uno spessore teorico insolito nelle scienze biologiche, dovuto in particolare al legame che si manteneva fra descrizione anatomica e interpretazione fisiologica, funzionale. Nata infatti per esigenze cliniche, la neurobiologia conservava lo scopo tipico dell'esame patologico del cervello, quello di legare malformazioni o deformazioni del sistema nervoso a compo~amenti anormali. Ciò ha facilitato il rafforzamento del legame fra scienze neu~bbiologiche e filosofia che in questi ultimi anni si è trasformato da un confronto fra « primi principi » e risultati sperimentali in una ampia riflessione anche di tipo metodologico e gnoseologico sui fondamenti della conoscenza. Fino alla metà del secolo le ricerche neurobiologiche, nonostante progressi teorici e sperimentali notevoli -si pensi alle ricerche di I. Pavlov e di C. Sherrington - rimanevano schiacciate da due atteggiamenti metodologici che le isolavano. Da una parte il diffuso riduzionismo delle scienze analitiche (fisica, chimica, fisiologia) considerava il passaggio allo studio dei processi cerebrali solo un aumento di complessità rispetto a quello degli altri aspetti dell'organismo ma tanto grande da far ritenere che tentare tale studio fosse quasi una « perdita di tempo». D'altro canto la ricerca psicologica si era trasformata all'inizio del secolo - come abbiamo visto nel capitolo vm del volume ottavo - in scienza del comportamento e non delle sue basi materiali e ereditarie. La base biologica del comportamento veniva considerata come una black box della quale occorreva studiare solo le entrate e le uscite. Il punto di svolta si ha a partire dagli anni trenta e quaranta grazie all'intro-.. duzione di nuovi concetti e di nuove metodologie e tecniche di ricerca. Esamineremo più avanti i mutamenti teorici che ne sono risultati, vediamo adesso brevemente i metodi della ricerca neurobiologica. Vi sono innanzitutto i due metodi analitici, tipicamente riduzionistici: quello biochimico e quello anatomo-fisiologico. Dire biochimica fra i neurobiologi significa oggi essenzialmente dire biologia molecolare. Il metodo biochimico classico aveva sì isolato i componenti chimici delle cellule del sistema nervoso, i neuroni, ma non era stato in grado di andare più in là. Con la biologia molecolare è possibile porsi un obiettivo ambizioso, la « maggiore frontiera della ricerca biologica» (G. Stent), la spiegazione in termini molecolari del funzionamento del sistema che presiede al comportamento teleonomico dell'organismo, cioè il sistema nervoso centrale dell'uomo. Si ricercano in particolare quali potrebbero essere le basi molecolari dell'apprendimento e della memoria. Conformemente al metodo generale della biologia molecolare, si _pensa che delle modiftcazioni conformazionali di determinate macromolecole possano essere il substrato della memoria. Di fatto, i neuroni producono quantità di RNA largamente superiori a quelle medie delle altre cellule somatiche e risultati sperimentali, ottenuti soprattutto da H. Hydén, IlO www.scribd.com/Baruhk La nuova biologia mostrano che dal lato della corteccia che apprende si verifica un aumento significativo dell'RNA per cellula. L'analisi della composizione in basi di queste molecole ne dimostrava la complementarità con il DNA nucleare e se ne poteva concludere che, «nelle fasi precoci di una situazione di apprendimento mai incontrata prima dell'animale, si abbia una stimolazione del genoma» con produzione di RNA il quale a sua volta dirige la sintesi di proteine «insolite e altamente specifiche» la cui «funzione è ignota» (Hydén). In ogni caso nei processi di apprendimento è la intera cellula neurale che viene implicata e non singole modificazioni molecolari. Ci colleghiamo così al secondo metodo analitico, quello anatomo-fisiologico. Già da tempo era stata accettata l'ipotesi, basata anche su prove cliniche e psicologiche,_ dell'esistenza di due tipi di memoria, una a breve e l'altra a lungo termine, con un intervallo di tempo fra di esse (periodo di fissazione). La memoria a breve termine sarebbe associata a fenomeni di natura elettromagnetica provocati da modificazioni temporanee della permeabilità delle sinapsi (le giunzioni fra neurone e neurone). I risultati sperimentali ottenuti collocando in situ dei microelettrodi mostrano che dopo la fissazione dell'apprendimento (da I o secondi a qualche minuto) l'informazione immagazzinata si dimostra insensibile a interferenze elettriche, a modificazioni di temperatura o dell'ambiente chimico. Se ne è quindi concluso che « la memoria a lungo termine sia basata su modificazioni anatomiche o biochimiche di lunga durata» (Hydén). La sintesi fra l'aspetto biochimico e quello elettrico viene suggerita dallo stesso Hydén: la frequenza degli impulsi elettrici potrebbe stimolare in modo specifico determinate parti del genoma, con produzione di RNA in grado di dirigere la sintesi di proteine specifiche. Se confermata, quest'ipotesi costituirebbe un nuovo punto di riferimento nello studio dei meccanismi di riproduzione cromosomica e di regolazione cellulare. L'impegno maggiore degli anatomisti del sistema nervoso si è avuto nella descrizione della fitta rete di fibre, di sinapsi, di ammassi cellulari, di giunzioni fra nervi ed organi periferici. I risultati ottenuti impressionano per la complessità di questo «labirinto elettrico» e la_ ridondanza che sembra caratterizzare tutte le funzioni: una singola cellula piramidale può avere più di ventimila giunzioni sinaptiche; esistono nel cervello una quantità di ammassi cellulari differenziati le cui funzioni solo raramente, e da poco tempo, possono essere individuate; è quasi impossibile individuare singoli « circuiti » a causa delle intercomunicazioni e degli scambi di fibre fra tutte le parti del sistema nervoso. Gli stessi nomi che sono stati dati alle diverse parti del sistema nervoso centrale sono nomi descrittivi e non funzionali (corno, corteccia, tetto ecc.) a indicare le difficoltà di collegare il quadro anatomico a quello fisiologico. L'unità di tale sistema, il suo « atomo », è la cellula neuronica, anch'essa a diffusione universale, nel senso che tutti gli organismi dotati di sistema nervoso, anche elementare, utilizzano il neurone come unità anatomica e funzionale. La III www.scribd.com/Baruhk La nuova biologia cellula neuronica, la più specializzata fra tutte le cellule somatiche, e per questo praticamente insostituibile, non rigenerabile, ha la funzione di trasmettere « informazione » cioè segnali di natura elettrica lungo i suoi assoni. La trasmissione sinaptica è invece un processo chimico, un effetto a soglia (tutto o niente), dovuto alla concentrazione di ioni positivi che alterano il potenziale a riposo della membrana cellulare. Il messaggio nervoso segue quindi una logica binaria (presenza o assenza di segnale). Il totale delle attività cerebrali deve quindi essere una somma certo non aritmetica di tali eventi binari. Il « segreto » del funzionamento del cervello non è nei neuroni, ma nel modo in cui questi sono collegati fra loro, a formare una fitta rete a prima vista senza un ordine particolare. Incontriamo qui un'altra di quelle dicotomie che caratterizzano tanta parte del pensiero biologico moderno. Queste connessioni fra i neuroni sono rigidamente determinate oppure sono sostanzialmente equiprobabili? Nel cervello vi è una specificità o una plasticità? Ad un esame anatomico e fisiologico anche non superficiale tutte le cellule cerebrali dei diversi tipi sembrano identiche fra loro. Si dovrebbe quindi pensare che esse siano equivalenti e disponibili ad essere unite dall'esterno in un modo qualsiasi, assolutamente plastico. Tuttavia, le ricerche embriologiche e quelle sulla rigenerazione dei nery-i dimostrano che non è così. Ogni nervo « sa trovare » la propria precisa collocazione anche se la cellula con cui deve collegarsi è relativamente lontanissima. Se si recide il fitto intreccio di fibre del nervo ottico, che porta i segnali visivi dall'occhio al cervello, fibre che sono mescolate a caso rispetto alla posizione nella retina, e si procurano le condizioni adatte, si riformeranno le stesse connessioni in maniera altamente specifica. Le diverse fibre aumentano di numero e di dimensione ma ricrescono raggiungendo le stesse posizioni dove terminavano originariamente senza errori e sovrapposizioni, ricostituendo la mappa della retina. Da parte di alcuni biologi molecolari è stata avanzata l'ipotesi che tale processo di riconoscimento possa essere dovuto a molecole specifiche, che potrebbero riconoscersi come un enzima riconosce il suo substrato. Rita Levi Montalcini ha in effetti isolato una proteina (NGF, nervo growth factor) che è responsabile dell'aumento di numero e di dimensione delle fibre nervose sensoriali e simpatiche, fornendo così una prova dell'esistenza di specifici composti chimici in grado di stimolare (o sopprimere) la crescita di particolari tipi di tessuto. Tuttavia, ancora una volta, deve essere scartata l'ipotesi di una corrispondenza fra processi morfologici e proprietà chimiche, sia quella banale di una corrispondenza uno a uno fra una fibra nervosa e un composto chimico (accorrerebbero 1010 composti solo per codificare i neuroni della corteccia) sia quella più sottile, ma altrettanto poco flessibile e scarsamente credibile, di un riconoscimento stereochimico. Più utile sembra una descrizione in termini di gradienti chimici o termodinamici, di campi morfogenetici, con una trattazione sostan112 www.scribd.com/Baruhk La nuova biologia zialmente analoga a quella vista a proposito dello sviluppo embrionale. Lo stesso NGF, èhe sembra essere a-specifico, agisce come regolatore della trascrizione genica condizionando la morfogenesi. E anche qui, per tornare al punto di dibattito teorico, come nel caso della morfogenesi, la dicotomia fra specificità e plasticità può venire superata considerando i diversi livelli a cui si svolgono i fenomeni: da una parte la indeterminazione dei processi microscopici, dall'altra la presenza di un campo, di un creodo, che limita tale indeterminazione subordinandola ad un « piano », ad un programma. Incontriamo così una seconda coppia di metodi e di criteri largamente utilizzati in neurobiologia. Il primo è quello evoluzionistico e comparativo che spiega il funzionamento del cervello sulla base della sua storia evolutiva. L'apprendimento, e quindi il sistema che lo rende possibile, è infatti considerato una forma di adattamento e soprattutto di adattabilità, in quanto permette, grazie alla creazione di un sistema separato di registrazione delle attività dell'intero organismo in tutta la sua storia individuale, di evitare ripetizione di movimenti e di comportamenti erronei, tanto più dannosi, sia per l'individuo che per la specie, quando si tratta di organismi di grandi dimensioni, dal metabolismo particolarmente dispendioso e necessariamente limitati nel numero. La direzione dell'evoluzione sembra essere quella di una progres-siva complessiftcazione nella organizzazione e nelle funzioni svolte, collegata ad un incremento della ridondanza del sistema cioè alla presenza di un gran numero di canali che svolgono la stessa funzione. C'è quindi un complessificazione della « geometria » (Y oung) - noi diremmo più precisamente della topologia - del sistema nervoso. L'analisi comparativa dei sistemi nervosi in specie diverse mostra, oltre alla già ricordata universalità del neurone, somiglianze talvolta anche sorprendenti. Ciò dimostra certo una origine comune ma anche una « evoluzione parallela »: i diversi organismi hanno sviluppato strutture simili perché simili sono gli stimoli ambientali ai quali essi devono rispondere. I maggiori risultati dell'applicazione del metodo evoluzionistico si hanno studiando etologicamente le differenze comportamentali collegandole a variazioni strutturali. Le discussioni sul peso relativo dell'« istinto» e dell'« intelligenza » cioè del comportamento innato e appreso, che abbiamo già esaminato, si dimostra infatti importante per chiarire la natura del « salto evolutivo » rappresentato dalla comparsa della mente umana. Il quarto e più importante metodo nello studio del cervello, la cosiddetta ftsiopsicologia sperimentale, si basa proprio sullo studio delle sue variazioni nel comportamento dell'animale dovute a modificazioni del sistema nervoso provocate con impulsi elettrici e con droghe oppure chirurgicamente. Anche se questo metodo non è esente da critiche (come quelle mosse dagli etologi che ritengono le condizioni sperimentali in www.scribd.com/Baruhk La nuova biologia cui viene studiato il comportamento talmente lontane da quelle naturali da rendere molto problematici gli esperimenti), i risultati ottenuti con questo metodo, in particolare dopo il 19~0, sono estremamente importanti dal punto di vista scientifico, ma anche dal più generale punto di vista teorico e culturale. Questi metodi vengono applicati ai due gruppi in cui è possibile schematicamente suddividere il complesso delle attività nervose e che vengono chiamate da John C. Eccles « outer sense » (senso esterno) e « inner sense » (senso interno). Il primo comprende i fenomeni percettivi del mondo esterno (luce, colore, suono ecc.) e i dati sullo stato fisiologico dell'organismo, il secondo è costituito dalle attività psichiche, non direttamente collegate ai dati percettivi, ma provenienti dall'attività autonoma del cervello: il pensiero, la memoria, i sogni, l'immaginazione ecc. Lo studio delle attività percettive mostra come queste costituiscono già un livello altamente integrato di attività psichica. Vecchie analogie come quella dell'occhio paragonato ad un obiettivo che manda al cervello l'immagine rovesciata del reale - che faceva chiedere a molti dove avvenisse il « raddrizzamento» - vengono rapidamente abbandonate. In realtà «l'occhio parla al cervello in un linguaggio già altamente organizzato e interpretato, anziché limitarsi a trasmettere una copia più o meno accurata della distribuzione di luce sui recettori » (J. V. Lettvin). Inoltre il cervello non svolge una azione passiva nei confronti del flusso di informazioni percettive. Esistono infatti numerose vie centrifughe che portano segnali dal cervello agli organi di senso, probabilmente per creare uno stato di «sensibilità» più o meno elevata. L'intero sistema nervoso si mostra quindi come un tutto integrato, che « seleziona » attivamente dall'ambiente ciò di cui l'organismo ha bisogno. Il complesso delle attività percettive è svolto da un insieme di cellule diversificate, ognuna delle quali è in grado di percepire una scelta binaria: l'assenza o la presenza di un determinato segnale per il quale tale cellula è specificà. Sono possibili dunque misure relative e non assolute; è possibile rilevare la presenza di una curvatura, ma non misurarne la dimensione. Nell'occhio di rana sono stati isolati dei recettori di contrasto, di convessità, di margine in movimento,' di oscuramento del campo visivo. Ognuna delle cellule trasduttrici segn~la la presenza di uno stimolo specifico presente nelle sue immediate viciJ;i.anze. Si verifica poi un processo di integrazione che permette di definire la j(Jrma dell'oggetto o meglio quelle caratteristiche dell'oggetto che interessano quel' dato animale. Così uno dei percettori della mosca « risponde in modo massimo quando un oggetto scuro più piccolo di un campo recettivo entra in quel campo, vi si ferma e poi si muove intermittentemente [... ]. Si potrebbe descrivere un sistema migliore per segnalare la comparsa di un moscerino»? (Lettvin). Quindi la percezione è selettiva e specie-specifica, « è un processo di scelta in un repertorio di messaggi possibili, determinati dalla storia precedente (normalII4 www.scribd.com/Baruhk La nuova biologia mente l'eredità) per fornire informazioni importanti per Fanimale » (Young). Esiste quindi nel cervello un « a priori sintetico » (Kenneth Craick), determinato filogeneticamente, una attiva capacità selettiva, via via crescente lungo la scala evolutiva, che permette al sistema di determinare la linea -d'.azione più valida in un certo ambiente. Il ruolo svolto dalla determinazione genetica nell'organizzazione del sistema nervoso sembra quindi molto importante. Ma la forma attuale del cervello non è completamente determinata dai geni; la sua costruzione è epigenetica, deriva dall'interazione fra i geni e l'ambiente. Dei gattini allevati sin dalla nascita in ambienti contenenti solo linee verticali diverranno inc.apaci di rispondere a stimoli orizzontali probabilmente per atrofia dei recettori per le linee e gli spostamenti orizzontali. La capacità di apprendimento deve basarsi sull'esistenza di «vie» alternative e «non è improbabile che l'apprendimento consista -nel bloccare le vie nervose non necessarie » (Y oung). Si avrebbe in questo modo una base reale per la flessibilità del comportamento degli animali dotati di sistema nervoso. Determinata geneticamente sarebbe solo la disponibilità ad apprendere certe categorie di cose, basata sulla presenza di apposite organizzazioni cerebrali, quali cose saranno effettivamente apprese dipenderà dalla costruzione epigenetica dell'organismo maturo. In questa direzione si muovono alcune moderne linee di ricerca che cercano di legare la neurobiologia molecolare allo studio delle attività innate, cioè programmate geneticamente (S. Benzer). Fra i fenomeni percettivi e gli schemi dei circuiti cerebrali si instaura una correlazione. L'insieme degli schemi determinati geneticamente e sviluppatosi in adatte condizioni ambientali costruisce un «modello nel cervello» (Craick) che riproduce le caratteristiche ambientali utili alla sopravvivenza della specie. L'esistenza di un modello nel cervello permette, per così dire, di saggiare l'ambiente nella propria testa. «A questo livello vi è una esplorazione sostitutiva di una rappresentazione sostitutiva dell'ambiente e la " soluzione" è scelta tra le varietà di prove esplorative di pensiero secondo un criterio che sostituisce una disposizione esterna di cose» (D. T. Campbell). Ciò ha fornito un enorme vantaggio evolutivo, svincolando l'individuo dallo sperimentare direttamente e passivamente le diverse soluzioni possibili. Solo una rappresentazione della realtà interna al cervello « ci permette di prevedere eventi che non si sono ancora verificati nel mondo fisico e questo processo ci fa risparmiare tempo, spese e talvolta anche la vita» (Craick). L'animale ha così acquisito per così dire la possibilità di far morire il « modello » al proprio posto. La coscienza, nelle sue forme più elementari, può in effetti essere fatta coincidere con tale modello dell'ambiente esterno e quindi di sé entro questo ambiente. www.scribd.com/Baruhk cuspide l 1 l .perqezione: il predatore ritorna predatore 1 sistema nervoso centrale predazione : la preda divent predatore predatore apparato digerente modello to olo ico della "catastrofe·· predazione L'esistenza di un modello, di una rappresentazione ambientale permette un « allarme anticipatorio », una « specifica immagine di ricerca » (Tinbergen) che rende possibile l'individuazione d'un evento che interessa un individuo non appena questo entra nel suo campo percettivo. Il cervello è in grado di prevedere il risultato futuro di una certa azione, formandosi «una rappresentazione delle situazioni che non sono ancora realizzate e che i bisogni biologici dell'organismo lo spingono a realizzare» (N. A. Berstein). In .un gustoso modello topologico proposto da Thom .un predatore che caccia una preda « diventa la preda » sino a che questa non entra effettivamente nel campo percettivo del predatore, facendolo ritornare tale. Ma questo modello nel cervello come si costruisce? Qual è la sua organizzazione? Come si collegano fra loro gli stati funzionali agli stati strutturali? Incontriamo anche qui una contrapposizione teorica di grande importanza. A . partire da Cartesio, che fu il primo studioso del sistema nervoso nel senso moderno del termine, gli stati del cervello erano stati collegati a precise strutture anatomiche. Nell'Ottocento si era cercato di localizzare ogni funzione in parti speciali del sistema nervoso centrale. Una disposizione per certe attività intelkttive veniva associata con un maggior sviluppo di una determinata parte del cervello («bernoccolo»). La teoria del riflesso, sia quella di Pavlov, che si basava su l).no stretto legame fra funzioni psicologiche e fisiologiche generali, sia quella coinportamentistica, che abbandonando il materialismo pavloviano studiava solo le funzioni, ammetteva l'esistenza di ben individuabili ((archi riflessi » nel sistema nervoso. Era stato a lungo proposto di localizzare singole idee o ricordi in singole II6 www.scribd.com/Baruhk La nuova biologia cellule, ma c10, data la ridondanza e la relativa plasticità del cervello, non era più sostenibile. La forma moderna di questa ipotesi localizzatrice ricerca l'equivalente molecolare dell'apprendimento e della memoria in sequenze specifiche di RNA. A ridare vigore all'ipotesi della localizzazione chimica dell'apprendimento o almeno della memoria sono giunti i famosi e discussi esperimenti di J. McConnell sulle planarie. In questi esperimenti si verifica un trasferimento del condizionamento ad animali non addestrati ai quali vengono dati in pasto animali addestrati. La precarietà delle condizioni sperimentali ed una certa approssimazione nella definizione del « condizionamento », che in animali così semplici è tutt'altro che facile, impongono molta prudenza nell'accettazione di tali risultati. Tuttavia il r'tolo svolto da eventi di modificazione chimica nei processi di apprendimento e di memoria è certo elevato, anche se va inquadrato, come già detto, nel quadro del complesso metabolismo cellulare dei neuroni. Negli anni fra il 1930 e il 1950 si verifica una svolta profonda, che rovescia l'impostazione localizzatrice, soprattutto per opera di Karl Lashley. Questo neurobiologo, partendo da posizioni teoriche largamente influenzate dall'olismo biologico e dalla teoria della Gesta/t in psicologia, sottopone ad una critica metodologica e sperimentale la teoria della localizzazione, mettendo in rilievo al contrario la generale delocalizzazione delle funzioni cerebrali. Lashley andava « alla ricerca dell' engramma » cioè della modificazione che dovrebbe aversi in particolari strutture anatomiche del sistema nervoso dopo un singolo processo di apprendimento. Le maggiori critiche di Lashley si rivolgono soprattutto contro la teoria del riflesso. Ridurre tutta l'attività psicologica a semplici catene ed associazioni di riflessi condizionati è «astratto e fuorviante», conseguenza di un « atomismo » non sorretto né da prove sperimentali né da una valida teoria. Gli archi riflessi « o non esistono o sono diffusi attraverso a tutte le parti della corteccia o li collegano passando per centri più bassi ». Anche nei più originali continuatori sovietici del lavoro iniziato da Pavlov, questa istanza critica è presente e permette il superamento della concezione passiva del cervello, grazie alla considerazione che « il sistema nervoso riflette il mondo esterno creando un modello interno del suo ambiente [... ]. L'idea del riflesso come modo in cui le immagini dell'ambiente sono derivate dal modello del sistema nervoso ci porta a concludere che il riflesso è, per natura, un processo attivo » (E. N. Sokolov). Particolarmente dura è la critica al comportamentismo di B.F. Skinner, secondo il quale la ricerca degli schemi stimolo-risposta-rinforzo porterebbe alla spiegazione completa non solo del còmportamento animale, ma anche di quello umano. Ma tale impostazione « risolve il problema cervello-mente ignorando sia il cervello èhe la mente; il primo è chiuso sicuramente e inviolabilmente nella scatola nera e la seconda è considerata una fantasia inefficace» (Eccles). II7 www.scribd.com/Baruhk La nuova biologia Gli esperimenti di Lashley mostravano che la trasmissione di impulsi lungo vie isolate e ben definite non è essenziale per l'esecuzione di compiti complessi. Il programma di Ramon y Cayol e di Sherrington di comprendere il sistema in termini di percorsi e di unità esattamente definite, trova quindi difficoltà notevoli. Il processo cerebrale a prima vista più facilmente localizzabile, la memoria, viene anch'esso delocalizzato perché« non vi sono indicazioni dell'esistenza di speciali aree per la memoria al di fuori dei campi sensitivi primari [... ]. Le tracce di memoria non vengono impresse e depositate nelle aree associative» (Lashley). L'asportazione chirurgica delle aree motorie non produce perdita della memoria dei movimenti; i disturbi motori sopravvengono solo dopo distruzioni molto estese anche della corteccia associativa. Lashley ne concluse che « ogni ricordo diventa parte di una organizzazione più o meno estesa », il suo richiamo « dipende da una parziale attivazione dell'interno complesso di associazioni [... ]. L'engramma di una nuova associazione è probabilmente una riorganizzazione di un esteso sistema di associazioni che implica le interrelazioni di centi~ia di migliaia o di milioni di neuroni ». · . In questo modo però si tende a considerare il cervello come una « zuppa » di processi chimici o campi elettrici. Sono solo le funzioni a svolgere un ruolo determinante e si viene così a ripresentare a livello scientifico la teoria di Locke del cervello come fabula rasa mano a mano riempit;l, tradizionalmente contrapposta a quella platonica di un semplice sviluppo di potenzialità presenti sin dalla nascita. Ma se solo le funzioni hanno importanza, la ricerca embriologica e anatomica diviene quasi inutile: se tutta la struttura è equipotenziale è inutile andare a ricercare sperimentalmente le specifiche funzioni in diverse strutture. In questo tipo di impostazione antilocalizzazionistica il cervello viene considerato come un sistema funzionale, come una « macchina logica » che può essere descritta adeguatamente con modelli cibernetici. Tali modelli sono talvolta meccanici ricercando «una descrizione esatta dei ·processi biologici» da confrontare con le « definizioni esatte dei fisici e degli ingegneri » (Y oung) riproponendo così una forma diversa di riduzionismo; più spesso e più correttamente sono di carattere logico, come i modelli di Ashby e come alla fine si · rivela lo stesso modello proposto da Y oung. L'utilizzazione del linguaggio e dei metodi cibernetici in neurobiologia è stata compiuta anche dai ricercatori sovietici col vantaggio duplice di dare una base meno schematica alla tradizione pavloviana e di non dimenticare il carattere astratto dei modelli, che occorre sempre ricondurre alla verifica pratica della sua funzionalità. È proprio sulla base della cibernetica che Anohin e Sokolov abbandonano la concezione rigida dell'arco riflesso e dell'associazione stimolo-risposta introducendo nuovi concetti generali (come l'accettore d'azione, la sintesi afferente ecc.) per collegare i dati neurobiologici ai modelli deduttivi. Sembra esistere una corrispondenza biunivoca fra i neuroni del cervello 118 www.scribd.com/Baruhk La nuova biologia e gli elementi. di campi percettivi. Si verrebbe così a costituire una omologia fra la forma percepita e la forma che si instaura nel cervello. Il « modello » non è soltanto uno schema interpreparativo, sembra corrispondere ad una effettiva organizzazione della materia cerebrale, corrispondenza non elemento per elemento, ma topologica, qualitativa. Esistono quindi nel cervello aree differenziali che non sono tuttavia separate. Abbiamo, ancora, una continuità-discontinuità che permette una integrazione senza che si abbia interferenza fra le diverse funzioni. La diffusione dei fenomeni mnemonici è garantita dalle connessioni intracorticali, prima fra tutte il corpo calloso composto da un numero incredibile di fibre che collegano le cortecce dei due emisferi nei quali è diviso il cervello. Per lungo tempo la funzione del corpo calloso fu un vero e proprio enigma. Gli esperimenti di Roger Sperry mediante interruzione chirurgica del corpo calloso (split brain, cervello diviso) mostravano che gli animali operati in questo modo si comportavano in maniera del tutto normale. Tuttavia successive ricerche compiute in speciali condizioni di addestramento mostravano che il corpo calloso possiede precise funzioni integrative ad alto livello, permettendo lo scambio delle esperienze e delle tracce mnemoniche fra i due emisferi. Se si controlla l'afflusso di informazione nel cervello separatamente per i due emisferi si trova "' che « ciascuno di questi ha in tali condizioni una sua propria sfera mentale· tt ' sistema cognitivo, cioè processi percettivi, di apprendimento, di memoria e altri processi mentali propri e indipendenti [... ] è come se gli animali a~essero due cervelli separati » (Sperry). In genere uno dei due emisferi è fortemente dominante e controlla le attività di livello più elevato mentre l'altro emisfero contribuisce ad una funzione generalizzata di base. La vita vegetativa richiede, per permettere l'integrità dello organismo, una ttnità dei centri inferiori, mentre i centri superiori possono agire anche in aperto contrasto (come nel caso dello split brain) o, più spesso, costituire una unità di livello superiore che mantiene la specificità delle relative competenze e della « storia » di ognun(). Si potrebbe dire, utilizzando il linguaggio topologico di Thom, che i due mezzi cervelli costituiscono due attrattori distinti di dimensione diversa. Nel cervello quindi non esiste solo una divisione del lavoro (che tra l'altro è tutt'altro che rigida in quanto le funzioni sono generalizzate o generalizzabili) ma una precisa organizzazione gerarchica, all'interno di ogni emisfero e tra i due emisferi. Cosi i centri inferiori e quelli psico-motori sono subordinati, mantenendo una relativa autonomia, ai centri associativi, che costituiscono un livello di integrazione superiore e che non a caso compaiono solo ad un certo punto della storia evolutiva. Lo sviluppo filogenetico infatti consiste nell'aumento delle strutture del cervello che permettono lo svolgimento della « funzione integrativa ». In anni recenti Sperry ha sviluppato ricerche su soggetti umani che erano www.scribd.com/Baruhk La nuova biologia stati sottoposti alla separazione chirurgica dei due emisferi per ragioni terapeutiche. I risultati sperimentali sembrano dimostrare che solo l'emisfero dominante - che nel 98% dei casi è il sinistro, contenente i codddetti centri del linguaggio- mostra una attività autocosciente, mentre «l'emisfero minore ha lo status di un cervello animale superiore. Esso svolge reazioni intelligenti e primitive, risposte di apprendimento e può svolgere una grande quantità di compiti, specialmente nei campi spaziali e auditivi, ma non dà una esperienza conscia al soggetto» (J. Eccles). Risultati di' questo genere erano evidentemente destinati a suscitare ampi dibattiti filosofici oltre che scientifici. Secondo Eccles, che sègue le posizioni epistemologiche di Karl Popper, i risultati di Sperry « falsificano l'ipotesi di identità psiconeurale » e rafforzano invece la posizione cartesiana di un dualismo irriducibile fra il pensiero e il cervello, fra le mente e il corpo. Su questo problema si confrontano tre posizioni teoriche nettamente distinte. La prima sostiene appunto l'« ipotesi di identità » fra gli eventi psichici e quelli neurali. Si tratta di una posizione chiaramente riduzionistica e anzi meccanicistica. Scopo· della ricerca neurobiolog.ica è in questo caso costruire una biologia della mente- anche se non «una fisica della mente» (V. Somenzi)in quanto « non sembra che esista una ragione plausibile, a parte la complessità di realizzare ciò in pratica piuttosto che in un " esperimento immaginario " che spieghi perché il sistema nervoso non dovrebbe essere completamente specificabile, suscettibile cioè di una descrizione completa, almeno in teoria» (S. Rose). Respingendo « l'illusione dualistica » (Monod) si cerca di ridurre la mente alla struttura del cervello. Tuttavia sorge su questa base una contraddizione epistemologica che non può essere superata e cioè « l'impossibilità della struttura di dare una spiegazione di se stessa » (Stent). Questo diventa un limite della conoscenza della natura, una « frontiera assoluta » in quanto « nessun sistema logico può descrivere integralmente la proptia struttura» e quindi gli sforzi della biologia « per capire il funzionamento del cervello umano sono destinati al fallimento » (Monod). Per superare questa contraddizione euristicamente dannosa, si è ripresa la tesi del parallelismo fra gli eventi psichici e quelli neurali, come avevano già sostenuto filosoficamente Spinoza; Malebranche e Leibniz. Secondo questa ipotesi gli eventi psicologici scorrono paralleli con quelli neurali con una corrispondenza uno a uno con essi, senza però nessun tipo di interazione. Il « libero arbitrio», cioè la possibilità di intervenire consciamente su un'azione nervosa, è considerato solo una pietosa illusione. Una variante dell'ipotesi parallelistica sostiene che la differenziazione fra eventi psichici ed eventi neurali deriva dalla utilizzazione di due diversi linguaggi, uno biologico e uno psicologico, tra loro intraducibili, per parlare della stessa cosa vista. da due punti di vista diversi, quando si guarda agli eventi neurali 120 www.scribd.com/Baruhk La nuova biologia come osservatore esterno, e quando si riflette sulla propna esperienza conscia. Questa posizione viene però rifiutata non solo perché è falsificata« dalla scoperta che dopo la commissurotomia nessuno degli eventi che avvengono nell'emisfero minore è riconosciuto dal soggetto conscio » ma anche e· soprattutto perché se i linguaggi « non sono traducibili tra loro, allora devono riferirsi a differenti specie di fatti. È la relazione fra questi ultimi a costituire il nostro problema che può pertanto venire formulato solo mediante la costruzione di un unico linguaggio in cui possiamo parlare di entrambe le specie di fatti » (Popper). Su questo monismo teorico, che però conserva la specificità dei fatti descritti, si basa la terza posizione, che riprende le posizioni di Cartesio, una forma di « interazionismo psicofisico >> secondo il quale gli stati mentali possono agire causa/mente sugli stati fisici del cervello. Accanto all'inner seme e all'outer sense occorre quindi considerare il« puro io» (pure ego) che «trascende l'esperienza immediata e dà ad ognuno di noi il senso della continuità e identità durante la vita» (Ecclef). In generale il pattern spazio-temporale delle attività cerebrali sarà determinato non solo (I) dalla microstruttura della rete neurale e dalle sue proprietà funzionali e (z) dalle modificazioni indotte dall'input afferente che costituisce la memoria a breve termine, ma anche (3) dal postulato, «campo dell'influenza mentale» cioè dell'azione esercitata dalla mente sui pro~essi fisiologici cerebrali. Gli esperimenti di Sperry avevano portato questo autore a concludere che «i fenomeni consci dell'esperienza soggettiva interagiscono sui processi cerebrali esercitando un'attiva influenza causale. Da questo punto di vista viene attribuito alla coscienza un ruolo direttivo nella determinazione degli schemi di Russo della eccitazione cerebrale ». In effetti, nota Popper, non vi è alcun motivo (se non sulla base di un erroneo determinismo fisico) perché gli stati mentali e quelli fisici non possano interagire. Il vecchio argomento secondo cui lo impedirebbe la radicale differenza fra gli oggetti in questione, si basava su una teoria della causalità da tempo abbandonata. La mente si comporta come un campo morfogenetico, un creodo che canalizza i processi nervosi. Il fatto che tale regolazione mentale avvenga solo quando vi è un alto livello di attività neurale rafforza tale analogia. Si è infatti in presenza di condizioni strutturalmente instabili che permettono l'amplificazione di eventi microscopici e che quindi hanno una elevata flessibilità rispetto ai constraints imposti «dall'esterno». Si ripresenta di nuovo il problema dell'origine di tali constraints, che non possono essere idealisticamente presupposti a priori, e la risposta è ancora che la comparsa della mente è un nuovo passo evolutivo. La necessità evolutiva richiede che ci sia una separazione (non ::tssoluta) fra una entità che controlla e un'altra che è controllata, grazie alla emergenza di proprietà nuove, lo sviluppo 121 www.scribd.com/Baruhk La nuova biologia della coscienza, appunto, qualcosa di diverso dall'azione del cervello, un livello gerarchico superiore che tuttavia deriva dalle proprietà e dalle interazioni dei livelli inferiori. È quindi la storia evolutiva che permette di spiegare perché « la sensibilità è connessa, in una forma chiaramente espressa unicamente alle forme superiori della materia[ ... ] soltanto a determinati processi che si svolgono nella materia organizzata in un determinato modo » (Lenin). Le forme superiori della coscienza, che compaiono nell'evoluzione solo con l'uomo, e cioè la « coscienza di sé », si basano sulla coscienza della continuità del proprio corpo, sulla coscienza della « connessione tra la propria memoria conscia e il singolo, unico corpo che è il proprio» (Popper). Anche gli ani~ali hanno coscienza del tempo, specie durante le-attività « anticipative » e fenomeni di memoria possono essere attribuiti anche a ~orpi inorganici come una molla o una magnete. Ma nell'uomo tale memoria ha. un alto contenuto teorico. È una ipotesi teorica che, durante il periodo di sonno, quando viene meno la continuità della coscienza, noi - il nostro corpo - rimaniamo essenzialmente gli stessi; è sulla base di questa ipotesi che possiamo consciamente richiamare gli eventi passati. Gli studi di Jean Piaget di psicologia evolutiva nel bambino rafforzano questa tesi, in quanto il bambino acquista coscienza del proprio io solo ad un certo grado di sviluppo e impara ad usare la parola « io » quando acquista la coscienza della continuità del pròprio corpo. Solo l'uomo ha la coscienza di avere una storia come individuo e come specie e quindi anche di avere un futuro. Di qui la coscienza della morte, all'origine di quella angoscia esistenziale così intrinsecamente legata alla natura umana. Anehe gli animali sono consci della , morte ma non hanno la capacità di prevedere la propria morte. Solo l'uomo acquista la consapevolezza di dover madre. È significativo che la loca~izzazione delle più alte attività coscienti dell'uomo le associ alle aree linguistiche che sono anche strutturalmente e funzionalmente isolabili solo nell'emisfero dominante. Il pensiero e la parola si sono probabilmente evoluti non solo parallelamente ma in maniera collegata. Solo il.passaggio dalle primitive forme di grida espressive al linguaggio non. verhale, . ~to sulla rappresenta.zione sensoriale della realtà esterna, al lingua,ggio ·desctiltriyo e poi a quello argomentativo, teorico, ha potuto permettere la comparsa evolutiva della mente umana, come coscienza teorica della propria continpità. La coscienza infatti utilizza sostanzialmente una descrizione linguist~ça,_;.· per: descrivere la nostra attività cerebrale usiamo un linguaggio personalizz4to. basato sugli stessi termini usati per descrivere il comportamento degli altri individui postulando la presenza di un individuo, «l'io», all'interno dell'organismo. Tale linguaggio fa essenzialmente ricorso per rapprésentare eventi interiori al linguaggio usato per descrivere la realtà sociale. Questo eq per molti aspetti prevedibile in quanto lo stesso linguaggio è un fenomeno essenzialmente -sociale. 12.2. www.scribd.com/Baruhk La nuova biologia Ciò mette fuori causa, da un punto di vista scientifico, _l'obiezione del solipsisi'ho, i dubbi sull'esistenza delle altre menti. Se parliamo con gli altri, ragionando, assumiamo l'esistenza di analoghi stati mentali in essi. In conclusione cons~vando una organizzazione gerarç!lica e la specificità, la relativa autonomia di ogni livello di organizzazione, che compç>rta la «rinuncia ad una descrizione fisicalista ?> (Popper) del linguaggio e _delle attività superiori dell'uomo, la riq~rca neurobiologica e la riflessione tçorica a cui essa dà origine superano l'impostazione idealistica e delineano un quadro unificato ma al tempo stesso differenziatò: La comprensione del pensiero resta una « frontiera», che ha perso però ogni carattere di assolutezza. VII· IL DIBATTITO METODOLOGICO Giunti al termine dell'analisi dei maggiori sviluppi delle ricerche biologiche, sarà bene esaminare i problemi metodologici e filosofici che tali sviluppi hanno sollevato. Questo ci permetterà di unificare i diversi aspetti toccati e di collocarli, per quanto possibile, in un quadro unitario del pensiero scientifico in campo biologico. La riflessione filosofica sulla biologia non ha (o non ha ancora) raggiunto il livello a cui si era svolta nella prima metà del secolo quella sui fondamenti della fisica. Le ragioni di ciò sono molteplici e vanno dal relativamente scarso spessore teorico della maggior parte della biologia, alla sua insufficiente unificazione assiomatica sino, forse, anche ad un riflesso di quell'« imperialismo» della fisica che, come dice Simpson, continua ·ad essere considerata la « filosofia naturale », tesi questa avvalorata « da quella semiverità che è il riduzionismo per cui di tutti i fenomeni si può in ultima analisi dare ragione in termini strettamente fisici ». La rivoluzione della fisica contemporanea, continua, « era tale solo per coloro che si erano ostinati a pretendere che tutto in definitiva dovesse essere spiegato nei termini della fisica classica » dimenticafldo che parecchio tempo prima della « rivoluzione » gli studiosi dei fenomeni della vita con la teoria cellulare, la teoria dell'evoluzione e quella fisiologica dell'ambiente interno avevano già messo fortemente in dubbio tale impostazione. Questo tipo di affermazioni, al di là della loro validità specifica, è indicativo di un atteggiamento costante fra i biologi più impegnati sul piano teorico, teso a non limitare la riflessione sui fondamenti della biologia solo all'esame della riducibilità o meno di questi ·agli assiomi della fisica, ma rivendicandone l'autonomia, sottolineando la necessità del pensiero biologico di svilupparsi su proprie particolari problematiche. La biologia non si presenta come una scienza unificata né tanto meno può essere considerata solo una parte della fisica. In essa coesistono diversi livelli di analisi, diversi concetti e criteri esplicativi, particolari metodologie ed anche www.scribd.com/Baruhk La nuova biologia specifici linguaggi. Grosso modo si potrebbe dividere la biologia moderna in due grossi campi che si richiamano a diversi tipi di spiegazione scientifica. Il primo, che Ernst Mayr chiama biologia funzionale, «si occupa delle operazioni e delle interazioni degli elementi strutturali, dalle molecole sino agli organi e agli interi individui ». Si tratta di un approccio sostanzialment~ analitico e sperimentale, che isola determinati eventi e strutture per chiarirne il « funzionamento » in termini attuali. Per usare la terminologia strutturalistica si tratterebbe di una scienza del sincronico, che utilizza come modello esplicativo quello della chimica e della fisica. Un biologo «funzionalista» si chiede «cosa» produce un certo evento e « come » lo produce. La seconda spiegazione si pone altri tipi di domande, pur non trascurando le precede_nti; in particolare si chiede «a quale scopo» serve una certa struttura, una determinata funzione, « perché » l'organismo svolge proprio quella funzione e non un'altra, rispondendo a queste domande in termini essenzialmente storici, evoluzionistici. Le cause delle caratteristiche attuali vanno ricercate nel fatto che'« ogni organismo, sia èsso un individuo o una specie, è il prodotto di una lunga storia» (Mayr). Si tratterebbe quindi di una tipica scienza del diacronico. Il semplicismo di questo secondo tipo di spiegazione è solo apparente ed anzi ad una analisi appena approfondita risulta molto più semplicistica la spiegazione funzionale. Qualunque descrizione del vivente in termini attuali presuppone infatti un « fine », ogni funzione presuppone uno scopo per cui avviene. Anche eliminando via via gli scopi particolari, interpretandoli sulla base dj semplici interazioni fisiche e chimiche, resta il fatto che le cellule utilizzano le leggi della fisica, afferma il riduzionista Monod, « per attuare il progetto con la massima efficacia, per realizzare il "sogno" (F. Jacob) di ogni cellula: quello di diventare due cellule ». L'organismo trascende « effettivamente pur non trasgredendovi le leggi della fisica, per essere solo promozione e realizzazione del proprio progetto» (corsivi nostri). Notiamo per inciso come in queste posizioni si abbia una curiosa riproposta delle posizioni aristoteliche sui rapporti fra fine e necessità, fra causa finale e causa materiale. La cellula è dotata di un fine, il suo « sogno », riprodurre se stessa in modo in variante; le cause materiali producono dei disturbi casuali che solo per puro accidente possono dare origine a variazioni nel progetto teleologico. Le critiche al tradizionale uso del termine « scopo » erano certamente giustificate e la proposta di sostituire il termine teleonomico a quello teleologico era dovuta appunto all'esigenza di eliminare dalla spiegazione scientifica ogni causa immateriale, trascendente, ogni «disegno» imposto dall'esterno alla natura, al quale l'evoluzione e i singoli organismi dovevano necessariamente tendere, grazie alla presenza di un élan vita! simile, nota causticamente J. Huxley, ad , un presunto élan !ucomotij, « quella forza che spinge un treno a viaggiare senza deviazioni da una stazione ad un'altra che rappresenta la sua meta». Il termine 12.4 www.scribd.com/Baruhk La nuova biologia teleonomico, introdotto da G. S. Pittendrich, viene usato in biologia per descrivere « il comportamento apparentemente diretto ad uno scopo degli orgànismi e delle loro caratteristiche» (]. Huxley) facendolo risalire al fatto che tali sistemi operano sulla base di un « programma », di un « piano ». La teleonomia, che ha una base analizzabile chimico-fisica, si distingue così dalla teleologia, che le vecchie concezioni ortogenetiche considerano caratteristica del processo adattativo dell'evoluzione. L'idea di un té!oJ, inteso appunto nel senso di conformità ad un programma da parte degli organismi viventi, è resa estremamente forte dagli sviluppi dell'etologia e della neurobiologia. L'innatezza degli schemi comportamentali, delle reti nervose del cervello si pone rispetto alla vita dell'individuo come un a priori che delimita chiaramente il « fine » delle funzioni vitali (la sopravvivenza di quel particolare individuo) e dell'individuo stesso (la ;;;pravvivenza e l'evoluzione della specie). Anche per la fisiologia l'uso potremmo dire sfrenato da parte di Claude Bernard di una terminologia chiaramente teleologica (consigne, idée directrice, pian vita!, preordonnance, dessein vita/ ecc.) per poter descrivere il comportamento fisiologico degli individui teso a mantenere !;ambiente interno indispensabile alla vita, viene ripreso anche dalla moderna biologia che Vl aggiunge un maggior senso fisico, una solida base esplicativa. «Non è possibile,» scrive Jacob, «fare della biologia senza riferirsi continuamente al" progetto" dell'organismo vivente, al "senso" che l'esistenza stessa dell'organismo con'ferisce alle funzioni e alle strutture che_ lo caratterizzano [... ]. Non si può dissociare la struttura dal suo significato )) e (( questo a.tteggiamento differisce profondamente dal riduzionismo. » A questo punto la temibile domanda « a che scopo? » non solo è utile per riassumere in poche parole complesse catene causali, ma ha una sua validità autonoma, una sua legittimità che si pone come nucleo generatore di un tipo diverso di spiegazione scientifica. Per Simpson « in biologia si deve aggiungere un altro tipo di spiegazione a quella riduzionista [... ] che possiamo chiamare composizionista in contrapposto con quella riduzionista ». In altre parole diviene scientificamente significativo dire, per esempio, che il leone è pienamente adattato ad essere predatore perché questo assicura la vita al leone, la continuità della sua specie e l'economia del sistema ecologico di cui è parte. Di questa spiegazione composizionista esistono due varianti che in tempi diversi sono state assunte come prioritarie. La prima è quella organicista o ùitegrista che considera elemento primario della spiegazione scientifica l'esistenza e la continuità nel tempo dell'organizzazione dei sistemi viventi. La seconda è invece quella storica, che riconosce l'importanza dell'organizzazione biologica e la diversità di questa organizzazione da quella dei sistemi fisici, ma la riduce ad essere una conseguenza di una lunga storia evolutiva che ha differenziato sistemi prima simili e rispondenti alle stesse leggi fondamentali. 12.5 www.scribd.com/Baruhk La nuova biologia La vecchia tradizione o listi ca assegnava alla. orgànizzazi~ne di per sé il ruolo di supporto del comportamento teleonomico, ma in questo modo l' organizzazione diveniva un criterio esplicativo e non una cosa da spiegare, rovesciando i termini del discorso. È questo «rovesciamento» che ha reso l'approccio olistico estremamente vulnerabile agli attacchi scientifici e filosofici. In particolare la tesi fondamentale dell'olismo secondo la quale il tutto è più della somma delle parti è banale e vaga perché « persino tre mele in un piatto sono più di una " semplice somma" » (Popper) in quanto è possibile individuare alcune relazioni tra di esse (di peso, forma, posizione ecc.) che non possono essere dedotte dall'osservazione delle singole mele. Quindi « una proposizione come " gli organismi sono degli interi" si riduce alla banale affermazione che in un organismo si può discernere un certo ordine» (Popper).l È evidente che la banalità di cui parla Popper è tale solo se si comprende il valore della svolta metodologica prodotta dalla moderna riflessione filosofica nella scienza, un passo questo decisivo e tipico della scienza del Novecento ma non molto diffuso in biologia. I vecchi olisti ricercavano infatti delle relazioni effettive, nel reale, supponendo che la scienza non fosse che un « rispecchiamento » del reale, che bastasse cioè « scoprire » tali relazioni. Ma una spiegazione scientifica è sempre una descrizione del reale e le relazioni possono essere individuate non solo effettivamente ma anche nell'ambito di tale descrizione. Fra le tre mele dell'esempio precedente non si instaura nessuna relazione effettiva (se non eventualmente quella di contatto) ma tali relazioni si instaurano nella descrizione scientifica che diamo di tale sistema. L'altro concetto olistico fondamentale, la necessità di studiare solo il tutto rifiutando l'analisi, è, alla luce di quanto detto ora, autocontraddittorio. Costruire una teoria scientifica significa sempre selezionare dei fatti o delle relazioni ed è facile in ogni caso trovare degli aspetti del reale necessari al « tutto» che sono stati trascurati. Portare all'estremo questa posizione significherebbe in sostanza rinunciare alla possibilità di una spiegazione scientifica del mondo. Con lo stesso ragionamento, rovesciato, possiamo eliminare le obiezioni al metodo analitico dovute ai famoso principio tanatologico, sostenuto anche da Niels Bohr, secondo il quale distruggendo l'organismo ne rendiamo impossibile lo studio. In realtà ogni tipo di osservazione, anche se fatta sull'organismo intero, comporta sempre il trascurare alcuni elementi (ad esempio quelli ambientali, altrettanto importanti per l'organismo di quelli interni) e presuppone un intervento attivo sul sistema in esame. L'affermazione della non esplicabilità della vita si basa sull'assunto che l'analisi sia l'unico metodo scientificamente r La prima critica metodologica e teorica ai concetti olistici, molto simile a quella svolta da Popper e Nagel, fu fatta da M. Schlick già al loro primo apparire nell'articolo Ueber den Begriff der Ganzheit (Sul concetto di totalità), pubblicato nel I934· 12.6 www.scribd.com/Baruhk La nuova biologia valido, e c10 non è vero specialmente in biologia, dove trovano ampio e giustificato uso le spiegazioni teleonomiche e soprattutto quelle storiche. In ogni caso, l'analisi biologica mostra che tutte le funzioni della cellula, di un organismo sono tra loro coordinate e causalmente subordinate alla organizzazione nel suo complesso. Tuttavia « il mero fatto che le parti di un sistema risultino causalmente correlate non esdude. comunque una possibilità di analisi additiva del problema» (Nagely. Il riconoscimento del carattere «totale» di un sistema non implica la rinuncia ad una descrizione analitica dello stesso fenomeno: la causalità e la teleonomia non si escludono a vicenda. Riconoscere, come scriveva Comte all'inizio del secolo scorso e come pensano tuttora molti biologi, che « un qualsiasi organismo costituisce per sua natura un tutto necessariamente indivisibile che scomponiamo, con un semplice artificio intellettuale, al fine di meglio conoscerlo e avendo sempre di mira una ulteriore ricomposizione », non è ancora sufficiente; occorre legare i due livelli dando una spiegazione fisica e causale della stessa formazione del piano, del programma. Nel corso dei paragrafi precedenti abbiamo visto che proprio in questa direzione si muovono gli sforzi per la costr';lzione di una teoria della biologia e in particolare dell'evoluzione biologica. È solo in questo modo che l'affermazione di Nagel, secondo la quale la spiegazione teleonomica può essere ·sempre ricondotta a quella causale, trova il suo vero significato. La formazione dei « programmi » risulta essere il frutto della storia evolutiva del mondo organico. Delle tre spiegazioni di cui parlavamo, quella riduzionista, quella integrista e quella storica o evoluzionista, solo la prima e l'ultima hanno una validità autonoma; la spiegazione integrista può essere ricondotta come detto alla spiegazione storica. Le due logiche di cui parla Jacob, «la logica dell'organizzazione e la logica della evoluzione» sono in realtà unificabili perché la prima è subordinata alla seconda. È la dimensione storico-evolutiva che caratterizza pienamente il mondo organico: ogni spiegazione biologica implica in definitiva sempre un fattore storico-evolutivo irriducibile. « Ogni cellula, raccogliendo la registrazione di un bilione di anni di evoluzione, rappresenta un evento più storico che fisico» (Delbriick). La storia è quindi tipica della vita (si ricordi l'analisi di Prigogine a questo proposito), nei fenomeni biologici si ha una differente natura del tempo. Certamente anche i corpi inorganici hanno una « storia » nel senso che recano traccia di eventi accaduti o recenti (come nel caso dei corpi magnetizzaii) o anche lontani nel tempo (come nei fenomeni corrosivi), ma si tratta solo di una sovrap·· posizione di eventi che il sistema subisce e che non entrano fra loro in relazione. La vera storia, l'evoluzione, inizia con la capacità del sistema di svolgere un ruolo attivo, di selezione autonoma rispetto agli eventi esterni, un processo quindi di individualizzazione, connesso con l'acquisizione della capacità di saper registrare al proprio interno le selezioni operate. 127 www.scribd.com/Baruhk La nuova biologia Il «paradosso della teleonomia » (Monod), la contraddizione epistemologica fra teleonomia e rifiuto delle cause finali immanenti, potrà essere risolta nel quadro di una teoria generale, necessariamente evoluzionistica, che le spieghi, materialisticamente ma non meccanicisticamente, come un portato storico. Ora, il problema che si pone è il seguente: se le strutture biologiche sono es~enzialmente storiche, mentre non lo sono, non nello stesso senso, i fenomeni chimico-fisici per mezzo dei quali tali strutture operano e si mantengono, è possibile trovare delle leggi scientifiche valide per i processi storici oppure si deve rinunciare alla individuazione di leggi storiche per spiegare il carattere prioritario del mondo biologico e cioè la determinazione storica della sua organizzazione? Simpson non ha dubbi: « la ricerca di leggi storiche è sbagliata nel principio » in quanto « le leggi sono intrinseche, cioè a dire immanenti, nella natura delle cose e astraggono completamente dalle strutture contingenti, benché agiscano sempre su tali strutture [... ] . Quindi se le leggi escludono i fattori implicati in eventi concreti in modo inscindibile e significativo, esse non possono appartenere alla scienza storica ». Ma è proprio quest'ultimo « se » che rivela una concezione di « legge scientifica » sostanzialmente ottocentesca, deterministica e immanentistica, una ricerca di leggi semplici e assolute che potessero permettere conclusioni inequivocabili, « certe ». Ma queEta ricerca dell'assoluto era stata già salutarmente frustrata dalla crisi del meccanicismo fisico ottocentesco e dalla riflessione filoso~ca che ha accompagnato la nascita 'della fisica contemporanea. Le leggi che la scienza ricerca non sono né «assolute» né «deterministiche» (non nel senso laplaciano del termine), ma si continua a pensare che sia possibile dare una spiegazione «semplice» della natura o, meglio, di costruire una lineare immagine fisica della realtà obiettiva. D'altroPde, come scrive lo stesso Simpson, «la scienza storica può essere definita come la determinazione di sequenze strutturali, la loro spiegazione e la prova di tali sequenze e spiegazioni » dato che « la storia può essere definita come una trasformazione strutturale nel tempo, una sequenza di eventi reali, individuali, ma in relazione fra loro ». Ma è proprio la ricerca di tali relazioni che costituisce il compito della ricerca scientifica e tali relazioni sono le leggi dei processi storici. Abbiamo già analizzato, nel paragrafo dedicato all'evoluzionismo, il dibattito fra determinismo (nel senso di ricerca di leggi assolute) e indeterminismo (inteso come attribuzione al caso assoluto del manifest~rsi dei fenomeni biologici). Qui occorrerà solo ricordare come la riflessione teorica e filosofica moderna «riconosce l'esistenza di una legalità anche nel caso» in quanto « l)na legge statistica è innanzitutto una legge, cioè uno strumento di previsione scientifica » (Sandra Petruccioli). Si può quindi, anche in presenza di parametri storici e 128 www.scribd.com/Baruhk La nuova biologia statistici(nei quali svolgono un ruolo decisivo gli individui), parlare di determinismo. Tale determinismo è tuttavia non rigido, non assoluto, mantiene dei caratteri indeterministici, che possono essere individuati in molti fenomeni biologici. Vi è innanzitutto la casu~lità di un evento rispetto al significato evolutivo di tale evento (le mutazioni, la deriva genetica, la segregazione sessuale ecc.). Un altro elemento di indeterminazione è la «unicità di tutti gli enti agli alti livelli di integrazione biologica » nella quale risiede « la maggiore differenza fra la biologia e le scienze fisiche [...] . L'unicità è particolarmente caratteristica della biologia evoluzionistica. È quasi impossibile avere per .i fenomeni unici leggi generali come quelle che esistono nella meccanica classica» (Mayr). Come scriveva auto biograficamente Max Delbriick, «un fisico maturo, confrontandosi per la prima volta con i problemi della biologia, rimane sconvolto dalla circostanza che non ci sono "fenomeni assoluti" in biologia. Ogni cosa è limitata nel tempo e nello spazio ». A questo termine « unicità » vengono però dati due significati diversi, come d'altronde si nota con una lettura più approfondita delle frasi sopra riportate. Il primo consiste nella affermazione della non ripetibilità dei fenomeni biologici, ma questo non è un fenomeno tipico della biologia. Molti fenomeni naturali sono infatti unici, cioè non ripetibili, ad esempio il big bang che secondo la teoria cosmologica omonima avrebbe dato origine all'universo, e possono produrre forme uniche, come nei fenomeni corrosivi o di costruzione delle forme delle rocce calcaree per i quali si può a ragione parlare di processi di morfogenesi. A questo significato di unicità si deve preferire, come suggerisce giustamente Giuseppe Montalenti, il termine di individuo e individualità. È difatti l'individualizzazione, la separazione fra selj e not-selj, che costituisce il passo decisivo dell'evoluzione prebiotica, la vera origine della vita. L'unicità degli individui e la variabilità che vi è connessa sono inoltre il presupposto dell'evoluzione per selezione naturale. Di nuovo incontriamo una differenza profonda fra i due tipi di spiegazione: mentre la spiegazione funzionalistica ricerca la identità fra fenomeni diversi, per scoprire, come diceva Schlick, « l'identico nel diverso », la spiegazione storico-evolutiva si basa proprio sulle differenze fra i sistemi e fra i fenomeni. Da questa impostazione è tra l'altro derivato l'abbandono da parte della teoria dell'evoluzione a cominciare da Darwin dell'idea di tipo platonico nel concetto di specie. Un'altra ragione per rifiutare in biologia il determinismo assoluto è la estrema complessità del vivente, la sua « illimitata complessità strutturale e dinamica» (W. Elsasser). L'equipotenzialità del comportamento omeostatico dell' organismo, la grande varietà di vie metaboliche potenzialmente utilizzabili, la variabilità delle forme, la grande varietà delle relazioni interindividuali nei gruppi ecc. rendono difficile l'opera di selezione di parametri costanti e ripetibili www.scribd.com/Baruhk La nuova biologia negli esseri viventi, introducono altri elementi non eliminabili di indeterminazione. (Alle stesse conclusioni era d'altronde giunta la riflessione in cibernetica sui sistemi autoregolantisi complessi.) Infine, l'ultima ragione per l'indeterminazione è la comparsa di nuove qualità ai più alti livelli di integrazione, che ripropone una vexata quaestio: l'emergenza delle novità evolutive. Non può essere negato che nel vivente esistono attualmente differenti livelli di organizzazione e che durante l'evoluzione si sia avuto un aumento graduale del livello di integrazione fra i diversi livelli. Ma come si sono verificati i « passaggi »? Erano prevedi bili sulla base dei parametri preesistenti oppure erano delle novità assolutamente imprevedibili? Siamo in sostanza di fronte ad una nuova dicotomia, ad una contraddizione simile a quella fra determinismo e indeterminismo. Si passa da affermazioni sulla assoluta imprevedibilità dei salti evolutivi per cui « ogni passo, ogni livello di integrazione implica la comparsa di nuove qualità, nuove relazioni che impongono la necessità di nuovi criteri di spiegazione» (Montalenti) a posizioni, opposte, che affermano che « sarebbe forse opportuno enunciare un " quarto principio " [della termodinamica] in base al quale, dati un lungo margine di tempo, i costituenti atomici necessari, la giusta temperatura, e un apporto costante di energia libera (preferibilmente variabile in un ciclo diurno) si produrrà necessariamente un " bios " sempre più complesso. Non possiamo più considerare l'evoluzione come una "colossale coincidenza" ma come una legge naturale pienamente affermata» (A. G. Loewy-P. Siekevitz). Questa contraddizione è «vissuta» apertamente da F. Jacob, il quale dopo aver affermato che « gli esseri viventi si formano per associazione spontanea dei loro elementi costitutivi » e che << la capacità di associarsi, di generare strutture sempre più complesse e di riprodursi è intrinseca agli stessi elementi costitutivi della materia » conclude che « ad ogni livello di organizzazione appaiono nuove caratteristiche e nuove proprietà logiche » senza riuscire a collegare, dialetticamente, i due aspetti. L'errore di entrambe le posizioni estreme è che presuppongono una separazione fra le leggi che regolano i diversi livelli. Così si afferma che al livello molecolare solo le leggi della chimica e della fisica svolgerebbero un ruolo, ma questo, come abbiamo visto più volte, non è vero per gli organismi, nei quali i processi chimico-fisici sono vincolati dai constraints imposti dal programma genetico e quindi dalla storia evolutiva. Inoltre la spiegazione dell'emergenza secondo la quale nei sistemi biologici valgono le leggi della fisica più altre leggi emergenti è una pseudospiegazione. Se queste nuove leggi emergenti sono leggi più generali di quelle fisiche, allora deve essere possibile ricavare queste ultime dalle prime (come affermavano conseguentemente gli olisti). Se invece sono anch'esse leggi di tipo fisico ma con diversi parametri e diversi campi di applicazione, si tratta allora di leggi fisiche a tutti gli effetti. Siamo in questo modo www.scribd.com/Baruhk La nuova biologia ricondotti alla necessità di trovare una spiegazione unitaria della realtà, spiegando l'emergenza con le stesse leggi che spiegano l'assenza di fenomeni emergenti. La posizione opposta limita le possibilità esplicative, finendo con l'ignorare l'effettiva emergenza di nuove qualità e soprattutto le modalità con cui ciò avviene, ricadendo in una forma di determinismo assoluto che non è giustificato. Il complesso e attraente schema proposto da François Jacob di una serie di« integroni » infilati l'uno nell'altro, come in un gioco di scatole cinesi, resta puramente descrittivo se non si riesce ad individuare la logica che guida il passaggio da un livello ad un altro. Crediamo che tale logica debba essere necessariamente di natura dialettica, per mantenere una relativa autonomia di un livellQ. rispetto agli altri, impedendo unà rigida separazione fra i livelli e salvaguardando il carattere materialistica dell'imm'agine'Asica della natura. La separazione fra livelli è difatti concettualmente difficile in quanto innanzitutto non si è in grado di definire cos'è un livello di integrazÌone. Come in effetti può venire misurato l'aumento del grado di organizzazione? Quale parametro occorre isolare per definirne la direzione? La tradizionale affermazione che l'evoluzione « va dal semplice al complesso » è banale ed autoc~nttaddittoria al punto da essere priva di significato. Nel passaggio da un insieme di cellule singole ad un organismo multicellulare c'è certamente un aumento di complessità, nel senso che aumenta il numero delle relazioni fra le cellule (anche se diminuisce il numero dei gradi di libertà del sistema), ma ciò è accompagnato dall'instaurarsi di un comportamento coerente ed unitario e il sistema in quanto tale è più semplice. Allo stesso modo una popolazione è più complessa di un semplice insieme di individui (in quanto in una popolazione esistono delle relazioni tra individui, se non altro quelle riproduttive), ma al tempo stesso, considerata dal punto di vista evolutivo, è l'unità dell'evoluzione. Se si rappresenta, molto schematicamente, l'evoluzione come una serie di processi di divergenza e convergenza, cioè di acquisizione di molteplicità e successiva selezione all'interno di tale molteplicità, la complessificazione avviene in effetti, ma all'interno di una sola fase convergenza-divergenza: all'inizio e alla fine vi è un comportamento unitario e coerente, frutto della selezione operata. Dalla molteplicità dei comportamenti individuali risulta la semplicità collettiva (si ricordino le analisi di Thom sulla morfogenesi, di Pattee sui constraints gerarchici, di Lewontin sulla genetica evoluzionistica). Passando da un livello di descrizione ad un altro bisogna abbandonare l'analisi dettagliata dei comportamenti individuali, costruendo una descrizione macroscopica più utile nell'ambiente osservazionale in cui il sistema nel suo complesso è immerso. Come avviene nel passaggio dalla descrizione del comportamento delle singole molecole alla equazione generale dei gas PV = nRT, una maggiore semplicità www.scribd.com/Baruhk La nuova biologia della descrizione si paga con la rinuncia di una trattazione deterministica a favore di una trattazione probabilistica. Solo risolvendo tali difficoltà metodologiche si potrà giungere ad una teoria che spieghi materialisticamente l'esistenza dei diversi livelli di organizzazione mantenendo e giustificando la specificità dei singoli livelli, però solo relativa, frutto di un processo storico. Un sistema biologico è determinato da diverse cause legate ai diversi livelli di integrazione. In biologia, e specialmente, come abbiamo visto, nella teoria dell'evoluzione, non è quasi mai possibile isolare una relazione uno-a-uno fra causa ed effetto, ma piuttosto relazioni molti-uno. Se ci chiediamo, come fa ad. esempio Mayr, qual è la causa della migrazione degli uccelli possiamo indicare: 1) una causa ecologica, la morte degli insetti per il sopraggiungere dell' inverno; 2) una causa genetica, la determinazione ereditaria di una risposta innata a determinati stimoli ambientali; 3) una causa .fisiologica intrinseca, legata ad esempio alla fotoperiodicità; 4) una causa .fisiologica estrinseca, come un improvviso sbalzo di temperatura. Ma ciò che è più importante,. tutte queste cause non si escludono a vicenda e ognuna deve essere presa in ~o~siderazione nella spiegazione di un dato fenomeno biologico. Ciò rende estremamente problematico dare una spiegazione completamente causale dei fenomeni biologici. «Non sarebbe in effetti molto illuminante una spiegazione che affermasse: il fenomeno A è causato da un complesso insieme di fattori interagenti uno dei quali è B » (Mayr). Dalla molteplicità delle cause deriva anche la accentuazione del carattere storico dei processi vitali; se infatti sono molte le cause l'unificazione fra di esse avviene grazie alla capacità del sistema di saper registrare ogni singolo effetto, riproducendone l'« immagine » insieme al proprio patrimonio genetico o, nelle fasi superiori dell'evoluzione, tramite la trasmissione culturale. La causalità ha quindi in biologia un significato molto diverso da quello che aveva nella meccanica classica, essenzialmente è non preditiva e solo in alcuni casi statisticamente preditiva. D'altronde la moderna riflessione metodologica ha mostrato che la causalità della meccanica classica è solo una forma particolare di causalità e non necessariamente la pre.dicibilità deve essere una componente della causalità. Tale incapacità preditiva è evidente nella teoria della evoluzione: salvo forse in casi assolutamente eccezionali (come ad esempio in una colonia batterica che cresce in un terreno di cultura le cui condizioni sono strettamente controllate) non si è in grado di fare previsioni complete sul corso futuro dell'evoluzione. «L'evoluzione,» scrive Simpson, «potrebbe essere determinata - cioè completamente causata in modo materialistico - senza essere predeterminata fin dal principio riguardo al corso che doveva seguire. Una equazione può avere molteplici soluzioni, e tuttavia ogni soluzione è determinata dall'equazione stessa. Allora qualsiasi legge o piuttosto principio determinante dell'evoluzione non riuscirebbe ad ottenere un pieno valore di previsione.» www.scribd.com/Baruhk La nuova biologia Vi sono in effetti diversi tipi di previsione possibili in biologia, a dimostrarne ancora una volta il carattere non univoco, ma non per questo meno scientificamente valido. Possiamo fare previsioni sullo svolgersi dei fenomeni chimico-fisici che saranno - entro certi limiti, data la costante presenza di un « piano » - sostanzialmente deterministici, nel senso che questo ha nella fisica. È possibile fare previsioni sul futuro di una data nicchia ecologica, con un alto grado di indeterminazione; ma è impossibile farne sul corso futuro dell'evoluzione dato che «linee parallele indipendenti esposte alle stesse pressioni selettive risponderanno con differ.enti velocità e con differenti effetti correlati, nessuno dei quali predicibile » (Mayr). Il determinismo assoluto è quindi non soltanto un obiettivo irraggiungibile, ma un obiettivo falso e si può ripetere con Epicuro che « il dare di questi fatti una sola univoca spiegazione è agire da folli; il dare una e una sola spiegazione . è degno di coloro che vogliono stupire il volgo ». Ciò di cui abbiamo bisogno per comprendere i fenomeni biologici e quelli comportamentali (compreso il comportamento razionale dell'uomo) è qualcosa di natura intermedia tra il caso perfetto ed il determinismo assoluto~ « qualcosa di intermedio tra le nuvole perfette ed i perfetti orologi» (Popper). Ma, ancora, questo qualcosa di intermedio non può essere una spiegazione ad hoc che stia realmente « a metà strada » fra i due estremi. È necessario invece integrare in una concezione unitaria ma dialettica entrambi gli aspetti, il caso e la necessità, considerandoli entrambi essenziali alla comprensione del mondo. Siamo così ricondotti alla problematica iniziale; si deve notare la presenza di due spiegazioni alternative del vivente e ciò dà origine ad una contraddizione epistemologica. Tale contraddizione veniva risolta dalle opposte tendenze dell'integrismo e del riduzionismo, eliminando la validità di una delle spiegazioni o considerandola derivata dall'altra e quindi ad essa riconducibile. Si potrebbe facilmente mostrare che tale problematica è il rinnovarsi in forma moderna della vecchia contrapposizione fra meccanicismo e vitalismo, fra riduzionismo e antiriduzionismo. Come ha mostrato Nagel, vi sono due tipi di riduzione, uno fisico o sostanziale e l'altro logico. La prima forma di riduzionismo cerca di analizzare un sistema nelle sue parti costituenti e di descriverne il comportamento mediante le leggi valide per le parti, per i livelli inferiori di organizzazione. La riduzione logica consiste invece nel derivare gli assiomi più generali della teoria da quelli di un'altra teoria, rispettando precise regole metodologiche (condizioni di derivabilità e condizioni di connettibilità). Ora, i tentativi di riduzione operati in biologia, che abbiamo descritto più volte, sono sostanziali e non logici. Ma una riduzione sostanziale non è in grado di render conto della spiegazione evoluzionistica ed anzi la presuppone. 1 Di qui l'impossibilità anche teorica e non 1 Si deve comunque notare che nella stessa biologia molecolare, spesso considerata il pro- www.scribd.com/Baruhk La nuova biologia soltanto « per ignoranza » di una riduzione sostanziale della biologia alla chimicofisica, mentre resta tuttora aperto, e potrà essere affrontato solo quando le scienze biologiche avranno raggiunto un grado adeguato di assiomatizzazione, il problema della riduzione logica della biologia alla fisica, o, meglio, della loro unificazione in una teoria più generale della fisica attuale. « È un errore, » scrive Nagel, « supporre che l'unica alternativa al meccanicismo sia il vitalismo: c'è una genuina alternativa in biologia sia al vitalismo [ ... ] che al meccanicismo e cioè lo sviluppo di un sistema di spiegazione che utilizzi concetti e relazioni né definite nelle né derivate dalle scienze fisiche. » Il riduzionismo rappresenta un valido metodo di ricerca, euristicamente fruttuoso, in quanto permette di saggiare la validità di proposizioni generali e la capacità esplicativa di una teoria in un campo più vasto di quello in cui inizialmente la teoria si era sviluppata. Il metodo dei modelli analogici si basa appunto su tale riduzionismo metodologico ed ha permesso progressi importanti sia in fisica che in biologia. Tuttavia occorre distinguere tra riduzionismo metodologico e riduzionismo filosofico. Quest'ultimo, nota Popper, « è dovuto al desiderio di ridurre tutto ad una spiegazione definitiva (ultimate) in termini di essenza e di sostanza, cioè ad una spiegazione che non è capace né ha la necessità di ulteriori spiegazioni [... ] . Ma può facilmente essere mostrato che la conoscenza dell'universo, se questa .conoscenza stessa è p.l}t:te dell'universo, come in effetti è, deve essere incompletabile. » L'esistenza·<li"un modello nel cervello, che non riflette passivamente la realtà « obiettiva » ma costruisce un isomorfismo fra il modello e la realtà,~ la prova dell'esistenza di una« materia» esterna ed indipendente dal soggetto pensante, ma suggerisce anche che il modello stesso è parte di questa realtà e si modifica con la conoscenza stessa del mondo esterno. La conoscenza scientifica, e la conoscenza in genere, è incompleta perché per essere completa dovrebbe essere in grado di spiegare se stessa. Si tratta dello stesso tipo di paradosso in cui cadono quanti non riconoscono la relativa autonomia della mente dal cervello, l'esistenza fra di essi di un legame dialettico, essenzialmente dinamico e storico. Quindi, conclude Popper, « pensare che il metodo riduzionistico possa raggiungere una riduzione completa è, mi sembra, un grave errore». Una teoria della conoscenza, come già suggerito da Lenin quando la .ricerca neurobiologica era agli inizi, dovrà basarsi sulla conoscenza scientifica dei processi mentali, delle basi biologiche del pensiero: « l'analisi del processo conoscitivo nella sua completezza è la vera base del realismo e ci fornisce argomenti inconfutabili contro il soggettivismo e il relativismo ». Crediamo tuttavia indispensabile abbandonare la categoria popperiana di incompletezza, che ricade in un ambito idealistico delineando una concezione della gramma di ricerca sostanziale riduzionistico per eccellenza, il riduzionismo rappresenta un aspetto secondario, come si è già visto in precedenza, ad esempio in F. Jacob. 134 www.scribd.com/Baruhk La nuova biologia scienza che cresce su se stessa, ed assumere invece la categoria leniniana chiaramente materialistica dell'approfondimento, in quanto tale categoria impliéa che l'incompletezza della teoria non è solo formale, ma viene riferita alla inesauribilità della materia il cui carattere dinamico e storico non permette una spiegazione completa, una riduzione assoluta. Lo stesso Popper, d'altronde, ha introdotto da diversi anni la categoria di verisimilitudine che, anche se meno ricca e meno problematica di quella di approfondimento, ne condivide molte delle premesse e delle conseguenze euristiche. Di fronte alla reale esistenza in biologia di due tipi completamente diversi di spiegazione scientifica, da parte di molti scienziati e filosofi è stata suggerita, sulla scia della problematica a prima vista simile della fisica atomica, l'ipotesi di una complementarità fra le due spiegazioni, ipotesi d'altronde apertamente sostenuta da Bohr e dal suo allievo Max Delbriick. « I fenomeni biologici, « scrive ad esempio Dobzhansky, «hanno aspetti cartesiani o riduzionistici e aspetti darwinìani o composizionistici. » Le due spiegazioni « non sono solo compatibili, ma egualmente necessarie, per la buona ragione che sono complementari». Secondo Simpson, « è altrettanto esplicativo ed essenziale agli effetti del sapere dire che gli enzimi digeriscono la carne perché questo processo permette al leone di sopravvivere e di perpetuare la popolazione di cui fa parte, quanto dire che il processo digestivo avviene a causa di reazioni chimiche specifiche fra gli enzimi del leone e i grassi e le proteine della zebra, e così via. Una direzione della spiegazione scende lungo la scala [... ] l'altra invece sale». Si deve notare, ancora una volta, la confusione fra aspetti sostanziali ed aspetti logici. Da una parte si sostiene l'effettiva presenza nella realtà di fenomeni cartesiani e darwiniani, dall'altra che i due tipi di spiegazioni sono due descrizioni diverse degli stessi fenomeni, visti dall'«alto» e dal« basso», un argomento questo ultimo che abbiamo già incontrato e criticato a proposito dei rapporti fra il biologico e lo psicologico. A meno che non lo si usi in senso generale, per indicare situazioni di presenza contemporanea di aspetti fra loro opposti ma che concorrono alla stabilità del 'sistema- come quando si parla di complementarità fra le due catene polinucleotidiche della doppia elica del DNA - l'uso del termine complementarità in analogia con il principio omonimo di Bohr è fuorviante in quanto limita fortemente la capacità esplicativa o il contenuto empirico della teoria ed è euristicamente dannoso, dato che si presenta come una tipica spiegazione ad hoc e sottintende l'impossibilità di giungere ad una spiegazione unitaria del reale. La complementarità in fisica indica « la relazione logica, di un tipo completamente nuovo, tra concetti che sono reciprocamente escludentesi e che perciò non possono essere considerati contemporaneamente perché ciò porterebbe ad errori logici, ma che nondimeno devono essere usati entrambi per dare una descrizione completa della situazione» (L. Rosenfeld). Si tratta in sostanza, e 135 www.scribd.com/Baruhk La nuova biologia molto schematicamente, di inserire all'interno di una stessa teoria, di uno stesso linguaggio, di uno stesso « programma di ricerca » nel senso lakatosiano, concetti che non possono essere definiti contemporaneamente e che quindi impongono delle limitazioni alla definibilità di alcune variabili coniugate, in conseguenza della necessità di fissare le condizioni entro cui il fenomeno viene osservato e del fatto che continuiamo ad usare il linguaggio della fisica ordinaria anche per la microfisica. Al contrario, in biologia la complementarità si dovrebbe avere fra due sistemi teorici autonomi, che presuppongono due concetti di causa totalmente differenti, fra una spiegazione fisica e una spiegazione biologica, fra due « programmi di ricerca » divergenti. Tra l'altro, per riprendere l'analisi di Rosenfeld, come è possibile individuare gli eventuali « errori logici » . se i concetti « complementari » appartengono a due teorie diverse? Affermare la complementarità fra la biologia funzionale e la biologia evoluzionistica significa in sostanza risolvere il problema della loro unificazione dichiarandolo già risolto.l Il compito di una sempre più necessaria biologia teorica sarà quello di superare questa falsa soluzione, impegnandosi nella costruzione di una spiegazione unitaria, monistica, del mondo vivente. Ciò potrà essere fatto, e nel corso della esposizione abbiamo cercato di individuare alcune linee di ricerca che si muovono in questa direzione, collegando in chiave storica le due spiegazioni. Tale teoria unitaria dovrà essere una teoria fisica, nel senso più volt~ indicato; non esiste una « materia vivente » per la quale dovrebbero valere delle leggi non fisiche, ma solo dei « sistemi viventi» (Monod). La ragione dell'attuale contraddizione teorica e sostanziale è da ricercarsi nei processi storici, ma non per questo non fisici e non materiali, che hanno permesso ad alcuni sistemi di evolvere verso una sempre maggiore organizzazione e ad altri sistemi simili ai precedenti e soggetti alle stesse leggi di evolvere verso una scomparsa dell' organizzazione. r Nonostante quanto detto, crediamo che un corretto uso analogico della complementarità possa essere euristicamente fruttuoso per le scienze biologiche. Si può infatti interpretare in termini complementari il rapporto fra struttura e funzione a livello molecolare. Fra struttura (organizzazione spaziale) e funzione (modificazione nel tempo della struttura) si instaura un dualismo simile a quello onda-corpuscolo in fisica. Anche qui tale dualismo è dovuto ad una impossibilità di determinare contemporaneamente entrambi gli aspetti del fenomeno. L'analisi delle funzioni non può mai essere separata da quella delle strutture in quanto la logica interna di un sistema biologico nasce dalla dialettica fra struttura e funzione. A livello delle più piccole strutture morfologiche della cellula (lamine, tubuli ecc.) si osserva una variazione collegata delle proprietà fisiologiche e di quelle strutturali. Fissando adatte condizioni sperimentali si può ottenere l'una o l'altra descrizione, ma probabilmente non entrambe allo stesso tempo. Per studiare una struttura infatti occorre cristallizzarla, rendendola quindi inefficace e gli studi di cinetica non possono dare alcuna informazione sulle morfologie implicate nel processo. Anche a questo proposito tuttavia, come in fisica, la necessità di fissare le condizioni in cui viene osservato il fenomeno implica l'uso di concetti come struttura, funzione, forma, ma, come scrive S. Petruccioli a proposito della complementarità in meccanica quantistica, « non è possibile assegnare ad essi un significato coerente con l'esigenza di salvaguardare ad ogni costo una immagine immediata e intuitiva della realtà». www.scribd.com/Baruhk La nuova biologia Lo sforzo dell'integrismo e del riduzionismo è stato ed è quello di utilizzare principi fisici o biologici. Ma una teoria della biologia dovrà reggere alla « tensione della dialettica » e saper utilizzare principi fisici e biologici. Ciò potrà comportare una visione nuova della logica che regola i rapporti fra assiomi generali e proposizioni particolari, soprattutto gli enunciati osservativi. Finora tali rapporti sono stati sempre considerati come una semplice e meccanica applicazione dei principi generali ai diversi settori inquadrati dalla teoria. Ma nel passaggio dal generale al particolare vi è al tempo stesso una perdita di generalità e un acquisto di specificità che non possono non modificare lo stesso processo di applicazione. La flessibilità delle categorie, sinora utilizzata solo per spiegare il passaggio storico fra una teoria ed un'altra, può essere utilizzata, a nostro parere, all'interno di una stessa teoria per permettere a questa di spiegare la ricchezza e l'inesauribile profondità del reale, salvaguardando l'unità dell'immagine fisica del mondo. Nella costruzione di tale teoria si potranno avere anche profonde trasformazioni dei principi generali della scienza. Ma d'altronde, se è stato necessario rifondare le basi teoriche della scienza, trovare relazioni logiche di tipo completamente nuovo, elaborare concetti « inauditi », un nuovo principio di causalità (più generale del precedente) per poter conoscere lo straordinariamente grande e lo straordinariamente piccolo, perché non potrebbe essere lo stesso per lo straordinariamente « complesso »? VIII· OSSERVAZIONI CONCLUSIVE Con la biologia contemporanea si completa la trasformazione dell'immagine dell'uomo e del suo posto nella natura iniziata da Darwin e giustamente considerata una nuova rivoluzione copernicana. Come Copernico e Galileo avevano tolto la terra dal centro dell'universo, così il darwinismo ha tolto l'uomo dal culmine della natura, ricollocandolo nella natura, rifiutando materialisticamente, qualsiasi « disegno sovrannaturale » che secondo le vecchie teorie ortogenetiche avrebbe dovuto condurre l'evoluzione necessariamente all'uomo, suo fine. Le differenze fra l'uomo e il resto del mondo organico non sono assolute, ma relative, sono differenze di grado (ma quanto importanti!) frutto di un processo dialettico di continuità-discontinuità. La biochimica e soprattutto la biologia molecolare hanno completato la dissoluzione delle « differenze assolute » dimostrando che l'uomo è del tutto simile, nei suoi processi fondamentali, al resto del mondo organico, dal quale è venuto differenziandosi come un prodotto storico, frutto del caso e della necessità, che supera ma· non rinnega la propria base materiale. La forte critica all'antropocentrismo che è sottesa a queste posizioni è una componente essenziale di un atteggiamento razionale e materialistico. Come scrive Sebastiano Timpanaro, i risultati della ricerca scientifica ci insegnano www.scribd.com/Baruhk La nuova biologia « che l'uomo occupa un posto marginale nell'universo, che per lunghissimo tempo la vita non c'è stata sulla terra [... ] che il pensiero umano è condizionato da determinate strutture anatomico-fisiologiche ». Da ciò discende che la felicità dell'uomo non può consistere nella liberazione dell'uomo dalla natura, ma nella liberazione della natura umana, al tempo stesso biologica e culturale. Si è scritto (Canguillhem) che la biolog& moderna costituisce una nuova « filosofia della vita » ed in effetti le riflessioni che ci provengono dall'evoluzionismo, dalla biologia molecolare, dall'etologia e dalla neurobiologia, e da altre discipline biologiche, si pongono come risposte di tipo anche filosofico oltre che scientifico alle tradizionali domande sulla natura umana, sui fondamenti del pensiero e della conoscenza, sulla dimensione etica ed estetica. Possiamo accettare questa tesi, ma solo nella misura in cui sollecita la costruzione di una filosofia come visione del mondo basata sui risultati della conoscenza scientifica. Le scienze dell'evoluzione, che vanno sempre più intrecciandosi con le cosiddette scienze umane, esaltano il carattere storico della natura e dell'uomo. Il mutamento e lo sviluppo sono diveut'"ati caratteristiche dell'intera natura organica e i suggerimenti che provengono dalla biologia, oltreché dalla cosmologia, allargano tale storicità a tutta la materia. Con Condorcet la storia era entrata nella società, con Darwin definitivamente nella biologia, la scienza moderna giunge a considerare storico tutto il reale. www.scribd.com/Baruhk CAPITOLO TERZO La logica nel ventesimo secolo (II) DI CORRADO MANGIONE La logica era una volta l'arte di trarre conclusioni: oggi è diventata invece l'arte di astenersi dalle conclusioni, perché si è visto che le conseguenze che noi ci sentiamo naturalmente portati a trarrè non sono quasi mai valide. Concludo perciò che la logica dovrebbe essere insegnata nelle scuole allo scopo di insegnare agli uomini a non ragionare: giacché, se ragionano, ragionano quasi certamente in maniera sbagliata. (B. Russell, Saggi scettici) Il presente capitolo viene scritto a quattro anni circa dal quinto del volume precedente. Malgrado la ricerca logica abbia mantenuto, e se possibile accentuato, la già allora riconosciuta tendenza ad ampliare ed approfondire massicciamente i suoi campi di applicazione e di analisi, non riteniamo si possa sostenere che in questo breve periodo si siano avuti innovazioni o sviluppi tali da costituire « nuovi » poli di indagine significativa. Ovviamente progressi, risultati e proposte interessanti non sono mancati; ma ciò che quasi certamente ha subito il mutamento più sensibile è stato proprio il mod<,> di vedere dell'autore, la sua valutazione rispetto a tutta una serie di argomenti e di problematiche che sono passati in primo piano, o comunque hanno acquisito ai suoi occhi un'importanza che allora non veniva loro attribuita. Inoltre, alcuni problemi e approcci, ben presenti già all'inizio del 1972., non avevano ancora in quell'epoca (e questa volta non solo secondo la valutazione dell'autore) quella portata che sono via via venuti assumendo in questi ultimi anni. Ne consegue che, a rigore, lo scopo e il senso di questo capitolo è più quello di «integrare» che non quello di« aggiornare» il quinto del volume precedente: accanto cioè alla presentazione di eventuali nuovi risultati rilevanti per campi già.toccati in quel capitolo si tratterà di colmarne eventuali lacune -di informazione o di valutazione - sì da costituire un disegno abbastanza completo della ricerca logica odierna, che ci consenta di indicarne con riferimenti concreti alcune linee di tendenza generali. Sono state così inserite brevi considerazioni relative all' entai!ment, alla quantum logic, alla logica libera, alla logica combinatoria, alla teoria della decisione, ecc.; la parte più cospicua del capitolo sarà anzi dedicata alla 139 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) trattazione categoriale della logica che, pur iniziata attorno alla metà degli anni sessanta, ha registrato proprio in questi ultimi anni una cospicua concentrazione della ricerca e l'ottenimento di risultati assai notevoli. La struttura del capitolo sarà la seguente. Dedicheremo la prima parte a una rassegna degli sviluppi più recenti delle logiche « non classiche » con l'intento preminente di mettere in luce la complessa rete di connessioni che esse stabiliscono con discipline particolari quali la fisica, la linguistica, la teoria del diritto, o con alcune questioni tradizionali dell'indagine filosofica, ecc. Quali che siano le opinioni sulla rilevanza generale degli studi su queste logiche, è innegabile che essi costituiscano una parte non piccola delle ricerche più recenti. Il nostro obiettivo è stato sostanzialmente quello di fornire elementi per un orientamento in, ed una valutazione di,_ questa problematica. È opportuno avvertire esplicitamente che il diverso «peso » dato agli argomenti trattati in questa prima parte non va interpretato come indice della maggior o minor importanza attribuita agli argomenti stessi, talora solo accennati: l'interesse è rivolto verso l'indicazione di possibili sviluppi, piuttosto che verso la trattazione esauriente di campi già acquisiti alla ricerca. Se la prima parte dà un'idea dell'ampliarsi del raggio di applicazione della ricerca logica verso nuove direzioni, è certamente uno scopo della seconda, dedicata agli sviluppi della problematica « classica » dei fondamenti, quello di aggiornare sui risultati più recenti ottenuti nel solco delle indagini trattate nel capitolo v del volume ottavo. Ma forse più che di questo si tratta qui di riprendere quei temi mettendone in luce il significato complessivo e le motivazioni di fondo. Ci è sembrato utile porre l'accento su questo secondo aspetto sostanzialmente per due ragioni concomitanti: da una parte infatti le ricerche oggi in corso in questa direzione presuppongono sempre più nozioni e risultati estremamente particolari e specialistici; dall'altra tuttavia ci sembra di poter individuare un grosso tentativo di ripensamento delle idee fondamentali e dei collegamenti fra di esse. Pensiamo ad esempio in particolare al risorgere dell'interesse per assiomatizzazioni alternative della teoria degli insiemi, allo sviluppo della teoria dei combinatori, alla proposta di una teoria dei modelli per le scienze empiriche, ecc. In questa direzione un posto particolare ci sembra occupino le indagini sulla logica astratta iniziate da Per Lindstrom sul finire degli anni sessanta: a nostro parere non si tratta infatti di generalizzazioni fini a se stesse, ma di problemi che hanno un significato filosofico generale. Al fondo di queste ricerche sta il tentativo di enucleare gli aspetti caratteristici della logica elementare tenendo conto di una lunga, ormai quasi centenaria, sperimentazione concreta. Come ampiamente sottolineato nel capitolo v del succitato volume, l'elaborazione della semantica e della sintassi della logica elementare è stata la vera chiave di volta per lo sviluppo dell'intera problematica logica. Questo tentativo di domandarsi che cosa c'è di così specifico nella logica elementare che la rende specialmente atta a porre in luce 140 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) aspetti profondi della pratica matematica (e non solo di essa) porta allora ad un interrogativo più generale che riguarda il ruolo stesso che l'enucleazione di linguaggi formali ha nell'analisi della articolazione delle teorie. Ricerche di questo tipo, come quelle analoghe sulla generalizzazione della ricorsività, sui nuovi sviluppi della teoria della dimostrazione, ecc. testimoniano una nuova e diversa consapevolezza - da parte della logica contemporanea - della necessità di un contatto più diretto con la pratica scientifica concreta, e non è un caso che ciò si manifesti proprio nel tentativo di generalizzare i concetti classici: questa ricerca di generalità è in ultima istanza una valutazione di ciò che- nel bagaglio dei concetti logici via via enucleati - è fondamentale o meno e quindi eventualmente estendibile a nuovi campi della pratica. C'è un altro aspetto di questa «conversione alla pratica» che non va dimenticato ed è il progressivo allontanamento - che proprio la ricerca logica concreta ha determinato - da una tradizionale concezione a priori della logica stessa e dei suoi compiti. Anzi, a nostro parere è proprio questo l'aspetto più vistoso e anche filosoficamente più rilevante della ricerca logica di questi ultimi anni; questo, ben inteso, anche se si possono avere riserve su particolari sviluppi in questa direzione. Il riproporre con sempre maggior insistenza da parte di alcuni, filosofi e no, della necessità di una « logica filosofica » verrebbe allora quasi ad essere un epifenomeno del precedente, quasi cioè si volesse restaurare un'unità« filosofica» che si basa su assunzioni a priori, esterne alla reale tensione filosofica che la pratica scientifica presenta nel suo operare quotidiano. Ma avremo occasione di tornare sull'argomento. Il filone di ricerca che per certi aspetti manifesta più di ogni altro questo carattere di non apriorismo e di contatto più diretto con la pratica scientifica è dato dall'approccio alla logica e ai fondamenti della matematica iniziato con i lavori di F. William Lawvere attorno alla metà degli anni sessanta. Il «programma» di Lawvere -cui è dedicata la terza parte del capitolo -prende le mosse dalla teoria delle categorie e dagli sviluppi recenti della geometria algebrica per giungere a u,na ristrutturazione globale dell'analisi logica dei fondamenti della matematica. Va notato subito in modo esplicito che questo programma si muove, nella concezione di Lawvere, all'interno di un contesto di portata filosofica più generale, all'insegna cioè della possibilità di una fondazione materialista della matematica (e non solo di essa)._ Il discorso di Lawvere non è cioè una pura e semplice applicazione dei concetti della teoria delle categorie alla pro· blematica logica, ma costituisce un vero e proprio programma che utilizza questi strumenti a partire da un'analisi diretta della pratica matematica. 1 I Con ciò vogliamo ribadire la sostanziale differenza che a nostro parere esiste fra la teoria delle categorie in quanto teoria matematica e la considerazione della stessa nel suo ruolo fonda- zionale. Ci sembra opportuno sottolineare questo punto in quanto spesso, nei testi ormai numerosi dedicati alla teoria delle categorie, vengono presentati aspetti del lavoro di Lawvere senza met- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Il lettore noterà certamente lo «squilibrio» fra questa parte e le altre. Le ragioni di questa diversa rilevanza data ai vari argomenti con la decisa preminenza della trattazione categoriale sono molteplici, ma possono essere cosl riassunte: 1) per i motivi che, ci auguriamo, risulteranno chiari in seguito, riteniamo di poter sostenere che la presentazione categoriale della logica costituisca il fenomeno di gran lupga più interessante e significativo di questi ultimi anni, anche per le implicazioni filosofiche generali sopra accennate; z) a differenza di quanto avviene per gli altri argomenti discussi nelle pagine seguenti - e per i quali il capitolo v del volume precedente costituisce il naturale presupposto - la trattazione della logica nella teoria delle categorie non aveva per così dire precedenti. Il problema era allora quello di mettere il lettore in condizione di seguire, almeno in linea di principio, questo nuovo discorso, e ciò ha comportato una preventiva presentazione dello « spazio ambiente », ossia appunto di alcuni elementi indispensabili della stessa teoria delle categorie. È opportuno sottolineare - per questa terza parte soprattutto, ma il discorso vale anche per le precedenti - che l'intento di dare un panorama il più completo possibile, almeno nei suoi tratti essenziali, di quelle che sono le linee di tendenza della ricerca logica attuale, ci ha costretto a semplificazioni, eliminazioni e approssimazioni non di rado drastiche, delle quali siamo ben consci e di cui ci sembra doveroso avvertire il lettore. Specialmente per quanto riguarda la terza parte la nostra trattazione dà solo un'idea della ricchezza concettuale di queste ricerche e vuole avere fra i suoi scopi dichiarati proprio quello di invitare il lettore a consultare la ormai vasta letteratura sull'argomento. Si presenta qui in modo naturale un problema di carattere generale che riguarda l'ormai cronica questione della lettura, da parte del non specialista, del generico «uomo di cultura», di un capitolo di questo genere (o comunque di un qualunque scritto che tratti di problematiche genericamente definite di storia e Jo filosofia della logica o della matematica). Non abbiamo alcuna difficoltà ad ammettere che la lettura di uno scritto del genere - e quindi anche del nostro non sia fra le più agevoli. Ma da una parte- ci sia consentito- questo si verifica per qualunque discorso che voglia seriamente toccare punti salienti e profondi di ogni disciplina; dall'altra, la difficoltà «aggiuntiva» che sorge quando si ha a che fare con queste specifiche discipline non è tanto a nostro parere una carenza personale del singolo lettore, quanto la testimonianza di una più generale deficienza culturale, particolarmente acuta nel nostro ambiente sociale. Ma non è questa purtroppo la sede per affrontare tale questione. Chiuderanno il capitolo alcune osservazioni nelle quali esporremo qualche considerazione di carattere generale che i temi trattati ci sembrano suggerire e giustificare. terne in evidenza il ruolo che essi hanno nel contesto di un programma fondazionale, con- fondendoli quindi con pure e semplici applicazioni. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Per finire, due avvertenze «tipografiche». Per quanto riguarda il simbolismo ci siamo in generale attenuti alle convenzioni del capitolo v del volume ottavo con un'unica eccezione sistematica costituita dall'impiego, in generale, del simbolo « :::> » per l'implicazione in luogo della freccia «---+ » ivi usata. Ciò è dovuto al fatto che, come si vedrà, la freccia viene ormai universalmente impiegata per indicare funzioni o comunque morfismi e ciò avrebbe potuto procurare grosse confusioni nella terza parte. Inoltre, per non spezzare troppo frequentemente il corso dell'esposizione, abbiamo qui preferito non citare direttamente i lavori cui ci si riferisce, richiamandoli eventualmente solo con la data, e rimandando per la loro elencazione alla bibliografia posta al fondo del volume. I • LOGICHE NON CLASSICHE: ALTERNATIVE, GENERALIZZAZIONI E NUOVE APPLICAZIONI Le ricerche nell'ambito della logica dell'intensione non hanno perduto lo slancio inizialmente ricevuto dalle scoperte di Saul Kripke e di quanti hanno contribuito, intorno al 196o, a elaborare la semantica modale. Si è assistito anzi al proliferare di applicazioni nuove - e fino a poco tempo fa impensabili delle tecniche di Kripke a settori della logica finora esplorati in via informale o intuitiva; come pure si sono moltiplicate le applicazioni ad altre scienze. Questa tendenza si accompagna all'altra, altrettanto viva, a non disperdersi nella ricerca di risultati parziali e relativi a singoli sistemi, per tentare uno studio organico e generale della pluralità (sempre più difficile da dominare) dei vari sistemi modali. Questa esigenza compare non solo in ricerche di ampio respiro come i tre volumi di Krister Segerberg del 1971, ma anche in -contributi più limitati come quello di Bengt Hansson e Peter Gardenfors del 1973. In questo ultimo lavoro gli autori cercano di mettere ordine nello spettro dei sistemi modali imparentati ai sistemi di Lewis analizzando la potenza della semantica di Kripke in relazione alla cosiddetta « semantica di intorni » (neighbourhood semantics) elaborata da Dana Scott e Richard Merritt Montague e alla semantica booleana. I due autori tentano un'analisi dei sistemi modali utilizzando le nozioni di ampiezza e di profondità di un determinato tipo di struttura intensionale (cioè di una coppia < G, R > dove G è un insieme di mondi possibili e R una relazione di accessibilità): ampiezza viene detta la misura dell'intervallo tra la logica più debole e la logica più forte tra quelle che possono essere determinate 1 da almeno una struttura del tipo in questione; profondità è detta invece la misura del numero delle logiche tra i due estremi che possono essere determinate <la tali strutture. I Si dice che una logica è determinata da un tipo di strutture quando i suoi teoremi coincidono con l'insieme delle formule valide rispetto alle interpretazioni che hanno come supporto strutture del tipo dato. Ad esempio il sistema S4 di Lewis è determinato dalle strutture di K,i:ipke < X, R > dove R è riflessiva e transitiva. 143 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) La nozione di misura che qui interviene non va tuttavia intesa in senso metrico e quantitativo: si tratta pertanto, come gli stessi autori ammettono, più di un programma di lavoro che di una ricerca ·sistematica, anche se in questi limiti vengono dimostrati risultati molto interessanti, per esempio che la formulazione abituale della semantica di intorni è equivalente a una trattazione estensionale degli operatori modali. Risultati particolari di estremo interesse non sono tuttavia mancati. I più importanti sono probabilmente i teoremi di incompletezza dimostrati indipendentemente da Kit Fine e Steve K. Thomason nel I974· Si è così provato, sia pure con un certo artificio, che la semantica kripkiana non è tale da convalidare banalmente tutte le logiche cosiddette « normali » (cioè dotate della regola 1-- d-+ 1-- L d non ristretta, dove L è l'operatore di necessità) come invece potevano far pensare risultati come quello ottenuto nel I966 da R.A. Bull, in virtù del quale tutte le estensioni normali di S4.3 (interpretabile temporalmente) sono decidibili. Nel campo delle modalità logiche è stata raggiunta per la prima volta da Alasdair Urquhart e Richard Routley indipendentemente, nel I972, una tratta~ zione semantica adeguata della logica dell'implicitazione (entailment) mediante l'impiego di una relazione di accessibilità ternaria. Come è noto il problema dell'entailment è quello di fornire un'analisi semantica e sintattica della relazione di implicazione in uso nel linguaggio comune. Il problema non è linguistico, ma ha come obiettivo piuttosto l'individuazione del nucleo minimale di proprietà che ogni nozione di implicazione deve avere. L'idea di fondo è che un enunciato del tipo d ::J 81 deve essere vero solo quando d è rilevante nella deduzione di 81, nel senso che d deve essere usato effettivamente in qualche deduzione di 81. I vari sistemi di implicazione stretta presentati allo scopo da Clarence Irving Lewis a partire dal I9I8 - e basati come si è visto sul concetto di possibilità - partono dall'idea che perché d implichi strettamente 81 deve esistere un legame concettuale fra i due enunciati. Come sappiamo però nessuno dei sistemi di Lewis è completamente adeguato allo scopo: si ripresentano in essi - questa volta ovviamente per l'implicazione stretta - paradossi analoghi a quelli dell'implicazione materiale dei calcoli classici. Discorso analogo vale per l'implicazione nei calcoli intuizionisti che è ancora troppo « debole » in questo senso. Fu questa situazione che spinse prima Alonzo Church nel I 9 5 I e poi Wilhem Ackermann nel 19 56 a formulare calcoli formali per una implicazione forte. Queste ricerche culminarono con i sistemi per una implicazione rilevante presentati da Alan Ross Anderson e Nuel D. Belnap jr. a partire dal I 9 58, e che si basavano su modificazioni del sistema di Ackermann. Queste logiche ponevano come centrale il collegamento fra dimostrabilità e implicazione sopra indicato, sicché per esempio lasciavano cadere lo schema del sillogismo disgiuntivo1 ossia lo schema (((d V 81) 1\ -., d) ::J 81). La debolezza dei sistemi di lo- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) gica rilevante stava nella difficoltà di fornire un'analisi semantica della nozione presentata cosicché la loro giustificazione risultava spesso ad hoc. Un primo tentativo per ovviare a questa difficoltà si ebbe nel 1970 ad opera di J. Mi~hael Dunn che utilizzò come modelli particolari strutture algebriche; se questo però forniva un metodo algebrico d'analisi del sistema, non era d'altra parte sufficiente per giustificare sul piano semantico le assunzioni di base. I risultati di Urquhart e Routley sopra accennati ne forniscono invece un'analisi plausibile in termini di strutture di Kripke generalizzate. Dal punto di vista filosofico non ci sembra di poter dire che questi risultati rappresentino una giustificazione del tutto soddisfacente, in quanto non è agevole collegare la semantica con l'analisi intuitiva in termini di dimostrabilità. In questa seconda direzione si muovono piuttosto alcuni recenti lavori di Dana Scott che partono dai calcoli di deduzione naturale e da un'analisi generale del loro significato. Questa ripresa degli studi semantici sull'implicitazione logica ha coinciso con un analogo intensificarsi di studi sull'implicitazione fisica (condizionali congiuntivi e controfattuali, condizionali indicativi forti) in cui i risultati più significativi sono stati ottenuti da Robert Stanaker e Thomason nel 1970, da Lennart Aqvist nel 1971 e da David K. Lewis nel 1973. Il problema dei controfattuali dipende, come è noto, dalla loro ambiguità contestuale, per cui essi vengono asseriti sulla base di presupposizioni non esplicitate in forza delle quali una stessa ipotesi rende talora plausibili conseguenti opposti. Attual!nente tendiamo a ristrutturare il contesto delle presupposizioni, reso incoerente dalla supposizione controfattuale, con la massima semplicità: il che significa, in termini di semantica modale, che ipotizziamo che l'antecedente del condizionale sia vero nel mondo «il più possibile simile » al nostro. Asserire un controfattuale significherebbe dunque asserire che il suo conseguente è vero nel mondo il più possibile simile al nostro in cui è vero l'antecedente. Su questa base David Lewis ha costruito una complessa teoria dei controfattuali in cui la nozione di somiglianza fra mondi possibili, assunta come primitiva, porta a un inevitabile realismo circa questi ultimi: essi esistono per Lewis come il mondo attuale, pur non essendo, per l'appunto, «attuali». Le ricerche sulle modalità fisiche hanno ricevuto un contributo originale anche da Aldo Bressan, cui si deve un importante volume del 1972 che è un'avanzata trattazione della logica modale quantificata condotta nel solco della logica intensionale carnapiana, applicata a problemi di fondazione della fisica. In questo contesto si inseriscono direttamente alcune osservazioni relative alle applicazioni sempre più numerose e decisamente assai promettenti che le interpretazioni alla Kripke e Jo le logiche modali 1 hanno trovato nel campo _delle I Si osservi che l'impiego di una semantica alla Kripke non comporta necessariamente l'impiego di una logica modale; a rigore non vale neppure il viceversa, cioè si può impiegare una logica modale senza adottare la semantica alla Kripke. Si veda più avanti il discorso sulla quanlum logic. 145 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) scienze empiriche, in particolare nella fisica. Considerando che questa branca della logica non ha avuto finora particolare rilevanza per quanto riguarda i problemi dei fondamenti della matematica, la cosa potrebbe stupire. Bas van Fraassen ha però osservato che la nozione di mondo possibile, a dispetto della sua apparente vaghezza e « metafisicità », si presta in termini intuitivi a delle naturali applicazioni « empiriche », potendo ricevere interpretazioni quali « situazione fisica », « stato fisico » e cosl via; H. Dishkant, come vedremo più avanti, ne dà un'altra interpretazione in termini più usuali di «stato di conoscenza » ma direttamente collegati alla pratica fisica. Ovviamente non affronteremo qui la complessa problematica di tali applicazioni, ma ne daremo un saggio abbastanza dettagliato riferendoci a lavori di Dishkant e di Maria Luisa Dalla Chiara, che ci forniranno lo spunto per qualche considerazione generale. Premettiamo alcuni richi:~mi sulla caratterizzazione algebrica delle logiche proposizionali che saranno utili anche nel prosieguo di questo capitolo. Assumiamo un linguaggio L con lettere proposizionali A1, A2, ... e con i connettivi /\, V, ::::>, _L, dove ..l è un connettivo o-ario che interpreteremo come Falso; la negazione --, d si può allora introdurre per definizione come (d::::> ..L). Le formule sono costruite nel modo solito. Ora è ben noto che la logica proposizionale classica CPC si può caratterizzare mediante una semantica algebrica nel senso che i suoi teoremi sono tutte e sole le formule di L che risultano avere valore I in ogni algebra di Boole, che, ricordiamo, è una struttura ~ = < B, n, u, =>,-,o, I> che soddisfa le condizioni seguenti (non indipendenti) per ogni x,y, EB: z xuy =yU x xu (yu z) = (xuy)u z (xny)uy =y xu (yn z) = (xu y) n (xu z) X=>-y=y=>-X -(x=>y)=>y=I -o= I XU-X=I. In base alle operazioni possiamo definire su ~ una relazione d'ordine ~ ponendo ad esempio x ~ y se e solo se x n y = x. Si verifica allora che un'algebra di Boole è un reticolo distributivo, complementato (l'operazione -) dotato di massimo (I) e minimo (o), in cui x U _y è il sup di {x,y} e x n y è l'inf di {x,y }. Una interpretazione delle formule di CPC in un'algebra di Boole ~ 146 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) è data da una funzione v che ad ogni formula d associa un elemento v(.91) di B in modo che v(J.) =o v(d 1\ f1l) = v(d) n v(fll) v(dV f1l) = v(.91) U v(~) v(d:::> ~) = v(d) => v(fll). Si può verificare allora che per ogni formula d, d è un teorema di CPC se e solo se per ogni algebra ~ e per ogni valutazione v in ~, v(.91) = I. Una caratterizzazione analoga si può avere anche per il calcolo proposizionale intuizionista CPI. Basta considerare, al posto delle algebre di Boole, le algebre di Heyting. Una struttura i)= <H, n, U, =>, - , o, I > è un'algebra di Heyting se soddisfa tutte le condizioni poste sopra per le algebre di Boole salvo eventualmente la x U - x = I. In questo caso « - » viene detto pseudocomplemento. Definite le interpretazioni come sopra, anche in questo caso si verifica che d è teorema di CPI se e solo se v(.91) = I per ogni interpretazione in un'algebra di Heyting. Alla formulazione della logica quantistica minimale (MQL) si è giunti sfruttando un simile collegamento fra formule e particolari algebre che si presentano nella meccanica quantistica. Intuitivamente, ogni formula espri~e un enunciato e nell'interpretazione quantistica ogni enunciato sperimentale ha come intensione un insieme di stati fisici. La logica quantistica, come logica degli enun- · dati sperimentali, riflette la struttura algebrica degli insiemi degli stati fisici. Matematicamente questi sono sottospazi di uno spazio di Hilbert e su di essi è possibile definire tre operazioni che hanno un significato fisico: l'intersezione n ; la formazione, dati due sottospazi x e y, del sottospazio x U y da essi generato; l'ortocomplementazione, che ad ogni x associa lo spazio xl degli elementi ortogonali a quelli di x. Si ottiene in questo modo una struttura .Q=< Q, n, U, l, o, I> che costituisce un reticolo non distributivo, dotato di massimo e di minimo e (orto)complementato. La non distributività riflette l'impossibilità, dal punto di vista fisico, di compiere determinate misure. Non mette conto di dare qui esplicitamente gli assiomi e le regole di MQL; ci basti osservare che una formula .91 è un teorema di MQL se e solo se assume il valore I in ogni struttura come .Q; questo naturalmente considerando il linguaggio con i soli connettivi &, u, "', e interpretando & su n, u su U e "' su l. In generale, sono questi i connettivi cui riusciamo a dare esplicitamente un significato fisico. Già a questo punto possiamo concludere che MQL e CPI sono inconfrontabili, in quanto mentre nella prima è teorema du -d ciò non si verifica in CPI; e mentre in quest'ultima vale la legge d 1\ (~V <if) (d 1\ ~)V (d 1\ <if) che esprime la distributività, questa non vale in MQL. In ogni caso entrambe queste logiche sono essenzialmente più deboli di CPC. = 147 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Veniamo ora ai risultati cui sopra si accennava. Nel 1972 il sovietico Dishkant ha suggerito per MQL un nuovo tipo di realizzazioni da lui dette modelli semantici (noi le chiameremo anche, per comodità, realizzazioni alla Dishkant o D-realizzazioni) per le quali ha dimostrato un teorema di completezza facendo vedere che ogni formula d di MQL è valida rispetto alle D-realizzazioni se e solo se lo è rispetto alle realizzazioni algebriche sopra descritte e che abbiamo detto caratterizzare le MQL-tautologie. Per definire le sue realizzazioniDishkant si serve di semantiche alla Kripke, ponendo precisamente che un modello semantico è una struttura (fj = < G, R, 1> > dove 1) G è un insieme non vuoto (i « mondi possibili ») z) R è una relazione fra elementi di G (la relazione di accessibilità fra mondi) che gode delle proprietà za) riflessiva: Vg(gRg) g E G zb) transitiva debole: Vgh(gRh => 3i(hRi 1\ Vj(iRj=> gR}))) g, h, i,j, E G 3) [> è una relazione fra elementi di G e formule di MQL che soddisfa una serie di condizioni che non interessa qui riportare e che la possono far considerare una relazione di forcing. G è. inteso intuitivamente come un insieme di possibili stati di conoscenza, un suò elemento come una collezione di fatti fisici noti in un particolare momento, la relazione R come il possibile scorrere del tempo: il passaggio da uno stato g a uno stato h è connesso con l'esecuzione di un esperimento, sicché gRh verrà inteso come: « se conosciamo ora g, è possibile che più tardi, una volta completato un esperimento, conosceremo h». Al di là dell'intrinseco interesse della proposta di una « nuova » semantica per MQL, da un punto di vista epistemologico più aderente, per così dire, all'andamento intuitivo dei fatti fisici, mette conto rilevare che sulla base delle proprietà delle relazioni R e [> Dishkant stabilisce un suggestivo confronto con la logica intuizionista che in certo senso « dà corpo » a quello puramente formale sopra ricordato. La transitività debole della relazione R rende talora impossibile una transizione poniamo da g a i, gRi, anche nel caso si abbia, per un qualche h, tanto gRh quanto hRi: intuitivamente « lo stato di conoscenza non può essere cambiato troppo rapidamente ». Nel modello di Kripke per CPI, invece, R è transitiva, sicché il passaggio precedente è sempre possibile: « la C<?noscenza ottenuta con molti passaggi può essere raggiunta con un passaggio solo ... non esistono restrizioni alla quantità di conoscenza che può essere acquisita in uri sol colpo >>. Leggiamo ora, con Dishf:.ant, h 1> d come: « dalla collezione di fatti h possiamo dedurre la verità di d » (h « forza » d). Dishkant dimostra un lemma q8 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) che estende ad ogni formula una delle condizioni per [> data solo per formule atomiche: precisamente, se d è una formula qualunque di MQL, per ogni g E G si ha (I) g [> d se e solo se Vh(gRh :::> 3 i(hRi 1\ i [> d)) che intuitivamente si può leggere come affermante che la verità è qualcosa che non può essere cancellata senza essere ripristinata come risultato di una singola osservazione, vale a dire sono possibili solo variazioni ripristinabili degli stati di conoscenza. Viceversa, per il modello intuizionista invece della (I) abbiamo g (z) [> d se e solo se V h(gRh => h [> d) vale a dire fatti nuovi non possono rimpiazzare i vecchi, i fatti si possono solo accumulare o, altrimenti detto, la verità si conserva indipendentemente dal sorgere di fatti nuovi: «la verità è eterna». In conclusione, secondo l'autore, «la logica quantistica è una logica di fatti ripristinabili che variano lentamente; la logica intuizionista è una logica dell'accumulazione dei fatti». Veniamo ora al lavoro, del I973 ma non ancora pubblicato, di M.L. Dalla Chiara, che conduce ad alcune interessanti considerazioni generali sullo status della quantum logic e su alcune annose difficoltà ad essa relative. L'autrice opera una traduzione di MQL in un sistema modale CPC* che è un ampliamento di CPC ottenuto aggiungendo al suo linguaggio i simboli L e M per gli operatori modali di necessità e possibilità rispettivamente. La traduzione avviene mediante la funzione e così definita: e(Ai) e("' d) e(d & f!J) e(d u f!J) - LMAi (per ogni lettera proposizionale At di MQL) L ---, e(d) e(d) 1\ e(f!J) LM(e(d) v e(f!J)) che cioè porta la negazione quantistica nella necessità della negazione classica, la disgiunzione quantistica nella necessità della possibilità della disgiunzione classica. Anche CPC* risulta semanticamenté caratterizzato dalle strutture di Kripke la cui relazione di accessibilità sia riflessiva e debolmente transitiva (cioè le formule valide di CPC* sono tutte e sole quelle vere in ognuna di tali strutture), sicché valendosi del risultato di Dishkant l'autrice può dimostrare che (*) !===d se e solo se MQL l. CPC* I49 www.scribd.com/Baruhk e(d) La logica nel ventesimo secolo (II) (ossia una formula di MQL è valida per MQL se e solo se la sua traduzione è valida per CPC*). Considerato che MQL può essere estesa in modo standard a un calcolo del primo ordine, se indichiamo con 1\ e V i quantificatori quantistici, si ha la traduzione e(f\xd) = Vxe(d) e(V x#) = LM3xe(d) di immediata lettura.l L'autrice può a questo punto trarre una prima conclusione: «La logica quantistica è senza alcun dubbio una " logica reale". Anche se storicamente suggerita dalla meccanica quantistica, la sua interpretazione modale mostra chiaramente che essa possiede un significato logico che è del tutto indipendente dalla meccanica quantistica. )) A riprova di questa conclusione sullo status epistemologico della quantum logic, l'autrice affronta la nota difficoltà di una «ragionevole)) definizione di un'implicazione materiale in questa logica e mostra come la proposta traduzione modale permetta di dare una risposta assai convincente alla questione. Come si è visto infatti MQL non aveva tra i suoi connettivi quello di implicazione e questo discende dal fatto che le strutture algebriche da cui eravamo partiti non sembrano almeno in prima istanza ammettere una definizione plausibile di una operazione che potesse corrispondere a tale connettivo.2 Riferendoci alle realizzazioni algebriche di CPC, CPI e MQL, la cosa può essere presentata come segue. Per le algebre di Boole e per le algebre di Heyting vale che x (**) =>y = maxz(xn z <y) mentre per un reticolo ortocomplementato la (**) in generale non è vera, ossia dati due elementi x e può non esistere un massimo tale che x n < Dalla Chiara osserva però che in tutti e tre i tipi di strutture qui considerati può essere definita un'operazione ~ ponendo y z z y. se x <y altrimenti r In questo caso le realizzazioni algebriche sono reticoli ortocomplementati completi, con due operazioni infinitarie n e v, e la valutazione v viene così estesa: v(/\xd) = n{v(d(x/d))}dED v(Vxd) = v{v(d(x/d))}dED dove D rappresenta il dominio della realizzazione e d è un nome per l'individuo d. z La difficoltà di definire un'implicazione materiale per la logica quanttst!ca minimale si può superare passando a una logica quantistica ortomodulare, una logica cioè le cui proposizioni valide sono tutte e sole quelle che assumono valore r in ogni reticolo ortomodulare (un ortoreticolo in cui valga laleggex,;y =o(y =XV (xl_ ny))). In tal caso infatti si può sensatamente definire l'operazione x=> y come xl_ v (x ny) e questo connettivo risulta comportarsi come una ragionevole implicazione materiale. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) che si comporta come una « implicazione stretta » nel senso che ponendo z'(d :::> fJI) = v(d) ---s v(PJ) si «evitano » i paradossi dell'implicazione materiale. Ampliamo ora il linguaggio di MQL aggiungendo il nuovo connettivo binario-+e poniamo :::> v(d -+-fJI) = v(d) ---s v(PJ); estendiamo contemporaneamente la traduzione da MQL a CPC* con l'ulteriore clausola e(d -+-Pi) = e(d) ---s e(PJ). Il risultato (*) si estende allora in modo diretto anche a questo caso, si ottiene cioè 1=== d-+- PJ se e solo se l=== e(d) ---s e(PJ). CPC* MQL Ne discende che questo tipo di implicazione stretta sembra essere il più naturale candidato al ruolo di implicazione quantistica, dal momento che « essa è del tutto omogenea con l'interpretazione modale degli altri connettivi quantistici ». Più che soffermarci sull'interesse di questo risultato che peraltro ci sembra non abbisogni di commenti, è opportuno ribadire che qui abbiamo dato solo un saggio della complessa problematica relativa alla logica quantistica, per mostrarne il collegamento con le logiche intensionali standard e senza quindi tener conto di una mole enorme di lavori che si sono succeduti dal 1936 in poi, da quando cioè Garrett Birkhoff e John von Neumann hanno dato inizio a questo discorso. Limiti di spazio e di competenza ci impediscono di fare un discorso più ampio. Vogliamo invece osservare come la semantica a mondi possibili è en'trata decisamente anche nel campo della logica deontica, che è in effetti una logica modale priva dell'assioma d=> Md (che verrebbe a significare «tutto è permesso ») e abitualmente dotata in suo luogo dell'assioma Ld :::> Md («ciò che è obbligatorio è permesso»). I mondi possibili dei modelli deontici sono spesso interpretati come « i migliori tra i mondi possibili » con il risultato di dare un sapore leibniziano anche alle attuali discussioni di filosofia morale. In questo campo va ricordato da un lato un notevole tentativo di formalizzazione del diritto compiuto da Stig Kanger nel 1972, dall'altro i tentativi di agganciare la semantica modale alla teoria della scelta e della decisione razionale compiuti per esempio da Krister Segerberg nel 1970. Infine, un settore profondamente coinvolto nell'impiego della semantica intensionale è quello dell'analisi del linguaggio naturale quale è stata inaugurata da Montague nel 1968 e nel 1970. Senza entrare in dettagli che riguarderebbero www.scribd.com/Baruhk La logica nel ventesimo secolo (II) più la linguistica che la logica, vale la pena di accennare alle ricerche sugli aspetti temporali del linguaggio comune che continuano, pur con considerevole complessità tecnica, le indagini di Arthur Norman Prior. Fondamentale in questo campo è la lunga analisi condotta nel 1971 da Hans Kamp sulla logica dell'avverbio « ora » e profondamente innovatrice la serie di ricerche recentissime e non ancora pubblicate di Aqvist e Franz Gunther sugli aspetti logici delle nozioni di « cominciare a », « cominciare con », « finire con », « diventare sempre più vero che », ecc. La ricostruzione formale della logica del senso comune preannunciata dall'analisi dei tempi verbali condotta da Priore dalle ricerche sui modi verbali (condizionale e congiuntivo nei controfattuali; ma anche imperativo in particolari logiche deontiche, ecc.) comincia dunque a diventare un concreto programma di lavoro per molti logici aperti a prospettive interdisciplinari. Le logiche intensionali costituiscono forse il campo più vasto dell'indagine sulla logica non classica. Significativi in questo senso sono ad esempio i tentativi di Scott (1974) di fornire un'analisi in termini di strutture alla Kripke delle stesse logiche polivalenti di Jan Lukasiewicz. Il discorso si inquadra in un ripensamento generale del background della formalizzazione della logica iniziato da Scott nel 1973, in cui vengono riaffrontate in chiave critica le stesse assunzioni di base della formalizzazione: ad esempio l'ipotesi che i linguaggi siano insiemi, che la chiusura rispetto ai connettivi sia illimitata, che le valutazioni siano bivalenti, che le dimostrazioni di completezza giustifichino la semantica. In questa ottica vengono ripresi il problema della forma delle regole logiche (di qui il collegamento con l' entai!ment cui sopra si è accennato) e le proprietà generali del concetto di valutazione. L'obiettivo di Scott è di «misurare» -fornendo alternative concrete - il peso di tutte queste assunzioni dal punto di vista filosofico e matematico. I lavori sulle logiche polivalenti tentano infatti una riconduzione - via una strutturazione dell'insieme dei valori di verità - della polivalenza alla bivalenza. Tra le assunzioni che Scott pone in discussione ve ne sono due che riguardano i presupposti esistenziali e il ruolo dei quantificatori; esse sono: 1) tutti i termini hanno una denotazione e z) i quantificatori fissano il dominio dell'interpretazione. Queste assunzioni, come si è accennato nel capitolo v del volume ottavo, sono state da tempo messe in discussione e costituiscono il punto di partenza della logica inclusiva e della logica libera, di cui ora ci occuperemo. La semantica della logica standard contiene due condizioni che si traducono immediatamente in profondi impegni di carattere antologico. La prima richiede che il dominio di ogni realizzazione non sia vuoto: su questa base possiamo facilmente dimostrare la validità della formula 3x(x = x) e quindi giustificare il fatto che l'esistenza di almeno un oggetto sia una verità logica. La seconda richiede invece che la funzione di interpretazione assegni un oggetto del dominio a ~ www.scribd.com/Baruhk La logica nel ventesimo secolo (II) tutte le costanti individuali (o, se il calcolo è privo di costanti, a tutte le variabili individuali): si può così affermare che la logica standard esclude la possibilità di termini singolari non denotanti, ossia che essa ci costringe a trattare tutti i « nomi » utilizzabili come nomi di oggetti esistentL I problemi cui queste condizioni danno luogo sono di duplice natura. Da un lato infatti si può sollevare la questione dell'adeguatezza del calcolo come strumento di indagine della logica del discorso ordinario, in vista del fatto che tale discorso contiene spesso riferimenti a oggetti «fittizi»; mentre dall'altro, in sede più propriamente filosofica, ci si può chiedere se sia giustificata questa stretta connessione fra logica e antologia. L'esistenza di questi due ordini di problemi ha portato spesso gli autori interessati a fornire risposte diverse, e talvolta difficilmente conciliabili. Intorno al 19 5o l'interesse si accende sulla prima condizione di cui sopra: in una serie di articoli di Andrzej Mostowski (scomparso nel 1975), Church, Theodore Hailperin e Willard van Orman Quine, si formulano varie proposte relative alla costruzione di un sistema di teoria della quantificazione i cui teoremi risultino validi anche nel dominio vuoto. Tutte queste proposte non superano tuttavia una difficoltà relativa alla costruzione di una procedura che permetta di valutare in modo soddisfacente le formule aperte nel dominio vuoto, difficoltà la cui natura è più riposta di quanto non sembri. Si osservi infatti che nella semantica standard la verità è concepita in modo corrispondentista (per intenderei, alla Tarski): la formula P x è vera in una determinata realizzazione (per una particolare valutazione delle variabili individuali) se e solo se l'oggetto assegnato a x è contenuto nella classe dei P, ossia, in termini più intuitivi, se si verifica che Px (Px è un fatto) in quella realizzazione e per quella valutazione. Ora però se ad x non è assegnato alcun valore, come è possibile decidere se Px è vera (cioè se corrisponde a un fatto) sulla base di una simile nozione corrispondentistica di verità (o se si preferisce di una simile nozione realista di « fatto »)? È evidente dunque che l'ammissione di termini singolari non denotanti comporta quanto meno una rimeditazione complessiva del problema della verità, che solo cosi potrà essere risolto nel caso particolare del dominio vuoto, dove tutti i termini singolari sono necessariamente non denotanti. · I tempi tuttavia non erano maturi per una impostazione cosi generale del problema che fu invece affrontato in termini assai riduttivi: da un lato, proponendo (Church, Hailperin, Quine) la costruzione di sistemi di quantificazione che ammettessero solo teoremi chiusi; dall'altro sostenendo (Mostowski, e successivamente Hubert Schneider) che le formule aperte sono tutte vere nel dominio vuoto, per semplice estensione (peraltro non altrimenti motivata) a questo dominio del metateorema di chiusura. I sistemi così costruiti sono noti comunemente, con espressione coniata da Quine, come sistemi inclusivi (s'intende, del dominio vuoto). 153 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Nel 1956 un articolo di Henry Siggins Leonard vivamente critico nei confronti della regimentazione russelliana e quineana, comincia a delineare le caratteristiche essenziali di una nuova logica dei termini singolari, in cui viene a cadere l'ipotesi che tali termini siano tutti denotanti. Tale logica prende via via una forma sempre più precisa attraverso contributi di Jaakko Hintikka, Hailperin, Hugues Leblanc e Karel Lambert e riceve da quest'ultimo la denominazione di «logica libera (da assunzioni esistenziali)». La caratteristica fondamentale dei sistemi di logica libera consiste nel loro rifiuto della cosiddetta legge di specificazione (e della corrispondente regola di esemplificazione universale) V xd => d(x Jy), che viene sostituita con la legge più debole (.V xd /\ E!J) => d(x !y), dove El è un predicato monadico che va letto «esiste» e che in una logica dell'identità può essere definito nel modo seguente: E!J =dJ 3x(x = y). La legge di specificazione debole ci permette di passare ad esempio da « Tutti gli x sono P » a« a è P» (o, il che è lo stesso, da« a è P» a« Esiste un x che è P») solo se a esiste, e quindi blocca inferenze illecite come quella da « Pegaso è Pegaso » a « Esiste qualcosa che è Pegaso ». Come abbiamo detto però il vero problema connesso ai termini singolari non denotanti è di natura semantica e riguarda in definitiva i rapporti tra verità (in particolare, verità logica) ed esistenza. Più che il calcolo in sé è pertanto opportuno discutere le varie interpretazioni che di esso sono state date e che possono essere raccolte in quattro filoni principali. Il primo (e anche il meno seguito) è rappresentato sostanzialmente da Rolf Schock, che in numerosi articoli pubblicati dal 1961 in avanti è venuto proponendo e articolando la posizione seguente (in cui si riconosceranno evidenti influssi russelliani): una formula atomica è vera in una determinata realizzazione (e rispetto a una data valutazione) se e solo se corrisponde a un fatto che si verifica in quella realizzazione (e rispetto a quella valutazione) e dunque se una tale formula contiene termini singolari non denotanti, e di conseguenza non può corrispondere a un fatto, essa è falsa. Evidentemente, sulla base di una tale valutazione delle formule atomiche, sarà possibile valutare anche tutte le formule complesse contenenti termini singolari non denotanti; si tenga conto comunque che per quanto riguarda la valutazione di formule quantificate Schock considera rilevanti solo gli esempi di tali formule costruiti con termini singolari denotanti (ovvero, il che è lo stesso, solo le realizzazioni alternative che assegnano un valore alla variabile quantificata) ovviamente in vista della portata esistenziale che egli (d'accordo in questo con la semantica standard) intende dare ai quantificatori (tale caratteristica sarà conservata anche in tutte le semantiche alternative). Lo strumento fondamentale del secondo filone interpretativo è costituito dalla nozione di « dominio esterno », ossia di un dominio di oggetti inesistenti che possono essere assegnati come denotata ai termini singolari non denotanti. Sulla base di questa nozione è molto semplice costruire una semantica libera: 154 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) basterà infatti conformarsi al modello di una semantica standard in cui però i quantificatori siano « ristretti » a un sottoinsieme del dominio di interpretazione. Sarà molto semplice in particolare spiegare perché una formula come x = x è vera anche quando x non esiste: infatti, che x esista o meno (ossia che il valore assegnato a x appartenga al dominio interno o a quello esterno) tale valore coinciderà ovviamente con se stesso. Ciononostante, quello che otterremo in tal modo potrà difficilmente essere considerato soddisfacente da un punto di vista filosofico (e in tal senso si sono espressi anche due fra i principali artefici della semantica dei domini esterni, Leblanc e Thomason) in quanto per questa via possiamo al più evitare la questione fondamentale delineata sopra, non certo risolverla. Se il problema è «Come possiamo valutare degli enunciati che contengono termini singolari non denotanti, dal momento che essi non possono corrispondere ad alcun stato di cose? », è evidente che una risposta del tipo «Possiamo valutare tali enunciati perché essi corrispondono (o non corrispondono) a degli stati di cose relativi agli oggetti fittizi cui si riferiscono », mentre provoca uno stravolgimento delle nozioni stesse di « stato di cose » e di « termine non denotante », vanifica addirittura la domanda e la difficoltà che essa tentava di esprimere. È opportuno comunque ricordare che esistono oltre a quella di Leblanc e Thomason, due varianti di questo filone semantico: quella di Nino B. Cocchiarella (già presente in germe in alcune osservazioni di Church) in cui non abbiamo due domini disgiunti, ma piuttosto un unico dominio (cui appartengono tutti gli oggetti possibili) del quale la collezione degli esistenti è un sottoinsieme (in questo modo le analogie con la teoria « ristretta » della quantificazione sono ancora più evidenti); e quella di Scott, che in un certo senso realizza un compromesso con la« teoria dell'oggetto prescelto » di Frege-Carnap, in quanto costruisce dei domini esterni che contengono esattamente un oggetto, il quale funge da denotatum improprio di tutti i termini singolari non denotanti. Assai più stimolante ai fini della ricerca di una soluzione soddisfacente alla nostra questione fondamentale si presenta la linea impostata da van Fraassen, in una serie di articoli pubblicati fra il 1966 e il 1969. Per van Fraassen una formula d contenente termini singolari non denotanti non può ricevere in prima istanza alcun valore di verità. Ciononostante, essa può ricevere un valore di verità come risultato di una sorta di esperimento mentale: possiamo cioè supporre di assegnare a tutte le componenti atomiche di d che in una data realizzazione risultano invalutabili (perché appunto contengono termini singolari non denotanti) un valore di verità qualsiasi, e quindi assegnare un valore di verità ad d nella realizzazione data se e solo se per ogni valutazione delle componenti atomiche di d che coincida con la valutazione associata alla realizzazione stessa là dove questa è definita e che la completi nel modo sopra specificato, d riceve sempre lo stesso valore di verità. Il discorso di van Fraassen può essere interpretato mediante una metafora 155 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) assai suggestiva: possiamo pensare cioè ai termini singolari non denotanti semplicemente come a dei termini sui quali non abbiamo alcuna informazione. Di essi dunque non possiamo in prima istanza dire nulla; può darsi però che, per ogni completamento possibile della nostra informazione che ci ponga in grado di dire qualcosa relativamente a tali termini, certi enunciati che li contengono risultino invariabilmente veri o invariabilmente falsi. In tal caso, in base alla posizione di van Fraassen, siamo autorizzati a considerarli veri o falsi già adesso. La proposta è indubbiamente interessante, ma conviene mettere subito in rilievo quello che è un suo limite piuttosto grave. Si tratta di questo: lo strumento che permette di valutare le formule logicamente (e non fattualmente) vere o false (cioè quelle che van Fraassen chiama supervàlutazioni) agisce di fatto solo a livello di enunciati non analizzati. La supervalutazione infatti è costruita su delle valutazioni che assegnano un valore di verità qualsiasi alle componenti atomiche invalutabili di una formula, indipendentemente dalla loro struttura. Per questo motivo, le uniche formule logicamente vere o false che una supervalutazione riesce a valutare in modo naturale sono tautologie e contraddizioni; là dove invece la struttura delle formule atomiche ha una rilevanza essenziale la supervalutazione non può arrivare. Un esempio molto semplice di questa limitazione si ha considerando la formula x= x. Se in una data realizzazione x è un termine singolare non denotante, certamente la supervalutazione - per come essa è stata definita - non potrà assegnare il valore V ero a tale formula, dal momento che essa è atomica e quindi, nelle valutazioni ideali che completano quella associata alla realizzazione data, riceverà ora il valore Vero, ora il valore Falso. Per ovviare a questo inconveniente, van Fraassen è costretto a ricorrere a un espediente ad hoc: deve cioè ammettere che tutte le valutazioni ideali di cui sopra per definizione assegnino il valore V ero alla formula in questione, cosicché la supervalutazione costruita su di esse le assegni ancora il valore Vero (analoghe condizioni devono essere introdotte per validare gli altri assiomi relativi alla quantificazione e all'identità). In questo modo però la grande plausibilità di questa linea di soluzione viene ad essere in gran parte perduta: x = x infatti non è vera (quando x non esiste) 'in base al successo di un esperimento mentale, ma semplicemente in base a una definizione. Il quarto e ultimo filone interpretativo, rappresentato in particolare da Leblanc, raccoglie e in certo senso porta alle estreme conseguenze i suggerimenti di van Fraassen, giungendo alla costruzione della cosiddetta semantica verojunzionale, nella quale i domini sono completamente eliminati in favore di valutazioni arbitrarie delle formule atomiche del linguaggio. L'idea che le formule logicamente valide o contraddittorie siano quelle invarianti rispetto a tutte le trasformazioni possibili dei valori di verità delle loro componenti atomiche, applicata fino in fondo, permette di eliminare qualsiasi riferimento al piano della « realtà »; ma si ripresentano allora puntualmente le difficoltà che già van Fraas- www.scribd.com/Baruhk La logica nel ventesimo secolo (TI) sen aveva dovuto affrontare relativamente alla specificità di certe strutture enunciative (quelle per così dire intrinsecamente quantificazionali) e le stesse soluzioni ad hoc. Per finire su questo argomento, fra le limitate applicazioni che la logica libera ha finora trovato ricordiamo la costruzione di teorie delle descrizioni più soddisfacenti dal punto di vista intuitivo di quelle tradizionali; l la costruzione di logiche modali predicative; i tentativi di applicazione alla teoria degli insiemi. In quest'ultimo campo, oltre a un articolo di Scott in cui si fornisce un'interpretazione « libera » della teoria delle classi virtuali di Quine, sono da ricordare recentissimi lavori di Ermanno Bencivenga. , II • SVILUPPI DELL'INDAGINE CLASSICA SUI FONDAMENTI Le pagine precedenti sono state dedicate a un sommario panorama degli sviluppi delle logiche « non classiche » viste come analisi alternative o come generalizzazioni delle nozioni che stanno alla base della fotmalizzazione delle teorie. Tutto ciò può essere riguardato come un ampliamento del raggio d'applicazione della formalizzazione a campi che per varie ragioni sembravano doverle sfuggire. Un analogo allargamento di prospettive si può verificare d'altra parte anche se si considerano i lavori più strettamente legati ai programmi fondazionali discussi nel capitolo v del volume ottavo. Si tratta di un campo d'indagine centrale per la riflessione logica che continua a registrare notevoli sviluppi tanto nella prosecuzione di temi classici quanto nella proposta di nuovi approcci all'intera problematica. Rimandando alla parte terza il discorso relativo alla fondazione categoriale - che costituisce il tentativo più significativo in questa seconda direzione - daremo qui un breve panorama di quanto fatto nella prima. I temi fondamentali che avevamo isolato nel capitolo v del volume precedente riguardavano lo sviluppo della teoria degli insiemi dopo il risultato di Paul Cohen, la generalizzazione del concetto di effettivo e il discorso relativo alla matematica intuizionista. In questo contesto è impossibile non tener conto di un indirizzo di ricerca cui in quel capitolo avevamo solo marginalmente accennato, cioè l'approccio ai problemi fondazionali fornito dalla teoria dei combinatori. Si tratta di ricerche che dopo un periodo di parziale stasi hanno conosciuto in tempi recenti particolari sviluppi. I) La teoria degli insiemi Come già ricordato l'evento centrale in questo campo dagli anni sessanta in poi è dato dalla dimostrazione di Paul J. Cohen dell'indipendenza dell'ipotesi la verità di «l'x tale che Px = l'x tale che Px » anche se un tale x non esiste o non è unico. r Nel senso che in esse, ad esempio, si può affermare, a differenza che in quella di Russell, I 57 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) generalizzata del continuo (/CC) e dell'assioma di scelta (AS). Da allora risultati di indipendenza per altre ipotesi matematicamente interessanti si sono sueceduti e hanno dimostrato ampiamente la fecondità del metodo del forcing e dell'uso dei modelli booleani. Dal punto di vista fondazionale però tutte queste dimostrazioni ripropongono con particolare urgenza il problema di come la teoria degli insiemi possa a pieno diritto presentarsi come teoria fondante per l'intera matematica. Le alternative infatti sono sostanzialmente due, come i lunghi dibattiti sul significato filosofico dei risultati di Cohen hanno posto in luce: o si accetta la irrimediabile pluralità dei possibili universi degli insiemi, o si prende un'altra strada cercando nuovi principi che diano determinatezza alla teoria raggiungendo in qualche modo una sorta di univocità. Accanto alla ricerca di nuovi principi alternativi o più forti di /CC c'è stato quindi un rinascere dell'interesse per le assiomatizzazioni della teoria degli insiemi diverse da quelle «classiche» come 3iJ6 e 9UB<fi. Al fondo di questo interesse ci sembra stia l'obiettivo di riprendere da capo in esame lo stesso concetto di insieme per vedere in dettaglio quali possibilità esso contenga e in che misura i risultati di indipendenza e la scelta di nuovi principi possano dipendere dall'assiomatizzazione assunta. Assiomatizzazioni diverse da quelle classiche esistevano già da tempo; basti pensare, per non fare che gli esempi più noti, ai sistemi 9liJ e ID1E di Quine basati sul concetto di stratificazione, e a quelli stile Ackermann che si fondano su una particolare interpretazione della « definizione » cantoriana degli insiemi come totalità di oggetti « ben definiti ». I sistemi di Quine si fondano su un ripensamento della gerarchizzazione in tipi proposta da Russell e ne forniscono una versione per così dire relativizzata mediante il concetto di stratiftcazione. Grosso ~odo l'idea di Quine è che si può evitare una gerarchizzazione a priori e per restringere l'assioma di comprensione è sufficiente postulare che la formula la cui estensione vogliamo assumere come insieme sia stratificata, ammetta cioè tra le sue variabili una gerarchizzazione in livelli per cui non si abbia mai che, se x Ey, x abbia un livello maggiore o uguale a quello diy. L'impossibilità di unificare le stratificazioni in un'unica assegnazione di tipo fa sì che i sistemi di Quine siano difficilmente confrontabili con 3iJ6 o 9l~<fi, per c~i vale un teorema di gerarchizzazione come quello di von Neumann. Prova della radicale diversità dei sistemi di Quine da quelli ordinari è ad esempio il risultato di Ernst C. Specker del 19 53 sulla contraddittorietà di 9liJ con AS: questo contrasta con il risultato di Gi:idel che, come si ricorderà, stabilisce la coerenza di 3iJ6 con l'assioma in questione. Lavori recenti hanno tentato di portare a una semplificazione del sistema riducendo il numero di livelli necessari nella stratificazione del principio di comprensione per 9liJ: V. Grishin nel 1972 ha dimostrato che sono sufficienti quattro livelli e successivamente Maurice Boffa ha trovato che il risultato non si può migliorare- nel senso che 9liJ non si può assiomatizzare con formule stratificate con tre livelli. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) In altra direzione si spingono i lavori riguardanti il sistema di Ackermann. L'idea di Ackermann è che perché una collezione di insiemi sia un insieme è necessario e sufficiente che « quello che appartiene e quello che non appartiene alla collezione sia delimitato in modo sufficientemente netto »; Ackermann assume cosl un linguaggio con le due costanti predicative E e M(« essere un insieme») e oltre all'assioma di estensionalità e di costruzione di classi assume uno schema (detto appunto di Ackermann) che sostanzialmente afferma che se tutti gli oggetti che godono della proprietà a (senza alcuna restrizione salvo che non deve contenere M) sono insiemi (cioè oggetti sufficientemente determinati) allora la estensione della proprietà sarà un insieme. A ciò va aggiunto un ulteriore assioma che stabilisce che ogni elemento e ogni sottocollezione di un insieme è a sua volta un insieme. Il sistema si presenta come particolarmente potente, ma nel 1970 W.N. Reinhardt è riuscito a dimostrare che se gli si aggiunge un assioma di fondazione si ottiene una versione di 3!J6, sicché dal sistema originario di Ackermann non c'è da attendersi «nulla di nuovo». È però possibile modificarlo conservandone le caratteristiche salienti: sempre Reinhardt ha proposto nel 1974 nuovi principi per la formazione di insiemi basati sull'idea di Ackermann e ne ha mostrato i collegamenti con analoghe proposte di Joseph R. Shoenfield e W.C. Powell e con i principi di riflessione. Esistono d'altra parte approcci più radicali al problema dell'assiomatizzazione della teoria degli insiemi, in cui viene rigettato come base il concetto di appartenenza: si tratta delle assiomatizzazioni della categoria degli insiemi di cui parleremo più avanti. In altra direzione, le ricerche affrontano direttamente il problema dello status di lGC e più in generale di altre ipotesi collegate a questa o a AS. Dopo il risultato di Cohen, il primo problema è naturalmente quello di indagare cosa succede una volta che non si assuma lGC (secondo la quale, ricordiamo, per ogni--cardinale f, &P( f) = zl = f+, il successore di f) ma in qualche modo la si indebolisca. Jack Silver ha dimostrato ad esempio che in 3!J6 AS se si assume lGC per tutti gli l) < f dove f è singolare e il suo carattere di cofinalità è strettamente maggiore di w allora l'ipotesi varrà anche per f, avremo cioè &P( f) = = zl; ciò non vale se la cofinalità di f coincide con w. In questa direzione esistono altri risultati dovuti a Stephen H. Hechler, Roland B. Jensen, Robert M. Solovay. Risultati di questo tipo permettono in certo senso di isolare i «punti critici» per cui l'assunzione della validità di lGC è essenziale. Molto vive anche le ricerche legate all'assioma di scelta e ai suoi rapporti con altri principi centrali in particolari settori della matematica. Da molto tempo si era osservato che tra AS, il principio che afferma che in ogni algebra di Boole ogni ideale è estendibile a un ideale primo (lP) e il teorema di Hahn-Banach sui grafi chiusi (HB), esistono forti contatti. Nel 1971, James D. Halpern aveva dimostrato che lP non implica AS mentre, come noto, ne è implicato: esso costituisce quindi un + I 59 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) principio più debole di AS, e ciò è di notevole interesse se si pensa che molte dimostrazioni algebriche che normalmente sfruttano il lemma di Zorn (equivalente a AS) si possono ottenere ricorrendo a /P: un esempio è il teorema di completezza per teorie elementari, un altro il teorema di Steinitz sull'esistenza per ogni campo~ numerabile di una sua chiusura algebrica (un'estensione «minimale » in cui tutti i polinomi su ~ si decompongono in fattori lineari). Nel 1972 D. Pincus ha dimostrato che la stessa situazione si presenta nel caso di HB: mentre esso è conseguenza di AS, la sua assunzione non comporta AS. L'interesse generale di questi risultati sta nel fatto che essi mostrano come in un certo senso i principi di costruzione fondamentali di specifiche discipline (ad esempio teoria dei campi e analisi funzionale) possono sì essere unificati sulla base del concetto di insieme in un principio solo - l'assiom;J. di scelta appunto - ma questa unificazione risulta non sempre « giustificata » sul terreno specifico, e può esserlo solo - se mai lo è - sulla base di considerazioni a priori sul concetto di insieme. Altra prospettiva di ricerca è costituita dall'indagine sistematica dei rapporti fra i vari tipi di grandi cardinali e le conseguenze dell'assunzione della loro esistenza. Da un punto di vista realista l'analisi dei grandi cardinali è essenziale: essi costituiscono assiomi forti dell'infinito ed il principio base di una posizione realista che accetti come fondamentale il concetto di insieme è che totalità « grandi» svolgono un ruolo importante nello studio e nell'organizzazione di fatti che riguardano anche totalità «piccole ».l I problemi sono quindi due: il primo riguarda il « modo » di formulare assiomi forti di esistenza e questo si ricollega per un certo verso con le indagini sulle assiomatizzazioni della teoria degli insiemi; l'altro riguarda più strettamente la possibilità di ottenere, via l'assunzione di grandi cardinali, risultati matematici o logici specifici. È impossibile dare una rassegna in questa direzione, ché saremmo costretti ad introdurre una lunga serie di definizioni. Ci limitiamo ad accennare ai risultati recentemente ottenuti da M. Magidor sulla supercompattezza. In primo luogo Magidor ha dimostrato che è consistente con gli assiomi di 30:6 assumere che il primo cardinale fortemente compatto sia supercompatto; in secondo luogo ha collegato l'esistenza dei supercompatti a proprietà logiche dei linguaggi del secondo ordine: ha provato ad esempio che essa equivale ad una forma del teorema di Lowenheim-Skolem per logiche del secondo ordine, mentre invece l'esistenza di un supercompatto estendibile comporta, per la stessa logica, un teorema di compattezza. Grosso modo, la plausibilità di questi risultati si può vedere considerando che il ruolo degli assiomi forti dell'infinito è in larga misura quello di permettere di riflettere in livelli 1 Un paradigma è dato dalle dimostrazioni analitiche, che sfruttano quindi il continuo reale o addirittura il campo complesso, di teoremi aritmetici. In quest'ottica il teorema di indecidi- bilità di Godei viene letto come la dimostrazione della necessità di principi insiemistici veri e propri nello studio dei numeri naturali. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) dell'universo che sono insiemi proprietà di un oggetto che coinvolgono tutto intero l'universo. Di qui il collegamento fra principi di riflessione e esistenza di grandi cardinali: più grandi sono i cardinali che assumiamo esistere, più fini evidentemente sono le proprietà degli oggetti che riusciamo a riflettere. L'importanza dei risultati di Magidor sta nel fatto che essi estendono un collegamento che fino ad ora valeva per le proprietà elementari a proprietà del secondo ordine, e quindi estremamente più profonde. Di estremo interesse anche le ricerche sull'assioma di determinatezza (AD) che gettano luce su problemi classici della teoria descrittiva degli insiemi. AD è stato proposto per la prima volta (e con molte cautele per quanto riguarda il suo status di assioma) da Jan Mycielski nel 1964, ed è formulato in termini della teoria matematica dei giochi; diamo un'idea del suo contenuto. Supponiamo che X sia un insieme (per lo più si considera il caso in cui X sia N o {o, 1 }). Intuitivamente l'idea è che se immaginiamo di avere due giocatori I e II e concepiamo le mosse come scelta di elementi in X, una partita sarà una successione di mosse e quindi un elemento x E XN. Perché abbia senso parlare di gioco occorre specificare quando uno dei due giocatori vince una partita. Per far questo in generale ci basta scegliere un sottoinsieme A di XN e convenire che la vittoria è di I nella partita x se x E A. Un gioco Gx(A) è precisato una volta che siano dati X e A. Nella teoria dei giochi si pone il problema delle strategie vincenti, che matematicamente possiamo precisare nel modo seguente. Dato un gioco Gx(A) una strategia è una funzione da successioni finite di elementi di X a elementi di X, nel senso che è una procedura che ci permette di scegliere una mossa (un elemento di X) in base alle mosse fatte precedentemente (successione finita di elementi di X). Se I usa la strategia a e II la strategia r, indichiamo con a o T la partita che si ha quando X 2n si ottiene applicando a alla successione X1, ... , X2n-1 e X2n-1 è ottenuto applicando r a X1, ... , X2n-2: le mosse dispari sono di I che usa a e le mosse pari sono di II che usa r. Una strategia vincente per I nel gioco Gx(A) è allora chiaramente una strategia a tale che, per ogni r, a o T appartiene ad A, cioè qualunque sia la strategia di II, I vince la partita seguendo a. Non in tutti i giochi esiste una strategia vincente per uno dei giocatori, se si parla di giochi reali (si pensi ad esempio ai giochi aleatori, tipo dadi, ecc.). Un gioco Gx(A) è determinato se I o II ha una strategia vincente cioè se (*) 3a'i7'r(a o T E A) V 3N a( a o-r i A). Un insieme A è determinato se lo è il gioco GN(A). L'assioma di determinatezza è l'assunzione che ogni gioco è determinato (e quindi in particolare che ogni insieme lo è). L'interesse dell'assioma sta nel fatto che in un certo senso esclude totalmente l'esistenza di giochi aleatori nei quali non esistano strategie vincenti, e impone quindi una sorta di «regolarità», la cui natura si può vedere consi- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) derando che la formula (*), che esprime la determinatezza per il gioco Gx(A), si può esprimere anche nel modo seguente Vd a( a o T E A)::::> 3aVr(O'o "t'E A). In questa fo~ma l'assioma viene a dire che se esistono controstrategie «locali», esiste una strategia vincente «globale». Questo passaggio dal locale al globale è espresso da una inversione dei quantificatori: da una formula del tipo V 3 passiamo a una formula del tipo 3 V. Passaggi come questo richiedono in generale assunzioni di finitezza, di compattezza, di uniformità, ecc. ed è in questo senso che l'assioma impone una «regolarità» sugli insiemi. Una prima conseguenza dell'assioma è che da esso si ricava il principio della scelta numerabile; questo non significa però che AD sia una forma più forte di AS: si può infatti dimostrare che la determinatezza dei giochi GN(A) implica che non esistono ultrafiltri non principali su N e quindi implica la negazione del teorema dell'ideale primo e, di conseguenza, di AS. Questo fatto pone in luce come AS contenga in sé un'assunzione di «casualità» che AD nega; vedremo più avanti, parlando del teorema di Diaconescu sui topoi elementari, un altro aspetto di questa casualità. Abbiamo visto come AD comporti la possibilità di un'inversione di quantificatori. In generale esiste uno stretto rapporto fra giochi e quantificatori che è stato ampiamente sfruttato nella teoria dei modelli e anche nella filosofia della logica. H. Jerome Keisler ha applicato la teoria dei giochi ai linguaggi infinitari proprio in quest'ottica e partendo da questo collegamento Hintikka ha sviluppato tutta una teoria dei giochi di quantificatori in connessione con la teoria dei giochi linguistici di Wittgenstein. In generale, nella misura in cui riusciamo ad associare a una formula del tipo V3 un gioco, è possibile, applicando AD, attenerne un'altra equivalente del tipo 3V. Questo spiega come AD abbia grosse conseguenze nello studio delle gerarchie analitica e proiettiva che costituiscono il campo centrale della teoria descrittiva degli insiemi. Entrambe le gerarchie si basano su una classificazione degli insiemi fondata sulla complessità della loro definizione, che viene misurata in particolare dal tipo di prefisso delle formule definitorie. In generale si ha, come posto in luce nel 1968 da D.A. Martin e quindi da J.W. Addison e Yannis Nicholas Moschovakis, che se si aggiungono assunzioni di determinatezza si ottengono principi di riduzione per i livelli superiori delle gerarchie; e questo è di estremo interesse in vista dei legami oggi esistenti fra generalizzazioni della teoria della ricorsività e teoria descrittiva degli insiemi. Strettamente connessi a questi sono i rapporti fra A D e teoria della misura; la cosa non sorprende se si pensa a quanto detto sopra sul teorema dell'ideale primo e ai legami fra filtri e funzioni di misura. Una delle conseguenze più sin- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) golari è ad esempio che AD comporta la misurabilità secondo Lebesgue di ogni sottoinsieme della retta reale, il che contrasta con il teorema classico, che si dimostra utilizzando AS, per cui esistono sottoinsiemi della retta reale non misurabili. In questo contesto si situano alcuni lavori di Martin del 1970 sui rapporti fra cardinali misurabili e AD. Recentemente, sempre Martin ha dimostrato che i giochi boreliani sono determinati (dove un gioco Gx(A) è boreliano se lo è A). Il discorso sulle gerarchie e sui collegamenti con la teoria generalizzata della ricorsività ci porta a un altro tema in evidenza in questi ultimi anni, che riguarda la nozione di costruibilità. L'elemento nuovo in questo interesse per i costruibili è dato dall'analisi del significato dell'assolutezza del concetto di costruibilità in termini della forma delle formule che ci permettono di definire la gerarchia costruibile. Si può dimostrare infatti che l'assolutezza della nozione di costruibilità dipende dal fatto che le formule di cui ci serviamo per definire la gerarchia sono del tipo ~r~ 6 (se ci muoviamo in 3~6) sono cioè formule che rispetto a 3~6 sono equivalenti a formule tanto del tipo Vx1, ... , Xnd quanto del tipo 3xh ... , xnf!lJ, dove d e f!lJ sono formule senza quantificatori illimitati: appunto per questa persistenza rispetto alle estensioni e alle restrizioni le formule ~l sono assolute. L'idea di considerare la gerarchia delle formule insiemistiche in base ai blocchi di quantificatori illimitati è di Azriel Levy (1965) e permette di vedere molto bene i rapporti tra costruibilità, proprietà delle gerarchie e generalizzazioni della ricorsività. Come si ricorderà infatti le gerarchie della teoria della ricorsività si basano in larga misura sulla complessità dei prefissi ed è questo che consente di estendere molti concetti della teoria della ricorsività basata sulla teoria dei numeri naturali a una teoria della ricorsività basata sulla teoria degli insiemi. Centrale è il problema di individuare il nucleo minimale della teoria degli insiemi che sia in grado di permetterei la definizione degli analoghi insiemistici delle funzioni ricorsive primitive e di dimostrare la chiusura rispetto a schemi definitori quali quello di recursione. Il nucleo fondamentale individuato è costituito dalla teoria .R\.l-3 di KripkePlatek che si ottiene da 3~6 eliminando gli assiomi della potenza e dell'infinito e restringendo lo schema di rimpiazzamento a formule ~o (cioè senza quantificatori illimitati) . .RilJ è sostanzialmente una versione in termini di appartenenza della teoria di Peano dei numeri naturali eq il ruolo dell'assioma di induzione è svolto dallo schema di fondazione (un principio di fondazione relativo a formule e non a insiemi). Entro .RilJ si possono così definire funzioni primitive ricorsive su insiemi e studiare le gerarchie che ne risultano. In particolare .RilJ ci permette di isolare una classe di insiemi notevolmente interessanti, quella degli insiemi ammissibili, che costituiscono nelle generalizzazioni della teoria della ricorsività gli analoghi dell'insieme dei numen naturali: un insieme è ammissibile www.scribd.com/Baruhk La logica nel ventesimo secolo (II) (interpretando l'appartenenza sulla reale appartenenza) se è modello di ~l_l3. 1 L'importanza di questo tipo di ricerche, come vedremo brevemente più avanti, sta nella luce che esse gettano sulle proprietà semantiche e sintattiche dei linguaggi infinitari: come la teoria delle funzioni ricorsive numeriche è la base per la sintassi dei linguaggi finitari, così la teoria delle funzioni ricorsive su insiemi è la base della sintassi dei linguaggi infinitari; e il rilievo che in questo contesto acquistano gli ammissibili sta nel fatto che- come ricordato nel capitolo v del volume ottavo parlando del teorema di Barwise - per essi vale una forma del teorema di compattezza. Lavori molto interessanti sugli insiemi ammissibili si devono a K. Jon Barwise, Shoenfield e altri che ne hanno indagato sistematicamente le proprietà, non solo in collegamento con i linguaggi infinitari . .Questi lavori pongono in luce un possibile modo di generalizzare i concetti di finito, ricorsivo, ecc. Nella misura in cui i concetti fondamentali della teoria ordinaria della ricorsività (ORT) si possono giustificare in base a considerazioni diverse (macchine di Turing, sistemi equazionali, definibilità all'interno di teorie, ecc.) è chiaro d'altra parte che saranno possibili diverse vie per raggiungere generalizzazioni adeguate. È di questo che ci occuperemo nel prossimo paragrafo. 2) Generalizzazione del concetto di effettivo I primi lavori di generalizzazione della ORT possono essere analizzati come uno studio dei rapporti di analogia esistenti fra le gerarchie aritmetica e analitica (Stephen C. Kleene, 195 5). Si può cioè considerare l'insieme dei predicati iperaritmetici come la generalizzazione al secondo ordine dell'insieme dei predicati ricorsivi (anche se questa analogia non è così stretta come può sembrare: si veda più oltre il discorso sugli insiemi « metafiniti ») e quindi si studiano i rapporti fra le gerarchie basate su tali insiemi di partenza: si noti tuttavia che all'insieme dei predicati ricorsivamente en~merabili (1:~) dovrà essere fatto corrispondere l'insieme n~ e non l'insieme 1:~. L'estensione del concetto di funzione parziale ricorsiva potrà essere agevolmente ottenuta per esempio introducendo un opportuno sistema di indici per gli insiemi n~ e definendo le funzioni parziali n~ a partire da grafi n~: in questo modo alle funzioni ricorsi ve totali cor"risponderanno le funzioni iperaritmetiche, cioè quelle funzioni il cui grafo è A~. Lo studio di questo tipo di analogia ha portato a una serie di risultati assai interessanti non solo per l'ampliamento di conoscenza sulla gerarchia analiti- 1 Kripke aveva isolato la nozione di ordinale ammissibile, partendo da una generalizza- zione del calcolo di Godel-Kleene delle funzioni ricorsive (cui si accennerà più avanti). L'idea di considerare gli insiemi ammissibili e l'osservazione della validità per essi di uno schema particolare di riflessione è di Richard Platek, cui si deve propriamente la teoria della ricorsività su insiemi ammissibili. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) ca, ma anche sulla funzione, spesso ambigua, dei concetti basilari della ORT.l In relazione a questa tematica e allo studio dei funzionali di tipo finito, nel 1962 viene presentata da Kleene una generalizzazione delle maccbine di Turing basata sull'« halting problem ». Accanto agli usuali passi della procedura si suppone la possibilità di un passo « speciale » che consiste nello stabilire le condizioni di stop di una macchina di Turing di cui è dato il codice: tale passo è lecito però solo nel caso in cui la macchina di cui si studia la procedura o è ordinaria o contiene passi speciali di complessità inferiore (si tratta qu~ndi di una definizione per induzione). Le funzioni computate da queste macchine risultano essere esattamente le n~: quindi è possibile caratterizzare queste funzioni come quelle per il cui calcolo si può procedere in modo deterministico sulla base di un insieme finito di istruzioni, purché si supponga la capacità, ad ogni istante, di « passare in rassegna » una successione infinita di passi. Risulta ovviamente possibile descrivere tali macchine mediante un albero in cui al primo livello compaiano i passi della procedura, e ad ogni livello successivo i passi delle sottoprocedure che corrispondono ai passi speciali del livello precedente: ad ogni albero di questo genere verrà associato in modo naturale un ordinale che ne misura la complessità e che risulterà essere un ordinale ricorsivo. A questo punto è abbastanza naturale concepire una nuova 'generalizzazione della ORT, in cui l'insieme N dei numeri naturali sia sostituito dall'insieme Or degli ordinali ricordvi (più precisamente Or è un particolare insieme di notazioni, quindi ancora di numeri naturali, per gli ordinali ricorsivi): va notato che Or è un insieme n~ ed è completo nel senso che ogni insieme n~ è « riducibile » (sulla base di un'opportuna estensione del concetto di riducibilità della ORT) a Or. Questa generalizzazione, detta metaricorsività, è stata proposta da Georg Kreisel e Gerald Sacks nel 196 5, sullo spunto degli studi condotti da Gaisi Takeuti negli anni cinquanta. Un insieme (di ordinali ricorsivi) verrà detto: metaricorsivamente enumerabile se l'insieme di notazioni dei suoi elementi è nb metaricorsivo se sia l'insieme delle notazioni dei suoi elementi sia il suo complemento (rispetto a Or) è n~; metaftnito se l'insieme delle notazioni dei suoi elementi è ~~. Si noti in special modo la generalizzazione del concetto di finito : esso viene interpretato come « ricorsivo e limitato » e nella generalizzazione ciò diventa « metaricorsivo 1 Per chiarire meglio questo fatto possiamo per esempio notare che nell'estensione di un asserto (teorema) dalla gerarchia aritmetica a quella analitica, possiamo studiare l'analogia in senso stretto, trasformando cioè ogni concetto aritmetico nel suo analogo analitico, oppure operare solo parzialmente tale trasformazione (si ricordi che la gerarchia aritmetica è una sottogerarchia di quella analitica). Se ad esempio vogliamo definire il concetto di insieme Ilf-produttivo, possiamo stabilire che la funzione parziale produttiva ad esso associata sia Hl-parziale (analogia totale) oppure che essa rimanga ancora parziale ricorsiva (analogia parziale) e i risultati che si potranno ottenere saranno ovviamente diversi: se l'estensione di un teorema vale nel caso dell'analogia totale si è portati a ritenere che la funzione dei concetti che compaiono nel suo asserto (nella ORT) è, per così dire, relativa all'universo in cui si muove; viceversa nel caso dell'analogia parziale·si metterebbe in luce il valore assoluto (non cambia estendendo l'universo) di alcuni di questi concetti. www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) e limitato (da un ordinale ricorsivo) »,il che è equivalente a richiedere che sia ~~. Ciò, in connessione con il fatto che ovviamente la gerarchia analitica può essere studiata come una particolare restrizione della metaricorsività (identificando i numeri naturali con gli ordinali finiti, gli insiemi n~ coincidono con i metaricorsivamente enumerabili), indica come nell'analogia fra gerarchia aritmetica e gerarchia analitica non sempre sia opportuno far corrispondere gli insiemi ~~ agli insiemi ricorsivi, ma agli insiemi finiti. Vi è inoltre una conseguenza assai importante: mentre ogni intersezione di un insieme numerico con un qualunque insieme numerico finito è ovviamente finita, non è detto che ogni intersezione di un insieme A di ordinali ricorsivi con insiemi metafiniti sia a sua volta metafinita. Se ciò si verifica in ogni caso, diremo che l'insieme A è regolare. Molto spesso si verifica che le"estensioni dei teoremi sugli insiemi ricorsivamente enumerabili agli insiemi metaricorsivamente enumerabili valgono solo supponendo tali insiemi regolari: d'altra parte si dimostra che ogni insieme metaricorsivamente enumerabile è « riducibile-» a qualche insieme metaricorsivamente enumerabile e regolare. In altre parole, una delle conseguenze dei lavori di generalizzazione consiste nel mettere in luce più profondamente i nessi che intercorrono fra i vari concetti enucleati nell'ambito non generalizzato, nessi talora ambigui e oscuri proprio a causa della relativa « semplicità» o anche «concretezza» della struttura di partenza. A livello di esposizione abbiamo presentato la metaricorsività come un'u] .. teriore generalizzazione dello studio della gerarchia analitica: anche se i rapporti sono molto stretti e lo studio della gerarchia analitica con i metodi della metaricorsività si rivela assai fruttuoso, tuttavia storicamente le basi della metaricorsività si sono sviluppate nell'ambito delle ricerche sul concetto di definibilità (al secondo ordine). Il collegamento può essere reso intuitivo considerando come alla « complessità » relativa di ogni particolare insieme che si vuol definire corrisponde la complessità di una formula in un opportuno linguaggio (in generale infinitario); questa a sua volta può essere analizzata mediante un opportuno albero (che potrebbe venir fatto corrispondere a una macchina di Turing generalizzata) e quindi un opportuno numero ordinale (o meglio una notazione per tale numero). Da questo punto di vista assume allora ovvia importanza lo studio degli insiemi numerici definiti in modo induttivo (Clifford Spector, 1961) in un linguaggio del primo ordine (cioè a una definizione esplicita al secondo ordine si sostituisce una definizione induttiva, e quindi implicita, al primo ordine): gli insiemi induttivi risultano essere esattamente i n~. Al momento attuale le ricerche sono indirizzate verso generalizzazioni dei filoni precedentemente ricordati. In particolare mette conto di ricordare: - lo studio approfondito delle generalizzazioni delle analisi basate sul concetto di « riducibilità » (gradi, ecc.) relativamente ad enti di tipo superiore a quello dei numeri naturali (funzionali oppure ordinali ricorsivi); un'ulteriore 166 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) generalizzazione si basa sul concetto di ordinale ammissibile (intuitivamente un ordinale a è ammissibile se ogni « deduzione » a partire da un sistema finito di equazioni e che contenga numerali che siano notazioni. di ordinali minori di a ha una« complessità» minore di a) e viene sviluppata in modo del tutto analogo (per quello che riguarda la struttura di base) alla metaricorsività: l'importanza di tale generalizzazione sta nel fatto che comunque sia dato un ordinale ammissibile, l'insieme degli ordinali minori si comporta (dal punto di vista della generalizzazione) come l'insieme dei numeri naturali (si noti che ogni cardinale è un ordinale ammissibile); - una parallela ripresa delle ricerche sulle definizioni induttive, non più solo in. relazione alla struttura dei numeri naturali, ma generalizzate a strutture arbitrarie~" A questo proposito ricordiamo come questi studi si siano inizialmente sviluppati in un ambito alquanto diverso, che tendeva a generalizzare a strutture arbitrarie proprio il momento « calcolistico » della ORT: anche se i risultati ottenuti erano promettenti, l'apparato definitorio risultava complesso e spesso artificioso; il cambiamento di prospettiva, con il quale si è focalizzato l'interesse sulle definizioni induttive, ha permesso di inquadrare i risultati precedentemente raggiunti in una sistemazione assai più semplice dal punto di vista concettuale. Va anche notato che le ultime ricerche in questo campo hanno permesso di ottenere nuovi risultati nell'ambito della generalizzazione basata sugli ordinali ammissibili cui si è fatto cenno al punto precedente. Un altro filone di ricerca si occupa delle sistemazioni di tipo assiomatico (come tali quindi applicabili a strutture entro certi limiti arbitrarie) che hanno il loro punto di partenza nella teoria degli indici della ricorsività ordinaria (teorema di ricursione). Infine, anche se con maggior discontinuità, vengono approfondite le tematiche relative alla presentazione di « macchine » o comunque « dispositivi » in grado di simulare la generalizzazione della ORT a strutture arbitrarie (purché ovviamente dotate di una qualche possibilità di approccio di tipo combinatorio). 3) La teoria dei combinatori Come abbiamo visto, la teoria della ricorsività e le sue generalizzazioni hanno come sfondo la teoria degli insiemi e in questo senso costituiscono un approccio classico al problema dell'effettività e della computabilità di funzioni e funzionali. Esiste però un altro contesto in cui è possibile sviluppare un'analisi del concetto di computazione e di quello di regola: si tratta della teoria dei combinatori, che negli ultimi anni ha registrato notevoli sviluppi, proprio in vista delle possibilità che essa offre di studiare nella loro generalità questi concetti. La ricchezza della problematica attuale legata alla teoria dei combinatori contrasta con le motivazioni apparentemente modeste che hanno portato al suo www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) sorgere. L'idea di Moses Schi:infinkel (cui si deve la creazione della teoria) nel 1924 era di ridurre, all'interno del programma hilbertiano, i presupposti della sintassi dei linguaggi formali eliminando la distinzione in categorie sintattiche (variabili individuali, predicative, ecc.) che sembrava essere giustificata unicamente dall'interpretazione insiemistica che i linguaggi ammettevano, ma non dall'aspetto formale dei calcoli. L'idea di Schi:infinkel è che in ogni calcolo logico si ha a che fare con termini che denotano funzioni, siano esse su individui, o proposizionali, ecc., e che le regole deduttive si possono vedere come prescrizioni sul computo di queste funzioni: sicché la sua analisi parte appunto dal concetto di funzione. Per determinare una funzione occorre stabilire per ogni argomento per cui è definita il corrispondente valore. Pensiamo ad esempio alla sottrazione e supponiamo di disporre di un simbolo«-» che indica l'operazione. Consideriamo l'espressione x - y: di per sé essa non denota una funzione ma la forma schematica del valore di una funzione per gli argomenti x eJ'· Per ottenere un termine che denoti una funzione occorre astrarre da x - y rispetto alle variabili. Possiamo così convenire che il termine J..xy . x - y denoti la funzione che applicata a ogni coppia a, b dà come risultato appunto a - b. Per ora non si tratta che di una semplice notazione, per distinguere la funzione in sé dal risultato della sua applicazione; perché l'interpretazione del termine J..xy . x - y sia quella voluta, occorre formulare regole per la sua computazione. Introduciamo allora tra i termini una operazione, quella di applicazione: dati due termini a e b, con (ab) indicheremo l'applicazione della «funzione» denotata da a all'« argomento» denotato da b. Per imporre questa interpretazione al termine J..xy . x - y si dovrà allora formulare una regola del tipo (J..-conversione) (J..x. b(x)a) = b[a] dove b[a] indica il risultato della sostituzione delle occorrenze libere di x (cioè non all'interno del campo d'azione di J..) con occorrenze di a. Nel nostro caso ad esempio applicando due volte la regola otterremmo ((J..xy. x -ya)b) = (0' . . a -y)b =a- b. In generale l'operazione di applicazione non è associativa e quindi per indicare l'ordine di applicazione dovremo usare delle parentesi; nell'esposizione informale che segue noi comunque le elimineremo ogniqualvolta ciò non si presti ad ambiguità. L'analisi che la À-regola ci offre del computo delle funzioni riduce sostanzialmente ogni funzione ad una unaria, con un solo argomento: la sottrazione tra due numeri si ottiene dal termine J..xy . x - y mediante due successive applicazioni dell'operatore di astrazione À. Da una prospettiva più generale possiamo vedere la À-regola come una sorta di assioma di comprensione: se ammettiamo come esistenti nel nostro universo solo gli oggetti denotati dai termini, la regola www.scribd.com/Baruhk La logica nel ventesimo secolo (II) ci dice infatti, poste delle condizioni su una funzione, che esiste la funzione in questione, cioè ad esempio il termine Àxy . x - y denota la funzione richiesta. Ora quello che Schonfinkel voleva ottenere, a partire da uno stock finito di termini e dall'operazione di applicazione fra di ess'i, era un termine, diciamolo Z, che godesse delle proprietà di À, tale cioè che per ogni f e per ogni a1, ... , an si avesse Zja1, ... , an= j(a1, ... , an); ma voleva inoltre giungere all'eliminazione delle variabili, in quanto il loro ruolo, come si è ben visto utilizzando l'operatore À, è puramente accessorio, serve solo ad indicare in che senso si astrae da un termine dato, mentre l'essenziale è la sola regola su À; il problema era allora di trovare termini e regole per il loro impiego che permettessero di « combinare » le espressioni richieste. Sono questi i combinatori definiti da Schonfinkel. Accanto all'eliminazione della categoria sintattica delle variabili, ne viene implicitamente fatta una seconda e più radicale, in quanto non si pone alcuna differenza fra termini che denotano funzioni e termini che denotano argomenti (co~ me si può vedere tanto nel caso di À che in quello di Z). In Schonfinkel tuttavia il progetto rimase allo stato di abbozzo, come pure le motivazioni, che erano sostanzialmente riduzionistiche. È ai lavori di Haskell B. Curry, a partire dal 1929, che si deve la prima formulazione di un sistema rigoroso e il suo inquadramento in un contesto più generale. Curry costruisce il sistema basico dei combinatori, estendendo il qqale è possibile ottenere quella formulazione dei vari calcoli logici senza variabili e senza distinzioni a priori di categorie sintattiche che era l'obiettivo di Schonfinkel. Una formulazione equivalente a quella di Curry è la seguente. Il linguaggio è formato da atomi, fra i quali tre combinatori fondamentali I, K, S. Termini saranno gli atomi e, se X e Y sono termini, anche (XY). Le regole daranno una relazione di riducibilità fra termini che intuitivamente, una volta che si interpreti (XY) come l'applicazione di X a Y, forniscono regole di computazione. Avremo gli assiomi (si legga A t> B come «A si riduce aB») per ogni X, Y, Z IX t> X KXY t> X SXYZ t> XZ(YZ) Xt>X e le regole (a) X t> X'-+ZX t> ZX' (/3) (y) X t> X'-+XZ t> X'Z X t> Y;\ Y t> Z-+X t> Z. Come dimostrato da Curry è possibile, sulla base di questo sistema, definire un termine (un combinatore) [x1, ... , x,.] che svolge il ruolo dell'operatore di www.scribd.com/Baruhk La logica nel ventesimo secolo (II) astrazione À, tale cioè che per ogni termine N1, ... , Nn e 1lf si abbia È questo il teorema di completezza combinatoria per il sistema basico. Possiamo ora introdurre una distinzione tra termini: alcuni si possono contrarre, mediante gli assiomi e le regole, in altri termini, altri no. Più precisamente, se chiamiamo redex i termini della forma IX, SXY, e KXYZ, contrarre significa rimpiazzare in un termine l'occorrenza di un suo redex con il termine cui questo si riduce mediante regole e assiomi. Un termine è in forma normale quando è irriducibile, cioè quando non contiene alcun redex. Questa distinzione ha un significato dal punto di vista interpretativo. Intuitivamente tutti i combinatori si possono vedere come funzioni generalizzate in quanto fra di essi è definita un'operazione di applicazione; possiamo dire che gli argomenti su cui è definito un combinatore U sono quei termini X tali che U X si converte ad un termine normale, cioè irriducibile dal punto di vista della computazione. Non tutti gli U X però si convertono in forma normale e ciò si può interpretare quindi dicendo che U non è definito per X. Potremo quindi parlare di funzioni generalizzate, ma parziali, ossia non ovunque definite. In questa prospettiva divengono essenziali due questioni: in primo luogo stabilire un criterio affinché un termine U sia riduci bile a forma normale; in secondo luogo, perché si possa davvero parlare di funzioni parziali, si dovrà dimostrare che non è possibile che un termine si converta a due termini in forma normale essenzialmente diversi. Alla seconda questione risponde il teorema dimostrato da Church e J. Barkley Rosser che ha un ruolo fondamentale nella teoria dei combinatori. Esso ammette due versioni: la prima afferma che se Usi riduce a X e a Y, allora esiste uno Z tale che tanto X quanto Y si riducono a Z, dal che consegue che un termine si potrà convertire ad una sola forma normale. La seconda riguarda la relazione di equivalenza « = » che possiamo stabilire fra termini sulla base del concetto di riducibilità. La riducibilità infatti introduce chiaramente un preordine fra i termini: la « = » non è nient'altro che l'equivalenza che possiamo definire assumendo che X= Y se e solo se X [> Y e Y [> X. Il teorema di Church e Rosser afferma allora che se X= Y esiste 3-mo Z cui entrambi si riducono; da ciò consegue che se X= Y o entrambi non hanno forma normale oppure, se l'hanno, è la stessa. Rimane il primo problema, quello di determinare quando un termine U si converte a una forma irriducibile. Mentre esistono algoritmi per stabilire quando· U e V hanno la stessa forma normale (ammesso che ne abbiano almeno una) non esiste in generale una procedura di decisione che ci dia tutti e soli i termini che ammettono forma normale. J70 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Il sistema basico dei combinatori permette di costruire termini estremamente semplici; è però possibile estenderlo in modo da ricostruire sistemi formali più complessi, ad esempio fondare l'intera logica su questo sistema esteso. Si giunge così ai cosiddetti sistemi illativi di Curry che consentono la riformulazione dei calcoli logici fondamentali. L'idea di fondo è di ammettere fra gli enunciati della teoria anche enunciati della forma l- X dove X è un termine, e che intuitivamente rappresentano l'asserto metateorico «l'enunciato X è dimostrabile». È questo un modo per passare dalla computazione di funzioni proposizionali all' asserzione di proposizioni. Si tratta poi di introdurre nuove combinazioni e quindi nuove costanti con cui formare le ordinarie connessioni fra enunciati: l'obiettivo finale è chiaramente quello di poter ottenere come dimostrabili nel nostro sistema tutte le espressioni della forma 1-- X dove X è un termine che rappresenta una formula dimostrabile nel sistema logico che vogliamo rappresentare. Già a questo livello, come posto in luce da Curry, si pone un grosso problema: la formulazione in termini di combinatori è estremamente generale in quanto le regole di conversione e le regole aggiuntive che dobbiamo dare per connettivi e quantificatori si applicano a termini qualsiasi, non avendo assunto alcuna distinzione in categorie sintattiche. Capita così che se assumiamo una regola del tutto naturale del tipo X= Y 1\ 1-- X--+ 1-- Y e per ogni coppia di termini X e Yassumiamo altrettanto naturalmente che esista il termine X=> Y in modo che risultino soddisfatte le regole X=> Y, X 1-- Y e 1-- (X=> (X=> Y)) => => (X=> Y), otterremo che per ogni termine Y si deduce nella teoria 1-- Y; in altre parole, il sistema è contraddittorio. Occorre quindi in qualche modo restringere la generalità delle regole: dopo molteplici tentativi Curry, con la collaborazione di Kleene e Rosser, riuscì a giungere a formulazioni adeguate. Qui è importante non tanto dare una formulazione di questi sistemi quanto sottolineare l'atteggiamento di Curry di fronte a queste contraddizioni: in netta antitesi con l'approccio insiemistico che in base a un'analisi semantica assume una classificazione a priori dei termini in categorie sintattiche, per Curry si parte invece dal sistema basico in cui tale distinzione non esiste e man mano che si rafforza il sistema aggiungendo nuovi operatori e nuove regole, si deve analizzare il modo di imporre restrizioni alla generalità originale delle regole. La distinzione in categorie o in tipi ha un grosso ruolo in queste restrizioni, in quanto ci permette di porre distinzioni, in termini di tipi, all'applicabilità delle regole, ma non viene accettata a priori e non è l'unica: di volta in volta se ne può riscontrare la necessità all'interno del sistema che si costruisce. Ma qual è il vantaggio di questo partire da un livello così primitivo di generalità, a parte il suo interesse intrinseco da un punto di vista teorico? Il fatto più significativo è che in questo modo abbiamo un contesto in cui studiare le regole di computo o di trasformazione tra oggetti nella loro generalità. Abbiamo sopra interpretato il sistema basico come una teoria del computo delle funzioni www.scribd.com/Baruhk La logica nel ventesimo secolo (II) parziali. A ben vedere, gli oggetti propri della teoria non sono le funzioni come oggetti insiemistici ma le definizioni di funzioni, le funzioni in intensione. Il comportamento delle funzioni, in questo contesto, è dato unicamente dalle regole di conversione e i rapporti di uguaglianza o diversità fra termini valgono solo se si possono stabilire in base a queste regole. Ciò significa che la nostra è una teoria delle « funzioni parziali » intensionali, viste come procedure di computo e non come oggetti dell'universo degli insiemi. Questo spiega anche la non assunzione a priori di una gerarchizzazione in tipi, che si impone se si vedono le funzioni come insiemi di n-uple di oggetti (che saranno di tipo inferiore). All'interno di questo contesto generale possiamo ricostruire teorie particolari riguardanti specifiche classi di funzioni. Lo si può vedere ad esempio ricostruendo la teoria delle funzioni ricorsive all'interno del sistema basico dei combinatori. All'interno di questo sistema si possono infatti definire dei combinatori che rappresentano la successione dei numeri naturali; quindi, è possibile trovare, per ogni funzione ricorsiva parziale, un termine del calcolo che la definisca all'interno del sistema. In altre parole, data una funzione n-aria f è possibile trovare un termine X del sistema tale che per ogni n-upla a1, . •. , an di numeri naturali abbiamo [ Xa1, ... , an] = j(a1, ... , an) dove at è il termine che rappresenta il numero naturale at e j(a1, ... , an) il termine che rappresenta il risultato. La dimostrazione di questo fatto è dovuta a Kleene (I 9 36); come corollario dell'indecidibilità del problema della caratterizzazione delle funzioni ricorsive totali (haltingproblem) abbiamo allora l'indecidibilità del problema della riduzione a forma normale di cui sopra si è parlato. In modo analogo si possono rappresentare le funzioni ricorsive nel À-calcolo che Church elaborò attorno agli stessi anni e che costituisce un parallelo del sistema basico dei combinatori in cui si assume come primitivo l'operatore À di astrazione. Fu con questo sistema che Church dette la prima dimostrazione del suo teorema di indecidibilità del calcolo dei predicati. I rapporti fra À-calcolo e combinatori portano a introdurre diverse nozioni di riducibilità, oltre a quella da noi definita, a seconda che si pongano o meno certe restrizioni sulla convertibilità dei termini. In particolare si può assumere còme schema di conversione ·la cosiddetta 17-regola (che verrà data più avanti) che introduce un'assunzione di estensionalità, permettendo di raggiungere l'estensionale a partire dal contesto intensionale generale. Risultati interessanti sugli analoghi del teorema di ChurchRosser per queste nozioni si sono avuti in tempi recenti; notevole importanza ha il teorema di Corrado Bohm, del 1968, sulle forme normali forti (normali rispetto a una particolare nozione di riduzione). La possibilità di rappresentare le funzioni ricorsive entro il sistema basico non solo offre un'ulteriore giustificazione della tesi di Church, ma consente di cogliere la struttura unitaria di vari principi di recursione. Usando i combinatori molti di questi schemi si ottengono come corollari di un risultato centrale che www.scribd.com/Baruhk La logica nel ventesimo secolo (II) riguarda i punti fissi dei termini in questo sistema. Ciò spiega il ruolo importante che la formulazione in termini di combinatori ha avuto in tempi recenti nello studio delle generalizzazioni delle funzioni ricorsive, quali i funzionali di tipo finito introdotti da Godei. Questo ~i porta al nucleo centrale degli sviluppi recenti nello studio dei combinatori, cioè alla teoria della funzionalità nelle varie formulazioni introdotte da Curry e dai suoi allievi. Abbiamo già detto come la teoria basica si possa vedere come una teoria rudimentale sulle funzioni parziali. Da qui si può partire per studiare combinazioni più complesse di funzioni una volta che questa parzialità venga assunta come concetto primitivo, introducendo una gerarchizzazione in tipi dei termini. Ciò non costituisce un abbandono dell'originario programma, ma piuttosto un suo approfondimento, volto a mettere in luce il ruolo che la gerarchizzazione in tipi ha nella formulazione di schemi generali per la definizione di funzioni. Ci sono due vie per formulare la teoria della funzionalità: una ammette una moltiplicazione dei combinatori fondamentali (I, K, S) per ogni tipo, l'altra assume che i combinatori possano ricevere infinite assegnazioni di tipo e pone in primo piano il meccanismo di questa assegnazione. Si introduce così una distinzione fra termini: termini che denotano tipi e termini più propriamente denotanti funzioni che vengono costruiti nel solito modo. In più si assume una costante relazionale binaria F sì da leggere FaX come «ad X è assegnabile il tipo a », dove X è un termine; si tratta poi di fornire regole su F che stabiliscano il meccanismo dell'assegnazione. Naturalmente esiste una corrispondenza fra le due formulazioni, ma l'importante è che mediante una scelta opportuna dei tipi fondamentali (ad esempio assumendo un tipo per i numeri naturali, una costante o per lo zero e una s per il successore) possiamo costruire in modo unitario una teoria dei funzionali di tipo finito a partire dalle funzioni numeriche. Accanto ai combinatori fondamentali d'altra parte possiamo assumere altri combinatori che ci permettono di introdurre schemi di definizioni per funzioni sempre più complesse. È così che Andrzej A. Grzegorczyk nel 1964, L. E. Sanchis nel 1967 e William W. Tait nel 1965 e '69 sono riusciti a formulare la teoria dei funzionali di Godei in modo combinatorio e più in generale a definire nozioni di ricorsività per oggetti di tipo superiore. Anche per questi sistemi estesi si pone naturalmente il problema della convertibilità a termini normali e della unicità di questa convertibilità. Si tratta allora di estendere i risultati di Church e Rosser: questo è possibile, ma mentre per il sistema basico si può dare una dimostrazione dell'esistenza di forma normale che sfrutta solo l'induzione sui numeri naturali, per questi sistemi estesi occorre postulare principi d'induzione più forti (nel caso dei funzionali di Godei l'induzione fino a e: 0 , come già ricordato nel capitolo v del volume ottavo). La cosa importante è che l'uso dei combinatori in questo con173 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) testo permette un'analisi unitaria e profonda dei principi di recursione utilizzabili nella definizione di funzioni di tipo superiore. Conosciamo il ruolo che questi funzionali hanno nella teoria della dimostrazione dopo la dimostrazione di coerenza dell'aritmetica data da Godel nel 195 8. La cosa si può estendere a teorie più complesse quali l'analisi intuizionista, ecc., e in generale (come fatto da Tait) è possibile, a partire dalla teoria dei combinatori, formulare una teoria generale del ragionamento costruttivo. Vedremo più avanti un altro strettissimo contatto fra teoria della dimostrazione e combinatori. La individuazione di questi contatti pone in luce la fecondità dell'approccio originario di Curry, .ma nello stesso tempo fa risaltare un aspetto insoddisfacente di tutta la teoria, costituito dal suo carattere esclusivamente formale. Si è posto così ripetutamente il problema di fornire una giustificazione concettuale del sistema basico e delle sue estensioni esibendo delle interpretazioni precise che rendano possibile la sua lettura come teoria delle funzioni parziali. Uno dei risultati più significativi a questo riguardo ottenuto negli ultimi tempi è dato dalle interpretazioni che Dana Scott ne ha fornito in termini di teoria dei reticoli. L'idea di fondo sfrutta la possibilità di ordinare i termini combinatori visti come funzioni parziali in base ai rapporti di inclusione dei loro domini. L'ordine che si ottiene in questo modo ammette una strutturazione in termini di reticoli completi sicché ad esempio si può stabilire un preciso contatto tra i teoremi del punto fisso validi per reticoli completi e analoghi teoremi dimostrabili nel calcolo dei combinatori. L'interpretazione di Scott avviene all'interno di una teoria generale della computazione che sembra aver ricevuto negli ultimi tempi notevole interessamento da parte dei computer scientists. Come vedremo nella terza parte è però possibile un altro tipo di giustificazione concettuale del sistema dei combinatori, che si basa sui rapporti fra regole di conversione e aggiunzione di funtori nella teoria delle categorie cartesiane chiuse. 4) La fondazione intuizionista Come già sottolineato nel capitolo v del volume precedente, la problematica dell'intuizionismo ha un carattere nettamente diverso da quella degli altri indirizzi, nel senso che l'obiettivo fondamentale non è di giungere a una giustificazione o a una ricostruzione della matematica classica, ma piuttosto di costruire una matematica alternativa i cui concetti base abbiano contenuto costruttivo; e abbiamo già avuto occasione di ricordare come dal I 9 3I in poi, a partire dalla formalizzazione della logica intuizionista, abbia avuto inizio il programma di assiomatizzazione della matematica intuizionista. Questo programma ha portato alla codificazione di settori centrali della pratica matematica costruttiva. Alla formalizzazione dell'aritmetica sono seguite varie formulazioni dell'Analisi, la formalizzazione della teoria delle specie (corrispondente intuizioni174 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) sta del concetto di insieme), l'assiomatizzazione della teoria delle definizioni induttive iterate, ecc. Accanto a queste teorie, che costituiscono il nucleo centrale della matematica intuizionista (nel senso che svolgono ruoli analoghi a quelli che aritmetica, teoria degli insiemi e Analisi svolgono nella matematica classica) si è avuto. un parallelo ampliarsi del discorso intuizionista anche per quello che riguarda la topologia e l'algebra, dopo i primi lavori del 1956 di Heyting relativamente a quest'ultima e con le recenti indagini di A.S. Troelstra sulla topologia. In una prospettiva più autonoma rispetto all'intuizionismo ma certamente legata ad esso si situa il lavoro del 1967 di Errett Bishop sull'Analisi costruttiva che ha segnato un evento importante dell'indagine in questo senso. Partendo da un programma in netto antagonismo con la fondazione insiemistica e con l'approccio hilbertiano, Bishop è riuscito a dimostrare come un'ampia parte dell'Analisi classica si possa ricostruire su basi costruttive. Non avrebbe senso entrare nei dettagli ç:lella descrizione di tutti questi sistemi; quello che per noi conta è che essi testimoniano, con le discussioni che hanno suscitato circa la loro accettabilità dal punto di vista costruttivo, la fecondità dei postulati iniziali di Brouwer e la possibilità di concretare. i suoi programmi in una vera e propria nuova pratica matematica. -Differenti sono i problemi che essi· pongono dal punto di vista più strettamente fondazionale. Per accertare le potenzialità di questi sistemi, per indagare il senso del loro carattere costruttivo, per determinare infine qual è lo status di principi proposti e discussi, quali ad esempio lo schema di Markov o altri principi brouweriani, si è imposta up'analisi metamatematica di questi sistemi. Dal nostro punto di vista le novità piÒ interessanti delle recenti indagini sull'intuizionismo riguardano appunto questo aspetto. Come nel caso classico, lo studio dei sistemi intuizionisti si può condurre sia dal punto di vista della te9ria della dimostrazione (analisi della struttura delle prove) sia da quello semantico (mediante un'elaborazione delle interpretazioni delle teorie). È in questa seconda direzione che l'indagine si stacca decisamente da quella analoga sui sistemi classici. Se infatti è possibile - come vedremo - fornire interpretazioni dei sistemi intuizionisti sulla base della teoria degli insiemi (paradigmi di queste interpretazioni sono l'analisi in termini di strutture di Kripke o di strutture topologiche) si pone d'altra parte il problema ben più urgente dell'elaborazione di interpretazioni plausibili dal punto di vista costruttivo e quindi di necessità non insiemistiche: è attraverso queste infatti che è possibile non solo valutare la potenza delle teorie in esame (cosa questa possibile anche con costruzioni classiche) ma per così dire estrarne il contenuto costruttivo che costituisce la loro ragion d'essere. Tentativi di formulare interpretazioni di questo tipo, come abbiamo visto nel capitolo citato, si sono succeduti fin dagli anni quaranta, e i due esempi più significativi sono sostanzialmente la realizzabilità di Kleene con le sue molteplici diramazioni e l'interpretazione mediante funzionali proposta da Godei nel 1958. 175 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Partendo dall'idea base che ogni asserto intuizionista è un asserto sull'esistenza di una costruzione, tutte queste proposte hanno come scopo quello di individuare la classe delle operazioni costruttive che garantiscono la validità degli asserti appartenenti a date teorie intuizioniste. In sostanza tutte queste interpretazioni si basano cioè sull'analisi delle formule della teoria formale mediante funzionali che estraggono il loro contenuto costruttivo: ad ogni formula d della teoria viene associata una formula d* del sistema interpretante che « traduce » in termini di esistenza di funzionali il significato della formula d. Il carattere costruttivo di questa interpretazione può essere giustificato in varie maniere e nel 1967 Tait ha proposto, partendo proprio dal sistema T dei funzionali di Godei, un modo estremamente fecondo per far questo. L'idea, che si riconoscerà come familiare dopo aver letto le pagine sui combinatori, è che il sistema e gli schemi definitori per i funzionali primitivi ricorsi vi vanno visti come regole di computazione per termini piuttosto che come schemi definitori. La differenza è significativa in quanto in questo modo si dà della teoria di Godei un'interpretazione intensionale e non estensionale: gli oggetti in esame non sono più entità astratte insiemistiche (funzionali) ma definizioni di funzionali cioè funzionali in intensione. Sono questi i veri e propri oggetti costruttivi. Il problema centrale è quello di determinare quando valgono certe equazioni tra termini che denotano funzionali. Se, cOme proposto da Tait, accettiamo il punto di vista intensionale, queste equazioni non vanno più riguardate come identità fra gli oggetti designati dai termini, bensl come asserti che stabiliscono che le procedure di computazione associate ai singoli termini coincidono; il problema è allora quello di dimostrare queste coincidenze sulla base delle regole di computo che definiscono i termini i.9-trodotti: alla identità tra funzioni si sostituisce dunque l'eguaglianza definitoria (deftnitional equaliry). Il modo più adeguato per analizzare da questo punto di vista i funzionali è quello di introdurli secondo lo stile della logica combinatoria, ché allora diviene possibile determinare l'eguaglianza definitoria tra due termini t e t' che « denotano » funzionali come convertibilità di t e t' ad uno stesso termine t'' in forma normale. La teoria dei combinatori, come già visto, si rivela cosi come il contesto più naturale per lo studio delle funzioni dal punto di vista intensionale o in altre parole per lo studio delle procedure di computo dei termini,! La valutazione del carattere costruttivo della classe di funzionali introdotta dipende dalla plausibilità delle procedure induttive necessarie o in altre parole dalle proprietà delle regole della computazione. In questo contesto è possibile I Si vede anche come il problema centrale di provare che quelle date sono definizioni di funzioni si traduca nel seguente: dimostrare che per ogni termine esiste una sua forma normale (esistenza) e che questa forma è essenzialmente unica (teorema di Church-Rosser). Mentre l'unicità per il sistema T di Godei si può dimostrare con mezzi strettamente finitisti, in generale l'esistenza comporta il ricorso a procedure che possono essere non finitiste. È importante il fatto che comunque è sempre possibile dimostrare che per due termini che hanno forma normale è decidibile la relazione di convertibilità. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) reintrodurre l'approccio estensionale postulando, oltre alle ordinarie regole di conversione, il seguente schema 'YJ secondo il quale, se x non è libera in b, ( "'J) ì..x. b(x) si converte in b, che non è altro che una forma di assioma di estensionalità. Dal punto di vista costruttivo il problema è se l'assunzione di questo schema sia corretta e su questo punto le discussioni sono aperte. Comunque, quale che sia la posizione sull'estensionalità, una volta che si sia dimostrata l'esistenza e l'unicità di forme normali è possibile costruire un modello di termini per la teoria in esame. Modello del sistema T di Godei ad esempio sarà l'universo delle classi di equivalenza dei termini rispetto all'eguaglianza definitoria, su cui è definita l'operazione di applicazione determinata dalle regole di computazione. È in questo senso che l'approccio in termini di computabilità ci fornisce modelli per le teorie esaminate. Dal lavoro di Tait in poi l'approccio in termini di computabilità alla interpretazione delle teorie intuizioniste si è sempre più esteso e ha portato a risultati decisamente interessanti. Basti pensare ai lavori dello stesso Tait sui funzionali a recursione sbarrata (1971) necessari per interpretare l'Analisi intuizionista, e ai lavori del 1970 di W.A. Howard sul collegamento fra computazione di termini e induzione su ordinali in cui viene analizzato in dettaglio come la dimostrazione dell'esistenza per ogni termine che definisce funzionali ricorsivi primitivi sia legata all'assegnazione di ordinali a questi termini e all'assunzione di principi di induzione sul segmento di ordinali utilizzato. A ciò vanno aggiunti i lavori del 1975 di Per Martin-Lof sulla teoria semplice dei tipi intuizionista, che rivestono estrema importanza perché è nell'insieme dei tipi che si trovano le varie costruzioni di cui si ha bisogno nell'interpretazione delle varie teorie. Portando avanti un progetto iniziato da Scott nel 1970, che mirava ad una definizione generale di validità costruttiva ma che costruttivamente non era plausibile, e sulla base di lavori analoghi di Kreisel e Goodman, Martin-Lof ha formulato nel 1974 un sistema di teoria dei tipi plausibile intuizionisticamente; per questo sistema, o meglio, per i termini di questo sistema, è riuscito a dimostrare un teorema di forma normale fornendo così un modello della teoria i cui oggetti sono appunto i termini chiusi. Ne consegue come corollario che ogni funzione numerica costruibile nella teoria dei tipi (per cui cioè c'è un terinine della teoria che la denota) è computabile in modo meccanico. Ciò deriva dal fatto che la relazione di convertibilità è decidibile, il che è a sua volta conseguenza della validità della proprietà di Church-Rosser per i termini del sistema. Diversamente che per il sistema T di Godei però quest'ultimo fatto non si può provare con metodi finitisti. In questa prospettiva di ricerca di un concetto di modello per teorie.intuizioniste si situa un altro recente lavoro di Martin-Lof che formula una nozione 177 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) generale di modello per una classe molto ampia di queste teorie: escluse sono quelle che contengono assiomi per sequenze di scelta. Martin-Lof insiste qui sulla necessità di escludere un'interpretazione estensionale dell'eguaglianza come non adeguata dal punto di vista costruttivo e propone la sua sostituzione nella costruzione di modelli intuizionisti con l'eguaglianza definitoria. Questo porta al rifiuto della regola 'YJ e quindi rende impossibile provare la validità di certi principi rispetto alle interpretazioni su modelli di termini in cui la convertibilità è così ristretta. L'idea di Martin-Lof è che per avere senso costruttivo una relazione di eguaglianza deve essere decidibile e se si assume come base per la dimostrazione di questa decidibilità quella della relazione di conversione, non si può in alcun modo accettare che l'identità fra termini coincida con l'identità fra gli oggetti denotati: la convertibilità ci dà infatti un'eguaglianza intensionale che non si può confondere con quella fra gli oggetti astratti denotati. Per questa ragione secondo Martin-Lof, se vogliamo avere come modello quello dei termini, non si può accettare la validità dell'assioma (a= b) V --,(a= b) per gli oggetti di tipo superiore. È notevole il fatto che entro lo schema generale di Martin-Lof con questa vincolante è possibile riottenere le varie interpretazioni in termini di realizzabilità proposte a partire da Kleene. Venendo ora all'analisi dal punto di vista della teoria della dimostrazione, troviamo che anche in questo contesto è essenziale il ruolo della formulazione in termini di combinatori e anzi non si verifica quel divario netto fra teoria della dimostrazione e teoria dei modelli che esiste nel caso classico. C'è infatti uno strettissimo legame fra l'elaborazione di modelli di termini come concepita sopra e l'analisi delle dimostrazioni di una teoria formulata stile deduzione naturale. La possibilità stessa infatti di dimostrare che una certa struttura di termini è modello di una teoria è strettamente legata alla possibilità di fornire un'analisi combinatoria (nel senso della teoria dei combinatori) della struttura delle dimostrazioni della teoria: in quest'ottica, le regole di deduzione ci danno un modo per determinare, date le costruzioni per le premesse, le costruzioni per le conseguenze. È quello che si verifica nel caso classico dimostrando il teorema di validità. Il rapporto è duplice: da una parte va nel senso detto sopra cioè ci permette di dimostrare che certi insiemi di termini sono modelli, dall'altra ci consente di dimostrare teoremi di normalizzazione per le dimostrazioni di una teoria. Quello che sta alla base di questa possibilità è il collegamento fra calcoli della deduzione naturale e teoria della funzionalità cui si è accennato sopra parlando della teoria dei combinatori. Diamo un'idea di cosa questo possa significare in un caso particolarmente semplice. Supponiamo di avere un linguaggio del primo ordine i cui unici operatori logici siano ::.> e V. Ad ogni formula d del linguaggio associamo un'infinità di variabili x'{ e intuitivamente interpretiamo x'{ come l'i-esima assunzione in una dimostrazione di .4. Useremo poi a, b, c, ... come nomi per dimostrazioni. Parallelamente introduciamo un insieme infinito www.scribd.com/Baruhk La logica nel ventesimo secolo (II) di variabili x{ che intenderemo scorrere su nomi di individui; useremo poi t, s, ... come nomi di individui. Scriviamo inoltre a l= d per dire che a è una dimostrazione di d. A questo punto possiamo collegare a dimostrazioni nel calcolo della deduzione naturale termini costruiti a partire dalle variabili e le costanti sopra date utilizzando l'operatore di astrazione e l'operazione di applicazione. Per far questo basta correlare ad ogni applicazione di regole un termine opportuno. Cominciamo dalle regole di introduzione, che nel nostro caso saranno IV I=> Ad una applicazione di I ::::>, supponendo che b l= fJ8, possiamo associare il termine 'Axf'. ab. La cosa è intuiti va in quanto il termine viene a denotare quell'operazione che ad ogni assunzione xf di d fa corrispondere una dimostrazione di fJ8; mediante l'applicazione di À, xf~ diviene vincolata e il significato della regola I::::> è esattamente questo, di «scaricare» un'assunzione di d. In generale le variabili libere in un termine indicano le assunzioni da cui la dimostrazione ad esso associata dipende. Discorso analogo per I V: all'applicazione della regola assoderemo il termine )..xl. b. Anche qui il termine denota quella funzione che applicata a ogni individuo t ci darà una dimostrazione di fJ8(t). La restrizione sulla regola di conversione per )..xl. b corrisponde alla restrizione sull'applicazione della regola nel calcolo. Passiamo ora alle regole di eliminazione. E=> ! d~fJ8 EV l d VxlfJ8 fJ8 t fJ8[t Jx1 ] Qui l'operazione sui termini sarà l'applicazione. Precisamente faremo corrispondere a E::::> un termine ca dove c l= d::::> fJ8 e a l= d. Intuitivamente: la dimostrazione di d::::> fJ8 è una funzione che ad ogni dimostrazione di d associa una dimostrazione di fJ8. Analogamente a E V assoderemo il termine c(t) dove t è il nome per un individuo e c l= fJ8: c è quindi una funzione che a ogni nome di individuo t associa una dimostrazione di fJ8(t). Poiché ogni dimostrazione non è che una successione finita di applicazioni di queste quattro regole, ad ogni dimostrazione sarà univocamente associato un termine. In questo modo si è data una precisazione dell'interpretazione intuitiva di ::::> e di V fornita da Heyting, quindi un'analisi del significato costruttivo degli operatori, che è parallela a quella data dalle regole. Quanto alle dimostrazioni 179 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) delle eventuali assunzioni, la loro natura dipende ovviamente dal tipo di assunzioni con cui abbiamo a che fare e quindi dal tipo di teoria che stiamo analizzando. Se esse sono equazioni, le dimostrazioni potranno essere prove della convertibilità ad una stessa forma normale di dati termini. Il collegamento si può estendere a linguaggi più ricchi di quello da noi esaminato; ciò che conta è che in questo modo è possibile stabilire una preci~a corrispondenza fra i passi che ci possono permettere di ridurre una dimostrazione in forma normale e le regole di conversione per termini. Consideriamo ad esempio la dimostrazione [d] fJ6 che si riduce a dove è stato eliminato il detour costituito dall'applicazione di una introduzione seguita da una eliminazione. Se consideriamo i termini corrispondenti avremo questa situazione. Alla prima dimostrazione corrisponde il termine (ì...xd. b) a; alla seconda b [a], vale a dire una dimostrazione di b che dipende da a (il termine si ottiene da b che contiene una variabile libera sostituendola con a). Dalla regola della À-conversione abbiamo che il primo termine si converte nel secondo, quindi al passo di riduzione corrisponde la conversione dei termini associati. La cosa si può estendere a tutte le altre regole, utilizzando, anche, oltre alla À-conversione, la regola 'Yl· Per sapere se una dimostrazione si converte in forma normale basta quindi sapere se il termine associato si converte a forma normale applicando le regole del calcolo dei combinatori. Questa corrispondenza si può modificare ed estendere a seconda della teoria e della logica in esame. È con un metodo del genere che Martin-Lof è riuscito a fornire un'analisi dal punto di vista della teoria della dimostrazione di due sistemi fondamentali della matematica intuizionista: quello delle definizioni induttive iterate e quello della teoria delle specie. Dopo aver opportunamente formulato in termini di deduzione naturale i sistemi presenti nella letteratura, egli infatti ha introdotto il concetto di dimostrazione computabile provando lungo linee analoghe a quella sopra accennata che i passi di riduzione corrispondono ai passi di computazione; in questo modo è riuscito a superare un ostacolo che si presenta nella dimostrazione dei teoremi di normalizzazione quando si ha a che fare con sistemi di ordine superiore) Quest'idea di associare termini a dimostrazioni per provare teoI La difficoltà è che in generale non è detto che la complessità di un esempio di una formula del tipo, poniamo, 'V X .5#, dove X è una variabile predicativa, sia inferiore a quella della formula stessa. Risulta così impossibile l'ordinaria procedura induttiva con cui si dimo- strano teoremi di normalizzazione. Associando opportuni termini alle formule, Martin-Lof ha potuto ridurre il problema della normalizzazione a quello del computo dei termini associati, in cui la difficoltà non si presenta. ISO www.scribd.com/Baruhk La logica nel ventesimo secolo (II) remi di normalizzazione è stata sistematicamente sfruttata per la prima volta da Jean-Yves Girard che l'ha applicata nel 1970 all'interpretazione dell'Analisi intuizionista e ad una dimostrazione dell'Hauptsatz per essa e per la teoria dei tipi. Il risultato di Girard è centrale negli sviluppi recenti della teoria della dimostrazione per i sistemi intuizionisti e non solo per essi. Prima del suo intervento, come già ricordato nel capitolo v del volume ottavo, si possedevano solo dimostrazioni non costruttive per l' Hauptsatz per l'Analisi intuizionista. L'applicazione del concetto di computazione ha permesso di superare l'ostacolo. L'interesse di tutti i risultati cui sopra si è accennato sta nel fatto che riguardano le teorie intuizioniste che corrispondono alle strutture fondamentali dell' Analisi e dei tipi. Risultati interessanti sono stati ottenuti però anche in altri contesti utilizzando metodi non costruttivi, più precisamente modificazioni o arricchimenti delle interpretazioni non costruttive della logica intuizionista. In una serie di lavori del I 968 Scott è riuscito ad estendere l'interpretazione topologica della logica intuizionista data da Tarski all'Analisi intuizionista fornendo modelli estremamente interessanti che se pur non hanno in quanto tali una giustificazione costruttiva, lumeggiano le alternative che si presentano una volta che si vogliano chiarire formalmente le idee di Brouwer. In questa stessa direzione, ma in vista invece dell'algebra intuizionista, si situano alcuni lavori di Dov Gabbay e H. Smoryski che hanno gettato le basi per una vera e propria teoria dei modelli intuizionista fondata sulla semantica di Kripke. È risultato così possibile dimostrare analoghi dei risultati classici sulla completezza della teoria dei campi algebricamente chiusi e di quella dei campi reali chiusi, analoghi del teorema di interpolazione di Craig, ecc. L'interesse di questi lavori sta in due fatti sostanzialmente: in primo luogo essi hanno permesso di ottenere informazioni sulla metamatematica dei sistemi intuizionisti che difficilmente si sarebbero potute ottenere utilizzando esclusivamente strumenti costruttivi; in secondo luogo hanno permesso di collegare la matematica intuizionista con alcuni aspetti fondamentali della ricerca classica. I collegamenti riguardano in particolare i modelli booleani e la rappresentazione di strutture algebriche, quali gli anelli, come sezioni di fasci. In altre parole è possibile vedere certi aspetti dell'Analisi e dell'algebra intuizioniste in un contesto diverso da quello intuizionista « classico». Come dimostrato da Christopher H. Mulvey c'è uno stretto collegamento tra lo studio dei fasci di strutture algebriche e la teoria intuizionista di queste strutture; analogamente c'è un collegamento tra i modelli topologici dell'Analisi definiti da Scott e l'interpretazione dell'Analisi all'interno di un topos di prefasci. Ma diremo più avanti di questo. Qui ci limitiamo a ricordare un altro tipo di indagine che si muove in questa direzione. Si tratta del lavoro di Melvin Chris Fitting del 1969 sui rapporti fra forcing nella teoria degli insiemi e logica intuizionista. Che tra forcing di Cohen e nozione intuizionista di verità ci sia un collegamento è già stato sottolineato a 181 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) suo tempo. Fitting ha reso operante questo rapporto dimostrando l'indipendenza di IGC e di AS utilizzando lo studio di modelli alla Kripke di una formulazione degli assiomi di 31J6. L'idea è che, come dimostrato a suo tempo da Godei, è possibile tradurre una teoria classica in una intuizionista e che una formula d senza occorrenze del quantificatore universale è valida classicamente se e solo se --, --, d Io è intuizionisticamente. Se quindi consideriamo una formulazione di 31J6 in cui non si utilizzino i quantificatori universali, per dimostrare che ad esempio AS non è conseguenza classica di 31J6 è sufficiente provare che esiste un modello intuizionista di 31J6 in cui non risulta vero --, --, AS. Il risultato di Fitting è interessante in quanto apre tutta una nuova prospettiva che ha del resto una controparte nella pratica matematica (si veda nella parte terza quanto riguarda l'interpretazione in topoi di fasci e prefasci): l'uso di nozioni non classiche di verità per lo studio di strutture classiche. Un altro esempio verrà dato più avanti, quando si considereranno i lavori di Abraham Robinson (scomparso nel 1975) sul forcing generalizzato e il suo impiego in algebra. 5) Alcuni sviluppi della metamatematica generale: teoria della dimostrazione e teoria dei modelli Già parlando degli sviluppi delle ricerche più strettamente fondazionali abbiamo avuto modo di ricordare alcuni dei risultati più interessanti ottenuti negli ultimi anni in quell'area di studi che genericamente possiamo chiamare metamatematica. Accanto però alle ricerche che considerano specificamente teorie particolari, esiste tutto un lavoro dedicato alla metamatematica generale di cui teoria della dimostrazione e teoria dei modelli costituiscono le articolazioni principali. Per quanto riguarda la teoria della dimostrazione va subito detto che i risultati più significativi sono senz'altro quelli che siamo venuti citando nelle pagine precedenti. Quello che piuttosto conviene sottolineare in questa sede è il mutamento di prospettiva che ormai sembra essersi consolidato in questo campo. Un'illustrazione concreta di ciò si può avere confrontando la prima e la seconda parte dell'articolo di Kreisel A survry of proof theory uscite rispettivamente nel 1968 e nel 1971. Mentre la prima parte è essenzialmente dedicata alla teoria della dimostrazione riduttiva e i vari sistemi di deduzione naturale vengono presentati come strumenti per individuare il grado di evidenza dei principi usati, concentrando l'interesse sulla dimostrabilità entro le teorie più che sulle modalità di dimostrazione, la seconda pone al centro del discorso l'analisi diretta delle dimostrazioni e riconosce, nei vari sistemi di deduzione naturale, tentativi per l'analisi del concetto di prova. Il mutamento è interessante in quanto nella prima parte Kreisel aveva esplicitamente dichiarato di considerare erronea l'opinione di Gentzen, secondo la quale le regole costituiscono un'analisi del significato 182 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) degli operatori logici, riconducendo in sostanza quest'analisi ad una base semantica - sia essa insiemistica o costruttiva - che è indipendente ed anteriore alla determinazione delle regole. In questo modo l'analisi delle dimostrazioni anche se feconda sul piano tecnico risulta subordinata concettualmente ad una preliminare concezione semantica. Il riportare in primo piano, come viene fatto nel secondo articolo, il concetto di dimostrazione, significa accettarlo come elemento « naturale » dell'analisi degli operatori logici: in questo contesto l'analisi semantica, soprattutto quella in termini costruttivi o di computazione o altro, non viene più posta come fondante, ma deve risultare collegata puntualmente con le regole deduttive. Un ripensamento del genere a nostro parere è in parte motivato dal sempre maggiore distacco che si era venuto a creare fra la concreta pratica matematica e ciò che la teoria della dimostrazione in senso riduttivo assume come tipico dell'esperienza matematica. Che tipo di informazioni forniscono risultati quali la dimostrazione dell' Hauptsatz di Gentzen, o la dimostrazione del 195 8 di Géidel, ecc.? Affermare che esse «giustificano » l'aritmetica o l'Analisi da un punto di vista costruttivo può essere soddisfacente solo entro certi limiti, in quanto si ha l'impressione che la sottigliezza delle dimostrazioni « dica » qualcosa di più di questo; informazioni del genere, nel panorama della matematica come oggi viene praticata non sembrano particolarmente significative: e questo, si noti, anche in quei settori della matematica in cui i problemi di effettività e costruttività sono il tema stesso dell'indagine, si pensi alla dimostrazione automatica, alla problematica della computer science, ecc. È stato lo stesso Kreisel a porre in luce come, nel suo complesso, la prospettiva generale hilbertiana non sia sufficientemente « sofisticata » da permettere un autentico approfondimento della comprensione dei problemi posti nella pratica dalla dimostrazione automatica o dalla computazione. Il discorso si applica anche al modo tradizionale di vedere la teoria dell' effettivo. Tutto sommato, l'interesse dei logici in questo campo è stato, più che per l'effettivo, per il non effettivo, vale a dire per le dimostrazioni della non esistenza di algoritmi più che per la formulazione di procedure « semplici » per il confronto e le analisi dei programmi delle macchine. Il ritorno a un interesse più esplicitamente diretto al concetto generale di dimostrazione (per quanto riguarda la computazione si è già detto parlando delle generalizzazioni della ORT) costituisce ci sembra una presa di coscienza di questo fatto. È significativo che il maggior protagonista delle ricerche attuali sulla teoria generale della dimostrazione, Dag Prawitz, abbia compiuto ricerche anche nel campo della dimostrazione automatica e che logici come Scott, Erwin Engeler, ecc. abbiano elaborato e raffinato nozioni sorte nella pratica logica in modo da rendere possibile questo contatto con la pratica del calcolo automatico. Non vogliamo peraltro sopravvalutare il ruolo di questa connessione: c'è www.scribd.com/Baruhk La logica nel ventesimo secolo (II) un interesse filosofico autonomo nella ripresa di un'analisi del concetto generale di dimostrazione. Nella prospettiva di Prawitz, infatti, il ruolo di questa teoria è quello di simulare e classificare le dimostrazioni intuitive mediante le loro traduzioni formali, ed il problema centrale diviene quello da una parte di fornire una definizione di correttezza o di verità sulla base del procedimento dimostrativo, dall'altra di formulare condizioni per la individuazione delle prove e quindi criteri per la loro identificazione: l'importanza filosofica di un simile programma è innegabile. In quest'ordine di idee si situano alcuni recenti lavori di Prawitz (1973, 1975) che partono dalla contrapposizione fra l'analisi semantica della correttezza degli argomenti fornita dal concetto di verità e quella che si può dare riprendendo la concezione di Gentzen delle regole di introduzione e di eliminazione come analisi del significato degli operatori logici. Prawitz ha formulato una nozione di verità per le dimostrazioni che sfrutta il collegamento fra passi di riduzione e procedure di computo nel À-calcolo di cui sopra abbiamo parlato. L'idea di fondo è che è plausibile assumere che l'equivalenza fra prove data dalla relazione di riducibilità corrisponda all'equivalenza fra le prove intuitive associate alle dimostrazioni formali. Di qui una giustificazione nuova del ruolo dei teoremi di normalizzazione visti come risultati che permettono una partizione delle dimostrazioni: due dimostrazioni sono equivalenti se hanno la stessa forma normale. In un certo senso quindi le forme normali ci permettono di individuare la complessità delle dimostrazioni intuitive e di classificarle su questa base. Buona parte dei lavori recenti dedicati alla teoria generale della dimostrazione indagano la possibilità di ottenere teoremi di normalizzazione per sistemi logici di diversa potenza e di fornire un'analisi delle dimostrazioni in termini di computazione via l'associazione di termini del linguaggio dei combinatori. Possiamo ricordare la dimostrazione del teorema di normalizzazione per la logica del secondo ordine ottenuta da Prawitz nel I97I, i lavori sopra citati di Girard del '71 e del '72 e le indagini sulla formulazione in termini di deduzione naturale di teorie matematiche più specifiche di cui i lavori sopra citati di Martin-Lof costituiscono esempi cospicui. In questa direzione contributi interessanti si sono avuti anche in Italia, ad esempio da parte di Carlo Cellucci che nel 1975 ha stabilito teoremi di normalizzazione per sistemi funzionali intermedi fra il sistema T di Godei e· quelli di Girar d. La teoria della dimostrazione è solo un aspetto dell'indagine generale sulle proprietà logiche delle teorie che a partire dagli anni trenta si indica col nome di metamatematica. Già nell'originale programma hilbertiano uno degli obiettivi dell'analisi delle dimostrazioni doveva essere quello di permettere di risolvere il problema della decisione per specifiche teorie. Nel capitolo v del volume ottavo abbiamo ricordato come i risultati di Godei del I 9 3I abbiano aperto tutta una www.scribd.com/Baruhk La logica nel ventesimo secolo (II) problematica nuova in questo campo offrendo metodi per le dimostrazioni di indecidibilità.l I risultati ottenuti a partire dagli anni trenta sulla decidibilità o indecidibilità delle teorie sono numerosi ed è impossibile darne qui un resoconto dettagliato. Ci limiteremo ad alcuni cenni, iniziando da problemi che non riguardano direttamente teorie, ma questioni di decisione - o di esistenza di algoritmi - che sono sorte nella ste~sa pratica matematica e che per lungo tempo, prima della creazione della teoria dell'effettivo, erano rimaste senza risposta. L'esempio recente forse più significativo è il risultato ottenuto da Yu. V. Matijasevic nel 1970, riguardante il decimo problema di Hilbert. Esso stabilisce la non esistenza di un algoritmo in grado di decidere la risolubilità nel dominio degli interi delle equazioni diofantee. La sostanza del risultato di Matijasevic sta nella dimostrazione del fatto che i predicati della forma 3y(p(y)) = o, che esprimono l'esistenza di almeno uno zero per il polinomio p(v) a coefficienti interi, coincidono con i predicati ricorsivamente enumerabili e quindi, come esistono predicati ricorsivamente enumerabili che non sono ricorsivi, esisteranno predicati « diofantei » che non sono ricorsivi. Questo significa appunto che - se si identifica computabile con ricorsivo - non esiste l'algoritmo richiesto da Hilbert. Altri tipici problemi che si presentano nell'algebra e nella topologia sono ad esempio i cosiddetti problemi della parola, che in generale hanno la forma seguente: dato un alfabeto finito A e delle regole di trasformazione per le parole costruite su A, trovare un algoritmo in grado di determinare quando per due qualsiasi parole t e t' è dimostrabile l'eguaglianza t= t'. Come si vede si tratta di un problema di decisione per un particolare sistema formale i cui teoremi sono le formule del tipo t= t', dove t e t' sono parole sull'alfabeto. Problemi del genere sono interessanti in quanto semigruppi e gruppi si possono presentare come sistemi di questo tipo dove l'operazione di concatenazione fra parole corrisponde all'operazione di gruppo o semigruppo e come equazioni di base (assiomi) si prendono le equazioni definitorie del gruppo o semigruppo: come è noto infatti ogni gruppo si può presentare come quoziente di un gruppo libero i cui elementi sono appunto parole e la cui operazione è la concatenazione; le equazioni definitorie sono le equazioni che « generano » la congruenza rispetto alla quale si fa il quoziente utilizzando le regole sull'identità. Già nel 1948 Emil L. Poste A.A. Markov avevano dimostrato la indecidibilità del problema della parola per semigruppi e nel 1958 Petr Sergeevic Novikov e W.W. Boone indipendentemente hanno ottenuto un analogo risultato per i gruppi. In tempi recenti risultati assai interessanti in questa direzione sono stati ottenuti relativamente a problemi analoghi a quelli della parola, quali il problema dell'immersione, il problema di Burnside e il problema dell'isomorfismo, 1 In generale questi metodi possono essere diretti, nel senso che riproducendo sostanzialmente la tecnica di Godei si mostra come costruire all'interno di una teoria un enunciato indecidibile, oppure indiretti, nel senso che si riconduce l'indecidibilità di una teoria T a quella già nota di una teoria T' mediante la definizione di un'interpretazione della seconda nella prima. www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) che ci limitiamo a ricordare; una serie di contributi in questo senso è contenuta in un volume del I 97 3 a cura di Boone e altri. Buona parte dei risultati relativi a questi problemi sono stati ulteriormente estesi basandosi sul concetto di grado di indecidibilità e si è ad esempio dimostrato che esistono gruppi o semigruppi, a seconda dei casi, per cui il problema della parola ha un grado di indecidibilità assegnato. L'estensione è analoga a quella fatta nel caso delle teorie e che ha portato a costruire teorie con problema della decisione avente un assegnato grado di indecidibilità; ricordiamo i lavori in questo senso di Marian Bolkan Pour-El e Saul Kripke. Dal punto di vista dei problemi della decisione in senso stretto, i risultati più interessanti riguardano la decidibilità di teorie di ordine superiore al primo: così ad esempio nel I96o J. Richard Buchi ha dimostrato che l'aritmetica del secondo ordine con la sola operazione di successore è decidibile. Questo risultato è molto interessante in quanto questa teoria permette di esaminare in modo duttile gli automi finiti (le macchine sequenziali). Nella stessa direzione si muovono le ricerche di J ohn Doner che ha esteso il risultato di Buchi al caso di un'aritmeti&a al secondo ordine con un numero finito arbitrario di operazioni di successore. Una teoria come quella studiata da Buchi si può vedere come un'assiomatizzazione degli insiemi bene ordinati con una sola operazione di successore; introducendo più operazioni di successore è possibile interpretare nel sistema risultante la teoria di tipi d'ordine più generali e attenerne così, in vista del risultato di Doner, la decidibilità. I risultati sono poi stati estesi da Hans Lauchli alla teoria degli ordini lineari formulata in un linguaggio del secondo ordine debole. Per quanto infine riguarda le teorie del primo ordine, dopo i risultati classici di Tarski che ha dimostrato la decidibilità della teoria dei campi algebricamente chiusi e di quella dei campi reali chiusi, si sono avuti alcuni altri risultati di rilievo facendo largo uso della teoria dei modelli. Il punto di collegamento è dato dall'osservazione di A. Janicak che ogni teoria assiomatizzata, coerente e completa è decidibile,! Data allora una teoria coerente e assiomatizzata, per stabilire la sua decidibilità è sufficiente sfruttare i metodi di teoria dei modelli di cui si è parlato nel capitolo v citato e che ci consentono di accertare la completezza. Il risultato forse più significativo è quello ottenuto nel I 96 5 da Ax e Kochen, che hanno stabilito, per ogni p, la completezza di una assiomatizzazione dei campi p-adici. L'applicazione di metodi « modellistici » alla teoria della decisione si può estendere al caso di teorie non complete utilizzando una generalizzazione del suggerimento di Janicak dovuta a Y.L. Ershov, il quale ha dimostrato che r Per giustificare quest'osservazione basta considerare che se la teoria è assiomatizzata saranno enumerabili i suoi teoremi e dall'enumerazione di questi, sfruttando la coerenza e la completezza, possiamo ottenere un'enumerazione dei non teoremi considerando l'enumerazione delle formule .SI>' dove -, .SI>' è teorema. Per ottenere un metodo di decisione basta quindi procedere a zig-zag fra le due enumerazioni. 186 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) una teoria assiomatizzata T è decidibile se esiste una successione { m1 }i<=w di m o delli di T per cui !ì Th(mi)iEw = T dove Th(mi) è la teoria di l}l; e la successione Th(m1), Th(m2) ... è ricorsiva. Applicando questo criterio Ershov ha ottenuto una dimostrazione estremamente elegante del risultato di Wanda Szmielev sulla decidibilità della teoria dei gruppi abeliani. Il discorso ci ha portato in modo naturale alla teoria dei modelli e ai suoi sviluppi recenti. I problemi di completezza e decidibilità, pur importanti, costituiscono solo un aspetto della problematica affrontata in questi ultimi anni. Le direzioni più significative di ricerca riguardano però altre questioni, più precisamente lo sviluppo della teoria di Morley per le dimostrazioni di categoricità, l'approfondimento del concetto di completezza rispetto ai modelli (m-completezza) per mezzo della nozione di forcing generalizzato introdotta da Robinson e lo sviluppo della teoria dei modelli per linguaggi che estendono quelli elementari: linguaggi infinitari, con quantificatori generalizzati, ecc. Abbiamo già avuto occasione di parlare dei risultati di Michael D. Morley sulla categoricità nel capitolo citato. Per poter accennare agli sviluppi più recenti è opportuno soffermarsi brevemente sul metodo utilizzato da Morley. L'idea base, grosso modo, è la seguente. Mediante un opportuno arricchimento del linguaggio è possibile, data una teoria T', ricondurre lo studio dei suoi modelli a quello dei modelli di una teoria T subcompleta tale cioè che per ogni sottostruttura m di un modello di T, Tu D(m), dove D(m) è il diagramma di m, è una teoria completa. Per studiare i tipi di isomorfismo dei modelli di T' è sufficiente quindi concentrare l'attenzione sui modelli di T. Sia ora m un sottomodello di un modello di T. Possiamo immaginare le estensioni di m modello di T come ottenute mediante aggiunzione di un singolo elemento per volta. (È chiara l'analogia con la teoria dell'estensione dei campi.) Chiamiamo estensione semplice di '}!un'estensione m[b] se è generata da '}! u {b }. Ancora in analogia con la teoria dei campi possiamo dire che due estensioni semplici Q3 e U: di '}! sono isomorfe su '}! se esiste un isomorfismo tra di esse che lascia invariati gli elementi di 1}1. Lo scopo della teoria di Morley è quello di classificare i tipi di isomorfismo delle estensioni semplici di m così che risulti possibile affrontare il problema dell'isomorfismo tra i modelli della teoria data. L'idea è di classificare questi tipi di isomorfismo estendendo la distinzione che esiste nella teoria dei campi fra elementi algebrici e trascendenti: alla base della classificazione di Morley sta la possibilità di assegnare un grado di « trascendenza » agli elementi delle estensioni di m. Si tratta di considerare i tipi l che questi elementi realizzano. Sostanzialmente, un tipo su m (o compatibile con· m) è un insieme non contraddittorio e r Non si confondano questi tipi, che sono particolari classi di formule in un linguaggio, con i tipi di isomorftsmo, che sono classi di strutture fra loro isomorfe. Per evitare confusioni scriveremo da ora in poi « i-tipo » per « tipo di isomorfismo ». www.scribd.com/Baruhk La logica nel ventesimo secolo (II) massimale di formule con una e una sola variabile libera formulate nel linguaggio Llll che possiede nomi per .gli elementi di '2l e tale che ogni suo sottoinsieme finito è soddisfatto da almeno un elemento di '2l o di una estensione di '2{. In base a un semplice argomento di compattezza si può provare che se P è un tipo compatibile con '2l esisterà un'estensione semplice '2l [bl di '2l tale che b realizza P (soddisfa cioè tutte le formule di P) in ogni estensione di '2l modello di T. Questo discende dal fatto che T è subcompleta. È facile provare che se tanto b che c realizzano P esisterà un unico isomorfismo Sll[b l~ '2l[cl su '2l per cui b viene mandato in c. All'inverso è ovvio che se S)l[bl e Sll[c] sono isomorfi su '2l rispetto a un isomorfismo che manda b in c, b e c realizzeranno gli stessi tipi. Ne concludiamo quindi che nel caso T sia subcompleta gli i-tipi delle estensioni semplici di '2l sono univocamente individuati dai tipi compatibili con S)l. Il passo successivo sta nell'indurre una struttura sufficientemente ricca sulla famiglia S('2l) dei tipi compatibili con '2l. Si tratta di una struttura topologica: è infatti possibile definire una topologia su S('2l) prendendo come base gli insiemi UF(r) = {PI F(x) E P} dove F(x) è una formula di Llll con libera la sola x. Lo spazio risultante è compatto e di Hausdorff. Ridotta la classificazione degli i-tipi a quella dei tipi compatibili con '2l, il problema è quello di classificare i punti dello spazio S(S)l). Senza entrare in particolari, diremo che Morley riesce ad assegnare ad ognuno di questi punti un grado e un rango: i ranghi sono cardinali e i gradi sono numeri naturali ed è possibile fornire regole di computazione per entrambi. In questo modo si riesce ad introdurre procedure induttive nello studio degli i-tipi e si dispone quindi di un mezzo potentissimo per la loro classificazione. La nozione di rango permette di isolare varie classi di teorie dal punto di vista della realizzazione dei tipi, e in conseguenza di ciò della categoricità in potenza. Non è possibile qui entrare in dettagli ulteriori. Ci basti osservare che a partire dal 196 5, anno in cui Morley presentò la sua teoria, si sono succeduti lavori molto importanti che sfruttano in molteplici direzioni il concetto di tipo e la possibilità di assegnare gradi. Fondamentali in questo contesto i lavori di Saharon Shelah, che oltre a estendere il risultato di Morley al caso di teorie più che numerabili ha gettato le basi per uno studio sistematico di una teoria dei modelli a partire dai concetti sopra introdotti, ottenendo ad esempio risultati sui numeri di Hanf delle algebre semplici, sul numero dei modelli non isomorfi ma elementarmente equivalenti della stessa cardinalità, ecc.l Come dicevamo, altro aspetto importante della ricerca in questi ultimi anni I Un'applicazione estremamente significativa della nozione di rango dal punto di vista algebrico è stata fornita da Leonor Blum che nel 1968 ha dato un'analisi della teoria dei campi differenzialmente chiusi di caratteristica zero ed in particolare è riuscita ad individuare un « buon » concetto di chiusura differenziale per questi campi. 188 www.scribd.com/Baruhk La logica nei ventesimo secolo (Il) è costituito dallo sviluppo che ha ricevuto la teoria del forcing generalizzato introdotta da Robinson nel I 969 e cui abbiamo già accennato nel primo capitolo. Ci sono sostanzialmente due versioni del forcing nella teoria dei modelli : una versione finita presentata originariamente e quella infinita cui Robinson giunse nel 1970. L'idea di fondo è di concepire il forcing non più come relazione fra insiemi e formule, ma tra strutture e formule e di ottenere in questo modo .non insiemi generici, ma strutture generiche. Supponiamo di avere una classe ~ di strutture induttiva, chiusa cioè rispetto alla somma su catene, e supponiamo che mE ~. La nozione m[>d (la struttura mforza la formula d) si ottiene considerando le possibili estensioni di m appartenenti a ~. La definizione procede per induzione sulla complessità delle formule, e mentre nel caso di formule atomiche, di congiunzione, disgiunzione e quantificatore esistenziale coincide con la definizione di verità, se ne differenzia rispetto alla negazione: si definisce infatti che m [>--,d se non esiste estensione m di m in ~ tale che m [> d. Se definiamo V xd come --, 3 x--, d e d ::J fJì come --,d V flì, avremo che anche l'implicazione e il quantificatore universale si comportano diversamente dal caso classico. Quella ora data è la definizione di forcing infinito; il caso finito si ottiene prendendo per ~ una classe di strutture finite. L'interesse della nozione di forcing sta sostanzialmente nel fatto che consente di generalizzare il concetto di m-completezza. Chiamiamo infatti generica rispetto a una classe ~ una struttura mE ~ per cui verità e forcing coincidono: è facile dimostrare che se ~ è induttiva ogni struttura in ~ sarà sottostruttura di una struttura generica. Che cosa è una struttura generica? Sostanzialmente una struttura in cui una formula d non può risultare falsa (non si può quindi avere m [> --,d) se esiste almeno un'estensione di min cui d è vera. La cosa diviene interessante se d è una formula esistenziale contenente eventualmente nomi per elementi di m; dire che mè generica significa in questo caso che se esistono elementi Xt, . . . , Xn in un'estensione di m per cui flì(at, ••• , ak, Xt, ••• , Xn) è vera, allora elementi del genere esisteranno già in me CÌÒ comporta che msarà esistenzialmente chiusa in ~' cioè renderà vere tutte le formule esistenziali in L<JI vere in una qualche estensione di mappartenente a ~. In un certo senso quindi una struttura generica è una struttura con « sufficienti elementi ». Un esempio classico di struttura esistenzialmente chiusa è dato dai campi algebricamente chiusi, come mostra il Nullstellensatz di Hilbert: ogni formula 3 y 1 , •• • ,ynflì della teoria dei campi equivale ad una formula che afferma che esistono elementi y1, ... , )'n che soddisfano un opportuno sistema di uguaglianze e disuguaglianze fra polinomi, ed il Nullstellensatz afferma che se una formula del genere è soddisfatta in una estensione di un campo algebricamente chiuso lo è già nel campo stesso. q è un altro fatto da notare: la chiusura esistenziale delle strutture generiche comporta che se me msono strutture generiche e mè sottostruttura di m, ~{ sarà sottostruttura ele!lleJJiare di m. È quanto si verifica fra www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) campi algebricamente chiusi di uguale caratteristica come dimostra la m-completezza della relativa teoria. Questo permette di capire in che senso il forcing consente di estendere il concetto di m-completezza. Supponiamo che T sia la teoria dei campi e r la classe dei suoi modelli; r è chiaramente induttiva in quanto somme su catene di campi sono campi. Esiste quindi per quanto detto sopra, per ogni campo 'll, una sua estensione generica; d'altra parte, come abbiamo testé visto, se r è la classe dei campi generici e T la sua teoria, T sarà m-completa. Ne concludiamo allora che la teoria dei campi generici è la m-complezione della teoria dei campi. Ma Robinson aveva dimostrato che una teoria può avere al massimo una m-complezione e la m-complezione della teoria dei campi è la teoria dei campi algebricamente chiusi. Ne consegue che campi algebricamente chiusi e campi generici coincidono e che abbiamo trovato un nuovo modo per ottenere, quando esiste, la m-complezione di una teoria: basta considerare, nel caso la teoria sia induttiva, la classe delle strutture generiche e prenderne la teoria. L'importanza di questo collegamento fra strutture generiche e m-complezione sta nel fatto che non sempre una teoria ha una m-complezione mentre è sempre possibile, purché sia induttiva, associarle il forcing companion: la teoria dei suoi modelli generici. Quel che conta è che quando la m-còmplezione esiste, essa coincide col forcing companion: si tratta quindi di una vera generalizzazione. L'idea originaria di Robinson era di ottenere, via il concetto di forcing, una generalizzazione del concetto di struttura algebricamente chiusa applicabile a strutture diverse dai campi, venendo incontro così ad un'esigenza che nasce all'interno stesso della pratica algebrica. Che almeno in parte questo obiettivo sia stato raggiunto mediante il concetto di struttura generica lo si può affermare considerando il fatto che casi particolari di questa nozione sono le definizioni di algebricamente chiuso date per particolari teorie quali quella dei gruppi, dei campi reali, ecc. Una conferma della fecondità del concetto è fornita dai recenti lavori di un allievo di Robinson, W. Wheeler, che nel 1974 è riuscito a sviluppare una teoria della chiusura algebrica per gli anelli di divisione (corpi non commutativi) e riottenere così per via generale risultati quali il Nul/ste/lensatz anche per queste strutture notevolmente più complicate dei campi. Sempre in questo contesto un'altra direzione di ricerche si è concentrata su un vecchio programma di Robinson, lo studio dell'aritmetica non standard: su questo tema esistono lavori recenti e assai interessanti di J. Hirschfeld. Altro aspetto del forcing ampiamente studiato riguarda i collegamenti fra strutture generiche e altri tipi di strutture « con sufficienti elementi ». I risultati più significativi riguardano la possibilità di caratterizzare la classe delle strutture generiche rispetto a una data ~ mediante condizioni che non coinvolgano il forcing e l'elaborazione di metodi per la costruzione di strutture generiche. Qui i risultati sono molti e vanno da quelli di H. Simmons che hanno permesso di ap- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) prossimare « dall'alto » le classi delle generiche a quelli di Mitsuru Yasuhara che hanno collegato strutture sature e strutture generiche. Un problema ancora aperto è quello di vedere entro che limiti il forcing di Cohen si possa presentare come caso particolare di quello di Robinson. Una risposta chiara a riguardo non esiste ancora anche se Keisler ha fatto alcuni passi in questa direzione, mostrando il collegamento fra i due tipi di forcing e i teoremi di omissione di tipo. Come molte delle tecniche della teoria dei modelli classica, il forcing si può estendere a linguaggi più forti di quelli elementari, e il collegamento è interessante in quanto esistono risultati di Carol Wood che mostrano come sia possibile assiomatizzare classi di strutture generiche utilizzando linguaggi infinitari. Il discorso su questi linguaggi è d'altro canto uno dei temi centrali della ricerca in questi ultimi anni e ha registrato notevolissimi sviluppi in più direzioni. Il problema generale che si pone nei confronti dei linguaggi infinitari (e delle altre generalizzazioni dei linguaggi elementari) è quello di vedere entro che limiti si estendono ad essi risultati validi per i linguaggi elementari. Anche se esistono tecniche specifiche per i linguaggi infinitari è chiaro infatti che per avere una teoria dei modelli significativa occorre che almeno una parte dei risultati sui linguaggi elementari si possa estendere anche ad essi. Di fatto, si verifica che solo gli estremi dello spettro di questi linguaggi ammettono una teoria dei modelli significativa. Abbiamo così una teoria estremamente ricca per i linguaggi infinitari più deboli, del tipo Lw,oo e all'estremo opposto per i linguaggi La, tJ dove a e {3 sono «grandi» cardinali. Questo dipende dal fatto, posto in luce con evidenza dal caso degli insiemi ammissibili, che per sviluppare una teoria dei modelli significativa sono necessari in qualche modo « principi di riflessione » sui cardinali che si ammettono. Il discorso sui linguaggi infinitari si può applicare anche ad altri tipi di estensione dei linguaggi elementari, quali le varie formulazioni di ordine superiore, i linguaggi con quantificatori generalizzati (che come sappiamo hanno preso lo spunto da alcune indicazioni fornite da Mostowski nel 1957), ecc. Queste estensioni hanno portato naturalmente ad un problema più generale: quello di determinare delle condizioni sufficienti e necessarie affinché un linguaggio di questo tipo abbia una «buona » teoria dei modelli, il che significa sostanzialmente chiedersi quante delle proprietà dei linguaggi elementari valgono per essi e sotto quali condizioni. Ma la questione acquista un significato più generale se si pensa che i linguaggi elementari, come ha mostrato la pratica logica e non solo logica di almeno mezzo secolo, costituiscono un vero e proprio paradigma nella determinazione del concetto di linguaggio logico. Quello che ci si domanda allora è come estrarre le caratteristiche generali di un concetto di logica analizzando i linguaggi elementari. I primi risultati in questo senso furono ottenuti da Per Lindstrom nel 1969, ma per un certo tempo non ricevettero la attenzione che meritavano. È stato solo verso il 1971 che da più parti si è rico- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) nosciuta la portata di questi lavori ed è iniziata una ricerca di vasto raggio sulla « logica astratta ». Il programma di Lindstrom è sostanzialmente quello di caratterizzare la logica dei linguaggi elementari all'interno delle sue possibili estensioni. Per far questo è necessario disporre di una nozione generale di logica, la logica astratta appunto, entro la quale isolare quella elementare mediante un'opportuna famiglia di proprietà. Una logica astratta (una LA) L è determinata dall'insieme S dei suoi enunciati e dalla sua relazione di verità l=; quest'ultima relazione è definita fra strutture ed enunciati di L. Possiamo quindi identificare una logica astratta L con la coppia < S, l=> . Perché abbia senso parlare di logica occorre porre delle condizioni sulla relazione di verità e sull'insieme S. Sostanzialmente queste condizioni sono che la verità è preservata dall'isomorfismo, che ogni enunciato ha un vocabolario extralogico finito, che è possibile estendere opportunamente una struttura ad un'altra con linguaggio più ricco, ed infine che gli enunciati di S sono chiusi rispetto a congiunzione, negazione e a un'opportuna nozione di sostituzione. Chiaramente, la logica elementare LE è una LA e tra LA è possibile definire diverse relazioni d'ordine basandosi sulla capacità espressiva dei relativi linguaggi. Possiamo così dire che L s L' se e solo se per ogni enunciato d di L c'è un enunciato 3d di L' tale che d e 3d hanno gli stessi modelli. Questo significa che come caratteristica dei linguaggi si pone la loro capacità di individuare classi di strutture e la maggior potenza dei linguaggi è data dalla maggiore capacità espressiva. La relazione s si può raffinare considerando classi opportune di strutture. Possiamo così definire che L S inf L' se e solo se per ogni enunciato d di L c'è un enunciato 3d di L' tale che d e 3d hanno gli stessi modelli infiniti. Tanto a partire da s che da s inf possiamo chiaramente definire due relazioni di equivalenza e inf ponendo che L = L' se e solo se L S L' e L' S L e analogamente per -in/" A questo punto quello che ci si domanda è come caratterizzare LE all'interno della famiglia delle LA. L'idea è quella di utilizzare i teoremi fondamentali della teoria dei modelli di LE come altrettante proprietà caratteristiche e di indagare quali sono le estensioni di LE che godono di tutte o di parte di queste proprietà. Alcune delle proprietà centrali isolate da Lindstrom sono la proprietà di compattezza, PC (ogni insieme di enunciati T ha un modello se e solo se ogni suo sottoinsieme finito possiede un modello), la proprietà di Lowenheim, PL (ogni enunciato di L se ha un modello infinito ne ha uno numerabile), laproprietà di Tarski, PT (se un enunciato d ha un modello infinito ne ha uno più che numerabile). Tutte queste tre proprietà sono chiaramente godute da LE e corrispondono a teoremi classici. Un primo risultato ottenuto da Lindstrom stabilisce che non esiste L 2 LE e non equivalente a LE che goda di PL e PC rispetto agli insiemi T numerabili: queste due proprietà sono quindi sufficienti a caratterizzare LE nella famiglia delle sue estensioni. Un'altra caratterizzazione fa ri- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) corso alla proprietà dell'unione di catene, PUC, che stabilisce che se K è una catena di strutture rispetto all'estensione elementare relativa alla logica in questione, allora la somma su questa catena è estensione elementare di ogni elemento di K; Lindstrom dimostra che se L ::2 LE e L gode di PC e di PUC, allora L_ LE. Questi sono solo alcuni esempi delle diverse caratterizzazioni che Lindstrom ha ottenuto; altre se ne possono avere considerando combinazioni di ulteriori proprietà, quali ad esempio la proprietà di completezza, delle tavole semantiche, ecc. Il senso di questi risultati è d1;1plice: da una parte ci mostrano come, data una definizione sufficientemente generale di logica, l'essenza della logica elementare stia in una certa combinazione di proprietà che riguardano le classi di modelli che in essa è possibile determinare e quindi costituiscono una precisazione dell'idea dei linguaggi come « crivelli » per la classificazione di strutture; dall'altra essi costituiscono un effettivo strumento nella ricerca di estensioni di LE che abbiano una «buona» teoria dei modelli, che siano plausibili come logiche. Essi ci dicono infatti quando è possibile individuare delle estensioni proprie di LE, essenzialmente più potenti, che godano di certe combinazioni di proprietà, dandoci così un metodo generale per stabilire quando la ricerca di date logiche è possibile o meno. La nozione di logica astratta data da Lindstrom non è la più generale possibile; la restrizione riguardante la finitezza delle costanti extralogiche in ogni formula esclude ad esempio i linguaggi infinitari, prendendone in considerazione solo frammenti. Estendendo opportunamente questa definizione è possibile ottenere ulteriori risultati e tentare anche la caratterizzazione di logiche diverse da quella elementare. La candidata più immediata per questa indagine è la logica L 001 ,ro che ammette congiunzioni e disgiunzioni infinite numerabili ma quantificazioni solo finite. Nel 1971 Barwise è riuscito ad ottenere risultati riguardanti la sua caratterizzazione all'interno di una famiglia di logiche molto generali. Va sottolineato che considerando linguaggi come Lror.ro si pongono dei problemi nella scelta delle estensioni che non si presentano nel caso finitario. Sappiamo ad esempio che in LE tutti i connettivi sono definibili a partire da -, e da /\, sicché la scelta di questi tra gli altri connettivi non comporta problemi. Se si ammettono però congiunzioni infinitarie e quantificazioni finite non si dispone più di teoremi tipo quelli della forma normale prenessa; visto il ruolo che queste forme hanno nello studio dei modelli si pone naturale il problema di che altri connettivi vadano introdotti. Risultati di caratterizzazione quali quelli ottenuti da Barwise danno un filo conduttore nella scelta delle varie possibilità, permettendo così di individuare criteri di « naturalezza » nella scelta dei concetti logici fondamentali. Un altro aspetto del lavoro di Barwise riguarda il problema dell'assolutezza della logica adottata, l'indipendenza cioè di sue proprietà specifiche dall'universo degli insiemi in cui la studiamo. In questo contesto astratto in cui le formule possono essere oggetti infiniti, l'insieme degli enunciati di un linguaggio o la www.scribd.com/Baruhk La logica nel ventesimo secolo (II) relazione di verità dipendono dall'universo in cui ci poniamo: estendendolo o restringendolo possono cambiare gli aspetti caratteristici della logica. Questo non avviene se, adottata come metateoria una data teoria T degli insiemi, poniamo delle condizioni sulla forma dei predicati in T che definiscono l'insieme delle formule e la relazione di verità per la logica in esame. Una logica astratta come proposta da Barwise è così assoluta relativamente a una teoria T se la relazione di verità è espressa da un predicato di tipo b.~ e l'insieme delle formule da un predicato L,'f. Ciò significa, come sappiamo da quanto detto a suo tempo sugli insiemi, che mentre la proprietà di essere formula sarà persistente, quella di essere vero sarà assoluta. È importante notare che sarebbe troppo restrittivo assumere nella definizione di logica assoluta che anche la proprietà di essere formula sia b.~; sappiamo infatti che la proprietà di essere numerabile, e quindi quella: di essere congiunzione numerabile di formule, non è assoluta. Queste logiche generali sono attualmente oggetto di ricerca ad opera di vari logici tra i quali H. Friedman, Jan A. Makowski, Solomon Feferman, ecc. In questa linea lo stesso Barwise ha tentato nel 1974 di giungere a una formulazione di una teoria assiomatica dei modelli basandosi su una definizione astratta di linguaggio e di verità. I risultati ottenuti sono per ora ancora scarsi, ma testimoniano un interesse che sempre più si sta imponendo nella ricerca: l'indagine del concetto generale di logica e lo studio del ruolo che l'individuazione dell'articolazione logica ha sull'analisi degli oggetti matematici (e no). Altro campo di ricerca estremamente interessante e oggi assai promettente, è quello relativo al problema dell'adeguamento, se così si può dire, del concetto di modello come elaborato dalla logica alle esigenze poste da altre scienze, in particolare dalle scienze empiriche. Nel suo intervento al simposio in onore di Tarski, tenutosi nel 1971, ma i cui atti sono stati pubblicati nel 1974, Chen Chung Chang si chiedeva: « I nostri modelli sono sufficienti per lo studio di tutte le " scienze deduttive "? » Anche se storicamente le co~ potevano stare cosi al tempo in cui Tarski introduceva questa teoria e possono ancora stare così per la matematica « ... ciò non è vero per il termine " modelli " come è inteso e impiegato da un gran numero di ricercatori in branche diverse quali ... l'economia, la biologia, la psicologia ... Tutti costoro sono alla disperata ricerca di modelli. Ognuno cerca di trovare un modello senza che tuttavia nessuno sembri sapere che cosa esso sia; e tutti inoltre concordano sul fatto che i modelli hanno o avranno un ruolo importante nella loro scienza ». Ora, prosegue Chang, « noi specialisti della teoria dei modelli sappiamo tutti esattamente che cosa è un modello e possiamo continuare a ripeterlo a questi ricercatori. Ma i nostri modelli non li soddisfano. Ciò può avvenire o perché la loro scienza non è ancora deduttiva, o perché il loro linguaggio non è abbastanza formale, oppure (e questa è forse la ragione più cogente) perché ci sono cose intrinsecamente più complicate di 194 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) quelle che noi chiamiamo modelli ... Qualunque possa essere la loro nozione di modello, non si tratta di quella che noi stiamo studiando in modo così intenso». Una tendenza che sembra essersi sempre più affermata di recente nella ricerca matematica è quella di indirizzarsi verso problemi pratici, nella soluzione dei quali il matematico può risultare utile. Qualcosa di analogo, secondo Chang, dovrebbe accadere anche per quanto riguarda gli specialisti di teoria dei modelli, e questo non nel senso che essi debbono abbandonare questa teoria così come ora la conoscono e l'hanno costruita per diventare tutti dei « modellisti applicati »; l'idea che Chang vuole suggerire è piuttosto quella che «se pensiamo di applicare la teoria dei modelli dobbiamo essere disponibili e preparati a studiare tipi di modelli certamente non ortodossi ». Le parole di Chang riflettono un'esigenza profondamente avvertita da un punto di vista epistemologico, ponendosi dal quale l'usuale analisi logica delle teorie empiriche ha il difetto di essere, per così dire, troppo « idealizzata »: in generale infatti essa trascura tutta una serie di elementi che i vari operatori ritengono caratteristici o comunque essenziali nella « pratica » delle singole scienze e tali tuttavia da non dover essere trascurati in un'analisi teorica delle stesse. D'altra parte, pur se con posizioni assai diverse, molti autori vanno da tempo sostenendo l'opportunità di studiare le scienze empiriche con gli strumenfi della teoria logica dei modelli; Patrik Suppes, ad esempio, ha ripetutamente sostenuto che al concetto di modello come elaborato dalla logica è riconducibile qualunque altra analoga concettualizzazione di scienze empiriche particolari; per quanto riguarda la fisica invece- con molta maggior cautela- Joseph Sneed ad esempio ha osservato che l'usuale caratterizzazione semantica coglie al più la «fisica matematica » piuttosto che la fisica tout court. In questo senso una teoria fisica - esattamente come avviene per una teoria matematica - si pensa determinata da una classe M di strutture m (*) dove mo è la parte matematica di m (ad esempio un modello standard per l'Analisi), S è un insieme di oggetti fisici e q1, ... , qn sono grandezze fisiche che formalmente possono descriversi come funzioni che a oggetti fisici (elementi di S) associano numeri reali (elementi di mo)· Questo stato di disagio è stato chiaramente denunciato da M.L. Dalla Chiara e Giuliano Toraldo di Francia in un loro articolo del 1973 dedicato appunto all'analisi logica delle teorie fisiche che, a loro parere, «vengono assai -spesso trattate in un modo che assomiglia troppo da vicino all'analisi delle scienze formali, col risultato che l'aspetto caratteristico della fisica è semplice- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) mente rappresentato dalla necessaria richiesta che la teoria ammetta una parziale interpretazione osservativa, che non è un modello nel senso della semantica logica. Una tale interpretazione, che dà origine al problema di separare i termini osservativi da quelli teorici, 1 non costituisce né un aspetto specifico né il più interessante delle teorie fisiche». L'analisi dei due autori - con esiti che costituiscono una prima risposta al discorso di Chang - si appunta in particolare sul concetto di grandezza fisica di cui le usuali caratterizzazioni come sopra descritte sembrano fare un'idealizzazione particolarmente spinta, dal momento che non tengono conto di alcuni suoi aspetti essenziali e specifici dei quali viene invece proposta nel loro articolo una rigorosa trattazione formale. Scopo degli autori è quello appunto di «collegare l'analisi teorica con la fisica reale», con l'intento epistemologicamente più rilevante di confutare opinioni largamente diffuse secondo le quali « la fisica può solo formulare delle regole strumentalmente utili per scopi pratici ma che nulla hanno a che fare con la verità o la conoscenza »; e di mostrare, sulla base della loro analisi, che viceversa « le verità della fisica sono verità rigorose, nel senso della semantica logica e non si limitano ad approssimare delle verità " più profonde" o " ultime" ». Intese ora le grandezze fisiche come oggetti di possibili e diverse procedure di misurazione, le usuali versioni semantiche delle teorie fisiche trascurano secondo gli autori due aspetti fondamentali ad esse relativi, e precisamente: I) nei casi concreti le grandezze fisiche non assumono mai come valori numeri reali, ma solo intervalli di numeri reali; z) per avere significato fisico le grandezze fisiche debbono essere definibili operativamente.z Per superare queste lacune gli autori cominciano con l'introdurre un insieme S di situazioni ftsiche 3 cui sono riferite le procedure P t di misurazione di una data grandezza fisica Q. L'esperienza quotidiana del fisico mostra che ogniqualvolta si I Secondo gli autori questa dicotomia non è stata mai chiaiamente determinata e lo stesso Carnap che l'aveva introdotta ha finito con l'annetterle solo un valore pratico; di avviso diverso Nagel che sostiene ancora la grande importanza della distinzione, che invece è semplicemente rifiutata da altri autori come Putnam. Dalla Chiara e Toraldo di Francia non solo sono del parere di Putnam (anche se per ragioni diverse) ma sostengono inoltre che « un completo rifiuto della dicotomia tra termini osservativi e termini teorici si troverà essere essenziale per una migliore comprensione del concetto di grandezza fisica » che è il concetto centrale di cui si propone una nuova analisi nel loro articolo. 2 Si noti che gli autori non affrontano qui, né intendono affrontare, la questione generale relativa all'operativismo in quanto posizione epi- stemologica globale come sostenuta ad esempio da Bridgman e altri; essi dichiarano infatti esplicitamente che si interesseranno soltanto « della definizione operativa di grandezze fisiche e non della definizione generale di concetti fisici ». Colgono peraltro l'occasione per denunciare la confusione frequente anche nella letteratura specializzata fra grandezze fùiche, entità fisiche e funzioni matematiche definite su grandezze fisiche. 3 Gli autori riconoscono che il concetto di situazione fisica non viene sufficientemente precisato nel contesto della presente discussione, e abbisogna quindi di un esame più approfondito per una sua più adeguata determinazione. Avvertono comunque che tale concetto non va inteso come «un'istantanea di un angolo della realtà fisica... ma piuttosto come una struttura di materia spaziotemporale che soddisfa certe specificazioni». www.scribd.com/Baruhk La logica nel ventesimo secolo (II) misuri Q con una certa procedura non si ottiene come valore un numero reale q ma un intervallo q ± eq l 2 dove il numero eq è relativo all'accuratezza o precisione della procedura usata: tanto minore è eq tanto più accurata (precisa) è la misura. Effettuate ora in una data sE Se per una certa Q due misurazioni che abbiano dato come risultati rispettivamente p ± ep l 2 e q ± eq l 2 si dirà che questi due intervalli sono uguali a meno di e e si scriverà p e q se e solo se esiste un intervallo e che li include entrambi. È chiaro che se due intervalli sono uguali a meno di e restano uguali a meno di e' per ogni e' > e. Si noti che per ogni e dato si può stabilire questa relazione di E-uguaglianza fra intervalli: essa risulta chiaramente riflessiva e simmetrica ma non transitiva. Dalla e-uguaglianza così definita si può ottenere una relazione Re di e-equivalenza (ossia anche transitiva) tra procedure di misurazione P t, P1 applicabili a una classe S di situazioni fisiche: precisamente, Re(Pt, P1) se e solo se per due qualunque situazioni fisiche s, s' .ES per le quali Pt dà risultati e-uguali anche P1 dà risultati e-uguali e viceversa. A questo punto per il concetto di grandezza fisica si può stabilire una conveniente definizione per astrazione nella quale viene esplicitata la sua dipendenza dalle situazioni fisiche e dalla precisione delle procedure di misurazione. Su questa base gli autori, a conclusione della loro analisi, possono presentare gli elementi fondamentali di una teoria « empirica » dei modelli. Intanto il nuovo concetto di struttura fisica Wl è ancora descrivibile come (*), ma ora, fermo restando il significato di mo, è un insieme di situazioni fisiche e ognuna delle grandezze q l, • . • , qn è definita su un sottoinsieme si di s e in modo operativo come sopra visto; altrimenti detto, a ognuna di queste grandezze resta associato, anche a livello formale, un campo di precisione (la precisione della misurazione) e un campo di applicabilità (un certo insieme di situazioni fisiche). Questa nuova situazione si riflette nella definizione di verità in Wl che viene data come segue per una formula d del linguaggio L della teoria fisica considerata (come al solito scriveremo I!Dl d per «d è vero in m»). I) Se d non contiene nomi qt per le grandezze fisiche q t allora I!Dl d se e d; solo se l IDio 2) d abbia la forma fld(qt 1, ... , qtn,yl, ... ,yk) e sia R.s# una relazione n-aria che rappresenta l'interpretazione in Wl 0 della formula "ify1, ... ,ykfld(Xl, . .. , Xn, Yl, ... ,yk)· Allora /!Dl d se e solo se per ogni situazione fisica s ES per la quale le grandezze qi1 sono definite esiste una n-upla di numeri reali r 1 , ••• , rn tale che ogni r1 giaccia nell'intervallo associato a qi1 da una misurazione per s e che R.s#(r1, ... , rn) valga in Wl 0 • Dovrebbe risultare chiaro il senso e l'importanza della condizione 2). Anche in essa, come è ovvio, si giunge a valutare la formula d in Wl 0 , ossia nella parte matematica di Wl; ma ora tale valutazione a-vviene facendo effettivamente intervenire a livello semantico rigoroso la controparte formale di quelle condizioni s 197 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) sopra poste come essenziali perché un fisico direttamente impegnato nella ricerca potesse per così dire riconoscere le grandezze con le quali quotidianamente opera. Si noti comunque che nel caso della seconda condizione I!Vl d 1\ !!ìJ non è equivalente a I!Vl d e I!Vl !!ìJ; che I!Vl ---,d non è equivalente a non I!Vl d; ancora, per una data d può accadere che tanto I!Vl d quanto I!Vl ---,d. In termini generali, mentre nella teoria « logica » dei modelli una classe M di strutture determina univocamente una teoria coerente T i cui assiomi sono tutte le proposizioni del linguaggio vere in ogni modello d_ella classe M (e T viene detta la teoria di M), se M è una classe di strutture fisiche come sopra definite, proprio in vista della possibilità che una proposizione sia contemporaneamente vera e falsa in una data struttura, la teoria di M sarebbe in generale incoerente; se ne conclude che « una classe M di strutture fisiche determina, invece di un'unica teoria coerente, un'intera classe di teorie, tutte compatibili con M. Questo rappresenta forse la controparte formale di un certo tipo di arbitrarietà nella assiomatizzazione delle teorie fisiche che è stata osservata in diverse occasioni». In successivi lavori gli autori traggono alcune conseguenze del nuovo approccio semantico da essi proposto : ad esempio introducono la relazione di « sotto teoria fisica » secondo la quale una teoria fisica T 1 è una sottoteoria di una teoria fisica T 2 (T1 ~ T 2) se e solo se ogni modello di T1 è anche modello di T 2 • Grazie a questa relazione essi riescono a tradurre in veste rigorosa il fatto che la meccanica classica è « fisicamente più debole » tanto della meccanica relativistica quanto di quella quantistica, in quanto ora risulta Meccanica classica ~ Meccanica relativistica ~ Meccanica quantistica mentre queste «inclusioni» non potevano essere stabilite né tramite l'usuale concetto di inclusione teoretica fra teorie né mediante la relazione di relativa interpretabilità di una teoria in un'altra. La relazione T1 ~ T2 può anche essere definita dicendo che ogni modello di T 1 è un modello parziale di T 2 , ossia è una struttura fisica nella quale sono vere tutte le proposizioni valide di T 2 espresse nel linguaggio L!Ul. Definiti opportunamente, tramite una naturale generalizzazione della definizione di verità sopra riportata, i concetti di teoria deterministica e di teoria indeterministica, gli autori sono in grado di trattare in termini logici definiti il problema- centrale da un punto di vista epistemologico dopo l'avvento della meccanica quantistica- relativo alla« linea logica di distinzione» fra teorie deterministiche e indeterministiche. Precisamente risulta che se una teoria T1 è deterministica mentre T 2 è indeterministica e T1 ~ T 2, allora T2 ammette una classe di modelli parziali nella quale è deterministica. m www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Non ci illudiamo di aver reso con questi brevi accenni il reale interesse di questi lavori dai quali è lecito attendersi conseguenze ben più incisive; ricordiamo solo che un'analoga definizione di verità è stata proposta indipendentemente, nel 1972, dal polacco R. W6jcicki e per concludere cediamo la parola alla Dalla Chiara che nel 1974 così precisa il senso di queste ricerche: «Un'analisi di questo tipo dimostra nello stesso tempo la vasta applicabilità delle idee generali della teoria dei modelli e tuttavia la necessità di adattare via via i suoi strumenti alle caratteristiche peculiari delle diverse situazioni teoriche considerate. Storicamente, i teorici dei modelli sono stati quasi sempre dei matematici, che naturalmente lavoravano avendo in mente soprattutto applicazioni di tipo matematico. Con tutta probabilità la tendenza, a cui stiamo assistendo oggi, di aprire la teoria anche verso le problematiche delle scienze empiriche, è destinata a suggerire nuovi problemi di grande interesse per la stessa teoria pura dei modelli.» III • LOGICA E TEORIA DELLE CATEGORIE 1) Categorie, funtori, trasformazioni naturali Ufficialmente la teoria delle categorie nasce nel 1945 con la pubblicazione dell'articolo Generai theory of natura! equivaiences (Teoria generale delle equivalenze naturali) di Samuel Eilenberg e Saunders Mac Lane. In questo lavoro sono introdotti i concetti fondamentali di categoria, funtore, trasformazione naturale, e ne vengono date le prime applicazioni, inquadrate in un contesto generale che sottolinea le ragioni che hanno portato all'elaborazione della teoria. Come lo stesso titolo dell'articolo indica, la motivazione profonda sta nel tentativo di analizzare una situazione centrale nella pratica matematica: si tratta del problema di individuare quando dati isomorfismi fra strutture dello stesso tipo, spazi vettoriali poniamo, sono «naturali», nel senso che per definirli non è necessaria una particolare presentazione delle strutture in esame (nel caso degli spazi vettoriali, la scelta di una particolare base) ma essi si possono definire simultaneamente per ogni struttura di quel tipo, indipendentemente quindi da una presentazione particolare. La necessità di una teoria con la quale analizzare esattamente questa situazione nasceva proprio dal fatto che in certe circostanze, in particolare nella geometria algebrica, alcuni problemi fondamentali si traducevano nella questione della naturalità o meno di certi isomorfismi. Per precisare questo concetto di naturalità, Eilenberg e Mac Lane introdussero il concetto di categoria e di funtore fra categorie: gli isomorfismi naturali venivano allora codificati da particolari trasformazioni tra funtori. Questo modo di risolvere il problema, d'altra parte, si basava su una concezione generale della natura degli enti algebrici: non si tratta cioè di una soluzione m/ hoc di un problema ~pecifìco, ma di una teoriz1 99 www.scribd.com/Baruhk La logica nei ventesimo secolo (II) zazione che partendo da un problema particolare individua uno schema generale in cui inquadrare i fenomeni in esame. L'idea di fondo di Eilenberg e Mac Lane è che quando si considerano costruzioni matematiche fra strutture, come prodotti, limiti diretti o inversi, ecc. l'essenziale è il carattere di universalità di cui queste costruzioni godono: quello che conta non è il modo concreto con cui viene costruita una struttura - quali cioè sono i suoi elementi e le loro mutue relazioni - ma i rapporti tra le strutture di partenza e quelle ottenute mediante le diverse costruzioni. Dal punto di vista algebrico infatti - ma si può dire dal punto di vista matematico tout court strutture isomorfe sono indistinguibili. Consideriamo per esempio il caso del prodotto di due gruppi (f)' = < C', · > e (f)"= <C", e>. Classicamente la costruzione è la seguente: si prende come supporto della struttura prodotto il prodotto cartesiano C' X C" dei domini dei due gruppi e quindi si definisce punto per punto l'operazione gruppale Q9 in questo nuovo dominio ponendo <a, b > Q9 <a'' b' > = <a . a'' b e b' > V a, a' E C', Vb, b' E C". La struttura m= < C' x C", Q9 > così ottenuta ha come supporto un insieme di coppie ordinate, ma dal punto di vista algebrico questo è del tutto irrilevante; la cosa importante è il modo con cui l'operazione gruppale del prodotto si collega con le analoghe operazioni definite sui singoli fattori. Un modo per rendere questo collegamento consiste nel porre iu primo piano gli omomorfismi che legano fra loro i tre gruppi. Verifichiamo allora la situazione seguente: I) è dato un omomorfismo P1 che va da (f) a va da ma mIl' definiti ponendo rispettivamente PI(<a, b>) =a E (f)' e un omomorfismo P2 che C' P2(<a, b>) =bE C" z) il prodotto è universale rispetto alla proprietà I) nel senso che, dato un qualsiasi altro gruppo (f)"' che a sua volta goda di I), tale cioè che siano dati due omomorfismif da (f)'" a (f)' e g da (f)"' a (f)", si ha che esiste esattamente un omomorfismo h da (f)" l a m tale che si verifica zoo www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) La situazione ora descritta si può esprimere concisamente dicendo che il seguente diagramma commuta o è commutativo, dove con ciò si intende che « sentieri » sul diagramma con la stessa origine e lo stesso punto terminale (percorsi nel senso delle frecce) inducono omomorfismi uguali.l · La I) e la z) definiscono essenzialmente il prodotto, nel senso che lo individuano a meno di isomorfi~mi: si può infatti verificare che se oltre a <D esistesse un altro oggetto Gl 1 « prodotto » di Gl' e G)", e tale quindi da soddisfare la I) e la z), allora risulterebbe che GJ 1 è isomorfo a GJ. Si vede quindi che il contenuto rilevante della nozione di prodotto fra due gruppi si può interamente determinare senza far riferimento al modo specifico con cui abbiamo costruito il supporto e definito l'operazione gruppale, ma servendosi solo degli omomorfismi definiti fra i gruppi. Si è fatto ricorso alla costruzione insiemistica del prodotto cartesiano solo in un punto: per garantirci l'esistenza del prodotto e dell'operazione gruppale su di esso, in quanto sappiamo dalla teoria degli insiemi che dati due insiemi esiste il loro prodotto cartesiano e che l'operazione gruppale da 1 Non ci sembra necessario ricordare la nozione di gruppo, che è stata più volte presentata ed esemplificata nel corso di questi capitoli. Il lettore può riferirsi per comodità all'esempio 3 = < I, > in cui il supporto è l'insieme I dei numeri interi e l'operazione gruppale !:ordinaria addizione su interi. Ricordiamo piuttosto che un omomorftsmo da un gruppo (f; a un altro <r;' è una funzione f che « conserva la struttura di gruppo» tale cioè che l'immagine della somma di due elementi di (f; è la somma delle immagini dei corrispondenti elementi di <r;': j(x1 x2) = = f(xt) j(x2). Come si può osservare nel diagramma, una funzione (e, più in generale, un morfismo) viene presentata geometricamente mediante una freccia tra il dominio e il codominio della funzione stessa. Così ad esempio ~criveremo f : A --+ B o equivalentemente A /_. B. Questa rappresentazione geometrica è in effetti qualcosa di più di un comodo espediente se Mac Lane afferma che « la teoria delle + + + categorie prende le mosse dall'osservazione che molte proprietà dei sistemi matematici possono essere unificate presentandole per mezzo di diagrammi di frecce». Nel seguito parleremo quindi genericamente di frecce, o mappe, o morfismi, che riceveranno di volta in volta, a seconda dei contesti, delle precise esplicazioni particolari. lA indica la freccia identità dell'oggetto A, cioè IA : A--+ A. Ricorderemo inoltre che la composizione o di due morfismi f e g è quell'operazione f o g il cui risultato è dato dalla successiva applicazione di g e di f (prima g e poi f). La composizione è un'operazione parziale in quanto è definita fra due frecce f e g quando e solo quando il codominio di g coincide col dominio di f Così, se f: A--+ B e g: C--+ A, si avrà f o g : C--+ B. Talora si omette il segno o di composizione semplicemente giustapponendo i segni dei morfismi, si scrive cioè fg in luogo di jog. 201 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) noi definita esiste ed è una funzione che soddisfa gli assiomi di gruppo. Lo stesso discorso si può fare per altre strutture; ad esempio, se si considerano gli spazi topologici 'll e '!3 e si fa il loro prodotto, si vede che esso è univocamente determinato, a meno di omeomorfismi, dalle proprietà 1) e z) date sopra, dove le mappe, s'intende, sono ora funzioni continue, conservano cioè la struttura topologica.l La situazione non cambia per altre strutture quali anelli, campi, moduli, spazi vettoriali topologici, ecc., considerando di volta in volta le opportune mappe che conservano la struttura rilevante, e per altre operazioni: somma disgiunta, quoziente, limiti diretti e inversi, campi di frazioni, chiusure algebriche, ecc. Se si tiene presente l'esempio del prodotto di spazi topologici e del prodotto di gruppi, si può vedere come questo atteggiamento ponga in luce la profonda unità che lega i due concetti: cambia la costruzione insiemistica, ma le proprietà definitorie rimangono le stesse. A questo livello, si può quindi dire almeno questo: che il linguaggio dei morftsmi (funzioni continue, omomorfismi, ... e in generale applicazioni che conservano date strutture) permette di rendere esplicite le proprietà essenziali di determinate operazioni definite su « oggetti algebrici» molto diversi fra loro. Il concetto di categoria non è altro che un modo per dare forma sistematica a quanto illustrato finora sulla base di esempi. Una categoria C è data da una classe di oggetti, che si indica generalmente con Ob(C), una classe Hom(A, B), per ogni coppia ordinata di oggetti< A, B > di C, i cui elementi diremo morftsmi di dominio A e codominio B, ed un'operazione o detta composizione, definita fra coppie di morfismi f e g quando e solo quando il codominio di g coincide col dominio di J, che soddisfa gli assiomi seguenti: x) se f E Hom(A, B) e g z) per ogni A E E Hom(C, A), fog Ob(C) esiste un morfismo I Ricordiamo, perché ci sarà frequentemente utile nel seguito, una definizione di spazio topologico. Sia X un insieme non vuoto e d una famiglia di suoi sotto insiemi tale che: I) 0 E d; 2) X E d e 3) l'intersezione di due elementi qualunque di d appartenga ad d e l'unione su ogni famiglia di elementi qualunque di d appartenga ad .>#. La coppia < X, s# >, dove d soddisfa le condizioni sopra poste, si dice spazio topologico e gli elementi di s# si dicono gli aperti dello spazio. La nozione generale è astratta dal caso della retta reale, ossia dalla coppia < R, d> doveR è l'insieme dei numeri reali ed d è la famiglia di sottoinsiemi di R che contengono un intervallo aperto per ognuno dei loro punti: quegli insiemi Y cioè tali che se x E Y esiste un intervallo aperto Ix con x E Ix per cui Ix S Y (topologia usuale di intervalli sulla retta). E Hom(C, B); IA E Hom(A, A) detto l'iden- Su uno stesso insieme si possono dare più topologie (ossia più famiglie s#) che danno origine a diversi spazi topologici con lo stesso supporto. In particolare, dato un insieme X, possiamo considerare su di esso la topologia banale, i cui unici aperti sono X e 0, e all'estremo opposto la topologia discreta in cui d è costituita da tutti i sottoinsiemi di X. Dati due spazi topologici <X, d> e < Y, SI> possiamo definire un opportuno concetto di isomorfismo fra di essi: data una funzione f : X___,.. Y, diremo che essa è continua se, per ogni aperto UESI, j- 1 (U) è un aperto di d. I due spazi sono detti omeo·morft se esistono funzioni continue f: X___,.. Y e g : Y ___,.. X per cui jo g = Ix e go f = Iy. Due spazi omeomorfi sono essenzialmente indistinguibili dal punto di vista della struttura topologica. 2.02 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) tità di A, tale che per tutti i morfismi f e g per cui la composizione a sinistra o a destra con lA è definita, vale lAoj = j e go l A = g; 3) se le composizioni sono definite, vale, per ogni morfismo k, g,J, k o (go f)= = (kog)oj. La 2) stabilisce le proprietà essenziali dell'identità, la 3) la associatività della composizione. Nell'esempio dei gruppi dato sopra gli oggetti sono i gruppi, i morfismi gli omomorfismi fra gruppi, le unità gli omomorfismi identici, la composizione l'ordinaria composizione fra funzioni. L'universalità del concetto di categoria - e la sua utilità - sta proprio nel fatto che le costruzioni insiemistiche rilevanti sono sempre definite entro specifiche categorie in termini puramente categoriali. Accanto alla categoria Gr dei gruppi (oggetti: i gruppi; morfismi: gli omomorfismi fra gruppi) abbiamo così la categoria Top degli spazi topo logici (oggetti: gli spazi topologici; morfismi: le funzioni continue), la categoria Pr degli insiemi preordinati (oggetti: gli insiemi preordinati; morfismi: le funzioni crescenti fra di essi), ecc. Tutte queste categorie hanno come oggetti insiemi dotati di una struttura e come morfismi funzioni che conservano la struttura stessa. Lo stesso universo degli insiemi può essere riguardato come una categoria Ins i cui oggetti sono appunto gli insiemi e i cui morfismi sono le ordinarie funzioni fra insiemi: l'unica « struttura » rilevante infatti che hanno gli insiemi « puri » è data dall'uguaglianza definita sui loro elementi, che per definizione è conservata dalle funzioni. Il concetto di categoria non comporta però necessariamente di considerare come oggetti insiemi strutturati, e non è detto che i morfismi debbano essere funzioni: l'essenziale è di avere oggetti (che possono essere qualsiasi) e morftsmi (che possono essere qualsiasi) che soddisfano gli assiomi. È chiaro allora che le categorie sono un particolare esempio di strutture parziali e che molte strutture parziali non sono altro che categorie: ad esempio, se prendiamo una categoria C i cui oggetti formino un insieme e in cui ogni morfismo f: A---+ B ha un inverso j-1 : B---+ A tale chef oj-1 = In e j-1 of = lA, possiamo considerare la famiglia dei morfismi di C su cui è definita la composizione o come un gruppoide con operazione o ; all'inverso, ogni gruppoide è una particolare categoria. Fatto ancora più interessante, certe strutture relazionali si possono vedere come categorie. Se ad esempio consideriamo l'insieme preordinato <O, ::::; >potremo descriverlo come una categoria prendendo O come famiglia di oggetti e assumendo, per ogni A, BE O, che Hom(A, B) ha al massimo un morfismo e ne ha uno quando e solo quando A ::::; B. La riflessività dell'ordine viene allota a significare che Hom(A, A) ha un morfismo (l'identità) e la transitività dell'ordine significherà che la composizione dei morfismi, quando è definita, è associativa. Parlando di categorie come strutture si presenta un problema dal punto di vista fondazionale. Nella nostra definizione gli oggetti di una categoria costitui- www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) scono una classe che può essere propria. In questo caso non possiamo propriamente parlare di una categoria come di una struttura, in quanto in generale una struttura è un insieme sul quale sono definite delle operazioni. Occorre quindi fare una distinzione fra categorie « grandi » e « piccole » che riflette la distinzione fra classi proprie e insiemi: grandi sono le categorie le cui classi di oggetti o di morfismi sono proprie, piccole quelle per cui tali classi sono insiemi. Da quanto detto sopra risulta che studiare la teoria dei gruppi vuol dire studiare la categoria dei gruppi e che l'aspetto algebrico rilevante di un gruppo è dato proprio dalla rete di omomorfismi che lo collega agli altri oggetti della categoria (agli altri possibili gruppi). In un certo senso, considerare la categoria dei gruppi ci permette di « esternalizzare » in modo uniforme, relativo cioè a tutti i gruppi, ciò che distingue un gruppo da un altro, che non è allora la sua composizione interna, ma il modo di collegarsi, via morfismi, con gli altri gruppi (oggetti della categoria). L'accento si sposta sulla stessa categoria considerata come oggetto in sé e si ripropone, in certo senso, un problema analogo: che cosa distingue la categoria dei gruppi da, poniamo, la categoria dei campi? Sicuramente un elemento essenziale, come mostra la pratica, sono le proprietà di chiusura delle categorie. Come abbiamo visto sopra, ad esempio, la categoria dei gruppi è chiusa rispetto al"'prodotto, cosa che non avviene per la categoria dei campi. Questo porta in primo piano il concetto di operazione fra strutture visto come una procedura sistematica per associare ad oggetti di una data categoria oggetti della stessa o anche di un'altra categoria. Si consideri ad esempio la costruzione dei gruppi liberi: si tratta di un'operazione che ad ogni insieme non vuoto - cioè ad ogni oggetto della categoria Ins - associa il gruppo libero generato da quell'insieme -cioè un oggetto della categoria Gr. Come detto sopra, l'importante è che questo processo di associazione è uniforme, nel senso che le sue proprietà non dipendono dagli specifici oggetti da cui partiamo ed è proprio questo che ci permette di parlare della costruzione dei gruppi liberi come di un processo generale. Si può dire che l'importanza del concetto di categoria sta nel fatto che ci permette di precisare che cosa siano queste costruzioni e il senso nel ' quale sono uniformi. Nasce così il concetto difuntore, che si presenta in modo naturale come una sorta di morftsmo fra categorie, e tramite il quale si possono analizzare moltissime situazioni della matematica moderna. Definiamo questo concetto. Date due categorie A e B, un funtore F da A a B F:A-+B è specificato dai dati seguenti: I) per ogni oggetto A di A, un oggetto F( A) di B; z) per ogni morfismo f: A-+ B di A, un morfismo F(f): F(A)-+ F(B) in B in modo che siano soddisfatte le proprietà seguenti: www.scribd.com/Baruhk La logica nei ventesimo secolo (Il) a) F(IA) = b) F(g o f) IF<A> = F(g) o F(j). In altre parole, un funtore deve conservare la struttura rilevante in una categoria, cioè la composizione dei morfismi e il carattere di unità. Esistono però delle situazioni in cui l'associazione funtoriale di oggetti e di morfismi di una categoria a quelli di un'altra è poc;sibile solo a patto di una inversione dei morfismi. Facciamo un esempio che ci servirà in seguito. Sia ;:r uno spazio topologico, e d la famiglia dei suoi aperti, ordinata mediante l'inclusione insiemistica. <d, s > è una struttura preordinata e come tale è - come abbiamo visto sopra - una categoria, chiamiamola P. Consideriamo ora le funzioni continue da ;:r a ~ (insieme dei reali con l'usuale topologia d'intervalli). Se vogliamo considerare il comportamento « locale » di queste funzioni, viene naturale associare a ogni aperto U di ;:r l'insieme delle funzioni continue da U a ~; chiamiamo 5( U) questo insieme. Il collegamento fra i vari aperti induce un collegamento fra gli insiemi di funzioni associate. Infatti, dato U s V, possiamo associare a ogni g E 5( V) la sua restrizione g' a U, cioè g' = g ~ U, che chiaramente apparterrà a 5(U). Possiamo così, dato f E Hom(U, V), definire un morfismo f*: 5(V)--+5(U) che ad ogni g E 5( V) associa g' E 5( U). Questi morfismi vengono detti morftsmi di restrizione. In questo modo quindi ad ogni freccia f: U--+ V resta associata una freccia f*: 5(V)--+5(U) e si verifica che 2) f* oh*= (ho f)*. Se definiamo F(U) = 5(U) e F(f)=f* avremo un funtore F da P a Ins che «inverte » le frecce: lo chiameremo funtore controvariante, mentre riserveremo il nome di covariante a un funtore che mantiene l'ordine delle frecce. Funtori controvarianti da P a Ins come quello ora definito si chiamano prefasci di insiemi e come vedremo più avanti sono di importanza fondamentale nella matematica moderna. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Parlando all'inizio di Gr, abbiamo usato il concetto di isomorfismo e abbiamo verificato chef: C-+ C'l è un isomorfismo se esiste un morfismo g: C'-+ C tale che j o g = I G, e go f = I G· In generale in ogni categoria questa è la definizione di isomorfismo. Allo stesso modo possiamo definire in generale i concetti di monomorfismo ed epimorfismo astraendo da esempi noti. Dato il morfismo f: C-+ C' diremo che f è un monomorfismo (o più semplicemente che è mono) se presi due morfismi g: X-+ C'e g': X-+ C', abbiamo che g # g' -=::;, f o g # f o g' mentre diciamo chef è un epimorfismo (è epi) se presi comunque g: C'-+ X e g': C'-+ X si ha Come si vede le definizioni di mono e epi sono una la «duale» dell'altra, nel senso preciso che una si ottiene dall'altra invertendo la direzione delle frecce e quindi l'ordine nella composizione. Questo fenomeno di dualità si può analizzare sistematicamente introducendo il concetto di categoria duale o, in terminologia più recente, opposta di una data categoria. Considerata una categoria C chiameremo opposta di C e l'indicheremo con C0 , la categoria che si ottiene prendendo come oggetti gli oggetti di C e, dati A, B in C0 , ponendo stabilendo infine che f o g = h in co se e solo se gof = h in C. Si vede che se C è una categoria anche co lo sarà e sarà la categoria ottenuta da C semplicemente invertendo la direzione di tutte le frecce. (Per inciso, questo ci fornisce un esempio di categoria in cui non necessariamente i morfismi sono funzioni.) Dire allora chef è epi in C equivale a dire che essa è mono in co e viceversa. Ancora, se F: C-+C' è controvariante, sarà covariante F: C 0 -+C'. La nozione di categoria opposta ci permette quindi di « dimezzare » le dimostrazioni: ottenuto un risultato sui monomorfismi in C, esso si trasformerà per dualità in un risultato sugli epi in co. Analogamente per i funtori: utilizzando co potremo sempre !imitarci a funtori covarianti. L'operazione che ci porta da una categoria alla sua opposta è un primo esempio di operazioni fra categorie. Altre se ne presentano, ad esempio il proI Le strutture algebriche vengono di norma indicate col carattere gotico, salvo che non si considerino come oggetti di una data categoria, nel qual caso vengono indicate semplicemente in corsivo. Il lettore non confonda - ma riteniamo che il contesto dovrebbe evitare ogni possibilità di errore - le strutture indicate in que- sto secondo modo con il relativo supporto. 2 Quando si vuole mettere in evidenza che si tratta di mono o di epi, si usano i simboli « >-+ >> per i mono e «-l+» per gli epi. Non ci sentiremo legati a questa convenzione se non, appunto, quando essa servirà a chiarire il discorso. zo6 www.scribd.com/Baruhk La logica nei ventesimo secolo (II) dotto. Date due categorie C e C' il loro prodotto C x C' sarà la categoria che si ottiene come segue: come oggetti di C X C' prendiamo le coppie ordinate <A,B>conAinCeBinC';dateoraduecoppie<A,B>, <A',B'> inC X C', definiamo Home x c' (<A, B>, <A', B' >) = Home( A, A') x Home'(E, B'). È facile verificare che in questo modo (.con l'ovvia composizione dei morfismi · <J,j' > in C X C') si ottiene una categoria. La nozione di prodotto di categorie ci permette di vedere come molte associazioni di oggetti a oggetti non sono che definizioni di funtori. Ad esempio, se prendiamo la categoria Gr e definiamo F: Gr x Gr-+ Gr ponendo F( G, G') = G x G', e definendo in modo ovvio le immagini dei morfismi, otterremo un funtore. Altro fatto da osservare è che, definito il prodotto di categorie, potremo definire funtori con un qualunque numero finito di argomenti, considerando la categoria prodotto. Lo studio delle categorie si riduce così allo studio di funtori fra categorie, proprio come lo studio dei gruppi si riduce a quello dei morfismi tra gruppi. Questo significa, se ci limitiamo alle categorie piccole, considerare la categoria delle categorie piccole i cui morfismi sono appunto i funtori. Abbiamo a questo punto gli strumenti per analizzare il concetto di isomorfismo naturale che, come si è già detto sopra, costituiva l'obiettivo di fondo del lavoro di Eilenberg e Mac Lane. Questa analisi avviene precisamente attraverso il concetto di trasformazione naturale che ci permette di confrontare fra loro funtori. Siano F e F' due funtori da C a C'. Confrontarli significa vedere che trasformazioni esistono, se ne esistono, fra di essi. Una trasformazione naturale -r: F--+ F' tra i due funtori è data specificando per ogni A di C un morfismo TA: F( A)--+ -+F'(A) di C'tale che per ogni frecciaj: A-+B di C si abbia che il seguente diagramma è commutativo F (A)--F_(_f)_--t_F (B) TAl l F'(A) F'(f) Tn F'(B) www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Le varie TA, TB, vengono chiamate componenti della trasformazione naturale e determinano univocamente T. La « naturalità » della trasformazione sta nel fatto che le componenti sono definite simultaneamente per tutti gli oggetti e questo è il significato della commutatività del diagramma. Esempi di trasformazioni naturali abbondano in tutta la matematica; uno semplice può essere il seguente. Sia C una 'categoria qualsiasi e P un insieme preordinato considerato come categoria P. Supponiamo che F e F' siano due funtori da C a P tali che F(A) ~ F'(A) in P. Ponendo T: F(A).....-+F'(A) otteniamo una trasformazione naturale. È chiaro infatti che per ogni j: A.....-+ B in C avremo che il diagramma F(A) _ _ F_(f_) _ _ F(B) '·~ ~ t'" F' (A) -~F~'(:--:cf):----F' (B) commuta, in quanto il morfismo diagonale esiste ed è unico (si ricordi che per definizione Hom(F(A), F'(B)) contiene un solo elemento) ed è per definizione F'(D TA = f 1 = TnF(f). Questo esempio è matematicamente banale, ma illustra una situazione generale che si presenta in contesti ben più interessanti. Le trasformazioni naturali sono « morfismi » tra funtori. Così, studiare i funtori da C a C' significa studiare la categoria Func(C, C') dei funtori in questione, prendendo come morfismi le trasformazioni naturali fra di essi. Una trasformazione naturale è un isomorftsmo naturale quando ogni sua componente è un isomorfismo. Funtori tra cui esiste un isomorfismo naturale hanno sostanzialmente un comportamento identico dal punto di vista algebrico (proprio come avviene ad esempio per gruppi isomorfi). Consideriamo l'esempio cui abbiamo accennato all'inizio e prendiamo la categoria V degli spazi vettoriali a dimensione finita su un dato campo e la trasformazione T tra i funtori l: V.....-+ V (identità) e T 2 : V.....-+ V che allo spazio vettoriale A associa il duale del suo duale. Uno spazio vettoriale è isomorfo « naturalmente » al suo doppio duale nel senso che l'isomorfismo, per essere stabilito, non richiede la scelta di una particolare base, ma sì può stabilire a prescindere da tale scelta simultaneamente per tutti gli spazi vettoriali in V: " è quindi un isomorfismo naturale. Il significato della condizione di naturalità è proprio questo e se ne coglie il senso per contrapposizione, considerando il caso del funtore T1 : V.....-+ V che a ogni A di V associa semplicemente il suo duale T1(A); non esiste isomorfismo naturale da l a T~, anche se, come è noto, T1(A) è isomorfo ad A: il fatto è che non c'è modo di zò8 www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) stabilire questo isomorfismo simultaneamente per tutti gli spazi vettoriali, in quanto nella sua definizione interviene in modo essenziale il riferimento a una data base. Dal 1945 in poi la teoria delle categorie ha pervaso sempre più la pratica matematica e si è arricchita di nuovi concetti, alcuni dei quali avremo più avanti occasione di ricordare. Basta pensare ad esempio al concetto di aggiunzione fra funtori, introdotto da Daniel Kan, alle categorie abeliane, che stanno alla base dei moderni sviluppi dell'algebra omologica e della teoria dell'omologia su fasci introdotta da Alexandre Grothendieck, ecc. La fecondità pratica dell'algebra categoriale non deve far dimenticare d'altra parte che questi successi nascono da una precisa concezione di quello che è essenziale di quello che non è essenziale nella matematica. Questa consapevolezza si trova già nel già citato articolo di Eilenberg e Mac Lane; con le loro parole: « In senso matematico la nostra teoria [delle categorie] fornisce concetti generali applicabili a tutte le branche della matematica astratta, e contribuisce così alla tendenza corrente verso un tratta_mento uniforme di discipline matematiche differenti. In particolare, esso fornisce l'opportunità di confrontare costruzioni e isomorfismi che occorrono in branche differenti della matematica; in questo modo essa può eventualmente suggerire nuovi risultati per analogia. La teoria sottolinea anche che, ogniqualvolta degli oggetti sono costruiti in un modo specificato da altri oggetti dati, è consigliabile riguardare la costruzione delle corrispondenti applicazioni indotte su questi nuovi oggetti come parte integrante della loro definizione. La messa in opera di questo programma comporta una considerazione simultanea di oggetti e loro applicazioni (nella nostra terminologia ciò significa la considerazione non di oggetti individuali ma di categorie). Questa enfasi sulla specificazione del tipo di applicazioni impiegate dà una maggior penetrazione nel grado di invarianza dei vari concetti considerati ... Il carattere di invarianza di una disciplina matematica può essere formulato in questi termini. Così, nella teoria dei gruppi, tutte le costruzioni fondamentali possono essere riguardate come definizioni di funtori co- o controvarianti, sicché possiamo formulare lo slogan: il soggetto della teoria dei gruppi è essenzialmente lo studio di quelle costruzioni di gruppi che si comportano in modo covariante o controvariante rispetto a omomorfismi indotti. Più precisamente, la teoria dei gruppi studia funtori definiti su ben specificate categorie di gruppi, con valori in un'altra di tali categorie. Tutto ciò può essere riguardato come una continuazione del programma di Erlangen di Klein nel senso che uno spazio geometrico con il suo gruppo di trasformazioni viene generalizzato a una categoria con la sua algebra di applicazioni» (corsivo nostro). Forse l'applicazione più vasta e rivoluzionaria di questo progràmma, che concepisce l'invarianza come il vero e proprio oggetto dell'indagine matematica, si è avuta nel nuovo approccio alla geometria algebrica iniziato da Grothendieck attorno al 1957. In questa prospettiva gli oggetti geometrici fondamentali sono www.scribd.com/Baruhk La logica nel ventesimo secolo (II) i topoi concep1t1 come algebre delle trasformazioni in uno spazio geometrico generalizzato. Conviene illustrare brevemente questo sviluppo in quanto è proprio in riferimento ad esso che ha preso le mosse il lavoro di William Lawvere sui fondamenti della matematica e sulla logica. z) La geometria algebrica e il concetto di topos Con una buona dose di semplificazione possiamo vedere la storia della geometria algebrica, dagli anni venti di questo secolo in poi, come il tentativo di trovare una definizione di oggetto geometrico sufficientemente generale e nello stesso tempo passibile di analisi algebrica. A partire dai primi lavori di Bartel L. van der Waerden e di Oscar Zariski, passando per i contributi di André Weil, E. Kahler e giungendo fino a Grothendieck, il leitmotiv è dato dalla domanda: fino a che punto gli oggetti geometrici si possono studiare algebricamente e che cosa rende possibile questo studio? Da Cartesio in poi la via canonica per applicare l'algebra alla geometria è stata quella di considerare gli oggetti geometrici come « luoghi » delle soluzioni di equazioni o sistemi di equazioni. Parlare di equazioni comporta il riferimento ad uno specifico campo base in cui variano i coefficienti e le soluzioni; dato un campo Sl, ad esempio quello dei reali, consideriamo allora l'anello di polinomi Sl [x1, ... , xn] (che per brevità indicheremo con Sl[X]) a n indeterminate. Dato un insieme r di polinomi in Sl [x], resta univocamente determinato l'insieme F* dei suoi zeri in Sl, i cui elementi sono tutte e sole quelle n-uple < a1, ... , an> di Sl che annullano simultaneamente tutti i polinomi di r. Queste n-uple si possono considerare come punti dell'n-esima potenza cartesiana Sln di Sl; Sln viene detto lo spazio affine a n dimensioni su Sl. All'inverso, dato un insieme di punti r s; Sln, gli è univocamente associato un insieme F* s; Sl [x] dato da tutti i polinomi che si annullano simultaneamente per tutte le n-uple in r. Questa doppia associazione ci dà una via per studiare in termini di rapporti fra insiemi di polinomi i rapporti fra regioni dello spazio affine e viceversa (è una situazione analoga a quello che si verifica, in logica, fra teorie e classi di modelli corrispondenti). Uno dei risultati più significativi della scuola algebrica tedesca degli anni venti - van der Waerden, Emil Artin, ecc. - è l'individuazione di un preciso vocabolario per stabilire questo collegamento. Per cominciare va osservato questo: ciò che conta non sono tanto gli insiemi di polinomi, quanto gli ideali generati da essi. Se consideriamo infatti un insieme r di polinomi, ogni zero di r sarà anche uno zero di ogni polinomio dell'ideale (F) generato da Fl. Quindi I Come è noto, dato un anello commutativo 'll, un ideale in 'll è un insieme I di elementi di 'll tale che se x e y appartengono ad I, anche la loro somma x y è in I e se x E I e + y E 'll, x • y E I. Un ideale I è proprio se non contiene l'I dell'anello; è primo se ogniqualvolta contiene un prodotto x • y contiene uno almeno dei fattori; è massimale se oltre a essere proprio 210 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) se r è un insieme di punti in ,Sln, F* sarà un ideale in $l [x]. Possiamo quindi !imitarci a quei particolari insiemi r di polinomi che sono ideali, ed ai corrispondenti insiemi F* di punti che chiameremo varietà affini. Il collegamento ideali /varietà ci permette di associare diversi oggetti algebrici alle varietà e quindi di studiarle da questo punto di vista. Per prima cosa, data una varietà V, indicato con rv l'ideale da essa determinato, possiamo considerare l'anello quoziente .sl/Fv che indicheremo con m( V) e chiameremo l'anello di coordinate di V. Sostanzialmente m( V) è identificato da quelle funzioni polinomiali che hanno come argomento i punti di V e valori in .ft. Il fatto importante è che presi due polinomi può darsi che le funzioni polinomiali corrispondenti coincidano su una varietà e non su un'altra, sicché le proprietà della varietà si riflettono sulle proprietà dell'anello associato. Se $l è algebricamente chiuso, il Nullstellensatz di Hilbert ci consente di caratterizzare gli ideali associati alla varietà e quindi anche gli anelli. Gli ideali in questione sono gli ideali radicali, tali cioè che se contengono una potenza di un elemento (polino mio) contengono anche l'elemento stesso; gli ideali primi sono un caso particolare di ideali radicali e si può vedere che le varietà loro associate sono tutte e sole quelle irriducibili, tali cioè che non sono riunione di due sottovarietà proprie. Dal fatto che gli ideali delle varietà sono radicali scende che gli anelli V) saranno anelli senza elementi nilpotenti, tali cioè che qualche loro potenza sia uguale a zero, e, in quanto quozienti di .sl[x], $l-algebre finitamente generate. C'è una biiezione fra le $l-algebre finitamente generate senza elementi nilpotenti e gli anelli di coordinate; non solo, date due varietà V e V' quello che conta dal punto di vista geometrico è definire un opportuno concetto di morfismo fra di esse, considerando quelle f: V-+ V' dette regolari, che sono indotte da polinomi. In questo modo possiamo considerare varietà e mappe regolari come una categoria. D fatto importante è che ogni mappa regolare f: V-+ V' induce un omomorfismo di $l-algebre j*: m( V)-+ V'); si può verificare che in questo modo otteniamo un funtore controvariante F e si può dimostrare che all'inverso esiste un funtore F' dalla categoria delle $l-algebre a quella delle varietà, per cui esiste una equivalenza naturale fra F o F' e l'identità sulla categoria delle varietà e fra F' o F e l'identità sulla categoria delle $l-algebre. Que- mc mc non è contenuto strettamente in nessun altro ideale proprio. Ogni ideale massimale è chiaramente primo, ma non vale il viceversa. Infine, un ideale è principale quando è generato da un elemento di 'Il, quando cioè è il più piccolo ideale che contiene quel dato elemento. Si dimostra che se un ideale è generato da un elemento x, tutti i suoi elementi sono tutti i prodotti x • y per Y E !!l. L'importanza degli ideali sta nel fatto ch_e essi sono in corrispondenza biunivoca con gh omomorfismi fra anelli e con le congruenze su anelli. In altre parole, se f : !Il---+ ~ è un omomorfismo tra gli anelli !Il e ~. il nucleo di f (ossia l'insieme degli elementi x E '!l tali che j(x) = o E'8) è un ideale in !Il e ogni ideale in !Il ha questa forma. Basta infatti considerare il morfismo canonico g : !Il---+ !Il/ I, dove '!l/ I è l'anello quoziente rispetto alla congruenza x ~ y se e solo se x - y E I, e g assegna ad ogni elemento di !Il la sua classe di equivalenza. Si può verificare che 'li/ I è un dominio di integrità (non ammette_ cioè divisori dello zero) se e solo se I è primo, ed è un campo se e solo se I è massimale. 211 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) sto significa che la categoria delle varietà affini è equivalente alla categoria opposta delle ~-algebre finitamente generate senza elementi nilpotenti: possiamo quindi studiare l'una categoria attraverso l'altra. Limitanéloci a ricordare che da questa corrispondenza base se ne possono ottenere altre, notiamo che quello che conta è che si è cosi stabilito un preciso vocabolario di traduzione che ci fa passare dalle varietà affini ad oggetti algebrici: più specificatamente, lo studio delle varietà affini si riduce totalmente allo studio degli oggetti algebrici corrispondenti. La difficoltà è che chiaramente le varietà affini non si possono considerare come gli oggetti geometrici più generali: ne esistono altri, ad esempio gli spazi proiettivi, che non rientrano nella categoria. C'è ancora un altro momento delicato nel discorso fatto sopra: la pratica matematica dimostra che per la risoluzione di problemi geometrici è essenziale poter passare da un dato campo ~ a un suo sovracampo ~~ in cui esistono «più soluzioni ». Il primo passo in questa direzione fu compiuto da Vietar Poncelet e Gaspard Monge che dal campo dei reali passarono a quello dei complessi. È opportuno quindi, algebrizzando i problemi geometrici, considerare le varietà affini determinate da un ideale al variare dei sovracampi del campo dei coefficienti. « È solamente a partire dal 1940, » affermano Grothendieck e Jean A. Dieudonné, «con la geometria algebrica " astratta " (vale a dire su un campo di base ~ qualsiasi, eventualmente di caratteristica =F o) sviluppata soprattutto da Weil, Chevalley e Zariski, che l'idea del cambiamento di base assume if!:portanza in ':n contesto più generale: in effetti è necessario di frequente passare ad esempio a una chiusura algebrica di ~ o (quando ~ è un campo valutato) alla complezione di ~. Tuttavia né in Chevalley né in Zariski si trova uno studio sistematico di questa operazione; mentre in Weil, che la impiega in ben altre occasioni, la sua generalità è in qualche modo mascherata dal partito preso di restringersi una volta per tutte a non considerare che sottocampi di un campo chiuso" abbastanza grande" (il" corpo universale") restando quindi evidentemente abbastanza vicino al punto di vista classico dove tale ruolo era tenuto dal campo <r dei complessi. Solo più di recente, prima in E. Kahler e quindi nella prima edizione del presente trattato,l è stata riconosciuta l'utilità di ammettere delle "estensioni" ~~ di ~ che siano delle ~-algebre (commutative) arbitrarie (anche quando ~è un campo) e tali cambiamenti di basi arbitrarie sono senza dubbio divenuti uno dei procedimenti più importanti della geometria algebrica moderna; sicché si può opporre al punto di vista " aritmetico " . . . il punto di vista che si può qualificare propriamente geometrico: si fa astrazione dalle proprietà particolari delle soluzioni del sistema di equazioni nello spazio particolare ~~ donde si è partiti, per considerare per ciascuna ~­ algebra ~~ l'insieme delle soluzioni del sistema in ~~~ e il modo con cui questo I La citazione è tratta dagli Eléments de géométrie algébrique, I (n ed.), Berlino I97I. La prima edizione è sempre del I97I. Abbiamo ap- portato leggere modifiche per adattarla al nostro simbolismo e alla nostra terminologia. 2.12. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) insieme varia con .R'; in particolare si cercheranno le proprietà del sistema di equazioni che restano invarianti con il variare di .R' (o, come anche diremo, che sono "stabili rispetto a cambiamenti di base"). «L'idea di "variazione" dell'anello di base si esprime matematicamente senza difficoltà grazie al linguaggio funtoriale (la cui mancanza spiega la timidezza dei tentativi anteriori). Si può dire in effetti che si ha un funtore covariante (*) dalla categoria delle .R-algebre a quella degli insiemi, c):le fa corrispondere a ogni .R-omomorfismo ({1: .R'---*.R" l'applicazione ({JI: .R'I---*.R"I; si dice anche che (*) è il funtore " spazio di tipo affine di dimensione I su .R". Se S designa una famiglia (F1)JeJ di polinomi, indichiamo con Vs(.R') la parte di .R'I formata dalle soluzioni del sistema di equazioni corrispondente; si dice anche che queste soluzioni sono i " punti a valore in .R' " della " varietà su .R" definita dal sistema. È immediato che (**) Vs: .R'---* Vs(.R') è un sottofuntore del funtore BI (essendo l'immagine di Vs(.R') tramite ({JI contenuta in Vs(.R")). Affermiamo dunque che in linea di principio lo studio del sistema d'equazioni dal punto di vista della geometria algebrica è lo studio del funtore Vs (dalla categoria delle .R-algebre a quella degli insiemi).» La svolta astratta quindi, rispetto alla geometria degli anni trenta, riguarda l'arbitrarietà dei campi e delle loro estensioni. La considerazione di campi di caratteristica =1= o permette un fecondo contatto con la problematica aritmetica e l'ammissione di .R-algebre arbitrarie non necessariamente prive di elementi nilpotenti consente di disporre di questi ultimi che vengono a giocare un ruolo di elementi infinitesimi, permettendo così la considerazione di problemi analitici sotto forma algebrica. Determinato così l'obiettivo della geometria algebrica, si tratta di vedere come esso si possa realizzare concretamente. È in questo contesto che si inserisce il concetto di fascio che, come vedremo, ha un ruolo centrale non solo da un punto di vista geometrico, ma anche da quello logico. Nella geometria algebrica degli anni quaranta una varietà affine è determinata dal suo anello di coordinate. Se si vuole tener conto, come detto sopra, del cambiamento di base, questo non sarà più possibile. Il concetto di fascio nasce appunto per tener conto, nell'algebrizzazione, di questa possibilità di variazione. In termini molto schematici, l'idea di fondo è la seguente: si tratta di partire, invece che dalle varietà affini, dagli anelli e di domandarsi quali possano essere gli oggetti geometrici, le « varietà » di cui essi si possono vedere come gli anelli di coordinate. Dato un anello ~. è possibile associargli uno spazio topologico, lo spazio di Zariski sull'insieme 213 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Spec(~, lo spettro di m:, dei suoi ideali primi. Questi, essendo collegati ai morfismi, e quindi ai cambiamenti di base, prenderanno il posto dei « punti » della trattazione classica. Se consideriamo m: come un anello di coordinate, la topologia su Spec(m:) riflette i legami di copertura fra le sottovarietà della varietà associata ad m:, cioè fra le « zone » nelle quali essa si può articolare. La corrispondenza fra anelli e spazi di Zariski non è biunivoca (basti pensare che due campi qualunque, non avendo ideali propri, avranno lo stesso spettro) quindi non è possibile considerare lo spazio di Zariski associato ad un anello come l'oggetto geometrico di cui esso è l'anello di coordinate. La pratica mostra che conviene considerare, invece del solo Spec(m:), un particolare fascio, il fascio strutturale che ad ogni « zona » di Spec(m:) associa un anello (che possiamo considerare come l'anello di coordinate della sottovarietà di questa zona). L'anello associato all'intero Spec(m:) sarà isomorfo all'anello di partenza m:, ma in questo modo avremo un dato in più: il fascio infatti ci dice come gli anelli associati alle varie zone si « incollano » fra di loro in dipendenza dei legami di copertura delle zone stesse. Abbiamo così un oggetto geometrico ben articolato in corrispondenza ad ogni anello. Considerando la coppia data dall'anello e dal fascio strutturale si giunge alla nozione di schema affine come generalizzazione del concetto di varietà affine. Gli schemi, che costituiscono le più generali varietà geometriche, si ottengono considerando oggetti che « localmente » sono schemi affini. Schematizzata così la problematica generale della geometria algebrica legata al concetto di fascio, occupiamoci di quest'ultimo. Come detto sopra, un fascio stabilisce un modo di « incollare » fra di loro degli oggetti, ed è a questa immagine intuitiva che conviene appoggiarsi. Sia ~ uno spazio topologico la cui famiglia di aperti è d'. Come detto a suo tempo, .91 costituisce una categoria in quanto insieme preordinato dall'inclusione. Un fascio di insiemi su ~ è un prefascio (si veda pag. 365) F che soddisfa particolari condizioni di continuità. Consideriamo ancora l'esempio delle funzioni continue: c'è un legame tra gli elementi g E F(A), dove A è un aperto, e le loro restrizioni agli aperti inclusi in A. Precisamente si verifica questo: dati g, g' E F(A), se per una copertural {Ai}tei, con At ~ A abbiamo per ogni At che g ~ At = g' ~ At, g coinciderà con g'; in altre parole, una funzione su un aperto è univocamente determinata dai valori che assume su una sua copertura. All'inverso, possiamo « comporre » una funzione su A, quindi un elemento g E F(A), a partire da elementi gì E F(At) per ogni i E I dove {A t }te I è una copertura di A. L'unica ovvia condizione per far questo è che i vari gì costituiscano una famiglia compatibile, nel senso seguente: dati gt E F(At) e !J E F(Ai) si abbia che sul dominio comune essi coincidano, cioè se Atn A1= Ak 1 Si ricordi che dato uno spazio topologico < X, .w'> se A è un aperto, una copertura di A è una famiglia { A; }; e I di sottoaperti di A la cui riunione è uguale ad A. ZI4 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) In questo caso, facendo la riunione dei vari ,g; concepiti come insiemi otterremo una funzione g E F(A); che questa sia una funzione dipende ovviamente dalla condizione di compatibiljtà; che sia definita su .A dal fatto che gli A; costituiscono una copertura di A; che sia continua dal fatto che lo è su ogni sottoaperto della famiglia. Il concetto di fascio di insiemi su uno spazio topo logico costituisce una generalizzazione di questo esempio al caso in cui gli F(A) sono insiemi arbitrari, non necessariamente di funzioni. Si tratta di esprimere in termini categoriali le _condizioni di esistenza e unicità sopra formulate. Ricordando quanto detto a pag. 205 sui morfismif* di restrizione, giungiamo alla definizione seguente: un funtore controvariante F da d a Ins è un fascio se 1) siano g, g' E F(A). Allora g = g' se esiste una copertura {At}tEI di A tale che per ogni i E l e per ogni /i: A-+ At, f*t(g) = f*;(g') (Unicità); 2) sia {At}tEI una copertura di A con morfismi /i: A-+ A; per ogni i E l. Sia {gt}tEI una famiglia compatibile di elementi g; E F(A;). Esiste allora un g E F(A) tale che, per ogni j E l, f*J(g) = g; (Esistenza). A parole: se abbiamo una famigliagt di elementi di F(At) tali che per ogni coppia gi e g; le loro restrizioni a F(At n A 1) coincidono, esisterà ungE F(A) la cui restrizione a F(At) per i E l coincide con gi. Come si vede quindi le condizioni di esistenza e unicità che caratterizzano ---- i fasci non fanno che dire come possiamo « incollare » fra loro elementi éompatibili di una copertura di A in modo da ottenere un oggetto associato ad A. La condizione di unicità ci garantisce d'altra parte che per confrontare tra loro due oggetti in F(A) ci basta stll-' diare il loro comportamento «locale» sui vari sottoaperti di A. È in questo •·_. senso che la nozione di fascio ci permette di «.costruire per incollamento » un oggetto in modo da poterne controllare localmente le proprietà. Questa messa a fuoco del ruolo del concetto di localizzazione ci permette di estendere il concetto di fascio a situazioni più generali. Per cominciare possiamo considerare fasci non di insiemi ma di strutture arbitrarie, cioè fasci di gruppi, di anelli, ecc. (come si fa nella geometria algebrica). In secondo luogo possiamo definire fasci non solo su spazi topologici, ma su categorie più generali. Questo fu fatto per la prima volta da Grothendieck per poter costruire una teoria sufficientemente generale della coomologia su fasci. L'idea è di assiomatizzare il concetto di copertura o di localizzazione individuandone 1e,..proprietà centrali. Limitiamoci al caso di quelle particolari categorie che sono i preordini <l, ~ > . Tenendo presente il caso degli spazi topologici, si può verificare che determinare una nozione di copertura significa assegnare a ogni elemento i E l una collezione di famiglie di elementi ~ i che soddisfano particolari condizioni. Un modo per definire questo concetto più generale è di introdurre la nozione di criwllo. Chia215 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) meremo crivello su i ogni famiglia A di elementi di l tali che se i E A e k ::::; i allor.a k E A. Diremo crivello principale per i, e lo indicheremo con Ct, la famiglia di tutti gli elementi di l minori o uguali a i. Le famiglie coprenti i dovranno allora essere sottocrivelli di Ct. Giungiamo così alla definizione seguente. Diciamo topologia di Grothendieck su <l, ::::; > l'assegnazione a ogni i E l di una famiglia Loc(i) (le localizzazioni di i) di sottocrivelli di Ct tali che 1) C, E Loc (i) ; z) se CELoc(i) ej::::; i, allora Cn C1 ELocU); ;) sia CE Loc(i) e C' s; Ct con C'crivello. Allora C'E Loc(i) se per ogni) si ha C'n cj E Loc (i). Queste condizioni generalizzano quanto vale per gli aperti. La prima afferma che il crivello principale di i è una famiglia coprente; la seconda che « tagliando » una famiglia coprente con la massima famiglia coprente di un elemento minore otteniamo una famiglia coprente di quest'ultimo; la terza infine è una sorta di transitività: una famiglia di coperture indidata da una copertura è a sua volta una copertura. Si noti che una topologia di Grothendieck non è affatto una topologia nel senso usuale, ma ha sempre un significato geometrico in quanto connessa al concetto di copertura. Diremo allora sito su <I, ::::; > la coppia data da <l, ::::; > e da una topologia di Grothendieck su J.t Non daremo la definizione di topologia di Grothendieck per categorie più generali; l'idea è comunque quella di considerare come crivelli di un oggetto A della categoria C famiglie dimorfismi {At~A}teJ· Un sito, allora, è dato da una categoria piccola e da una topologia di Grothendieck definita su di essa. Anche in questo caso i fasci possono essere di insiemi, di anelli, ecc. Dato un sito, i fasci di insiemi su di esso definiti possono essere diversi, ed è estremamente importante studiarne i rapporti: possiamo fare prodotti di fasci, sottofasci, ecc. ? Dal punto di vista della geometria algebrica (e non solo di essa) la definizione di un sito ha proprio il ruolo di permetterei di isolare la totalità dei fasci su di esso definiti e i loro rapporti. Un topos è appunto la famiglia di tutti i fasci di insiemi definiti su un sito. Per Grothendieck i topoi costituiscono veri e propri universi geometrici. Per rendersi conto di cosa questo possa significare pensiamo a quanto detto sopra sulla possibilità di considerare i funtori Vs che ad ogni ft-algebra associano i I Questo mostra come, definendo uno schema affine, il ruolo della topologia di Zariski sull'anello 'li di partenza altro non fosse che un modo per definire una nozione di copertura così da poter costruire il fascio strutturale.· Se teniamo conto che, nel caso 'li sia un anello di coordinate di V, gli ideali primi in 21 corrispondono alle sottovarietà irriducibili di V, si capisce in che senso il fascio strutturale ci dà un oggetto geometrico: esso non fa che esprimere come gli anelli associati alle « zone » di V si compongono in dipendenza dei rapporti di copertura fra di esse in modo da ottenere l'anello di coordinate su v. 216 www.scribd.com/Baruhk La logica nei ventesimo secolo (II) punti del suo spazio affine che soddisfano i polinomi in S. Se consideriamo la categoria opposta delle Sl-algebre finitamente generate, intuitivamente ciascuno di questi funtori rappresenta le deformazioni che la « varietà » determinata da S subisce una volta che la si consideri nello spazio corrispondente alle varie $\-algebre. Questi funtori quindi sono « varietà in movimento » o se si preferisce varietà definite in modo invariante rispetto alla scelta della Sl-algebra. Se definiamo una topologia di Grothendieck sulla categoria delle Sl-algebre che stabilisce i rapporti di copertura fra di esse, i fasci saranno quelle « varietà » che riflettono questi rapporti. Si può quindi capire in che senso un topos come categoria di tutti i fasci su un sito si possa vedere come un universo geometrico. È chiaro infatti che un topos si può concepire come una categoria i cui oggetti sono i fasci e i cui morfismi sono le trasformazioni naturali. C'è un punto essenziale da osservare: proprio in quanto totalità di fasci di insiemi, i topoi ereditano molte proprietà dell'universo degli insiemi, anzi questo stesso universo risulta essere un particolare esempio di topos. Basta infatti considerare i fasci definiti nello spazio « degenere » dato da un solo punto X e dalla topologia discreta su di esso (che è ovviamente l'unica). Un fascio sarà determinato una volta che si specifichi quale insieme è associato a {X}. Ne scende che c'è una biiezione tra fasci e insiemi per cui i fasci sullo spazio corrispondono alla totalità degli insiemi. L'universo degli insiemi si presenta quindi come un caso di universo geometrico particolarmente «povero», in cui le grandezze non hanno variazione. Ciò è estremamente importante dal punto di vista fondazionale. 3) Topoi elementari, insiemi variabili, internalizzazione della logica Si è detto che i topoi di Grothendieck ereditano dall'universo degli insiemi alcune essenziali proprietà (di chiusura e di esattezza). Questo significa che ogni volta che consideriamo un topos come una categoria (oggetti i fasci, morfismi le trasformazioni naturali fra di essi) si verifica che l'applicazione di operazioni analoghe a quelle che da insiemi ci portano a insiemi ci portino nei topoi da fasci a fasci e che certi funtori siano esatti. Esiste un teorema dovuto a Jean Giraud (1962) che stabilisce che queste proprietà di chiusura e di esattezza caratterizzano essenzialmente i topoi, nel senso che i topoi sono tutte e sole le categorie che sono chiuse rispetto a date operazioni che sono definibili riferendosi all'universo degli insiemi. Alla ricerca di un contesto generale in cui immergere e giustificare i modelli booleani della teoria degli insiemi, Lawvere e Myles Tierney giunsero alla formulazione del concetto di topos elementare: l'obiettivo di fondo era quello di mostrare come i topoi elementari siano veri e propri universi del discorso, definibili senza ricorrere al concetto di insieme, e come anzi l'universo degli insiemi costituisca un loro caso particolare. Vedremo più avanti che cosa questo significhi precisamente: l'essenziale per ora è capire per quale ragione questo 217 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) ampliamento del concetto di universo del discorso sia rilevante ai fini della nostra analisi. Torniamo per un momento ai topoi di Grothendieck. Gli oggetti di un topos sono fasci e i fasci si possono vedere come un modo per parametrizzare la variazione di insiemi : un fascio è in un certo modo una funzione che al variare degli oggetti di una certa categoria assegna diversi insiemi; questi insiemi sono collegati l'uno all'altro in quanto c'è un preciso legame tra gli elementi dell'insieme associato ad un oggetto e quelli degli insiemi associati alle famiglie di oggetti che coprono l'oggetto dato. Consideriamo il caso più semplice e prendiamo la retta reale 91: il sito su 91 sarà quello indotto dalla topologia usuale. Possiamo vedere un fascio definito su questo sito come una legge che ad ogni intervallo della retta associa un insieme in modo da rispettare i legami di copertura. Se leggiamo gli intervalli della retta come intervalli di tempo, un fascio descrive un insieme in movimento, un insieme che varia. La variazione non è casuale: poiché abbiamo a che fare con fasci, c'è un legame preciso tra un insieme assodato a un intervallo e quelli associati a una famiglia di intervalli che ricopre l'intervallo dato. Questo legame si può leggere come una sorta di condizione di continuità e quindi un fascio definito su 91 risulta la precisazione matematica del concetto di insieme che varia in modo continuo. L'esempio del sito dato dalla retta reale costituisce un caso particolare di insieme variabile. Come dominio di variazione di fasci si possono prendere siti diversi, la cui strutturazione interna non necessariamente è quella di un insieme ordinato, ma quella più generale di una categoria; il legame tra la localizzazione definita sulla categoria e i fasci rappresenta sempre però una condizione di continuità nella variazione, proprio in quanto vincola il valore del fascio in una «zona» (un oggetto della categoria) a quelli assunti nelle famiglie coprenti quella zona. In questa prospettiva il fatto che l'universo degli insiemi costituisca un topos acquista un significato preciso: il topos degli insiemi non è nient'altro che la totalità degli insiemi senza variazione, fissi, mentre un topos in generale è la totalità degli insiemi che variano su un dominio, su un sito. La teoria dei topoi permette lo studio di questa nozione più genetale, la cui importanza dal punto di vista matematico è data proprio dal fatto che attraverso i fasci è possibile organizzare uno studio degli enti geometrici. Nei topoi di Grothendieck però, proprio in quanto gli oggetti sono fasci, otteniamo una descrizione degli insiemi variabili sfruttando essenzialmente le proprietà degli insiemi stabili; questo perché un fascio è per definizione una famiglia di insiemi indiciata da oggetti della categoria. Le proprietà dei topoi vengono ricavate studiando il comportamento dei fasci punto per punto e quindi gli insiemi costanti che a questi punti corrispondono. Non si è quindi arrivati a una descrizione degli insiemi che variano in modo continuo in sé e per sé, ma solo via una rappresentazione parametrica che ne riduce lo studio a quello degli insiemi costanti. D'altra parte, come si è 218 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) detto sopra, il teorema di Giraud fornisce delle condizioni di chiusura su una categoria affinché essa sia un topos: l'idea di Lawvere e Tierney è quella di sostituire, alle condizioni di Giraud, un sistema di assiomi che descriva direttamente gli insiemi variabili in modo continuo· senza ricorrere a nozioni insiemistiche. I modelli di questi assiomi saranno ·categorie di oggetti variabili che non necessariamente si potranno rappresentare parametricamente come fasci; tali modelli sono detti topoi elementari perché gli assiomi in questione sono esprimibili senza far ricorso alla nozione di insieme. La categoria degli Ìnsiemi sarà ancora modello degli assiomi dei topoi elementari e soddisferà particolari condizioni aggiuntive date appunto dal fatto che i suoi oggetti sono insiemi costanti. Gli obiettivi che cosi si raggiungono sono due: il primo, più importante, è quello di fornire un sistema assiomatico che descrive direttamente il concetto di insieme variabile ponendolo al primo posto; il secondo è quello di ottenere una descrizione dell'universo degli insiemi in termini puramente categoriali senza far riferimento, come nozione base, al concetto di appartenenza. Già prima dei lavori sui topoi elementari Lawvere aveva fornito un sistema di assiomi per la categoria degli insiemi senza fondarsi sull'appartenenza e nel quale risultava interpretabile gran parte della matematica classica, e nel 1965, sempre alla ricerca di un sistema fondante formulato in soli termini di morfismi, aveva assiomatizzato il concetto di categoria delle categorie. Le ragioni del rigetto della nozione di appartenenza come unica nozione primitiva discendono dai principi stessi dell'approccio categoriale. Da questo punto di vista infatti, come si è già detto, studiando gli insiemi (o in generale qualsiasi struttura) quello che conta non è la loro composizione interna, ma quali morfismi esistono fra di essi. L'appartenenza ci dà un modo per rappresentare la costruzione di insiemi, ma non è detto debba essere il modo migliore per descrivere direttamente le proprietà matematicamente rilevanti di essi. In altre parole: la gerarchia di von Neumann fondata sull'appartenenza è una particolare rappresentazione della categoria degli insiemi, e solo come tale va vista, senza che questo costituisca un'ipoteca sul reale « significato » degli insiemi. Anche se « naturale » conseguenza del programma di categorializzazione della matematica, questo rigetto coerente del concetto di appartenenza è stato sostenuto e sostan2iato solo a partire dai lavori di Lawvere sopra ricordati. La teoria dei topoi elementari supera questi primi lavori non solo nel senso che gli assiomi sono assai più limpidi nel loro contenuto di quelli precedenti, ma per il fatto ben più importante che mostra chiaramente in che modo il conce~to di insieme costante che sta alla base della teoria degli insiemi sia un casò limite, una volta che gli insiemi si descrivano in termini categoriali, e quindi senza riferirsi ad una particolare rappresentazione, del concetto di insieme variabile. Che cosa è un topos elementare? Detto brevemente è una categoria carte- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) siana chiusa con classificatore di sottoggetti.l Spieghiamo cosa questo significhi. Una categoria cartesiana chiusa è una categoria con oggetto terminale, oggetto iniziale, pullback, pushout,2 e chiusa rispetto all'esponenziazion~. Data una categoria C, un oggetto terminale di C è un oggetto I di C tale che per ogni altro X E Ob(C) esiste sempre esattamente un morfismo da X a I ; dualmente, un oggetto iniziale o di C è un oggetto tale che per ogni altro X E Ob(C) esiste esattamente un morfismo da o a X. (In Ins, che è la categoria alla quale di norma ricorreremo per rendere intuitivi i concetti introdotti, ogni insieme unità {x} e in particolare { 0} è chiaramente terminale, mentre iniziale è l'insieme vuoto 0 .) In generale si può dimostrare che oggetti iniziali e terminali sono unici a meno di isomorfismi. Passiamo ora ai pullbacks. Sia C una categoria, X, Y, Z tre suoi oggetti, f e g due morfismi tali che y _ __;:g_ _~ z pullback di X e Y su Z (rispetto ai morfismi f e g) è ogni oggetto V tale che esistano due morfismi f' e g' in modo che il seguente diagramma v g' x !' f y g I Esistono altre assiomatizzazioni più compatte dei topoi elementari. Anders Kock e C. Juul Mikkelsen hanno mostrato che è sufficiente assumere, oltre agli assiomi di categoria, la completezza finita (esistenza di limiti finiti) e per ogni B la rappresentabilità del funtore Re!(-, B) che associa ad ogni oggetto A l'insieme delle relazioni da A a B (l'insieme dei sottoggetti di A X B). Ci siamo attenuti a questa perché ci è sembrata intuitivamente più giustificabile. :z Per termini quali pullback e pushout, di- z rettamente intraducibili, pur con varie e notevoli eccezioni sembra essersi affermata nella terminologia specialistica italiana la versione prodotto fibrato, rispettivamente somma amalgamata. A hbiamo tuttavia conservato la dizione inglese in vista della sua maggior « maneggevolezza » nel discorso, tenuto conto delle oscillazioni di traduzione fra i vari autori, e infine perché pensiamo che per il non specialista i corrispondenti nomi italiani non sarebbero stati certamente più « evocativi » degli inglesi. zzo www.scribd.com/Baruhk La logica nel ventesimo secolo (II) sia commutativo, e sia universale rispetto a questa proprietà nel senso che per ogni altro oggetto W e morfismi f" e g" da W a X e Y rispettivamente, per cui vale quanto sopra detto per V,j, g, esiste esattamente un morfismo s da W a V per il quale tutto il seguente diagramma sia commutativo f" W-----=---~X ',s g· Il T f g' Y=Y----~z g Per la proprietà universale il pullback è unico a meno di isomorfismi. L'esempio tipico di pullback in Ins è il seguente. Consideriamo il triangolo t A-----~ dove A è un sottoinsieme di Y e i è l'inclusione. Il pullback di A lungo f è l'insieme delle controimtnagini di A rispetto a j, cioè la sua immagine inversa che si ottiene «spingendo indietro» (pulling back) A lungo f -------x f y A Se tanto X quanto Y sono sottoinsiemi di Z e f e g sono i rispettivi monomorfismi di inclusione, il pullback di X e Y su Z è nient'altro che l'intersezione X n Y coi rispettivi mono di inclusione in X e Y. Più in generale, se f e g sono due qualsiasi morfismi in Z, il pullback sarà l'insieme di tutte le coppie <a, b > in X x Y per cui j(a) = g(b). ZZl www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Dal pullback possiamo ottenere l' egualizzatore di due morfismi f e g tra XeZ f x ____ ~z g che è il « sottoggetto » di X dove f e g coincidono. In Ins l'egualizzatore non è nient'altro che l'insieme Y ~ X dato da Y = {alf(a) = g(a) }. Lo stesso prodotto, nel caso in cui la categoria contenga l'oggetto terminale, è un caso di pullback: infatti il prodotto X X Y è il pullback del seguente diagramma x x y -------1- y ! l x (In Ins chiaramente il prodotto di due insiemi è il loro usuale prodotto cartesiano.) Passiamo a considerare il pushout che è il duale del pullback. Per ottenere una sua definizione è sufficiente invertire il senso delle frecce nella definizione precedente. Da esso possiamo ottenere il coegualizzatore e, nel caso la cat~go~ ria abbia un oggetto iniziale, il coprodottol (in Ins il coprodotto è la somma disgiunta). · Le categorie cartesiane chiuse quindi, in quanto contengono oggetti terminali e iniziali, pullbacks e pushouts contengono anche egualizzatori, coegualizzatori, prodotti e coprodotti finiti. Ora, si dimostra in generale che se una categoria contiene prodotti e egualizzatori è chiusa anche rispetto ai limiti finiti e dualmente se essa è chiusa rispetto a coprodotti e coegualizzatori è chiusa anche rispetto ai colimiti. Passiamo all'esponenziale. Abbiamo detto cos'è il prodotto. Intuitivamente l'esponenziale in una categoria C corrisponde in Ins all'insieme XY di tutte le funzioni da Y a X; c'è un legame fra questo oggetto e il prodotto Y X X, e la definizione di esponenziale in una categoria si ottiene utilizzando la traduzione categoriale di tale legame. Siano X e Y ·due insiemi. Esiste una funzione e: xy ~x che « valuta >> ogni funzione g E XY: è la funzione che applicata alla coppia <g,y > con g E XY e y E Y, associa il valore g(y) che apparterrà a X. Il legame fra il prodotto e l'esponenziale è caratterizzato dall'esistenza della e. I In generale, dato un nome « X » per un certo concetto, il concetto duale viene indicato premettendo a quel nome un « co », cioè « coX ». 222 www.scribd.com/Baruhk scri~endo La logica nel ventesimo secolo (Il) Giungiamo così alla definizione seguente. Data una categoria C con prodotti, X, y E Ob(C), l'esponenziale xr è determinato da un oggetto XY e da un morfismo e: xr x y--+ x che gode della seguente proprietà universale: per ogni freccia f: W X Y--+ X c'è un'unica freccia g: W--+ XY tale che il seguente diagramma commuti xy x y ____e_ _ _ x gXI f WxY Questo comporta che esiste una biiezione naturale (definita cioè simultaneamente per ogni X e Z) tra Hom(X x Y, Z) e Hom(X, zr) che è data appunto dal morfismo di valutazione e. La situazione si può esprimere considerando per ogni Y il funtore (-) X Y da C a C che ad ogni X associa X x Y e il funto re (-)Y che ad ogni Z associa ZY. L'esistenza di una biiezione fra gli insiemi dimorfismi sopra considerati stabilisce un rapporto fra i due funtori che viene detto di aggiunzione: l'esponenziale è aggiunto destro del prodotto (che dualmente è l'aggiunto sinistro dell'esponenziale). Situazioni di questo tipo fra funtori F: C-+D e G: D-+C si presentano nei campi più disparati della matematica e una delle maggiori conquiste della teoria delle categorie, dovuta a Daniel Kan (1958) è quella di aver fornito, attraverso il concetto di aggiunto, un'analisi matematica di queste situazioni che ne pone in luce gli aspetti rilevanti; aggiunti fra loro sono ad esempio il Juntore dimenticante (che ad ogni struttura associa il suo insieme supporto) e il funtore algebra libera che ad ogni insieme associa l'algebra libera su di esso costruita. Altri esempi incontreremo più avanti. Quello che va sottolineato è che attraverso il concetto di aggiunzione è possibile organizzare uno studio sistematico delle costruzioni universali o, in termini più moderni, delle soluzioni dei problemi universali, e dare una visione unitaria di uno dei processi centrali della pratica matematica: opportunamente analizzate, quasi tutte le costruzioni fondamentali danno origine ad aggiunti. Abbiamo così definito che cosa è una categoria cartesiana chiusa. Per spiegare che cosa significhi l'ultimo assioma dei topoi elementari, che riguarda l'esistenza di un classificatore di sottoggetti, conviene ritornare all'esempio di Ins. La caratteristica più significativa dell'universo degli insiemi è data dal fatto che ogni volta che X è un insieme anche la collezione f!!>(X) dei suoi sottoinsiemi è www.scribd.com/Baruhk La logica nel ventesimo secolo (II) un insieme: la gerarchia di von Neumann è proprio definita sfruttando questa proprietà. Ora in termini categoriali la nozione di sottoinsieme si trasforma in quella di sottoggetto. Sia C una categoria; se u: X---+ Y e v: Z---+ Y sono due m ono con lo stesso codominio, diciamo che u ~ v se esiste un isomorfismo u' per cui u = vu'; si tratta chiaramente di un preordine fra mono. Otteniamo un'equivalenza - quando abbiamo simultaneamente u ~ v e v ~ u. Dal punto di vista categoriale sottoggetti di Y sono le classi di equivalenza rispetto a = dei mono con codominio Y. Intuitivamente è chiaro che nel caso di Ins un sottoggetto sarà univocamente determinato da un sottoinsieme in quanto in questo caso la relazione di equivalenza significa che due mono hanno domini isomorfi. Di norma identificheremo un sottoggetto con un rappresentante della classe di equivalenza. Nel contesto della teoria dei topoi un classificatore di sottoggetti ha lo scopo di garantirci l'esistenza ~per ogni oggetto X di un topos - di un oggetto che rappresenti la famiglia dei suoi sottoggetti. Vediamo come questo può avvenire. Un modo per descrivere i sottoggetti in Ins è quello di ricorrere alle funzioni caratteristiche. Consideriamo l'insieme { 0, { 0 } },I che sarà un oggetto di Ins, e sia Yun sottoinsieme qualunque di un insieme qualunque X; Y è univocamente determinato dalla funzione caratteristica cpy: X---+ { 0, { 0 } } che ad un elemento x E X assegna 0 se x E Y, {0 } altrimenti. È chiaro allora che esiste una biiezione tra .9'( X) e {0, { 0 } }x. In Ins l'insieme { 0, { 0 }} si può vedere quindi come un oggetto in grado di classificare tutti i sottoggetti di ogni altro oggetto. L'idea è quella di generalizzare la procedura al caso di categorie cartesiane chiuse arbitrarie. Diamo allora la definizione che poi illustreremo. Se C è una categoria cartesiana chiusa diremo che un classificatore di sottoggetti è un oggetto n e un morfismo t da I a n (dove I è l'oggetto terminale di C) tale che per ogni mono m: S---+ X abbiamo che esiste esattamente un morfismo Cf'm da X a n tale che S è il pullback del seguente diagramma commutativo È chiaro che in Ins se prendiamo n= I Si tratta dell'insieme dei due « valori di verità» usualmente indicato con {o, I }. Preferiamo indicarlo come nel testo per evitare equivoci col discorso più generale ove I indica l'og- { 0, { 0 } } e per t il mono di inclusione getto terminale e o quello iniziale (ove esistano) in categorie qualsiasi, dove evidentemente non coincidono con 0 e { 0 }. 2.2.4 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) { 0 } --+ { 0, { 0 }} (si ricordi che { 0 } essendo un insieme unità è a meno di isomorfismi un oggetto terminale) otteniamo un classificatore di sottoggetti. Per verificarlo basta considerare la funzione caratteristica <pm dove m: S--+ X. Supponiamo per semplicità che m sia il mono di inclusione. Cominciamo col provare che il diagramma s m x commuta. Infatti, preso x ES, la sua immagine m(x) sarà x; applicando <pm a m(x) otterremo 0 per definizione di funzione caratteristica. Percorriamo l'altro sentiero del diagramma. Essendo { 0 } oggetto terminale, l'unico morfismo da Sa {0} sarà quello che ad ogni oggetto di S assegna come valore 0 e quindi l'immagine di x sarà 0 ; applicando ora t all'immagine di x otterremo ancora 0 e quindi il diagramma commuta. Perché m e S siano ilpullback del triangolo J' ___"_w_ _ _ _ X basta che S sia il più grande sottoinsieme di X per cui si verifica la commutatività del diagramma e questo è ovvio in quanto per ogni soprainsieme di S che sia sempre sottoinsieme di X, ogni elemento x non appartenente a S sarà tale che <pm m(x) = {0} per definizione di funzione caratteristica. Per vedere ora come l'esistenza del classificatore di sottoggetti in una categoria cartesiana chiusa comporti per ogni oggetto X l'esistenza di un oggetto che ha come elementi tutti i sottoggetti di X, occorre chiaramente generalizzare la nozione di elemento. In un topos infatti gli oggetti non sono insiemi, quindi non ci può essere un oggetto cui «appartengono» altri oggetti. La proprietà di « essere elemento » dovrà quindi tradursi in termini di morfismi. L'idea è che dato un oggetto X, elemento di X è ogni morfismo I~ X; nel caso di Ins www.scribd.com/Baruhk La logica nel ventesimo secolo (II) questo è evidente in quanto ogni morfismo { 0 } ~X non fa che « scegliere » un elemento di X, il valore per 0 ; in una categoria più generale non è detto che questa corrispondenza tra appartenenza insiemistica e motfiEmi definiti sull'oggetto terminale valga, perché non è detto che necessariamente, dati g e f da X a Y, conf i= g, esista un x da I a X per cuifx i= gx. Ciò non toglie che se noi riusciamo a trovare che in ogni topos elementare esiste una biiezione fra gli elementi di nx, i morfismi da I a nx, e i sottoggetti di X, avremo trovato che nx si può assumere davvero come l'oggetto che rappresenta l'insieme fJJ(x) dei sottoggetti di X. È questo che proveremo. Ora, per definizione di classificatore di sottoggetti, sappiamo che ad ogni m da corrisponde un unico morfismo cpm da X a n. All'inverso, poiché un topos ammette pullbacks, per ogni cpm: X---+- n esisterà un sottoggetto di X di cui Cfm sarà la funzione caratteristica. C'è quindi una biiezione tra funzioni caratteristiche e sottoggetti. D'al:tra parte, dato l'oggetto X, è facile verificare che X sarà isomorfo a I x X. Ma I x X è un prodotto e, come sappiamo per l'aggiunzione tra prodotto e esponenziale, esiste un isomorfismo naturale Hom(Y x X, Z) ~ Hom(Y, zx). Ne scende allora che corrispondendo biunivocamente i sottoggetti di X ai morfismi caratteristici I X X-+ n, ci sarà una biiezione fra i sottoggetti e i morfismi I-+ nx, che non sono nient'altro che gli elementi di nx. Si vede così come l'esistenza di un classificatore di sottoggetti in un topos elementare garantisce per ogni oggetto X l'esistenza del suo «insieme potenza» uguale a nx. Si vede anche come sia plausibile interpretare n come l'oggetto dei valori di verità in un topos. Possiamo estendere la cosa. In analogia col caso insiemistico, una relazione tra due oggetti X e Y si potrà definire come sottoggetto del prodotto X x Y. Questi sottoggetti saranno in corrispondenza biunivoca con i morfismi X x Y-+ -+n; per quanto detto sopra sui rapporti fra esponenziale e prodotto, Horn (X X Y, n) ~ Hom(Y, nx), il che significa che data la relazione R >~X X Y, esisterà nel topos un morfismo Y-+ o.x che possiamo considerare come associante a ogni elemento I _l4. Y l'oggetto i cui elementi sono tutti quegli x tali che xRy. Abbiamo così una sorta di principio di comprensione. Quanto detto non è che un primo passo verso la giustificazione dei topoi elementari come generalizzazione degli universi degli insiemi. Quando descriviamo l'universo degli insiemi con gli ordinari assiomi sull'appartenenza, sostanzialmente non facciamo altro che specificare quali estensioni di predicati, dati da formule, vanno considerate come oggetti dell'universo stesso. Per giungere ad una giustificazione più adeguata occorre considerare più da vicino un aspetto caratteristico dell'universo degli insiemi come universo di « tutti gli oggetti matematici » di cui si parla. Si tratta del processo di « internalizzazione ». Gli assiomi ordinari della teoria degli insie.mi si possono vedere infatti come asserti che stabiliscono quando relazioni e costruzioni su insiemi sono oggetti del- sax 226 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) l'universo, cwe 1nsiemi; la cosa è particolarmente evidente nel caso di teorie del tipo Godel-Bernays, che si basano sulla contrapposizione fra classi (operazioni e relazioni esterne) e insiemi (oggetti interni). Diamo un esempio. Date due funzioni] e g da X a Y, sappiamo che ad esse corrisponderà un sottoggetto S di X che è il sottoinsieme di X sul quale le funzioni assumono valori uguali, il loro egualizzatore S f >~X--+ Y. g Gli assiomi della teoria degli insiemi ci garantiscono d'altra parte qualcosa di più: la costruzione dell'egualizzatore ha una controparte interna nel senso preciso che nell'universo esiste una funzione yx x yx~nx che ad ogni coppia di funzioni da X a Y associa la funzione caratteristica del loro egualizzatore. Questa funzione costituisce una vera e propria versione interna della costruzione dell'egualizzatore nel senso che è un elemento dell'universo che corrisponde alla operazione definita esternamente. Gli esempi si potrebbero moltiplicare. Quello che conta è che in quest'ottica si capisce in che senso l'esistenza di un classificatore (in presenza ovviamente degli altri assiomi) ci permette di considerare i topoi elementari come una generalizzazione della categoria degli insiemi. La cosa da tenere a mente è che in un topos le controparti di relazioni e operazioni esterne saranno morfismi, in quanto sono questi ultimi che definiscono una categoria. L'internalizzazione nei topoi ha d'altra parte un significato più vasto, e coinvolge la logica stessa, così che possiamo parlare della logica interna di un topos. Questo fatto è di estrema importanza in quanto ci permette di vedere in un topos elementare un universo del discorso generalizzato. Per illustrare questo fatto partiamo ancora dal topos degli insiemi. Quando consideriamo due formule d e f18, con le stesse n variabili libere, del linguaggio della teoria degli insiemi, siamo in grado, mediante connettivi e quantificatori, di ottenere da esse formule più complesse. Supponiamo che d e fJ8 siano interpretate sugli elementi di un dato insieme X. Le loro estensioni sull'universo, rispetto a questa interpretazione, saranno allora due sottoinsiemiA, B di L'applicazione dei connettivi permette di ottenere altri sottoinsiemi di come estensioni delle rispettive formule composte. La famiglia &(Xn) dei sottoinsiemi di come ogni famiglia di sottoinsiemi - ha una struttura ordinata dalla relazione essere sottoggetto ed è una categoria in quanto preordine. Sulla base di questa relazione si possono definire le ordinarie operazioni insiemistiche n, u, -, =>, che da sot- xn xn. www.scribd.com/Baruhk xn - La logica nel ventesimo secolo (II) toggetti di xn portano a sottoggetti di Xn. In altre parole &'(Xn) è chiuso rispetto a queste operazioni e come è noto costituisce un'algebra di Boole. Questo discorso si può ritradurre in termini di funzioni caratteristiche x-+ n, dove n, classificatore del topos degli insiemi, è l'oggetto {0' {0 }}. Ad ogni connettivo binario (/\, V, ::::>) corrisponderà un morfismo Q2-+ Q e a ---, un morfismo Q-+ Q dato dalle solite tavole di verità per la logica classica. Q e i morfismi Q2-+ n, Q-+ Q costituiscono quindi quello che viene chiamato un oggetto algebra di Boole del topos: la logica interna del topos degli insiemi si viene per così dire a concentrare nell'oggetto Q. Possiamo così dire che la logica classica è la logica interna del topos degli insiemi, nel senso che è la logica del suo classificatore di sottoggetti, che riflette la strutturazione della famiglia di sottoggetti di ogni oggetto del topos: i morfismi Q2-+ Q e Q--+ Q sono la controparte interna delle operazioni n' u' ~. -, su sottoggetti. Il discorso si può estendere ad ogni topos elementare. Si può vedere infatti che la famiglia di sottoggetti di un oggetto X costituisce un'algebra di Heyting se, partendo dalla relazione essere sottoggetto, definiamo il sup, l'inf, lo pseudocomplemento assoluto e quello relativo. Possiamo ora trasferire questa strutturazione sul classificatore n, via la corrispondenza fra sottoggetti e morfismi caratteristici. Otteniamo così morfismi Q 2 --+ Q e Q--+ Q che corrispondono a operazioni su sottoggetti e sono la controparte interna dei connettivi. In questo modo la strutturazione interna delle famiglie di sottoggetti si lascia descrivere completamente in termini dell'oggetto classificatore. Sarà quindi la natura di quest'ultimo a darci la logica interna di un topos, in quanto, come abbiamo visto, essa dipende dalla strutturazione delle famiglie di sottoggetti che si riflettono nelle proprietà di n. Il discorso sarebbe parziale se si limitasse ai connettivi. Come però ha posto in luce Lawvere possiamo internalizzare anche i quantificatori. Esemplifichiamo, al solito, nel caso del topos degli insiemi. Come è noto, l'operazione insiemistica che corrisponde alla quantificazione esistenziale è l'operazione di proiezione. Data la relazione binaria R sottoinsieme di estensione della formula d(x,y), l'estensione della formula 3xd(x,y), che indicheremo con 3xR, sarà data dall'insieme per qualche x,< x,y > E R}. Questo insieme è null'altro che la seconda proiezione p dell'insieme R s;;; Dualmente, l'estensione \;/ xR della formula \;/ xd(x,y) sarà data dall'insieme per ogni x, <x, y > E R}. Questa descrizione non è direttamente traducibile in termini categoriali in quanto sfrutta l'appartenenza; lo diventa una volta che si pongano in primo piano la proiezione seconda e il funtore che a ogpi sottoinsieme associa l'immagine inversa rispetto a p, vale a dire il funtore xz, 01 xz. {yl che a Y s;;; X associa l'insieme {<x, x' > E X21 p(< x, x'>) zz8 www.scribd.com/Baruhk E Y}. La logica nel ventesimo secolo (II) Il funtore p* si può definire all'interno dei topoi ricorrendo al concetto di pullback. In termini delle categorie di sottoggetti (che, si ricordi, sono preordini) e di p* possiamo d'altra parte identificare univocamente in Ins i quantificatori mediante le condizioni 3xR T~ ~ T se e solo se R ~ 'VxR se e solo se p*T p*T ~ R. Queste condizioni, d'altra parte, in termini categoriali significano che i funtori 3P: P/( X2)-+ P/( X) 'VP: P/( Xz)-+ P/( X) che a Y sottoggetto di X associano rispettivamente 3xY e 'V x Y sono rispettivamente aggiunto destro e sinistro, rispetto alle categorie in esame, di p*. Come mostra la nostra stessa notazione, i funtori che corrispondono ai quantificatori sono definiti in dipendenza del morfismo di proiezione p; il processo si può generalizzare e parlare in un topos di aggiunti destri e sinistri di j* per ogni morfismo j: X-+ Y, con X, Y oggetti del topos. Possiamo quindi definire quantificatori lungo morfismi arbitrari analizzandoli in termini di aggiunzione. Il fatto essenziale è che, all'interno dei topoi, si può dimostrare l'esistenza di questi aggiunti, così che disponiamo della controparte interna dei quantificatori. L'intera logica ha quindi una versione interna ai topoi: questo comporta che all'interno dei topoi possiamo interpretare ogni formula di un linguaggio che abbia gli operatori in questione. Più specificatamente potremo interpretare fotmule di linguaggi a più sorta e di ordine superiore; a più sorta in quanto possiamo considerare ogni oggetto del topos come una sorta cosicché ad esempio una relazione fra oggetti di sorta X e Y sarà un sottoggetto del prodotto X x Y; di ordine superiore in quanto, come mostrato all'inizio, per ogni oggetto nel topos esistono nx, nox, ecc. cosicché potremo quantificare su sottoggetti, elementi di nx, sottoggetti di nx (elementi di nox), ecc. La possibilità di fungere da dominio di interpretazione della logica del secondo ordine è l'aspetto caratteristico dell'universo degli insiemi, che ci consente di vederlo come universo del discorso; questo risultato ci dà allora la misura di come i topoi elementari siano « buone » generalizzazioni di quest'ultimo. Il punto che rimane da considerare da vicino riguarda il tipo di logica interna dei topoi. Nel topos degli insiemi il classificatore è l'algebra di Boole semplice a due elementi {0, {0}} e quindi la logica è classica; parlando in generale dei topoi elementari abbiamo però detto che il classificatore è un oggetto x www.scribd.com/Baruhk La logica nel ventesimo secolo (II) algebra di Heyting, 1 il che sta a significare che in generale la logica di un topos elementare è intuizionista. Consideriamo la categoria Sh(X) di tutti i fasci di insiemi su uno spazio topologico X. Si può dimostrare che essa è un topos elementare; più in generale otteniamo un topos anche considerando i prefasci su X. Nel topos dei fasci l'oggetto classificatore sarà dato sostanzialmente dalla famiglia degli aperti di X nel senso che esiste una biiezione tra gli elementi 1 ~ Q del classificatore e gli aperti di X. Come è noto, se consideriamo gli aperti di uno spazio topologico, e definiamo le operazioni 1\, V, ::.J, - , , in termini di relazione d'ordine (inclusione) in modo analogo a quello che faremmo negli insiemi (/\ è l'inf, V il sup, ecc.) otterremo un'algebra di Heyting che sarà l'algebra di Boole semplice solo nel caso lo spazio si riduca a un solo punto. Questo significa che la logica interna dei topoi è essenzialmente intuizionista e che solo in casi molto particolari è più forte di questa. Introdotti i topoi elementari, vediamo ora più da vicino che rapporti precisi esistano con i topo i di Grothendieck e le varie teorie degli insiemi; si tratta in altre parole di analizzare il senso in cui i topoi elementari generalizzano simultaneamente tanto la nozione di universo geometrico quanto quella di universo del discorso. La risposta è semplice per quanto riguarda il primo punto: si può dimostrare che ogni topos di Grothendieck (t.d.G.) è un topos elementare; non vale in generale il viceversa e questo dipende da un fatto preciso: i t.d.G. sono definiti facendo essenzialmente riferimento alla nozione di insieme sia che li si caratterizzi come categorie di fasci di insiemi, sia che si ricorra alle condizioni di Giraud. Per descrivere il t.d.G. si fa quindi riferimento ad elementi esterni e appartenenti all'universo degli insiemi. Nella definizione di topos elementare non c'è invece nessun riferimento esterno e quindi le proprietà che nel caso di Grothendieck dipendevano essenzialmente dalla specifica struttura degli insiemi costanti non si ritrovano nel caso dei topoi elementari. Ricollegandosi alla contrapposizione fra insiemi variabili e costanti da cui abbiamo preso le mosse, si vede quindi in che senso la definizione di topos elementare costituisca un passo avanti rispetto a quella di Grothendieck. Se davvero, come questi intendeva, i topoi devono costituire la precisazione del concetto di grandezza variabile su uno spazio generalizzato, la possibilità di descrivere direttamente questi oggetti senza far riferimento ad insiemi costanti costituisce chiaramente un approfondimento dell'analisi. I Si noti che la differenza fra algebra di Heyting e oggetto algebra di Heyting è essenziale, come lo era la distinzione fra insieme dei sottoggetti e oggetto dei sottoggetti di cui si è parlato a proposito del classificatore. Un'algebra di Heyting è un insieme (opportunamente strutturato), mentre nei topoi un oggetto algebra di Heyting è appunto un oggetto X del topos, che non necessariamente è un insieme, e opportuni morfismi XL~ X e X- X dove questi ultimi soddisfano gli assiomi delle algebre di Heyting. Stesso discorso vale per l'oggetto numeri naturali cui accenneremo più avanti. Per brevità spesso diremo semplicemente algebra di Heyting, algebra di Boole, ecc. invece di oggetto algebra di Heyting, oggetto algebra di Boole, ecc., ma il lettore tenga ben presente la distinzione. www.scribd.com/Baruhk La logica nei ventesimo secolo (II) Una prima differenza tra topoi elementari e t.d.G. è che ogni t.d.G. possiede un particolare oggetto N che è la controparte interna della struttura dei numeri naturali. La struttura di questo oggetto, come Lawvere ha fatto vedere, si può caratterizzare interamente in- termini categoriali, definendo morfismi 1 _.;,.N ~N (che corrispondono allo zero e· al successore) cosicché i t.d.G. oltre a soddisfare gli assiomi l:l:<t dei topoi elementari soddisfano l'assioma A 1 Esiste un oggetto di numeri naturali di cui non daremo qui la formulazione. Questo ci porta al secondo problema riguardante il confronto con la teoria degli insiemi. A 1 svolge nei riguardi di 'l:l:<t il ruolo di un vero e proprio assioma dell'infinito. Si verifica infatti che mentre il topos degli insiemi finiti è un modello di l:l:<t (la cosa è ovvia in quanto prodotti, esponenziali, ecc. di insiemi finiti sono ancora finiti) esso non lo è più una volta che si aggiunga AL La domanda che si pone naturale, volgendosi ora al topos degli insiemi, è quella di vedere entro che misura è possibile aggiungere a l:l:<t ulteriori assiomi formulati sempre in termini categoriali che lo caratterizzino sempre più da presso. Lawvere è riuscito a fornire un sistema di assiomi, che indicheremo con <tl:<tS, che estende l:X<t e che si può confrontare con le varie assiomatizzazioni ordinarie della teoria degli insiemi. Il primo passo ovviamente è q~ello di costringere la logica interna a essere classica. Occorre quindi postulare che n, il classificatore, sia un'algebra di Boole. Questo d'altra parte non è sufficiente in quanto, come abbiamo visto, nel topos degli insiemi n non è solo un'algebra di Boole, ma è l'algebra di Boole semplice con i soli elementi o e 1. Le due assunzioni sono molto differenti fra loro e che cosa questo significhi si può vedere ricordando i modelli booleani della teoria degli insiemi,"ove l'idea di fondo di Scott-Solovay, come si ricorderà, è che la logica classica è valida in ogni interpretazione booleana e non solo in quella semplice: nei modelli booleani l'appartenenza e l'identità sono « misurate » dagli elementi di un'algebra di Boole completa nel senso che le formule x Ey e x= y possono assumere tutti questi valori; il fatto interessante è che i modelli booleani costituiscono un topos elementare booleano, in cui cioè n è un'algebra di Boole.l Per caratterizzare il topos degli insiemi l'assioma da assumere deve comunque essere quello più forte che comporta che n è l'algebra semplice. Altro assioma che Lawvere assume è quello della scelta, nella forma ASC Per ogni epi A ~~B esiste un B ~A tale chef o g = 1 Come ricordato sopra, l'analisi di questi modelli è stata uno dei punti di partenza per i lavori di Lawvere. Recentemente Gerhard Osius IB e Higgs hanno mostrato come si possano costruire in termini categoriali, ponendo in evidenza gli elementi centrali della costruzione. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) che afferma che ogni epi ha un inverso. Se intendiamo epimorfismo come funzione suriettiva, come avviene nel topos degli insiemi, ASC è equivalente classicamente alle ordinarie formulazioni dell'assioma di scelta. Il sistema (f~(t6 di Lawvere è dato allora dagli assiomi dei topoi elementari, l'assioma dell'infinito Ar, l'assioma che stabilisce che n è un'algebra di Boole, da ASCe dall'assioma che stabilisce che n è un'algebra semplice. Per questo sistema vale un teorema di caratterizzazione stabilito da Lawvere che afferma che se C è una categoria tale che, per ogni A, B E Ob(C), Hom(A, B) è un insieme, C è equivalentè alla categoria degli insiemi se e solo se C è modello di (f~(t6 ed è bicompleta nel senso che esistono limiti diretti e inversi arbitrari. Chiaramente queste proprietà non sono formulabili senza far riferimento alla nozione di insieme arbitrario e quindi non è possibile sfruttare il teorema di caratterizzazione per ottenere un sistema assiomatico in termini categoriali che individui la categoria degli insiemi a meno di equivalenze. È però possibile domandarsi che rapporti esistono fra (f~(t6 ed eventuali sue estensioni e gli ordinari sistemi di assiomi per gli insiemi basati sulla nozione di appartenenza. Passare da questi ultimi agli assiomi categoriali è facile, in quanto basta prendere come morfismi gli oggetti che sono funzioni definite in termini di .appartenenza. Il passo problematico è l'inverso. J.C. Cole e William Mitchell sono riusciti a fare questo passaggio dimostrando che una estensione di (f~<t6 è equivalente ad una variante della teoria degli insiemi di Zermelo, la indicheremo con .3 0 , che ha come assiomi l'estensionalità, l'esistenza dell'insieme vuoto, della coppia, dell'insieme potenza, dell'unione, l'assioma di regolarità, di scelta, dell'infinito e una formulazione del principio di comprensione per formule con tutti i quantificatori limitati. Gli assiomi che vanno aggiunti sono conseguenza dell'assioma di rimpiazzamento che non stiamo qui a descrivere. Il fatto importante è che si può provare che ogni modello di .3o dà una categoria che soddisfa (f~(t6 e che a partire da ogni modello di (f~(t6 si può costruire un modello di .3o· L'idea è che ogni insieme, una volta che si assuma l'assioma di regolarità, si può vedere come un albero e che gli alberi si possono descrivere direttamente in termini categoriali. Questo dimostra che (f~(t6 è una teoria notevolmente potente e risulta plausibile la congettura di Lawvere secondo la quale buona parte della matematica classica si può sviluppare all'interno di essa. I risultati più interessanti però riguardano un altro punto, più precisamente il legame fra la logica interna di un topos e l'assunzione dell'assioma di scelta. R. Daiconescu e Tierney hanno dimostrato infatti che tale assioma implica che O sia un'algebra di Boole: il che è estremamente interessante se, secondo la prospettiva di Lawvere, consideriamo la teoria dei topoi come una descrizione diretta degli insiemi variabili. Il fatto che in un topos il classificatore sia booleano e quindi che il morfismo n ~ n sia uguale a I (in termini di SOttoggetti e non di morfismi che -. --, X coincida con X) comporta che si può spezzare il dominio 2.32 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) di variazione in un topos in due parti complementari in modo che la variazione globale sia la combinazione delle variazioni nelle due parti. Questo significa che la variazione in questo caso è « casuale » nel senso che non vengono rispettate condizioni di continuità in quanto lo « spezzamento » è arbitrario. Che Q sia booleano comporta quindi che in un topos di questo· genere gli insiemi variano in modo casuale e ciò fornisce un'analisi del famoso paradosso di Banach-TarskiSierpinski (1924) secondo il quale dall'assioma di scelta si ha che una sfera può essere decomposta in due sottoinsiemi disgiunti tali che la sfera è equidecomponibile con ciascuno dei due sottoinsiemi.l Se infatti il movimento si può spezzare in modo arbitrario, non c'è nulla di strano che si verifichi questo e la constatazione che ciò non può accadere nel mondo reale è una conferma del fatto che le quantità reali variano in modo continuo. Da questo si possono trarre ulteriori considerazioni. Classicamente l'assioma di scelta è la base per le analisi in termini di punti di processi di variazione; basti pensare ad esempio a come tale assioma implichi l'esistenza di ideali primi e quindi, nella geometria algebrica, di punti (si pensi alla topologia di Zariski per un anello); di come comporti l'esistenza di modelli per teorie elementari della logica e quindi la possibilità di analizzare le teorie considerando i valori che assumono su strutture viste come punti in uno spazio di modelli, ecc. D'altra parte, assumere l'adeguatezza di una analisi in termini di punti comporta in ultima istanza l'affermare che una totalità si può completamente descrivere in termini di elementi irriducibili, i punti, studiando i loro rapporti. Questo vuol dire negare che esistano ·.ùei legami di continuità, di prossimità, che non si possano scindere senza falsificazioni introducendo surrettiziamente elementi esterni alla situazione «reale». Da qui emerge l'estremo interesse della teoria dei topoi elementari, in cui si ammettono topoi con classificatori non booleani e non si accetta di conseguenza l'assioma di scelta. Un esempio della fecondità di questo approccio è stato dato recentemente da André Joyal, che ha eliminato il ricorso ai « punti » in una costruzione centrale della matematica, quella della topologia di Zariski associata ad un anello che abbiamo visto più sopra. Classicamente, l'abbiamo detto, i punti dello spazio topologico sono gli ideali primi dell'anello; quello che conta però, come si è già osservato, non sono i punti, ma la topologia stessa, che ci permette di definire il fascio strutturale e di giungere così agli schemi affini: J oyal è riuscito ad effettuare questa costruzione senza sfruttare la scelta e senza usare i punti. Si tratta chiaramente di estendere questa prospettiva a casi più generali e l'esempio più interessante dal punto di vista logico sarebbe proprio quello di fare un discorso analogo nel caso delle teorie e dei modelli, I Consideriamo due sottoinsiemi A e B dello spazio euclideo tridimensionale. Come è noto si dice che A è equidecomponibile con B se esiste una decomposizione finita di A in sot- toinsiemi disgiunti, A = A1 v A2 V ... V An e una di B, B = B1 V B2 v ... v Bn tali che ogni A; è congruente a B 1 • www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) giungendo così a una teoria dei modelli in cui sostanzialmente non si usano i modelli ma le proprietà strutturali dello spazio da essi definito. Quello che ci preme sottolineare è che queste considerazioni sull'assioma di scelta introducono un elemento nuovo di discussione, non assorbibile in nessun modo nella problematica classica ad esso connessa. Discorso analogo vale per la logica interna dei topoi elementari. Le obiezioni costruttiviste avevano portato tanto a negare la scelta quanto a negare il terzo escluso; questo però in base a una concezione innegabilmente ristretta del sapere matematico. Gli strumenti ·elaborati dal costruttivismo vengono ripresi in questo contesto da una prospettiva. molto più generale in cui alle motivazioni basate sul « movimento » della conoscenza matematica contrapposto alla staticità classica, si sostituiscono considerazioni basate su un concetto generale di movimento, sia esso della conoscenza o della realtà esterna. Quello che si concretizza in ultima istanza è un atteggiamento realista che prende finalmente sul serio, ma pone nei giusti limiti, le critiche costruttivistiche. Abbiamo parlato della logica interna dei topoi sottolineando che essa è determinata dalla struttura generale del topos stesso. La domanda che si pone naturale è se questa determinazione della logica interna dei topoi elementari non dipenda anche da qualcosa di esterno, cioè dalla logica che si utilizza formulando gli assiomi per i topoi. L'interrogativo è legittimo in quanto nel caso delle teorie degli insiemi formulate mediante appartenenza c'è una corrispondenza, come abbiamo visto, fra la logica esterna che utilizziamo nel formulare gli assiomi e quella interna, ed è difficile dire quale delle due preceda l'altra: è la logica classica che determina la nozione di insieme o viceversa ? Il fatto importante è che questo dubbio nel caso dei topoi elementari non sussiste e possiamo davvero sostenere che la logica interna dipende esclusivamente dalla struttura dei topoi. La ragione è che gli assiomi dei topoi elementari si possono formulare senza ricorrere a connettivi e quantificatori. Per verificarlo basta ricordare quanto detto a suo tempo sul concetto di categoria. Una categoria si può descrivere compiutamente esclusivamente in termini di morfismi e composizioni; il ruolo degli oggetti viene preso dai morfismi identità. L'universo di una categoria è quindi dato dai suoi morfismi sui quali è definita un'operazione parziale, la composizione. Il problema è di stabilire quando due morfismi sono componibili. Per far questo ci bastano le nozioni di dominio e codominio dei morfismi, che possiamo intendere come funzioni D e C che ad ogni morfismo f E Hom(A, B) associano: C(f) = IA e D(f) = rs. Le funzioni dominio e codominio sono totalmente definite sull'universo dei morfismi, e avremo chef o g è definita nel caso D(f) = C(g), con D(f o g)= D(g) e C (f o g)= = C(j). Da questo fatto fondamentale scende che si possono formulare gli assiomi per le categorie esclusivamente mediante sequenti del tipo r l- d dove .9/ è un'equazione e r è un insieme (anche vuoto) di equazioni, o sequenti della 234 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) forma l' 1- 0 che leggeremo come una sorta di negazione della congiunzione degli elementi di l': assiomi saranno, ad esempio, D(hog) = D(g) 0 1- 0 1- C(hog) = C(h) 0 1- foDU)=f 0 1- CU) o f =f. Lo stesso vale per i topoi elementari sfruttando essenzialmente, come ha mostrato Lawvere, i rapporti di aggiunzione fra le operazioni dei topoi. Si potrebbe obiettare che di fatto l'uso di l' 1-d e di l' 1- 0 comporta il riferimento ai connettivi di implicazione e negazione, come pure la lettura di un sequente in cui accorrano variabili libere come se fosse la sua chiusura universale rimanda al quantificatore universale; questo però è solo apparente in quanto non ci occorre una definizione del completo significato di questi operatori quale sarebbe necessaria se noi ne iterassimo l'applicazione in modo da avere sequenti entro sequenti, ecc. r 1- d significa che d è vero ogniqualvolta lo è r, qualunque valore si assegni alle variabili. Per questa lettura non è assolutamente necessario definire l' 1-d nel caso l'non sia vero, come avverrebbe se 1- fosse un autentico connettivo. Gli assiomi per le categorie e i topoi elementari dunque, se non sono direttamente equazionali, cioè semplici equazioni, come capita per alcune classi di strutture algebriche interessanti, sono quasi-equazionali o, con una terminologia introdotta da Peter Freyd, essenzialmente algebrici. In generale, essenzialmente algebrica è una teoria in cui compaiono simboli per funzioni parziali i cui domini si possono determinare mediante equazioni. Gli assiomi avranno tutti la forma di sequenti come sopra. II concetto di essenzialmente algebrico è estremamente interessante in quanto copre i casi di teorie matematicamente significative in cui si ha a che fare con operazioni parziali. Come avevamo detto all'inizio parlando delle categorie, esse costituiscono un tipico esempio di strutture parziali ed il concetto di essenzialmente algebrico, come si rivela utilissimo nello studio della metateoria della teoria delle categorie e dei topoi elementari, si mostra altrettanto utile in molti altri campi. Proprio per la forma dei loro assiomi quindi i topoi elementari si possono descrivere senza presupporre una logica specifica: per comprendere gli assiomi basta sapere come si interpreta un'equazione. Ne scende che la determinazione della logica interna di un topos non dipende da fattori esterni ma dalla pura struttura del topos stesso. Nella problematica classica l'idea di arrivare a una teoria fondante indipendente dalla logica si era già presentata con· Hilbert, la cui matematica finitista, o meglio il suo frammento centrale - l'aritmetica ricorsiva primitiva- si può presentare sotto forma equazionale. II fatto che questa matematica non dipendesse dall'interpretazione dei connettivi e dei quantificatori, e quindi da alcun riferimento a un universo logico, costituiva per Hilbert una ga235 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) ranzia del suo carattere assoluto. Anche nel nostro contesto il fatto che gli assiomi dei topoi elementari siano essenzialmente algebrici è una garanzia di « assolutezza», ma in un senso diverso, in quanto quello che qui è importante non è tanto l'individuazione di un unico universo come fondante, ma della logica interna di ogni topos, quella logica cioè che non dipende da assunzioni a priori ma dalla natura stessa degli oggetti che vogliamo descrivere.1 La forma logica degli assiomi dei topoi ha come altra importantissima conseguenza la stabilità della proprietà di essere topos elementare rispetto a svariate operazioni algebriche. Fenomeni del genere sono ben noti già nell'algebra classica: che prodotti di gruppi siano gruppi, che sottostrutture di gruppi siano gruppi, ecc. dipende essenzialmente dal modo con cui si definiscono le operazioni negli oggetti risultanti rispetto a quelle degli oggetti di partenza e dal fatto che la proprietà di essere gruppo si esprime in termini di equazioni. Per le teorie essenzialmente algebriche si trova che la proprietà centrale di chiusura è quella rispetto ai limiti. Abbiamo poi ad esempio che prodotti di topoi elementari sono ancora topoi elementari, ecc. Altro fatto assai importante è che anche sui topoi elementari possiamo definire topologie di Grothendieck, cosicché possiamo avere la categoria dei fasci su un topos rispetto a una data t.d.G.; si verifica che questa categoria è anch'essa un topos elementare. È con costruzioni come queste che è stato possibile. ottenere dimostrazioni categoriali estremamente limpide di risultati classici di indipendenza della teoria degli insiemi. Nel 1971 Tierney e Lawvere hanno dato una versione in termini di topoi della dimostrazione di Cohen dell'indipendenza dell'ipotesi del continuo e nel 1972 Marta C. Bunge ha dimostrato l'indipendenza dell'ipotesi di Souslin utilizzando costruzioni categoriali di modelli. La limpidezza delle dimostrazioni dipende dalla stabilità della nozione di topos elementare rispetto a operazioni « forti », cosa questa che non si verifica nel caso dei modelli della teoria degli insiemi fondata sull'appartenenza, i cui assiomi hanno complessità arbitraria (si pensi allo schema di rimpiazzamento). 4) L'approccio categoriale alla logica Come si è visto sopra, la teoria dei topoi elementari fornisce un'analisi categoriale del concetto di insieme variabile e come caso limite del concetto di insieme costante. Al fondo di questa analisi sta d'altra parte un programma più generale che è quello di individuare, al di là delle particolari presentazioni, la struttura I In un certo senso, in questa prospettiva la teoria dei topoi elementari rappresenta il culmine attuale di un processo di algebrizzazione della matematica e della logica: dietro a ogni tentativo di algebrizzazione c'è sempre infatti l'obiettivo di ottenere formulazioni equazionali o essenzialmente equazionali. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) invariante dei concetti matematici fondamentali. In questo senso il programma coinvolge direttamente non solo la teoria degli insiemi ma la logica stessa. Fin dal I964 Lawvere aveva gettato le basi per un'analisi di questo tipo presentando la sua semantica funtoriale e nel I968 J. Lambeck aveva iniziato un'analisi in termini categoriali dei calcoli logici della deduzione naturale. Queste ricerche hanno condotto ad uno studio generale - utilizzando i concetti categoriali dell'aspetto sia sintattico che semantico delle teorie. Vogliamo indicare alcune linee direttive della ricerca partendo dalla interpretazione entro topoi elementari, in quanto è qui che direttamente si può osservare con più evidenza la generalizzazione che le nozioni categoriali hanno permesso di procedure e di concetti logici tradizionalmente riferiti all'universo degli insiemi. Consideriamo un linguaggio L a più sorta. Abbiamo già dato alcune indicazioni su come interpretarlo in un topos; vediamo ora la cosa più da vicino. Siano {Si}tei le sorta di L. Una interpretazione in un topos T del linguaggio L sarà al solito un'assegnazione di significato a tutte le costanti descrittive di L. Più precisamente, ad ogni sorta St assoderemo un oggetto Xi della categoria che vedremo intuitivamente come il dominio degli oggetti della sorta in questione; ad ogni costante relazionale n-aria R (i,· · · · ·in> - dove l' /-esimo componente ha sorta Si1 - assoderemo un sottoggetto R >~ X 1 x ... x Xn del prodotto X 1 x ... x Xn. Ad ogni costante funzionale J<i, · · · · · in; i> assoderemo un morfismo f: X1 x ... x Xn--+ Xt. Se infine c è una costante individuale di sorta i, le assoderemo un morfismo c: I --+ Xt. È chiaro che questa definizione non fa che riprodurre in termini categoriali quella ordinaria per gli insiemi; quanto alla convenzione sull'interpretazione delle costanti individuali, si ricordi quanto detto sulla biiezione che esiste nel topos degli insiemi fra elementi di xi e frecce I --+X;; come vedremo più avanti, in un topos elementare arbitrario gli elementi di questo tipo sono del tutto particolari. Se è possibile interpretare le sorta, dagli assiomi dei topoi elementari scende che è possibile interpretare tutte le costanti nel modo detto sopra, in quanto avremo oggetto terminale e prodotti. Per definire il concetto di verità di una formula in un topos rispetto a una data interpretazione, si segue il principio secondo il quale una formula con n variabili x1, ... , Xn avrà come estensione nel topos un sottoggetto del prodotto X1 x ... x Xn; le variabili di sorta Si scorrono quindi sull'oggetto Xi. Nel caso particolare di una formula .9!1 senza variabili libere, essa avrà come estensione un sottoggetto del prodotto della famiglia vuota di oggetti, cioè un sottoggetto di I, in quanto è facile verificare che tale prodotto è proprio l'oggetto terminale. I sottoggetti di I d'altra parte non sono nient'altro che i «valori di verità»; tali sono infatti gli elementi di n (si pensi al caso degli insiemi) e se X è un sottoggetto di I esiste esattamente un V'm per cui è pullback il diagramma seguente Z37 www.scribd.com/Baruhk I I Cf' m Vale anche l'inverso e questo significa che ad ogni sottoggetto X >~ I corrisponde biunivocamente un valore di verità Pm che è il suo morfismo caratteristico. Il valore di verità «vero» (si pensi ancora al caso degli insiemi) sarà il morfismo t che abbiamo dato definendo il classificatore. Nel caso degli insitmi infatti X è il massimo sottoggetto di I se e solo se Pm = t. Occorre ora interpretare le formule atomiche e questo ci porta all'interpretazione dei termini composti. Senza entrare in dettagli basta dire che in analogia col caso degli insiemi l'interpretazione dei termini composti viene dtfìnita induttivamente in modo che l'interpretazione dif(t) non sia nient'altro che la composizione dei morfismi associati nell'interpretazione ai componenti del termine. Possiamo ora passare alle formule in generale. Per assegnar loro un valore di verità si fa ricorso alla versione interna dei connettivi e quantificatori. Occorre però fare una precisazione sintattica. Come abbiamo detto a suo tempo, se R e P sono due sottoggetti di X, le operazioni che corrispondono ai connettivi applicati alle formule di cui i sottoggetti sono estensioni, ci portano da sottoggetti di X a sottoggetti di X. Non è possibile interpretare i connettivi se non in questo caso. Ciò significa che la logica interna ci permette di interpretare solo la composizione di formule che contengono le stesse variabili; questa non è una limitazione essenziale in quanto è sempre possibile trasformare una formula in una equivalente con variabili aggiuntive. L'importante comunque è tener presente questa limitazione quando si parla dei calcoli logici e dei teoremi di completezza. Le versioni dei calcoli cui ci riferirtmo saranno sempre tali da non permettere la deduzione di formule composte mediante connettivi se non nel caso in cui le formule componenti abbiano le stesse variabili libere. Versione del genere dei calcoli classico e intuizionista e loro estensioni sono state fornite ad esempio da J. Benabou modificando in questo senso i calcoli di sequenti di Gentzen. Chiarito questo possiamo interpretare le formule composte mediante connettivi, il che ci consentirà di vedere più da vicino il significato categoriale dei connettivi di un linguaggio in un topos. Come detto a suo tempo, la famiglia &(X) dei sottoggetti di un dato oggetto X (da non confondersi con nx, che è l'oggetto che nel topos rappresenta &(X), ma non è esso stesso la famiglia dei sottoggetti di X) è preordinata dalla relazione «essere so t t oggetto »; più specificatamente è un'algebra di Heyting, come si ricorderà. Possiamo allora inter- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) pretare 1 connettivi con le operazioni dell'algebra. Precisamente, se d e 8?1 sono interpretate sui sottoggetti A e B di X si avrà Formula Interpretazione AnB d/\8?1 dVB?l d~B?l -,d=d~ _l t A u B A~B A ~ o (dove o è il minimo dell'algebra) Rimane il problema dei quantificatori e della sostituzione. Cominciamo da quest'ultima e supponiamo di avere una formula d(x) e un termine t della stessa sorta di x. Per quanto detto a t corrisponderà un morfismo t Y--+ X dove X è la sorta di x. Il denotato della formula d(t), ottenuta sostituendo t a x, si può avere ricorrendo al morfismo ~*: 9( X)--+ 9'( Y) che associa ad ogni sottoggetto di X la sua immagine inversa rispetto a ~; sappiamo che esso esisterà se ! è un morfismo del topos. D'altra parte, essendo A(~:) sottoggetto di 8l'(X), la sua controimmagine ~*(A(~) sarà sottoggetto di 8l'(Y). Per definizione porremo che l'interpretazione di d(t) sia ~*(A(~:)). Nel topos degli insiemi questa è la versione categoriale del processo di sostituzione. Possiamo ora definire l'interpretazione dei quantificatori. Come detto a suo tempo, i quantificatori 3/ e v! sono aggiunti destro e sinistro rispettivamente di morfismi della forma j*, cioè di morfismi di sostituzione. Se ora indichiamo con Pi: X 1 x ... x Xn--+ X 1 la proiezione sulla)-esima coordinata, potremo definire 3xjd(Xl, ... , Xn) = 3P1 A(~h ... , ?'!_n) VxJd(xh ... , Xn) = "\fp1 A(~l, ... , ?'!_n)· Abbiamo così mostrato come interpretare nei topoi formule di L. Il discorso, naturalmente, vale qualunque sia il topos, anche quello degli insiemi, e ci dà un primo esempio di un'analisi categoriale della logica. L'interpretazione dei connettivi e dei quantificatori infatti ha un preciso significato cate,goriale. I quantificatori, come detto a suo tempo, danno origine a funtori, aggiunti rispettivamente destro e sinistro di un funto re P dove' h è un morfismo; non solo, ma anche la struttura di algebra di Heyting di 9(X) per ogni oggetto X ha un significato categoriale. gl'( X) è una categoria in quanto preordine, e si può verificare che il sup u è il coprodotto, l'inf n il prodotto, o, il minimo dell'algebra, l'elemento iniziale, r, il massimo dell'algebra, l'elemento terminale e la condizione definitoria dello pseudocomplemento (per ogni oggetto C, C n A :::;; B se e 2 39 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) solo se C:(, A =:> B) stabilisce che in f!J( X) il funto re A =:> ( - ) è l'aggiunto destro del funto re (-) n A. In altre parole quindi, essendo n il prodotto, la =:> sarà l'esponenziale. Questo per quanto riguarda la categoria f!J(X) in cui ogni Hom(A, B) contiene al massimo un morfismo: nel topos ogni A =:> B non è affatto l'esponenziale BA in quanto, in questo ambiente, i morfismi sono di più. Basta pensare al caso di Ins: BA, come insieme delle funzioni da A a B, dove A e B sono sottoinsiemi di X, non è affatto un sottoinsieme di X. Le operazioni nell'algebra di Heyting corrispondono quindi a quelle in una categoria cartesiana chiusa che è un preordine. L'importante è che in questo modo siamo riusciti a ricondurre a nozioni categoriali generali, prodotti, coprodotti, aggiunzioni, il significato degli operatori logici. Il discorso vale come vedremo non solo per i topoi ma per categorie più generali. Ma torniamo ora all'interpretazione nei topoi. Si tratta di definire la verità. Sempre partendo dal caso degli insiemi potremo convenire di considerare vera una formula d(x 1 , ••• , xn) in una data interpretazione in un topos se A(::t, ... , :::_n) . X 1 x ... x Xn. Come caso particolare avremo, quando n sia uguale a zero, che una formula d chiusa è vera se A · I, il massimo valore di verità. Come nel caso classico si può verificare che una formula d è vera se e solo se è vera la sua chiusura universale. Possiamo quindi definire i concetti di modello e di conseguenza logica. Per quest'ultima nozione dobbiamo fare una distinzione. Una nozione di conseguenza che possiamo chiamare debole si ottiene definendo che I' l!T d, dove T è un topos, se e solo se d è vera in ogni interpretazione in T in cui sono vere tutte le formule di r. Questo tanto per formule aperte, purché con le stesse variabili libere, che per formule chiuse. Un'altra definizione la possiamo ottenere se consideriamo i rapporti d'ordine tra le estensioni di formule con le stesse variabili. Sia f!J una formula con le stesse variabili libere della formula d: diremo allora che d è conseguenza forte di f!J rispetto a topos T, e scriveremo f!J 11-:f-d, se per ogni interpretazione a in T si ha f!Ja :(,_ da. d quindi è conseguenza forte di f!J se è soddisfatta in una data interpretazione ogniqualvolta è soddisfatta f!J. Le due nozioni di conseguenza divergono se le formule non sono chiuse, come succede nel caso classico, ossia interpretandole nel topos degli insiemi: la forte comporta la debole ma non viceversa. Abbiamo per ora considerato due nozioni di conseguenza relative ad un dato topos; possiamo introd urne due analoghe nozioni di conseguenza universale considerando tutti i topo i; definiremo allora I' lf--- d, se vale I' l~ d per ogni topos T e analogamente per f!J i~d. La domanda spontanea è se tutte queste relazioni di conseguenza si possono analizzare in termini di regole, cioè se si possono costruire calcoli completi rispetto.. a queste nozioni semantiche. È chiaro che per la categoria lns una nozione di deduzione adeguata sarà fornita dall'ordinario calcolo classico, tanto per la versione forte che per quella debole; la nozione di interpretazione che www.scribd.com/Baruhk La logica nel ventesimo secolo (II) abbiamo dato coincide in questo caso con la classica, è anzi ottenuta generalizzando da essa (il discorso vale più in generale per i topoi booleani). D'altra parte per ogni topos T ci sarà una logica corrispondente che in generale non sarà classica ma intuizionista. Consideriamo ora le conseguenze universali, !imitandoci al caso di formule chiuse: si può dimostrare che la logica della conseguenza universale rispetto all'interpretazione sui topoi non è nient'altro che la logica intuizionista con le restrizioni sulle regole di cui si è detto sopra. Che ogni formula dimostrabile intuizionisticamente da sia conseguenza universale di rispetto all'interpretazione su topoi, si può verificare facilmente per induzione sulla dimostrazione e scende dal fatto già osservato che il classificatore di un topos è un'algebra di Heyting. Per il viceversa esiste una profonda dimostrazione di Joyal condotta lungo linee puramente categoriali. È però possibile anche una dimostrazione più tradizionale che sfrutta il collegamento fra prefasci e strutture di Kripke. Il collegamento è interessante di per sé in quanto le interpretazioni di Kripke sono un caso particolarmente semplice ed intuitivo di interpretazioni su prefasci. Ricordiamo che una interpretazione di Kripke per un linguaggio L si può dare come una quaterna <I, R, tp, v> dove I è un insieme non vuoto, <I, R > è un preordine e "P è una funzione che ad ogni i E I associa un insieme in modo che se i ~ j allora tp(i) s; "PU); v infine è una funzione che ad ogni costante n-aria P associa, per ogni i E I, un sottoinsieme P i di (tp(i))n in modo che, se i ~ j, Pi s; P1 e analogamente per le costanti funzionali. La condizione su "P si può vedere come un modo di dire che "P è un prefascio di insiemi, i cui morfismi di restrizione sono inclusioni, sulla categoria <I, R > , doveR è il converso di R. Ad ogni struttura <I, R, "P> è quindi associato un prefascio. Si verifica inoltre che la condizione su v non fa altro che assegnare ad ogni formula atomica d(x1, . .. , Xn) del linguaggio un sottoprefascio dell'n-esima potenza del fascio associato alla struttura. Qu~sto significa che se consideriamo il topos dei prefasci di insiemi definiti su <I, R > , la v assegna un'interpretazione del linguaggio entro questo topos, e l'importante è che le condizioni di verità di Kripke coincidono con la definizione di verità da noi date per topoi generali, applicate a questo topos. Ne segue che se la formula d non è vera in una data interpretazione di Kripke, esisterà un topos in cui d non è vera. Sappiamo d'altra parte che, per il teorema di completezza di Kripke, per ogni formula d che non sia teorema della logica intuizionista esiste una struttura di Kripke in cui essa non è vera. Ne ricaviamo che la formula non sarà vera nell'interpretazione di topos associata. Quindi la logica intuizionista (nella versione con la restrizione sulle variabili) è completa rispetto all'interpretazione nei topoi. Sulla stessa linea si possono ottenere altri risultati di questo tipo. P. Freyd ad esempio ha dimostrato che la conseguenza universale rispetto a topoi arbitrari si può ricondurre a quella rispetto a un topos particolare, quello, Sh(C) r www.scribd.com/Baruhk r La logica nel ventesimo secolo (II) sullo spazio di Cantar: vale cioè per ogni coppia di formule chiuse d, fJ#, che d Il- fJ8 se e solo se d llsbi<.:> fJ#. Questo risultato ne estende uno analogo di Rasiowa e Sikorski per le interpretazioni topologiche della logica intuizionista. Sino ad ora abbiamo parlato di interpretazione di linguaggi a più sorta considerando i tipi superiori come sorta arbitrarie. Se, definendo le interpretazioni, vincoliamo le variabili per proprietà di oggetti della sorta si ad essere interpretate come elementi di nxi, dove Xi è l'oggetto che corrisponde alla sorta Si, otteniamo un vero e proprio concetto di interpretazione per linguaggi di ordine superiore. Anche in questo caso è possibile ottenere risultati di completezza, come hanno dimostrato M. Fourman e Jean Benabou. Si verifica così che una particolare versione della teoria dei tipi intuizionista è la logica per l'interpretazione (di ordine superiore) nei topoi. Il collegamento fra strutture di Kripke e interpretazioni su prefasci sopra stabilito ci dà un modo generale per analizzare in termini di livelli le intetpretazioni in topoi di prefasci e fasci. È un'analisi estremamente interessante perché mette in evidenza il senso in cui queste interpretazioni differiscono da quelle classiche. Data una categoiia C, dare una interpretazione nel topos dei prefasci di C significa sostanzialmente associare ad ogni oggetto U di C una struttura classica F(U) (un'interpretazione classica del linguaggio) e ad ogni morfismo f: U--+ V di C un morfismo p = F(f): F(V)--+ F(U) in modo cheF sia un funtore controvariante. Tradotte in questo contesto, le condizioni generali sulla interpretazione nei topoi ci danno un modo per definire la verità delle formule all'interno dell'interpretazione ad ogni livello U. Nel caso dei prefasci si verifica questo: mentre le formule atomiche, il falso, le congiunzioni, le disgiunzioni e il quantificatore esistenziale sono interpretati attualmente (nel senso che la verità di una formula a un livello dipende solo da quella delle sottoformule allo stesso livello), le condizioni sul quantificatore universale e sull'implicazione (quindi sulla negazione) coinvolgono i livelli inferiori e quindi i morfismi di transizione f' ·: F(U)--+ F( V). Così, d(x) => fJ#(x) sarà vera allivello U se e solo se per ogni j': F(U)--+F(V) avremo che d(f'(~))=> fJB(j'(~)) è vera in V. Analogamente "ii xfJ#(x) sarà vera allivello U se e solo se per ogni livello inferiore e per ogni a E F( V), fJ#(a) è vera al livello F( V). In generale quindi la situazione è questa: interpretare in un prefascio signi . fica dare una famiglia di strutture classiche legate fra loro da morfismi e valutare la verità delle formule ad ogni livello tenendo conto, nei casi di ::> e di "ii, dei valori della formula ai livelli precedenti. Questi operatori in altre parole sono interpretati universalmente, facendo riferimento ai futuri sviluppi di ogni livello. La traduzione delle condizioni generali dell'interpretazione sui topoi cambia se da prefasci passiamo a fasci. I fasci sono definiti su siti in cui, oltre a una categoria, abbiamo anche una nozione di localizzazione. In generale varrà quanto detto per i prefasci salvo una modifica per quanto riguarda l'interpretazione del www.scribd.com/Baruhk La logica nel ventesimo secolo (II) falso, delle disgiunzioni e del quantificatore esistenziale: questi verranno interpretati localmente, facendo riferimento, per ogni livello U, alle strutture associate agli oggetti delle coperture di Loc(U). Così ad esempio d(x) V &#(x) sarà vera al livello U se e solo se esiste una famiglia r di Loc(U) tale che in ognuno dei livelli dati dagli elementi di r, d e 3# sono soddisfatte dalle immagini di x rispetto ai morfismi di restrizione. Analogamente per la verità di :3x&B(x): essa è vera allivello U quando esiste una r di Loc(U) e un elemento a E F( V) per ogni V E per cui &#(a) è vera allivello V. Tutto questo in altre parole non fa che dire che formule di questo tipo sono vere ad un livello se sono vere « a pezzi » in una collezione di livelli inferiori «sufficientemente grande» da costituire una copertura del livello in questione. Si può vedere quindi in che senso le interpretazioni in fasci e prefasci differiscono da quelle classiche, in cui si ha a che fare con un unico livello e le distinzioni fra attuale, universale e locale vengono quindi a cadere. C'è un altro punto che conviene sottolineare. Dalla definizione di verità di formule esistenziali interpretate in un topos di fasci, scende che in generale non è detto che ad ogni livello U sia vera la formula :3x(x =x). Non è detto infatti che esista una copertura di U tale che ad ogni suo elemento sia associata una struttura classica non vuota. Questa situazione non è banale come nel caso classico, in cui sostanzialmente strutture vuote sono irrilevanti e di fatto non vengono considerate: nel caso dei fasci si ha a che fare con famiglie di strutture classiche ed il fatto che da un certo punto in poi queste siano vuote non è una situazione abnorme. Un caso di questo genere si ha ad esempio considerando un fascio su uno spazio topologico < X, d> quando ogni copertura di X possiede almeno un elemento cui è associato l'insieme vuoto. Proprio in vista della rilevanza di questa situazione, definendo il concetto di interpretazione in un topos non si può escludere che dei livelli abbiano associato insiemi vuoti e che quindi in alcuni di essi sia falsa la formula :3x(x = x). Questo costituisce un'ulteriore ragione per la vincolante posta sui calcoli circa l'impossibilità di applicare le regole sui connettivi a formule che non abbiano le stesse variabili libere. Senza questa restrizione infatti, come si verifica nelle formulazioni usuali, potremmo dedurre intuizionisticamente :3x(x = x) dalla formula V x(x= x) ::::J :3x(x = x), il cui antecedente è ovviamente dimostrabile. Come si può verificare, d'altra parte, per dimostrare l'implicazione è essenziale applicare regole sui connettivi a formule con variabili libere diverse. La condizione sopra posta ci impedisce quindi di ottenere questa formula come teorema e ciò spiega come la logica intuizionista, con tale condizione, possa essere valida rispetto alla nozione generale di interpretazione. Abbiamo così a che fare con una vera e propria versione indusiva della logica intuizionista, che nel nostro contesto viene giustificata dall;! concreta pratica matematica e ·non da considerazioni a priori, come, tutto sommato, in generale è avvenuto (si veda pp. I p-1 53). r, 243 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Questo ci porta a un discorso più generale che riguarda la nozione stessa di elemento, definito, come si ricorderà, come modismo I -+ X. Nel caso del topos degli insiemi c'è coincidenza con la nozione ordinaria definita in termini di appartenenza. Nel caso di topoi quali quelli di prefasci o di fasci, in cui abbiamo a che fare con famiglie di insiemi, la situazione cambia, in quanto elementi che «vivono » ad un livello possono non «vivere » ad un altro. Facciamo un esempio molto semplice. Se S è il topos degli insiemi, S x S sarà anch'esso un topos, i cui oggetti saranno le coppie, < X, Y > di oggetti di S e i cui morfismi saranno le coppie < j, g > : < X, Y > -+ < X', Y' > , dove j: X-+ X' e g: Y-+ Y' sono morfismi di S. L'oggetto terminale sarà <I, I>, dove I è l'oggetto terminale di S, ossia {0 } ; mentre l'oggetto iniziale sarà < 0, 0 > . Ora si può vedere facilmente che < 0, I>, pur non essendo l'oggetto iniziale, non ha elementi nel nostro senso: non possono esistere infatti morfismi I-+ 0 in S, in quanto 0 è l'insieme vuoto. Questo mostra che in un topos generale, diversamente che nel caso degli insiemi, possono esistere oggetti non iniziali privi di elementi, le cui proprietà quindi non sono determinate da questi ultimi. Questo fatto si può spiegare ricorrendo alla contrapposizione fra insiemi costanti e variabili. Gli oggetti di S X S si possono vedere infatti come insiemi variabili il cui sviluppo è «misurato» in due stadi, la prima e la seconda coordinata. In quest'ottica un elemento come noi l'abbiamo definito non è un oggetto qualsiasi, ma un vero e proprio elemento « eterno », in quanto affinché < I, I > -+ < X, Y > sia un elemento, è necessario che le sue componenti ai vari livelli, j: I -+X e g: I-+ Y definiscano anch'esse un elemento del topos S. Questo significa che gli elementi come noi li abbiamo definiti esistono ad ogni livello e devono quindi essere « eterni ». Il fatto importante è che in un topos un oggetto non è univocamente determinato dai suoi elementi eterni e che quindi questi non sono sufficienti per caratterizzarlo, il che si traduce nel fatto che i morfismi I -+ X non sono generatori del topos. Abbiamo così un'ulteriore misura della maggior articolazione dei topoi rispetto all'universo degli insiemi. Che senso ha interpretare una teoria in un topos diverso da quello degli insiemi ? La risposta generale può essere che, come la teoria dei topoi elementari ci dà una descrizione degli insiemi variabili, così l'interpretazione in topoi ci permette di parlare di strutture variabili; la necessità di questo allargamento di orizzonte si è imposta nella stessa pratica matematica attraverso l'uso sistematico di prefasci e fasci di strutture (si pensi ad esempio a quanto detto sopra sulla geometria algebrica). Le interpretazioni in topoi consentono di analizzare questo processo in termini unitari. Un fascio di anelli infatti non è nient'altro che una interpretazione della teoria degli anelli in un topos di fasci e questo discende dal fatto che la teoria degli anelli, come ogni teoria algebrica (= equazionale) ha formule che sono interpretate attualmente, sicché un'interpretazione in un fascio sarà modello della teoria se e solo se ad ogni suo_ livello è associato un anello, www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) un modello classico della teoria. Il fatto poi di essere riusciti a individuare la logica delle interpretazioni nei topoi ci fornisce un metodo per ottenere informazioni sulle formule vere nell'intero fascio di anelli: una formula d sarà vera in un fascio di anelli quando è conseguenza intuizionista degli assiomi d'anello. Questo vale in generale per ogni teoria. C'è un altro modo per collegare a fasci strutture classiche, che si può anche esso analizzare in termini logici generali. Supponiamo che F sia un fascio, poniamo di anelli, definito su uno spazio topologico ;t. Ad ogni punto x E ;r possiamo associare una struttura classica, la spiga di x (in terminologia inglese lo stalk di x) nel modo seguente. Consideriamo ~(x), ossia la famiglia degli aperti che contengono x; essa è chiusa rispetto all'intersezione, il che significa, ricordando che i fasci sono funtori controvarianti, che dati U, V E ~(x) esisterà un W E ~(x) per cui F(U)\.. F(W). F(V)/ In altre parole il sistema delle strutture associate agli aperti di ~(x) è diretto e la spiga di x sarà il limite induttivo di questo sistema. L'interrelazione fra spighe e fasci è uno strumento fondamentale per studiare i fasci, ove in generale si usa la tecnica di determinare quando una proprietà è goduta da un fascio stabilendo quando essa è goduta dalle spighe. Si può ad esempio dimostrare che se ogni punto ha una spiga che è un gruppo, o un anello, o un modulo, o un anello locale, ecc., anche il fascio godrà di queste proprietà. La considerazione delle clausole sulle interpretazioni nei fasci ci fornisce un metodo generale per dimostrare risultati del genere, in quanto la validità di essi dipende dalla forma degli assiomi di gruppo, d'anello, d'anello locale, 1 ecc., più precisamente dal fatto che tali assiomi sono sequenti coerenti, composti cioè da formule che contengono solo disgiunzioni, congiunzioni, quantificatore esistenziale, il falso ...L, il vero T. L'attenzione al meccanismo di interpretazione delle formule coerenti ci permette di generalizzare il risultato al caso di fasci non necessariamente definiti su spazi topologici ma su siti arbitrari. In questo I Un anello commutativo è locale quando possiede un unico ideale massimale composto da tutti gli elementi non invertibili. Si ottiene un'assiomatizzazione coerente della teoria aggiungendo agli assiomi d'anello i sequenti del tipo i=n ---, 1\ i=o Xi = O l- i=n V 3;• y • Xi = I. i=o Gli anelli locali hanno un ruolo fondamentale nella geometria algebrica (definendo il fascio strutturale della topologia di Zariski si parte appunto da anelli locali) e nell'aritmetica, in vista della loro importanza nella teoria della valutazione. Gli anelli l"ocali sono « quasi » campi, nel senso che hanno il numero « minimo » di ideali propri, ed il fatto che la loro teoria sia coerente permette ulteriori applicazioni. A. Kock ad esempio ha dimostrato, utilizzando strumenti categoriali, che ogni formula coerente deducibile dalla teoria degli anelli locali più un assioma di campo, è già deducibile dalla sola teoria degli anelli locali. Questo ha permesso a Kock di sviluppare l'algebra lineare nel topos di Zariski. www.scribd.com/Baruhk La logica ne! ventesimo secolo (II) caso occorre generalizzare la nozione di punto, in quanto gli oggetti della categoria cui il fascio assegna strutture non sono insiemi. Quello che conta è che se un sito ha abbastanza punti (il concetto si può precisare) quanto detto sopra vale anche per fasci di questo tipo. Lo studio delle interpretazioni nei topoi offre quindi un contesto generale in cui affrontare problemi riguardanti i fasci. Su questa linea Mulvey è riuscito ad ottenere risultati interessanti sfruttando il fatto che la logica dei fasci è quella intuizionista; ha ad esempio dimostrato che se in un topos di fasci prendiamo l'oggetto N dei numeri naturali e generalizzando la costruzione di Dedekind costruiamo un oggetto R di numeri reali, questo sarà modello di una formulazione della teoria dei campi, classicamente, ma non intuizionisti<:amente equivalente alla usuale. È significativo confrontare questa costruzione nel caso di fasci di funzioni continue su uno spazio topologico, con quella dei campi iperreali di Edwin Hewitt, che aveva come obiettivo proprio quello di ottenere una struttura di campo dall'anello delle funzioni continue definite su uno- spazio: quest'anello, nella terminologia dei fasci, è l'anello delle sezioni globali (l'anello·associato all'intero spazio). Ora, mentre Hewitt, considerando solo questo anello per definire una struttura di campo classico, doveva costruire particolari quozienti, Mulvey, considerando l'intero fascio, ottiene direttamente un oggetto che intuizionisticamente è un campo. Il parallelo è interessante in quanto si può estendere. I campi iperreali di Hewitt costituiscono un esempio di ultraprodotti, il cui ruolo conosciamo dalla teoria dei modelli classica. Ora, gli ultraprodotti si possono concepire come spighe di particolari fasci e, come ha mostrato D. Ellerman, la costruzione dell'ultraprodotto si può effettuare non solo su insiemi di strutture, ma su fasci di strutture. A questo livello emerge un altro collegamento, del resto prevedibile se si pensa ai legami fra interpretazione nei fasci, logica intuizionista e forcing di Robinson: anche questo ultimo si può ricostruire in termini di fasci. Tutto questo mostra le possibilità di un fecondo uso dei fasci all'interno della teoria dei modelli. L'aver messo in luce il significato categoriale dell'interpretazione delle teorie consente d'altra parte una ben più profonda ristrutturazione dell'intero studio dei modelli. Già nel 1964, nella sua tesi dedicata alla semantica funtoriale, Lawvere aveva mostrato, limitandosi alle teorie algebriche, come fosse possibile organizzare uno studio dei fatti fondamentali dell'algebra universale vedendo il processo di interpretazione come un processo funtoriale. La possibilità di interpretare nei topoi determinate formule dipendeva, come si ricorderà, solo dal fatto che agli operatori logici in esse occorrenti corrispondevano, all'interno del topos, operazioni su oggetti; che poi queste operazioni si possano internalizzare è una proprietà dei topoi che li qualifica come universi del discorso, ma non è una condizione necessaria per l'interpretazione. Possiamo quindi «interpretare» teorie con particolari stock di operatori logici in categorie più generali dei topoi. Lo si può vedere considerando ad esempio il caso dei gruppi topologici: in www.scribd.com/Baruhk La logica nel ventesimo secolo (II) quest'ottica un gruppo topologico non è nient'altro che un'interpretazione della teoria dei gruppi all'interno della categoria degli spazi topologici. Come universo prendiamo un oggetto X e su di esso definiamo una struttura di gruppo considerando morfismi X 2 -+ X, X --4-- X e I~ X, dove I è l'oggetto terminale, in modo che le equazioni fra questi morfismi siano proprio quelle date dagli assiomi di gruppo. È quanto faremmo interpretando negli insiemi, solo che ora, essendo continue le frecce, avremo non un gruppo, ma un gruppo topologico. Ora, l'idea della semantica funtoriale è di associare alla stessa teoria dei gruppi una categoria e di concepire le interpretazioni come funtori che dovranno conservare la struttura logica rilevante della prima categoria. Il discorso vale in generale per teorie algebriche: una teoria algebrica nel senso categoriale sarà una categoria piccola T con oggetti i numeri naturali o, I, 2, . . . e in cui ogni oggetto n è il prodotto diretto dell'oggetto I n volte; proprio per questo I sarà l'oggetto terminale. Una operazione di T sarà ogni freccia n-+ I e poiché n è un prodotto, tali saranno anche le proiezioni Pi: n-+ r. Le frecce n-+ m saranno in corrispondenza biunivoca con m-uple di operazioni n-arie. L'esempio dei gruppi dato sopra illustra come le teorie nel senso usuale siano connesse alle teorie algebriche così definite e in generale c'è un processo canonico per associare ad una teoria « linguistica » T una teoria T in senso categoriale. Basterà grosso modo prendere come oggetti o, I, 2, •.• e come morfismi n-+ I le classi di equivalenza di termini con esattamente n variabili libere rispetto alla relazione t ~ t' se e solo se T 1- t= t'. La composizione sarà definita ricorrendo al processo di sostituzione dei termini. La differenza essenziale fra le due nozioni di teoria algebrica sta nel fatto che quella categoriale è indipendente dagli assiomi della teoria e dalle costanti primitive: infatti, associando la categoria alla teoria usuale si tiene conto solo dell'uguaglianza o meno dei termini, indipendentemente dal modo in cui questi sono definiti e dalle assunzioni in base alle quali abbiamo dimostrato la loro equivalenza. Ne viene così estratta la struttura rilevante ai fini algebrici, così che le teorie « linguistiche » si possono vedere come presentazioni diverse della teoria invariante T. La struttura rilevante di una teoria algebrica è data dalla sua chiusura rispetto ai prodotti finiti; perché quindi si possa interpretare T in una categoria C è sufficiente che C sia chiusa rispetto ai prodotti finiti. Un modello di T in C sarà un funtore che conserva i prodotti finiti F: T-+ C. Se si pensa a come abbiamo associato ad una teoria linguistica la corrispondente teoria algebrica, si vede come questo significhi che tutte le equazioni fra morfismi di T dovranno essere conservate dal funtore e quindi come funtori di questo tipo determinino davvero dei modelli. Se ora ci limitiamo alle interpretazioni negli insiemi, ad ogni teoria algebrica T è associata una categoria Ins<T> i cui oggetti sono i modelli di T e i morfismi le trasformazioni naturali fra di essi. Considerare i modelli, al contrario 247 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) di quanto si fa ordinariamente, come una categoria e non come una semplice classe, ci permette di affrontare in modo sistematico un problema fondamentale dell'algebra universale, che è quello di studiare come il passaggio da una teoria algebrica a un'altra sia correlato a passaggi da una categoria - e non solo da una classe - di strutture a un'altra. Ogni funtore T-+ T' tra teorie algebriche, determina infatti in modo ovvio un funtore da Ins<T> a Ins<T') che preserva i domini. Chiameremo ju11tori algebrici i funtori di questo tipo e categoria algebrica ogni categoria della forma Ins<T>. Il teorema fondamentale stabilito da Lawvere afferma che ogni funtore algebrico ha un aggiunto. In base a questo risultato si può ottenere come caso particolare l'esistenza di costruzioni algebriche fondamentali: l'abelianizzazione dei gruppi, le algebre inviluppanti algebre di Lie, ecc. Quanto detto finora riguarda le teorie algebriche, ma il discorso si può estendere a teorie più complesse, dando così origine a una vera e propria teoria funtoriale dei modelli, in cui appunto i modelli sono considerati funtori da categorie che sono la formulazione invariante di teorie (indipendenti cioè dalla presentazione linguistica) a categorie con sufficiente struttura interna da interpretare gli operatori logici occorrenti. Il modo per dare la formulazione invariante delle teorie è una generalizzazione di quello usato sopra ed è collegato alla costruzione classica delle algebre di Lindenbaum: come oggetti si prendono classi di equivalenza di formule con arietà fissata, come morfismi formule di cui entro la teoria si dimostra il carattere funzionale. I modelli saranno funtori che conservano la struttura rilevante. Non possiamo qui entrare in dettagli. Ci basti ricordare che i risultati ottenuti sono notevolmente interessanti. Pensiamo ad esempio ai lavori di O. Keane sulle teorie con formule di Horn che sostanzialmente coincidono con le teorie essenzialmente algebriche. Un analogo processo di categorizzazione delle teorie ha permesso a P. Freyd la costruzione di una teoria generale delle relazioni, il cui significato non sta solo nel fatto che costituisce un'analisi in termini di relazioni delle teorie e quindi anche delle loro proprietà dal punto di vista algebrico, ma pure nel fatto che getta luce sulla struttura sottogiacente a importanti costruzioni categoriali. Ci siamo finora riferiti a teorie finitarie, cioè con formule di lunghezza finita. Uno dei risultati più interessanti ottenuti recentemente da Michael Makkai e Gonzalo Reyes sta nel collegamento stabilito tra teorie coerenti costruite su linguaggi infinitari e topoi di Grothendieck. Si è già parlato dei collegamenti fra interpretazione nei fasci e teorie coerenti. I lavori in questione approfondiscono questo rapporto fornendo una vera e propria analisi, dal punto di vista della teoria dei modelli, dei topoi di Grothendieck e realizzano così quel collegamento tra geometria e logica che è uno degli obiettivi del programma di Lawvere. La base di questo collegamento è data dal fatto che ad ogni sito è possibile associare una teoria coerente eventualmente infinitaria e viceversa che ad ogni teoria di www.scribd.com/Baruhk La logica nel ventesimo secolo (II) questo tipo si può associare un sito. Da questo primo legame ne segue un altro: le fibre del sito si possono vedere come modelli della teoria associata al sito e viceversa i modelli della teoria sono fibre del sito. Questo permette di ottenere risultati geometrici per via logica e viceversa. Così ad esempio il teorema di Deligne, fondamentale nella teoria dei topoi, per cui ogni topos coerente ha sufficienti punti (i punti in topoi di Grothendieck sono particolari morfismi con dominio Ins) si ottiene dal teorema di completezza per la logica coerente. Lo stesso avviene per il teorema di Barr sui punti booleani suriettivi. Si ottiene così una visione unitaria, di cui si era detto parlando dei topoi, di aspetti geometrici e logici basandosi sulla sostanziale identità fra punti geometrici e modelli delle teorie. È importante notare che in questo contesto si può dimostrare l'esistenza di modelli in topoi di Grothendieck per teorie infinitarie che classicamente non ne hanno in Ins. Ciò mostra che la considerazione di interpretazioni in topoi generali può avere un significato anche partendo dalla stessa problematica logica. Analizzando le interpretazioni nei topoi abbiamo visto come le proprietà logiche fondamentali dei connettivi e dei quantificatori si possono rendere in termini di costruzioni categoriali e di rapporti di aggiunzione. Questa analisi consente di articolare in termini categoriali non solo l'aspetto semantico della logica, ma anche la struttura delle dimostrazioni, ossia l'aspetto sintattico. C'è infatti un profondo legame, messo in luce da Lawvere e ampiamente esplicitato da Joachim Lambeck, tra la struttura dei calcoli di deduzione naturale e le costruzioni categoriali corrispondenti agli operatori logici. Precisamente, l'idea di fondo è che esiste una stretta connessione tra le dimostrazioni in un calcolo e la composizione dei morfismi in una categoria. Partiamo dal caso più semplice e supponiamo di avere un linguaggio L con le sole variabili enunciative. Consideriamo sequenti della forma d f- BiJ, dove d e BiJ sono formule. Un calcolo deduttivo su L dovrà plausibilmente avere assiomi della forma d f- d e una regola di inferenza È questo il minimo che chiediamo a una relazione di deducibilità: la riflessività .e la transitività. A questo calcolo è possibile associare una struttura che è « quasi » una categoria. Come oggetti prendiamo le formule e come morfismi in Hom(A, B) prendiamo le dimostrazioni nel calcolo dei sequenti di d f- BiJ. Il fatto che d f- d è un assioma ci garantisce che esisterà IA: A~ A. RT ci dà poi un modo per comporre dimostrazioni. Essa infatti ci dice che date due dimostrazioni f: A ~ B e g: B ~C esiste una dimostrazione di d f- ~ che possiamo indicare con go f: A~ C. Possiamo quindi leggere la regola come una legge di composizione tra dimostrazioni. La struttura così ottenuta diventa una categoria una 249 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) volta che si quozienti l'insieme delle dimostrazioni rispetto ad una opportuna relazione di equivalenza. Questa relazione dovrà imporre ad esempio che i vari lA siano morfismi d'identità, e che quindi lA o f = j, che la composizione sia associativa e infine che l'equivalenza sia una congruenza rispetto alla composizione sia a destra che a sinistra. Questa equivalenza è una relazione tra dimostrazioni e si può giustificare come. tale. Dire ad esempio che lA o j = j significherà che la dimostrazione j:A--+B lA oj: A--+B equivale alla dimostrazione j: A--+B. Questo è plausibile dal punto di vista della teoria della dimostrazione in quanto concettualmente il significato della prima è uguale al significato della seconda. Il discorso si può estendere se consideriamo che L sia chiuso rispetto a dei connettivi, ad esempio rispetto agli ordinari 1\, V, :::::>, e contenga costanti ..l e T. Le regole che possiamo dare per le introduzioni ed eliminazioni dei connettivi sono in stretta corrispondenza con fatti categoriali. Diamo un esempio. Consideriamo la congiunzione, le cui regole di eliminazione sono d 1\ ~ 1-- d e d 1\ ~ 1-- ~' e la cui regola di introduzione è Se consideriamo quanto detto a suo tempo sulle categorie cartesiane chiuse e i legami fra congiunzione di enunciati e prodotti di oggetti in una categoria, risulta evidente che le regole ora date corrispondono alla caratterizzazione del prodotto in termini di morfismi. Infatti, la prima regola come dimostrazione corrisponde al morfismo dato dalla prima proiezione p1 : A x B--+ A e al morfismo dato dalla seconda p 2 : A X B--+ B, mentre la regola di introduzione ci dà la proprietà universale del prodotto, nel senso che dati i morfismi j: C--+ A e g: C --+B esisterà un morfismo che possiamo indicare conj*g da C al prodotto A X B. Analogo discorso si può fare per gli altri connettivi e per le costanti enunciative. L'assioma che afferma che T è il vero e che quindi c'è sempre una dimostrazione di~ l- T, significa che T è l'oggetto terminale, mentre dualmente l sarà l'oggetto iniziale. Interessante è il caso dell'implicazione. Come detto parlando delle categorie cartesiane chiuse, semanticamente parlando all'implicazione corrisponde l'aggiunto destro del prodotto, cioè l'esponenziale. Questo vale anche se consideriamo le regole e gli assiomi che si danno sull'implicazione: è naturale infatti assumere che (~ :::::> d) 1\ ~ 1-- d sia un assioma e che www.scribd.com/Baruhk La logica· nel ventesimo secolo (II) .91 1\ gj l- ({} /.911-- gj ::J ({} sia una regola. In termini di prodotti e di esponenti, per l'assioma avremo il morfismo di valutazione e: AB x B---+-A, mentre nel caso della regola al morfismo h: A X B---+- C corrisponderà il morfismo h*: A---+- CB che dovrà esistere in una categoria cartesiana chiusa in quanto l'esponenziale è l'aggiunto destro del prodotto. Possiamo ora tirare le fila dell'analogia posta in luce. C'è una corrispondenza tra le regole e gli assiomi di un calcolo enunciativo come quello cui sopra ci siamo riferiti e la definizione di una categoria cartesiana chiusa. Questa analogia diventa una equivalenza se, come fatto nel caso di L senza connettivi, associamo· al calcolo la categoria che otteniamo prendendo come oggetti le formule e come morfismi le classi di equivalenza rispetto a un'opportuna relazione di equivalenza definita fra dimostrazioni. Va osservato che questa relazione di equivalenza è plausibile in sé ·e per sé considerata dal punto di vista della teoria della dimostrazione: dimostrazioni equivalenti hanno lo stesso significato. Il rapporto ora messo in luce si può sfruttare in due sensi: da un lato utilizzando metodi categoriali nello studio dei calcoli logici, dall'altro associando calcoli a categorie. Lambeck è riuscito infatti a mostrare che teoremi logici quali l' Hauptsatz di Gentzen - che stabiliscono l'equivaJenza di dimostrazioni a certe forme normali - si possono applicare alle categorie fornendo decomposizioni canoniche di morfismi fra oggetti, e ha applicato questo collegamento allo studio delle categorie libere. Il discorso si può estendere al caso di- calcoli che contengono anche quantificatori, ottenendo come corrispondenti categorie cartesiane chiuse con struttura addizionale. Ruolo fondamentale in queste associazioni gioca l'analisi dei quantificatori come aggiunti del processo di sostituzione di cui abbiamo parlato. In termini generali (si pensi al nostro··esempio sull'implicazione) gli elementi da sfruttare per passare da regole a composizioni di morfismi sono proprio le situazioni di aggiunzione, e più in generale le condizioni di universalità. Nel caso generale le aggiunzioni Jnd~cate non sono :sufficienti per caratterizzare i quantificatori e, come posto in luce da Lawvere, occorre che si realizzino altre condizioni - cosiddette di Beck e Froebenius, sulle quali qui non insistiamo - che fissano più strettamente i rapporti fra immagini e quantificatori. In tutti questi casi naturalmente il rapporto è tra calcoli intuizionisti e cate·. gorie cartesiane chiuse. In generale possiamo vedere il rapporto fra categorializzazione basata su considerazioni semantiche (in cui alle formule corrispondono sottoggetti ordinati dalla relazione «essere sottoggetto ») e categorializzazioni basate sulle regole deduttive come una scelta di diversi sistemi di equivalenza fra morfismi. Mentre, nel secondo caso, considerando i morfismi come prove, li vediamo equivalenti solo se lo sono -come tali, nel primo caso, considerando solo la relazione d'ordine fra sottoggetti, veniamo in certo senso ad identificare tutti i monomorfismi equivalenti che esistono fra A e B, in quanto quello che conta da questo punto www.scribd.com/Baruhk La logica nel ventesimo secolo (II) di vista è solo l'esistenza di almeno un morfismo: le differenze che possono avere l'uno dall'altro non ci interessano. In questa prospettiva, la considerazione semantica si può riguardare come un appiattimento di quella sintattica, che invece tiene in conto le diverse maniere in cui i morfismi sono ottenuti. I lavori di Lambeck sono stati portati avanti da M.E. Szabo e H. Mann, cercando un collegamento più stretto tra i calcoli di deduzione naturale e le categorie cartesiane chiuse. Szabo è riuscito, utilizzando le multicategorie cartesiane chiuse, a stabilire un preciso rapporto di identità fra le relazioni di equivalenza fra dimostrazioni nel calcolo dei sequenti introdotte grazie all' Hauptsatz, e la relazione di equivalenza definita in termini categoriali: due dimostrazioni che si « convertono » nella stessa forma normale via l' Hauptsatz corrispondono allo stesso morfismo e viceversa. Mann è riuscito a fare lo stesso lavoro utilizzando non i sequenti ma il calcolo della deduzione naturale di Prawitz. L'interessante è che in questo caso ci si può limitare alle categorie cartesiane chiuse senza passare alle multicategorie. Da un punto di vista generale l'importanza di questi risultati sta sulla luce che essi gettano sul problema della equivalenza delle dimostrazioni. Il fatto che questa equivalenza corrisponda a quella categoriale dà un certo grado di « naturalezza » alla definizione assunta. È una situazione analoga a quella che abbiamo visto parlando della struttura logica delle categorie. Come sul piano semantico essa permette di individuare - basandosi su considerazioni concettuali e non linguistiche - una scelta dei connettivi e della loro interpretazione, così la categorializzazione delle regole logiche fornisce un criterio di scelta per queste ultime. Il collegamento fra categorie e regole deduttive, più precisamente fra categorie cartesiane chiuse e calcoli naturali intuizionisti, risulta ancora più chiaro se prendiamo in esame un altro rapporto ancora, che questa volta riguarda la teoria dei combinatori. Non possiamo qui entrare in dettagli, ma è possibile analizzare direttamente in termini categoriali la teoria basica della funzionalità di Curry, collegando alle regole di conversione rapporti fra morfismi. Una idea la si può avere se si considera nell'ottica della teoria dei combinatori il rapporto di aggiunzione tra prodotti ed esponenti stabilito dal morfismo di valutazione: tale collegamento non è nient'altro che un modo per esprimere la ì..-conversione. Questo ci permette di estendere il calcolo basico dei combinatori arricchendolo con la strutturazione interna delle categorie cartesiane chiuse. È quanto ha fatto di recente Thomas Fax dando una formulazione categoriale ed un arricchimento della teoria basica della funzionalità di Curry. La cosa è interessante per almeno due ragioni. In primo luogo perché mostra che c'è una solidarietà di fondo tra i concetti base della teoria dei combinatori e alcuni fatti categoriali. Questo indica come, una volta rigettato il ·concetto di insieme come fondamentale e accettato come primitivo quello di funzione, le scelte non siano arbitrarie: i www.scribd.com/Baruhk La logica nel ventesimo secolo (II) fatti categoriali costituiscono uno sfondo concettuale delle procedure puramente sintattiche del calcolo dei combinatori. In secondo luogo, i combinatori hanno un ruolo importante nell'interpretazione della logica intuizionista in termini di costruzioni: le regole sui connettivi, viste in questa ottica, diventano regole di computo per le costruzioni associate. L'interpretazione categoriale dei combinatori fornisce quindi una giustificazione delle regole anche dal punto di vista costruttivo. Un'analisi in termini categoriali del significato costruttivo della logica intuizionista, d'altra parte, è stato fornito da Anders Kock, sulla scorta di alcuni lavori di Laiichli, introducendo il concetto di proof bundle che grosso modo si può identificare con un'assegnazione di un insieme di prove ad ogni formula. A questo punto il discorso, in certo senso, si richiude: alle considerazioni realistiche che ci hanno portato alla interpretazione entro categorie, si aggiungono giustificazioni di carattere costruttivo. Tutto ciò pone in luce come l'approccio categoriale alla logica sia in grado di rendere conto e di dare forma filosoficamente e matematicamente compatta a gran parte delle alternative e delle generalizzazioni che la pratica logica e matematica ha registrato, o solamente intravisto, nella sua storia più recente. IV • OSSERVAZIONI CONCLUSIVE Pensiamo che il modo migliore per trarre un'interpretazione globale degli sviluppi descritti nelle pagine precedenti sia quello di cominciare col porsi una domanda che senza dubbio è venuta in mente anche allettare: in che misura tutto questo si può qualificare come logica? Un modo per rispondere a questa domanda (che alcuni considerano come il modo) è di indicare l'intero corso storico che ha portato al costituirsi della pratica logica contemporanea: la « necessità » degli sviluppi recenti dovrebbe risultare dalla interrelazione di temi e di tecniche che storicamente hanno portato ad essi. Sicuramente un discorso di questo tipo è plausibile; sarebbe inconcepibile infatti la comprensione, poniamo, dell'approccio categoriale alla logica senza tener conto dello sviluppo concreto della pratica matematica. Nel corso della nostra esposizione abbiamo appunto cercato di porre in luce i problemi che hanno portato ad elaborare specifiche tecniche e concezioni, ma non ci sembra che il discorso si possa esaurire con questo. La storia, anche la storia delle scienze, ha certo una sua « necessità » ma, per così dire, non sempre Iddio è dalla parte del cannone più forte. Fuor di metafora ci sembra che il costituirsi di una disciplina non imponga univocamente un modo di utilizzazione e di contestualizzazione della stessa e quindi l'accettazione di determinate linee di tendenza come inevitabili. Dietro a questo problema ce n'è uno più generale che non è nostra intenzione affrontare qui ma che comunque non si può evitare: è il problema della tradizione scientifica. Sicuramente ogni attività scientifica, come in generale ogni www.scribd.com/Baruhk La logica nel ventesimo secolo (II) attività umana, si inserisce in una rete di istituti, di legami interdisciplinari, di connessioni stabilite fra problemi, di gerarchizzazione di tecniche, di rapporti socialmente determinati, che in qualche modo « impongono » certe scelte piuttosto che altre. A nostro parere però la comprensione storica di queste determinazioni ha senso ed è utile nella misura in cui permette di operare nel presente una scelta all'interno della tradizione costituita, che non accetta supinamente questa stessa tradizio~e come luogo naturale della ricerca presente e futura, ma al contrario ricompone questo passato in base a norme di razionalità, all'enucleazione di tensioni che nascono dal presente. Il confronto con il passato è un modo per saggiare le scelte presenti non per imporle. Nel nostro caso questo significa che il panorama della storia della logica che abbiamo tracciato non è la storia di come gli antichi generosamente ci hanno fornito gli strumenti concettuali di cui oggi ci serviamo, ma piuttosto la storia della lotta di tendenze diverse di cui alcune hanno vinto e altre sono state sconfitte, ma non necessariamente le vincenti devono costituire il modello per l'attività di oggi. Seguendo questo tipo di argomento, c'è il rischio di cadere in una tentazione quanto mai viva ai nostri giorni: quella di postulare una norma esterna, metastorica, per l'attività scientifica, in particolare quindi per la logica, in base alla quale giudicare lo sviluppo storico. Nel nostro caso questa tentazione si traduçe in un appello ad una nozione a priori della logica che ha portato molti a vedere nella ricerca contemporanea una sorta di tradimento dei problemi fondamentali, una regimentazione tecnica, sostanzialmente sterile, cui si contrappone una logica filosofica che invece rimarrebbe fedele ai problemi di fondo, sarebbe la « vera » erede della tradizione. A quanto ci consta questa distinzione è stata in un certo senso teorizzata da Nicholas Rescher nel 1968 come dovuta alla necessità di far risaltare tutta una serie di altre ricerche a suo parere oscurate, in particolare nell'ultimo ventennio, dal continuo susseguirsi di risultati di « logica matematica », che appunto avrebbe fatto passare in secondo piano « il fenomenale scatto di crescita della logica in direzioni riferentisi a considerazioni filosofiche ». Questa suddivisione di Rescher sembra quindi riferita non tanto alla logica matematica - che come strumento resterebbe costante in entrambi i casi - quanto all'argomento che di volta in volta viene preso in considerazione. Come già abbiamo avuto l'occasione di osservare in altro luogo, questa distinzione, per quanto utile e fruttuosa possa risultare per scopi pratici, 1 ci appariva allora, e ancor più ci appare oggi, comunque artificiosa: essa ripropone dicotomie di antica data e di tipo quasi sempre conservatore e reazionario, così 1 Essa può avere un puro e semplice valore classificatorio convenzionale allo scopo ad esempio di « ordinare» una rassegna bibliografica, o di mettere in evidenza quelle che possono essere recenti applicazioni della logica in questo o quel campo culturale; o al limite per dare il nome a una rivista, o altro. Ma non ha comunque, in questo concordo pienamente con Hintikka (si veda più avanti), alcun valore né giustificazione teorici. 254 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) ben tratteggiate da Frege nei due contrapposti atteggiamenti alla melaphisica suni non legunlur o alla malhemalica suni non legunlur, che egli per primo intraprese a combattere con l'impostazione filosofica di un tipico programma tradizionalmente «matematico». A noi inoltre richiama alla mente infeconde dicotomie pratico ftemico di tipo crociano e la riproposizione di sepa-razione fra « scienze esatte » e « filosofia » che - a nostro giudizio - appartengono proprio al modo più deleterio e bloccante di vedere la filosofia. In realtà quello che crediamo debba risultare dall'esame dello sviluppo della logica che abbiamo tratteggiato in questa opera è che proprio la logica matematica ha contribuito fortemente a colmare per certi aspetti quell'arbitraria e sterile frattura che in varie culture veniva (e viene) operata fra filosofia e matematica; ha cioè permesso di gettare un ponte fra due «attività>>, per dirla con Wittgenstein, che di diverso possono eventualmente avere metodi e problemi, ma non certo «dignità» culturale o «profondità» di discorso. Se oggi nella maggioranza delle riviste filosofiche (anche in alcune italiane, possiamo notare con piacere) sempre più viene impiegata una concettualizzazione di tipo logico-matematico, ciò dipende specialmente dal fatto che nel processo evolutivo che abbiamo descritto questa disciplina, oltre a essersi data un'imponente strumentazione « tecnica », ha sollevato problemi la cui spettanza alla « filosofia » è un fatto puramente tradizionale: in altri termini, forse un po' semplificati, riteniamo che oggi la logica sia « matematica » per tutta una serie di complesse motivazioni storiche che abbiamo cercato di illustrare e non in quanto contrapposta a « filosofica ». Si chiede Hintikka: « Esiste qualcosa come la " logica filosofica"? Fonda~ mentalmente la mia risposta è "no". Non sembra esserci dal punto di vista dell'interesse filosofico molta differenza intrinseca tra i diversi rami della logica. Buona parte del recente lavoro nelle parti più esoteriche della logica matematica ha, a mio avviso, una grande rilevanza per l'indagine filosofica. È vero che la maggior parte di questo lavoro non ha richiamato l'attenzione dei filosofi o, per lo meno, che questo è avvenuto soltanto in quei casi relativamente rari in cui i logici stessi hanno richiamato l'attenzione dei filosofi verso i loro problemi. Tuttavia, gran parte del lavoro che è stato fatto in campi come la teoria delle funzioni ricorsive, la teoria dei modelli e la metamatematica riguarda l'esplicazione e lo sviluppo di concetti e problemi concettuali che sono del massimo interesse e della massima rilevanza agli scopi del filosofo. »t I Alle esemplificazioni di Hintikka si può aggiungere senza difficoltà tutta la problematica relativa alla teoria delle categorie nel suo riflesso sulla logica e sulla concezione stessa della matematica, comi pure quella relativa all'analisi logica delle scienze empiriche, ecc. Mette conto comunque di riportare la conclusione del discorso di Hintikka: « Questa mancanza di interesse da parte dei filosofi verso alcune delle parti della logica più genuinamente filosofiche è natura!- mente in parte inevitabile. Essa è dovuta alla difficoltà di approfondire un campo che si è sviluppato con_ grande rapidità e che in molti casi richiede un'alta competenza tecnica. Quello chl' è veramente sconcertante non è tanto l'ignoranza che si ritrova nelle discussioni di alcuni filosofi su risultati ben noti come quelli di Gode!, quanto la loro incapacità (o riluttanza) di seguire Socrate e ammettere la vastità della loro ignoranza.» 255 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Ci preme d'altra parte sottolineare, a questo punto, che non siamo mlmmamente dell'opinione che l'intervento dell'apparato logico-matematico si esaurisca nel conferire «rigore» alla formulazione di posizioni e problemi in prima istanza intuitivi; ci contrapponiamo così espressamente_ ad una tesi talora accreditata fra i filosofi, ma non solo fra essi, secondo la quale compito della logica (e della scienza in generale) è quello di fare un discorso rigoroso, mentre è caratteristica della filosofia di fare un discorso veritativo. Il compito della logica mat~­ matica, a nostro parere, non si limita affatto a quello di conferire rigore; essa piuttosto offre concettualizzazioni e metodi che sono sì tecnici e rigorosi, ma diventano operativi e fecondi solo una volta che diano origini a nuove formulazioni e interpretazioni intuitive cui devono fornire articolazioni, ma mai puramente veste esterna. Detto in termini leggermente differenti: siamo convinti che l'analisi logica non esaurisca in generale la compunsione estensiva del contenuto e delle potenzialità di una teoria; ma siamo altrettanto convinti che essa sia inderogabile in quanto non di rado conduce a nuove generalizzazioni, assai precise sì, ma non meno feconde, proprio perché mette in luce momenti contenutistici fondamentali. Mi sembra basti qui ricordare le parole di Chang che abbiamo riportato e il conseguente accenno da noi fatto a una teoria « empirica » dei modelli. Con ciò non vogliamo naturalmente dire che la moderna logica matematica è divenuta una specie di toccasana universale, con cui affrontare e risolvere «tutto »: niente ci è più estraneo. Intendiamo invece proprio il contrario: che è perfettamente inutile sognare la costituzione di strane « logiche filosofiche » con le quali si penserebbe appunto di poter risolvere ogni problema; e che ogni periodo storico ha i suoi strumenti d'indagine globali che come tali vanno assunti proprio per poterli superare, migliorare e affinare continuamente, e verso i quali è ormai per lo meno assurdo avere la culturalista repellenza della « tecnicità ». A nostro parere tutta questa problematica è una ulteriore dimostrazione- della rilevanza filosofica che la logica matematica- o se si preferisce la trattazione matematica della logica - int~sa come il modo odierno di fare logica (di qualunque tipo poi questa sia) ha in qu'anto tale, senza cioè che ci sia bisogno di scomodare qna pretesa «logica filosofica» che non sia una pura etichetta di comodo. Siamo dell'avviso che l'unico modo per uscire da questa dicotomia astratta tra la necessità dello sviluppo storico e la norma metastorica è quello di allargare il raggio dell'analisi e tenere esplicitamente conto dei legami che la logica ha storicamente intrattenuto e storicamente intrattiene con altre pratiche scientifiche, e più in generale sociali, e vedere in che misura essa è in grado di rispondere alle esigenze che queste pratiche impongono. In altri termini si tratta di riconoscere che l'indagine logica « deve » aver a che fare con i fondamenti delle pratiche teoriche e questo «deve» nasce dall'opportunità, oggi sempre più avvertita ma ben viva anche nel passato, di un inquadramento generale del lavoro www.scribd.com/Baruhk La logica nel ventesimo secolo (II) teorico, prendendo atto, nel contempo, che non sempre questo storicamente è avvenuto. Ci sono state esclusioni, pratiche teoriche privilegiate, sovrapposizioni ideologiche, il cui studio a nostro parere costituisce uno dei compiti dello storico della logica che non voglia limitarsi a registrare il sorgere e lo svilupparsi dei concetti al centro dell'indagine attuale; proprio però questa accettazione di un concetto così ampio, cosL.~ filosofico», di logica, pone in primo piano il rapporto concreto che storicamente si stabilisce fra le varie pratiche teoriche e la riflessione logica. Quest'ultima si realizza solo nella misura in cui è in grado di entrare in uno scambio effettivo con queste· pratiche, e il suo valore filosofico sta nella attuazione concreta, materiale e non ideale, del suo progetto: se la logica infatti esiste come progetto, come particolare modo di affrontare il lavoro teorico, non ha contenuti che non siano simultaneamente contenuti di altre scienze o comunque attività umane: logicus purus asinus est, ci avverte il detto rinascimen tale. Innegabilmente il contatto più profondo che la logica negli ultimi cent'anni ha realizzato con altre pratiche teoriche è quello che ha dato origine all'indagine sui fondamenti della matematica. L'evidente interesse filosofico che questi studi hanno è una conferma, ci sembra, di quanto detto sopra. I primi anni del secolo fino al 1930 hanno segnato il tentativo - articolato in diverse direzioni - di ripristinare attraverso la logica la ricerca di un'unità della matematica che gli sviluppi del secolo precedente sembravano rendere sempre più precaria. Questa ricerca di unità non era « dottrinaria », e anche se spesso assunse le vesti di posizioni filosofiche mutuate da impostazioni tradizionali, ciò era in larga misura determinato più da una necessità imposta da una mancanza di nuove e adeguate concettualizzazioni che non da una libera scelta. Sarebbe un grave errore - a nostro parere- credere che i motivi che spingevano Russell, Brouwer, Hilbert, ecc. a tentare una sistemazione della matematica fossero gli stessi che ancor pochi anni prima avevano spinti gli esponenti delle diverse correnti filosofiche a dar posto nei rispettivi sistemi agli sviluppi che la matematica registrava. L'elemento di rottura, a ben vedere, stava nel presentarsi in un certo senso per la prima volta della matematica come matematica pura, in grado di trovare all'interno di se stessa le proprie motivazioni; forse l'espressione più chiara- e anche più patetica - di questo fenomeno è il richiamo cantoriano alla libertà intrinseca del pensiero matematico; mentre la sua affermazione più consapevole è invece, ovviamente, quella di Hilbert. Di fronte a questa emergenza, che scardinava antichi moduli di connessione interni alla stessa ,matematica e proiettati verso la realtà esterna, il problema che si poneva era proprio quello di come spiegare la possibilità di nuovi rapporti, di come darne una giustificazione, pur nell'impossibilità, all'inizio appunto della ricerca, di esibirne esempi concreti. È in questo senso che la ricerca sui fondamenti, al di là della motivazione largamente occasionale offerta dai paradossi, costituisce un tentativo teorico generale www.scribd.com/Baruhk La logica nel ventesimo secolo (II) di riagganciarsi con la realtà esterna, comunque avvenisse questo tentativo, attraverso la logica o l'intuizione, le forme o i contenuti. Questo processo, attraverso le vie più diverse, le caratterizzazioni più disparate, i punti di approccio più eterogenei, sembra quasi, nello stattfS odierno della ricerca, essere giunto al suo culmine, al suo punto di rottura. Gli sviluppi della matematica, che l'indagine sui fondamenti si era posta come obiettivo di giustificare, hanno in larga misura realizzato questo rapporto; ma nello stesso tempo, dialetticamente, hanno messo in luce che la concettualizzazione sulla base della quale esso doveva essere giustificato era di fatto superata. Non sembra azzardato affermare che, pur continuando a produrre risultati rimarchevoli in ogni campo, la « tecnica » tradizionale di ricerca logica si stia oggi dimostrando, nelle sue punte più significative e avanzate, per così dire troppo «grossolana». La visione di un rigido dualismo vero /falso sembra debba essere sostituita da una più flessibile considerazione degli stati possibili di cose; l'estensionalità sembra sempre più ridimensionarsi di fronte all'intensionalità: è come se quel ripensamento che le scienze fisiche hanno dovuto compiere nel nostro secolo per un'a deguazione sempre maggiore alla realtà, debba imporsi anche per le più astratte scienze formali. Ma riprenderemo più avanti questo discorso sui fondamenti della materna tica alla luce degli sviluppi. più recenti illustrati in questo capitolo. Il problema che si pone è piuttosto quello di vedere se la ricchezza di questo collegamento è per così dire esclusiva, ossia limitata al rapporto fra logica e matematica, o invece non si possa estendere ad altre attività teoriche. Se infatti questo si verificasse, si porrebbe la questione più generale di giustificare questo privilegiamento della matematica nei confronti di altre scienze. (È una questione - si ricorderà che si è posta già al sorgere della logica matematica con Boole e con Frege.) Ora ci sembra che per evitare soluzioni preconcette occorra analizzare più da vicino che cosa si intenda per problematica logka. Nella prima parte di questo capitolo abbiamo accennato ad alcune « applicazioni » delle tecniche logiche a esperienze non riducibili a quelle matematiche, siano esse linguistiche o fisiche o di filosofia del diritto, ecc. In tutta franchezza non ci sentiamo di sostenere che in ognuno di questi casi si sia ottenuto un rapporto ottimale o particolarmente fecondo: innegabilmente alcune applicazioni della logica a problematiche specifiche possono risultare superficiali; ma quel che è significativo è che di questo spesso si sono resi conto gli stessi logici che della diversa problematica si occupavano. Una polemica abbastanza recente tra Alan Ross Anderson e Georg von Wright riguardante la logica deontica può fornire un esempio prezioso al riguardo. Secondo Ross Anderson scopo della logica deontica è quello di regimentare e introdurre criteri di correttezza all'interno del discorso morale e giuridico; secondo von Wright invece l'obiettivo è quello di permettere un'articolazione del discorso sulla ontologia delle norme, cioè sui concetti fondamentali www.scribd.com/Baruhk La logica nel ventesimo secolo (II) che stanno alla base del discorso normativa. A nostro parere quest'ultima posizione è la più consapevole dei limiti intrinseci a un approccio puramente logico che tenda ad isolare all'interno di ogni pratica uno « specifico logico » indipendentemente dalla configurazione generale della disciplina in esame. È questo un punto che ci sembra meriti una riflessione più ampia. Quando si parla di problematica logica all'interno di una disciplina specifica, si tende troppo spesso a concentrare il discorso sui puri dati linguistici e sui criteri di correttezza: è un'eredità senza dubbio molto antica che vede nel linguaggio il dato primario da cui scaturisce la dimensione logica. Ora, dietro la posizione di Ross Anderson ci pare stia proprio questa assunzione che è però estremamente riduttiva sia dal punto di vista generale (l'origine della speculazione logica) sia dal punto di vista specifico. In altre parole non avvertiamo grande necessità di una logica del discorso giuridico come norma di correttezza, mentre viceversa vediamo che i concetti specifici con cui si analizzano le norme giuridiche presentano problemi non di correttezza ma di esplicitazione. Per essere più precisi: quello che ci appare importante è la esplicitazione di presupposti in un linguaggio che consenta il confronto con altre pratiche piuttosto che la pura individuazione di criteri formali di correttezza. Si ritorna al problema del rigore sopra discusso: scopo dell'indagine logica non è il rigore fine a se stesso ma la individuazione dei concetti fondamentali, che può avvenire solo ampliando l'orizzonte e non concentrandosi esclusivamente sull'aspetto linguistico. Il discorso vale in generale. Senza dubbio l'analisi dell'apparato linguistico in cui si concretizza una pratica teorica è importante, ma non è l'esch;rsivo oggetto dell'analisi logica. Ancora una volta l'esempio dei fondamenti della matematica è illuminante: da quanto esposto precedentemente risulta chiaro infatti che in fondo il problema della correttezza era l'ultimo motivo che spingeva Boole o Frege a intraprendere tale analisi: il vero scopo era l'individuazione di concetti fondamentali e solo subordinatamente ad esso, come presupposto minimo, naturale, si poneva l'altro problema. Questo comporta ovviamente un contatto molto più profondo e diretto con la problematica specifica, pratica, di ogni singola disciplina: esempi di questo allargamento di prospettiva in cui la problematica logica è sostanzialmente indissolubile, come contenuti, da quella specifica, ci sembrano essere le ricerche sopra ricordate sulla quantum logic e le esigenze avanzate nel discorso generale di Chang sulla teoria dei modelli, ecc. In altra direzione, un esempio analogo è fornito proprio dai lavori di von Wright su fondamenti del diritto ed in parte almeno dai recenti sviluppi della semantica dei linguaggi naturali. Abbiamo detto sopra del complesso rapporto fra logica e linguaggio naturale e di come troppo spesso si riduca la rilevanza logica di una problematica all'analisi dell'aspetto linguistico. Ci sembra che questa concezione a priori del ruolo della logica sia all'origine di un altro equivoco per noi molto grave ri259 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) guardante la «pluralità» delle logiche: è un discorso su cui ritorneremo brevemente più avanti. Qui ci preme sottolinearne un aspetto: molte delle ricerche riguardanti la logica di pratiche diverse dalla matematica, fanno uso di nozioni di verità non classiche che spesso vengono presentate come più sfumate, più adeguate a rendere la duttilità del campo in esame. Questo si verifica in particolare per quanto riguarda le teorie che hanno a che fare con le « scienze umar:e » o con il discorso comune. Da parte di alcuni si è giunti così alla conclusione che mentre la logica classica è la logica della matematica o in generale delle scienze naturali che hanno a che fare con concetti rigidamente detetminati, quando si passa a parlare dell'Uomo con la, u maiuscola e dei fenomeni culturali, questa logica risulti ·insufficiente appunto perché troppo rigida, ed accorrano logiche più sfumate, se mai è possibile individuare logiche di questo tipo. Ora, a nostro parere, l'unico inconveniente di una posizione del genere è che disgraziatamente anche la matematica è «troppo umana » e non necessariamente la sua logica è quella classica. Quanto detto sopra sull'intuizioni~mo, sui topoi, ecc. illustra ampiamente il fatto che è all'interno stesso della pratica matematica che si impone la necessità di « sfumature » e che quindi non ha senso intetpretare - o addirittura fondare - la distinzione fra varie logiche sulla base di un'ipotetica frattura fra· mondo umano, irrimediabilmente irregolare e sfumato, e mondo scientifico naturale altrettanto irrimediabilmente determinato. Ancora una volta ci S{mbra opportuno sottolineare che indagine logica non significa imposizione di una logica esterna per regimentare il discorso, ma enucleazione di concetti e di articolazioni fondamentali che dipendono dal campo in esame e dal livello di profondità dell'analisi, non da irriducibili differenze ontologiche tra natura e storia, al fondo delle quali sostanzialmente c'è un'assunzione a priori di natura metafisica. Ci sembra che uno degli esiti filosoficamente rilevanti dell'indagine recente sia proprio questo. Il discorso si può estendere, prendendo atto di una tendenza presente nella filosofia di questi ultimi anni che ha portato ad una n:crudescenza dell'antitesi fra logica, vista appunto come imposizione di schemi rigidi, e linguaggio umano, ricco di articolazioni inanalizzabili· o comunque contrapposte alle strutture logiche. Ci riferiamo ai dibattiti riguardanti il contrasto fra retorica e logica. Una esposizione molto chiara di questa contrapposizione si ha nel Trattato dell'argomentazione di Chaim Perelman e Lucie Olbrechts-Tyteca che anche in Italia ha suscitato, in particolare agli inizi degli anni settanta, interessanti dibattiti. La tesi di fondo di Perelman è che nella cultura occidentale, per lo meno a partire dal Seicento (leggi: Cartesio), si è creata una frattura fra un razionalismo, che vede nella rigida applicazione di principi logici indirizzati alla individuazione del Vero e del Falso l'unica norma razionale, e una visione più duttile che prende in esame il concreto articolarsi delle argomentazioni umane accettando la retorica come una sorta di logica del discorso probabile o convincente. Secondo Perelz6o www.scribd.com/Baruhk La logica nel ventesimo secolo (II) man l'accettazione della prima posizione avrebbe comportato, e comporterebbe --~uttora, l'abbandono al puro arbitrio delle decisioni prese in comunità: questo in quanto se si accetta come unico criterio di razionalità la ricerca del Vero e del Falso anche in contesti in cui questa non è possibile, ma ci si deve limitare a convincimenti, si viene a rigettare una discriminazione fra gradi di plausibilità che permettono di sostituire al puro arbitrio l'argomentazione ragionevole. La retorica sarebbe appunto la logica, la classificazione di questi argomenti. Il discorso chiaramente riguarda lo stesso concetto di razionalità ed è interessante proprio in quanto presenta una concEzione chiara del ruolo della logica nella formazione e nell'analisi del comportamEnto ragionevole. Quello che ci sEmbra inaccettabile in questa posizione non è l'invito a studiare la retorica, che anzi riteniamo estrEmamente interessante ed utile, quanto piuttosto la contrapposizione stessa fra retorica e logica. Anche in questo caso scatta il meccanismo che sta sotto all'idea tradizionale della logica come regimEntazione del linguaggio. La logica, l'abbiamo già detto sopra più volte, a nostro parere non è questo, ed è solo un'ideologia della logica quella che le assegna questo ruolo, una ideologia che, detto per inciso, non ci sembra necEssariamente imputabile al pensiero cartesiano come sostiEne PerElman. In realtà riteniamo Enormemente più complesso il problema trattato da Perelman, e riguardante non tanto i criteri di valutazione degli argomenti e quindi la low forma, quanto piuttosto i contenuti delle decisioni e degli argomenti. In altre parole, non crediarr,o che in un'assemblea o in una riunione collettiva deliberante, debba essere l'analisi retorica a fornire una guida alle scelte, ma piuttosto l'analisi dei contEnuti: i problemi reali che si pongono sono di informazione e di contrasti di interesse e nell'analisi di queste realtà la «vecchia» logica ci sembra che vada benissimo nella misura in cui si sostanzia con un'analisi sui contEnuti spEcifici, con un'analisi sociale e politica dell'assemblea, ecc. La contrapposizione non è tra tipi di argomenti, ma tra tipi di argomentanti, tra i loro interessi e la consapevolEzza di questi, le low conoscenze, ecc. Il rischio della posizione di Perelman, ci pare, è quello di veder la retorica un po' come la logica dei poveri. A nostro parere la razionalità non si misura con la forma dEgli argomEnti ma con lo sfruttamento il più ricco possibile dell'informazione e dd metodi di indagine, così che il problema di una razionalità collettiva, di una razionalità che agisce socialmente, non ci sEmbra si concEntri sull'analisi ddl'uso del linguaggio che socialmente viene fatto, ma sui contEnuti delle decisioni che si prendono e sulle forze, ovviamente, che tali decisioni traducono in pratica. Per concludere su questo punto vorremmo osservare che l'aderenza all'idea di logica come fondata sull'analisi del linguaggio naturale costituisce oggi per alcuni filosofi l'ultima spiaggia contro la necessità di passare finalmente dai discorsi astratti all'analisi delle pratiche e dei problemi specifici. C'è una sorta di continuità fra le posizioni che contrappongono il linguaggio logico a quello naturale- vedendo z6z www.scribd.com/Baruhk La logica nel ventesimo secolo (II) nel primo un impoverimento del secondo - e le posizioni generali di Perelman sul concetto di razionalità: sono entrambe posizioni, ci sembra, che in concreto sono conservatrici in quanto interrompono i legami di scambio tra ricerca scientifica e vita comune. Rigettata, come abbiamo cercato di mostrare, la tesi sulla prevalenza dell'aspetto linguistico nell'indagine logica, risulta più facile riaffrontare il problema da cui eravamo partiti a proposito dei rapporti fra logica e matematica. A nostro parere la fecondità e «priorità » dei rapporti reciproci fra logica e matematica non è casuale e questo per la ragione molto semplice che - kantianamente se si vuole - la matematica è una componente essenziale in ogni discorso sul mondo scientifico; nella misura in cui la logica non riguarda solo il linguaggio ma i concetti fondamentali dell'analisi scientifica, è chiaro allora che ci sarà una solidarietà di fondo fra queste due attività. Lo ripetiamo: questo non significa che la matematica sia l'unico linguaggio esatto ma piuttosto che essa è la fonte di un numero straordinariamente grande di concetti fondamentali pt:r la comprensione scientifica del mondo. Anche qui il collegamento fra logica e linguaggio ci sembra abbia portato ad un'interpretazione erronea del ruolo della matt:matica, che trova la sua forma più esplicita nelle posizioni nwpositiviste secondo le quali la matematica è il linguaggio di cui ci serviamo per articolare il nostro discorso scientifico sul mondo. Alla base di questa posizione c'è l'accettazione di una solidarietà di fondo tra logica e matematica che, come si è detto sopra, ci persuade del tutto. Quello che non convince è, al solito, la transizione dalla logica al linguaggio, che si basa sulla visione linguistica della logica che sopra abbiamo criticato. Il ruolo di questa posizione all'interno di una problematica empiristica generale è chiaro: per i neopositivisti il linguaggio da una parte è convenzionale, e quindi le scelte fra un linguaggio e un altro non devono essere giustificate su presupposti extralinguistici; dall'altra parte è intersoggettivo, e questo garantisce quella « neutralità » della matematica che è necessaria per dare una spiegazione plausibile del ruolo che essa svolge nella teorizzazione scientifica. Una conseguenza implicita, ma pella pratica ampiamente sviluppata, di questo atteggiamento è il ruolo ambiguo che alla matematica viene assegnato: da una parte essa risulta imprescindibile in ogni discorso scientifico, dall'altra però le si viene a negare la possibilità di un contatto diretto con la realtà che non sia mediato da altre pratiche teoriche. Una delle forme più diffuse di questa concezione è quella secondo la quale, dovendo la matematica servire alla fisica - che sarebbe lo studio fondamentale della realtà esterna-, la prova della plausibilità di dati concetti matematici risulterebbe dalla loro applicabilità all'interno della fisica. Questo « sciovinismo fisico » è al fondo di non pochi discorsi, che spesso si sentono fare, sull'astrattEzza e la vacuità di almeno alcuni aspetti della matematica moderna e per converso consente al matt:matico « puro » una libertà nella 2.62. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) sua gabbia dorata che risulta in ultima analisi asfissiante, in quanto la sua teorizzazione verrebbe a essere sotto tutela rispetto alle scienze empiriche. Proprio dalla constatazione di queste conseguenze pratiche nella posizione neopositiva possiamo partire per una sua critica teorica. Come diceva Einstein, « per molti fisici esperienza è la teoria che hanno imparato fino a diciotto anni; il resto è pura speculazione teorica »; il discorso naturalmente non riguarda solo i fisici ma tutti coloro che vedono nella matematica un linguaggio, con incorporata o meno una logica, come sostiene Feyman, la cui scelta è convenzionale e sostanzialmente arbitraria, vincolata com'è a soli criteri di opportunità pratica (oltre, beninteso, che a criteri «interni» di coerenza). Senza dubbio una matematica che non si concretizzasse in ultima istanza in nuove applicazioni sarebbe sterile; ma il punto è che i rapporti fra matematica e scienze empiriche vanno in una doppia direzione: un concetto matematico può essere sterile non in quanto inadeguato ma in quanto non adeguatamente utilizzato. Le alternative sono due: o ipotizziamo per gli studiosi di scienze empiriche una sovrannaturale capacità di utilizzare in modo fecondo ogni «buon » conçetto matematico, e quindi deleghiamo ad essi il compito di decidere sulla «buona» o sulla «cattiva» matematica, oppure ammettiamo che i criteri di scelta debbono essere diversi e che in ultima analisi la matematica si può misurare direttamente con la realtà. L'insostenibilità della prima alternativa sta a nostro parere nel fatto che ogni teorizzazione empirica che sfrutti la matematica è in parte determinata proprio dai conct~tti matematici che usa e di conseguenza non ha neanch'essa un contatto puro con la realtà esterna, ma un contatto mediato. Che la teoria sia empiricamente giustificata e «funzioni» è allora a nostro parere una prova del fatto che anche la matematica su cui si basa la teoria « funziona » e che quindi inquadra bene la realtà esterna. Ne scende allora che la teorizzazione matematica, nella misura in cui non è sterile, ha a che fare direttamente col mondo esterno e con esso si deve direttamente misurare. Viene così a cadere ogni discorso sulla convenzionalità degli assiomi matematici e quindi si configura in modo diverso anche il ruolo dell'analisi logica dei fondamenti della matematica. Parlando sopra dei motivi che hanno portato allo svilupparsi dell'indagine sui fondamenti alla fine del secolo scorso, abbiamo sottolineato il ruolo che vi ha avuto il presentarsi della matematica come scienza « pura ». In un certo senso si può dire che al fondo di queste indagini sta proprio il tentativo di giustificare un'indagine matematica che pur muovendosi più liberamente di quella tradizionale non perde i contatti con il resto del sapere scientifico, ma anzi ne instaura dei nuovi. Abbiamo anche sottolineato come lo sviluppo che la matematica di questo secolo ha registrato abbia in un certo senso mostrato l'insufficienza dei concetti generali che alla fine dell'Ottocento ne avevano giustificato il sorgere. Come accennato nell'ultima parte di questo capitolo, forse l'evento più importante da questo punto di vista è costituito dal nuovo rapporto che la geometria è venuta www.scribd.com/Baruhk La logica nel ventesimo secolo (II) a stabilire con il resto della pratica matematica. Il sorgere della teoria degli insiemi e lo svilupparsi del metodo assiomatico, l'abbiamo visto, è stato il punto di partenza della problematica sui fondamenti e ciò ha coinciso con un'inversione di rotta della ricerca che ha portato gradualmente ad un allontanamento delle indagini geometriche dal resto della nuova matematica che si andava costituendo. L'eco di questa inversione di tendenza -come osserva Shafarevich si può trovare nelle parole di Felix Klein che nel 1926 scriveva: « Quando ero studente, le funzioni abeliane [la cui controparte algebrica è oggi un aspetto centrale della geometria] -come effetto della tradizione di Jacobi -erano considerate il vertice indiscusso della matematica e ciascuno di noi, naturalmente, aveva l'ambizione di contribuire a questo campo. E ora? La nuova generazione sa a malapena cosa sono le funzioni abeliane. »l I nuovi campi di indagine erano costituiti dalla teoria delle funzioni, dall'algebra astratta, che si fondavano su una concezione più ampia della pratica matematica e che trovavano il loro fondamento più naturale nella teoria degli insiemi vista come descrizione dell'universo degli oggetti matematici. Più o meno esplicitamente nei matematici sul campo, a chiare lettere nelle opere dei logici, dietro questa concezione stava l'idea che la matematica fosse essenzialmente un'attività di creazione di schemi astratti concettuali la cui giustificazione pratica andava ricercata nella fecondità, nella capacità cioè di inquadrare i problemi in esame (si pensi ad esempio al famoso discorso di Hilbert nel 19oo) ma la cui giustificazione logica (fondazione) si trovava nella riconduzione a concetti basilari quali potevano essere quelli della logica generale, della matematica finitista, delle costruzioni intuitive. Si creava in altri termini una frattura fra la giustificazione della correttezza di una teoria matematica e la giustificazione della sua fecondità. Questo almeno in parte può spiegare il disagio di alcuni matematici nei confronti dell'indagine logica e anche, in alcuni casi, il deciso atteggiamento di ripulsa. In quest'ottica, a parte la posizione intuizionista, che costituisce il tentativo più deciso di non creare una frattura fra la matematica ottocentesca e la nuova matematica, la teoria degli insiemi viene vista come la teoria dei concetti matematici, la « realtà » di fondo da cui vengono isolate di volta in volta le singole nozioni specifiche. L'accettabilità degli assiomi della teoria degli insiemi può essere giustificata sulla base di nozioni logiche generali (Frege, Russell, ecc.) o sulla base di prove di coerenza finitiste (Hilbert) ma il punto centrale non cambia: l'intero edificio matematico viene visto come un edificio di concetti, di schemi, che trova la sua unità in questa natura concettuale della nozione di insieme. In questo senso il mancato rapporto tra la geometria· e i nuovi sviluppi di questa matematica astratta testimonia l'impossibilità di ricostruire integralmente e in modo adeguato le nozioni dateci dall'esperienza fisica esterna I La citazione è tratta da Igor S. Shafarevich, Basic afgebraic geomelry, Springer, Berlino 1973. www.scribd.com/Baruhk La logica nel ventesimo secolo (Il) in puri schemi concettuali. Ci sembra che il contrasto tra Hilbert e Frege sui fondamenti della geometria rifletta almeno in parte questo problema. Sul piano della matematica concreta naturalmente la questione è diversa, e riguarda più specificamente la non conformità dell'indagine geometrica tradizionale ai nuovi standard di rigore (e in ultima istanza alla nuova concezione della matematica) posti dalla teoria degli insiemi e dal metodo' assiomatico. Que:.. sta frattura si verrà a colmare tra gli anni venti e trenta, quando gli sviluppi dell'algebra astratta, ad opera della scuola di Emmy Nother ed Emil Artin, permetteranno una feconda algebrizzazione della geometria classica. I lavori di Bartel L. van der Waerden, Oscar Zariski, André Weil gettano le basi per una geometria algebrica che si adegua perfettamente ed in modo fecondo ai nuovi standard di rigore e permette la trattazione su base algebrica di concetti centrali dell'indagine geometrica. Non si tratta in altre parole di un collegamento di principio, ma di un collegamento reale che investe la pratica stessa della ricerca. È dagli sviluppi successivi della indagine geometrica che è nata una controtendenza che ha portato ancora una volta la geometria in una posizione centrale. I lavori di Weil, di J. P. Serre e di Grothendieck, con la nozione di fascio e di schema, hanno ampliato enormemente l'orizzonte permettendo una profonda unificazione fra geometria, aritmetica e algebra. Il linguaggio geometrico pervade sempre più queiti campi di indagine così che la geometria si pone ancora come il contesto naturale entro cui si sviluppa gran parte della matematica. In questa nuova prospettiva, le categorie hanno un ruolo centrale in quanto costituiscono la base di un rinnovato collegamento, fornendo ai concetti geometrici una portata sufficientemente generale e aderente ai problemi di partenza. Il discorso è chiaramente semplificato, ma dal punto di vista della problematica sui fondamenti - che è quella che qui ci interessa - ha un significato preciso in quanto ne deriva la possibilità di una scelta diversa dei concetti fondamentali. Le indagini di Lawvere hanno proprio come obiettivo fondamentale quello di stabilire un rapporto profondo fra logica e geometria che sostituisca il precedente legame fra logica e teoria degli insiemi. La teoria dei topoi elementari come universi di discorso, la semantica funtoriale, le analisi delle regole logiche come aggiunzione fra funtori, ecc. non sono semplicemente un'applicazione del bagaglio concettuale della teoria delle categorie a problemi logici tradizionali, ma pongono in luce la possibilità e l'opportunità della sostituzione del concetto di insieme con quello di topos in un contesto fondazionale. La possibilità di questa sostituzione risulta chiaramente da quanto detto sopra; l'opportunità invece risalta da una considerazione più globale: il modo con cui viene individuata la struttura logica fondamentale degli oggetti matematici si rivela non solo più generale ma in molti casi molto più «naturale» e diretto di quello su basi insiemistiche. Il discorso fatto sopra sulla teoria dei topoi come teoria degli oggetti variabili in modo continuo e gli accenni ai rapporti fra co- www.scribd.com/Baruhk La logica nel ventesimo secolo (II) struzioni geometriche e nozioni logiche testimoniano ampiamente questo fatto. Il discorso si può generalizzare traendo una morale « filosofica » da questi sviluppi. La sostituzione dei topoi all'universo degli insiemi significa anche l'abbandono di una teoria concettualistica degli oggetti matematici. Questo per almeno due ragioni: in primo luogo, la nozione di topos nasce da considerazioni che sono simultaneamente geometriche e logiche e quindi trova la sua giustificazione non in una teoria dei concetti matematici ma in una teoria degli oggetti reali, gli oggetti geometrici; in secondo luogo, è implicita nella fondazione nel senso di Lawvere l'accettazione di una pluralità degli universi di base. Esistono topoi diversi e questa diversità non significa l'impossibilità da parte nostra di stringere èla vicino mediante una descrizione linguistica l'unico universo cui intendiamo riferirei: la pluralità dei topoi elementari è un dato di partenza che riflette la possibilità di diversi contesti, di diverse totalità di oggetti. La situazione è completamente differente da quella che si verifica nel caso della teoria degli insiemi in cui l'unicità dell'universo viene ricercata in quanto lo si concepisce come l'universo dei concetti matematici. L'esistenza di proposizioni insiemistiche indecidibili, da questo punto di vista, ha un significato fondamentale che a nostro parere mette in crisi l'idea dell'universo degli insiemi come unico universo di tutti i concetti. D'altra parte accettare, come alcuni hanno fatto, la pluralità delle teorie degli insiemi, ci sembra comporti necessariamente l'abbandono della nozione stessa di insieme come nozione fondante. Non si vede infatti per quale ragione, una volta che gli insiemi non siano più visti come i concetti, si debba necessariamente ricostruire ogni oggetto matematico come oggetto insiemistico. Una riduzione del genere ha senso se con questo si vuole intendere che ogni oggetto matematico è un costrutto concettuale, ma se l'universo degli insiemi non è l'universo dei concetti, non si capisce che cosa questo possa voler dire. Rimarrebbe l'idea di concepire i vari modelli della teoria degli insiemi come totalità di collezioni, ma a questo punto è la concreta pratica matematica che ci mostra come le proprietà essenziali di un oggetto non necessariamente si possono studiare in modo limpido attraverso la considerazione dei suoi elementi. L'esempio più cospicuo è dato dall'algebra: studiando i gruppi o gli anelli non è assolutamente necessario vederli come collezioni di elementi su cui sono definite relazioni e fo operazioni: le loro proprietà risultano dallo studio dei morfismi che li legano agli altri oggetti della categoria in cui li situiamo e dalle trasformazioni fra questa categoria e altre. Non solo uno studio del genere è possibile ma, come mostra la pratica algebrica moderna, permette di individuare strutture di fondo comuni che risulta difficile cogliere vedendo gli oggetti matematici come collezioni. Fondare l'algebra sulla teoria degli insiemi significa ricostruir/a, ma non per questo individuarne le componenti fondamentali. Il concetto di topos, o in generale quello di categoria, permette invece uno studio diretto degli oggetti matematici, che tiene conto del fatto che le loro proprietà risultano. z66 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) dalla considerazione dei morfismi e delle trasformazioni. In questo senso la « fondazione » insiemistica acquista un ruolo ben più ridotto che è quello di ricostruzione degli oggetti e non di studio diretto degli stessi. Risulta allora il carattere idealistico della fondazione insiemistica dove la parola « idealistico » ha un significato preciso e si riferisce al fatto che in questo tipo di fondazione l'unica vi~ per giustificare la ricostruzione degli oggetti matematici in termini di insiemi è quella di concepirli come concetti e di vedere lo studio della matematica come lo studio di concetti. Non solo per contrapposizione quindi ci sembra giustificata la concezione di Lawvere del suo modo di fondazione come un modo materialista di studiare la matematica. Ci sono due aspetti almeno nel discorso di Lawvere che giustificano questa qualifica. Il primo riguarda la non riduzione a concetti degli oggetti di studio: dal punto di vista categoriale un oggetto non viene ricostruito ma semplicemente se ne indagano i rapporti con altri oggetti senza fare assunzioni di carattere riduttivo. Il secondo riguarda la concezione generale dei topoi elementari come teoria degli oggetti che variano in modo continuo. Classicamente, l'abbiamo ricordato a suo tempo, l'analisi del movimento avviene per istanti, ossia si considerano gli oggetti in movimento analizzando la loro posizione nei singoli istanti. Quest'analisi d'altra parte si basa su una riduzione, in quanto assume la possibilità di poter parlare di istanti che non sono dati dall'esperienza, ma che sono costruiti concettualmente. Nella teoria dei topoi elementari questo non avviene, ed il movimento degli oggetti non risulta da una lòro ricostruzione in termini di istanti (se ad esempio si pensa al caso dei fasci, considerandoli livello per livello) ma globalmente, ed i tipi diversi di variazioni che consideriamo risultano dalla proprietà della logica interna del topos. Questi due aspetti sono strettamente legati fra di loro. L'idea infatti che il dato di partenza della conoscenza matematica è una realtà in movimento, significa che ogni ricostruzione di essa, quali che siano i concetti base che si assumono, è necessariamente artificiale in quanto evidentemente non ammette la possibilità di un approfondimento della conoscenza degli oggetti in esame basata su elementi che non compaiono nella ricostruzione originaria. Quanto detto nella terza parte di questo capitolo a proposito dell'assioma di scelta può illustrare adeguatamente questo punto. Risultati come quello di Banach-TarskiSierpinski sono paradossali se li leggiamo realisticamente; di norma il modo per giustificare questo fatto consiste nel rifarsi alla natura puramente concettuale della ricostruzione matematica degli oggetti in esame all'interno della teoria degli insiemi: in altre parole si sostiene che quello di cui si sta parlando non sono le sfere « reali », ma le sfere come ricostruite all'interno dell'universo degli insiemi postulando l' AS. C'è chiaramente un elemento insoddisfacente in questa soluzione, che la fa apparire troppo ad hoc: non si capisce infatti entro che misura, applicando i concetti matematici agli oggetti esterni, si crede davvero che i primi www.scribd.com/Baruhk La logica nel ventesimo secolo (II) rappresentino o meno i secondi. La teoria degli insiemi ammette un'applicazione dei concetti matematici al mondo esterno solo via una ricostruzione di questi ultimi. In questo modo l'individuazione di un ulteriore dato nel mondo reale, nel nostro caso l'individuazione dell'impossibilità fisica di operare la separazione delle sfere come vuole il teorema, porta ad una contraddizione se interpretiamo gli enunciati realisticamente. Ora è ben vero che noi potremmo considerare jl paradosso come una prova del fatto che AS va rigettato, ma d'altra parte se accettiamo l'universo degli insiemi come l'universo dei concetti matematici ci sono forti ragioni per accettare questo assioma, una volta che lo si applichi ad altri concetti: siamo ancora in presenza della necessità di una biforcazione che dal punto di vista fondazionale sarebbe difficilmente giustificabile accettando come base la teoria degli insiemi. Nel contesto della teoria dei topoi invece la situazione è diversa in quanto la giustificazione dell'applicazione di concetti matematici ad un dominio di realtà non dipende dalla possibilità di ricostruire gli oggetti di quest'ultimo all'interno del topos, per cui dovrebbe essere determinata una volta per tutte la validità di AS o no; ma di volta in volta si sceglie il topos adatto prendendolo come descrizione della struttura generale del dominio di partenza, non come ricostruzione di esso. Ulteriori informazioni su un dominio di realtà ci possono portare a formulare nuove condizioni sul topos e quindi in questa prospettiva è del tutto giustificata un'interpretazione realistica che ammetta nello stesso tempo la possibilità di nuove informazioni che lo studio del dominio in esame ci possa fornire. In quest'ottica, l'inquadramento degli oggetti di studio ammette come fondamentale la possibilità di uno sviluppo della conoscenza. In un certo senso si può dire che questo modo di concepire i fondamenti costituisce un'applicazione sistematica e coerente del metodo assiomatico, visto non più come costitutivo ma come descrittivo: gli assiomi rappresentano i fatti fondamentali che riusciamo a individuare nella realtà in esame. La possibilità di questo risiede proprio nell'adozione del concetto di topos. Classicamente infatti, si pensi ad Hilbert e all'assiomatica della geometria, il problema che poneva una visione coerentemente assiomatica della matematica era dato dal fatto che non si sapeva come giustificare la scelta della logica, o in generale degli assiomi, senza ricorrere ad una previa ricostruzione concettuale degli oggetti da descrivere: in altre parole una teoria assiomatica era vista come la descrizione di una struttura o di una classe di strutture all'interno della teoria degli insiemi (era quindi comunque costitutiva). L'unica alternativa a questa concezione era una visione rigidamente formalista dei sistemi assiomatici, che in ogni caso non poteva giustificare la scelta degli assiomi. Le difficoltà di Hilbert nel giustificare la logica classica contro le obiezioni di Brouwer ci sembra nascessero da questo e il ricorso al paradiso cantoriano aveva appunto il ruolo di rendere plausibile la scelta della logica classica sotto forma di un «come se», così che il pro- z68 www.scribd.com/Baruhk La logica nel ventesimo secolo (II) blema in ultima istanza si spostava su quello della coerenza della teoria degli insiemi. Il concetto di topos elementare con la sua logica interna ci permette di evitare questa difficoltà in quanto ogni teoria è interpretabile in un topos e la determinazione di un topos - si pensi alla forma degli assiomi - non presuppone nessuna logica. In questo modo risulta possibile evitare il ricorso ad elementi esterni non suggeriti direttamente dalla struttura del dominio che si vuol studiare e quindi viene giustificata questa concezione coerentemente assiomatica delle teorie matematiche. Secondo Lawvere - così almeno come lo interpretiamo - questa accettazione della realtà di base come realtà in movimento (nel duplice senso della realtà che varia e di conoscenza della realtà che si modifica) costituisce una conferma della natura dialettica del pensiero matematico. In un certo senso, ci sembra, questa natura dialettica è implicita nello stesso uso fondazionale del concetto di categoria in quanto una fondazione in questi termini vede come nucleo centrale della conoscenza matematica non la sostanza, cioè la composizione interna degli oggetti, ma i loro mutui rapporti, le loro trasformazioni. Si presenta così una concezione dello sviluppo della matematica che è istruttivo confrontare con quella tracciata da Hilbert nella conferenza di Parigi del I 900 e che costituiva la formulazione più coerente e sottile della nuova (di allora) pratica matematica. Per Hilbert lo sviluppo della matematica era motivato dall'insorgere di nuovi problemi e dall'elaborazione di teorie per la loro risoluzione; queste teorie costituivano i punti di partenza, le ipotesi, per la risoluzione, ed Hilbert giungeva a postulare una sorta di principio di omnirisolubilità. Il problema era di scegliere le ipotesi opportune e di giustificarne la correttezza in base a dimostrazioni di coerenza. Nella prospettiva che abbiamo presentato la situazione cambia, nel senso che più che i singoli problemi sono le contraddizioni tra i concetti in gioco che costituiscono il motore dello sviluppo matematico; queste contraddizioni nascono sia dalle condizioni del lavoro matematico stesso, sia dalle variazioni di conoscenza sugli oggetti di studio, e il senso del progresso matematico sta nella individuazione di un livello di discorso e di problematizzazione in cui i termini contraddittori vengono accettati entrambi, senza ridurre l'uno all'altro, e se ne analizzano i mutui rapporti. Per Lawver& la contraddizione di fondo implicita nel lavoro matematico è quella tra formale e concettuale, tra procedure di computo, presentazioni linguistiche, e strutture. Ci sembra che nella logica di questo secolo uno degli esempi più cospicui, anche se non sempre consapevole, di questa concezione, sia la teoria dei modelli, che ha proprio come tema l'interrelazione tra dato linguistico e st~utture che realizzano le condizioni linguistiche. Il contenuto di buona parte dei risultati centrali della teoria dei modelli non riguarda né le ~ole teorie né le sole strutture, ma la loro interrelazione. Prototipo ancora più significativo www.scribd.com/Baruhk La logica nel ventesimo secolo (II) di questa contraddizione e dello sfruttamento positivo di essa si trova nella ge:ometria, in cui viene sistematicamente sfruttata la contraddizione fra condizioni linguistiche, le equazioni polinomiali, e varietà, classi di oggetti che soddisfano le condizioni da esse poste. La semantica funtoriale di Lawvere, e più in generale la teoria funtoriale dei modelli, costituiscono la formulazione più esplicita dal punto di vista fondazionale di questa concezione, in cui la contrapposizione fra formale e concettuale si risolve e si analizza in termini di aggiunzione fra funtori. Sullo sfondo, come ambiente, una contraddizione ancora più generale: quella fra geometria e logica, che costituisce il contesto più naturale per vedere la teoria dei topoi che si presenta appunto come analisi unitaria delle interrelazioni fra concetti geometrici e logici e della loro unità di fondo. A nostro parere - come abbiamo già detto - il grande interesse di questa prospettiva fondazionale costituisce l'evento più importante della indagine di questi ultimi anni. Questo naturalmente non significa che la problematica più tradizionale abbia di colpo perduto ogni senso né che l'approccio categoriale costituisca la risposta definitiva ai problemi fondazionali; non vogliamo assumere d'altra parte un atteggiamento neutrale in quanto ci sembra innegabile la maggior profondità filosofica in questa seconda concezione e per converso altrettanto innegabile il progressivo isterilirsi di alcune delle ricerche su linee più tradizionali. In altre parole ci sembra che la linea più vitale sia oggi quella categoriale ma che da questa prospettiva sia necessario prendere in considerazione gli sviluppi della ricerca logica e non solo logica di questo secolo isolandone gli elementi rilevanti e portandoli avanti. Ciò in quanto riteniamo che in questa nuova prospettiva possano acquistare significato più profondo fatti e problemi che nella prospettiva tradizionale risultano irrilevanti o filosoficamente non pertinenti. Un esempio di quanto intendiamo si ha considerando il diverso peso filosofico che le ricerche di teoria dei modelli sulla linea di Robinson hanno acquisito dopo che per più anni, implicitamente o meno, si era affermato, sullo sfondo di una concezione tradizionale dei fondamenti, che esse erano matematicamente interessanti ma filosoficamente poco significative. Lavori recenti di Kock e Reyes- che si muovòno lungo le linee del programma di Lawvere- ci sembra mostrino ampiamente come in questo nuovo contesto le concezioni di Robinson acquistino una portata che i tradizionali cultori dei fondamenti gli avevano sempre negato. L'elemento nuovo, irrinunciabile, ci sembra il deciso abbandono dell'idea di fondazioné come giustificazione della correttezza, per quella ben più feconda di fondazione come indagine e individuazione delle idee fondamentali. In sé presa, quest'affermazione è forse generica, ma alla luce di quanto detto sopra ha un significato preciso. Per troppo tempo, secondo una concezione che in ultima istanza è quella aristotelica, per fondamentale si è concepita ogni idea in base alla quale si possono definire le altre idee specifiche di un campo di indagine. www.scribd.com/Baruhk La logica nel ventesimo secolo (II) Non importa se poi, come fa ad esempio Kreisel, si distingue ulteriormente fra organizzazione e fondazione vedendo quest'ultima incentrata sulla validità piuttosto che sulla efficienza, come invece è l'organizzazione. La distinzione al massimo non fa che accentuare la separazione fra pratica concreta e analisi fondazionale: in ultima istanza non si fa che ridurre l'analisi dei fondamenti, ci si permetta l'espressione, ad una sorta di coperta di Linus per matematici. Ancora una volta questa prospettiva ha un netto sapore idealistico. Non necessariamente infatti un'idea in termini della quale possiarr,o definirne altre individua un aspetto della realtà più profondo: tale idea ha certamente una priorità nell'esposizione, o al massimo nella conoscenza, ma, a meno di ritenere che l'importante sia solo il modo con cui conosciamo piuttosto che quello che conosciamo, non può essere assunta ipso facto come più fondamentale delle altre. Per fare un esempio: una struttura algebrica si può vedere come un particolare tipo di insieme, ma questo non significa che il concetto di struttura sia meno fondamentale di quello di insieme, tanto è vero che in un contesto categoriale possiamo studiare le seconde senza necessariamente presuppone i primi. All'opposto, si potrebbero addirittura concepire gli insiemi come strutture degeneri, invertendo l'ordine di priorità. Se pure in modo generico, possiamo dire che le idee fondamentali sono quelle che riflettono gli aspetti ir1varianti, le strutture ricorrenti del maggior numero di campi possibile: in questo senso non si viene più a creare in linea di principio quella frattura fra fondazione e organizzazione da cui sopra siamo partiti e l'individuazione delle idee fondamentali non è indifferente alla pratica matematica e alla sua organizzazione ma anzi ha costanti rapporti con essa. Questo ha un altro risvolto che è importante sottolineare e a cui sopra ci siamo implicitamente riferiti: l'ammissione di una pluralità delle idee fondamentali. In fin dei conti il mondo non l'abbiamo fatto noi e se per capirlo occorrono idee, logiche, diverse, non è colpa nostra. Solo se concepiamo idee e logica come frutti arbitrari dell'intelletto umano abbiamo un dovere di uniformità riduzionistica. Ciò non toglie naturalmente che lo sviluppo scien-tifico sia in larga misura motivato, come sopra si diceva, dal desiderio di ricomporre un'unità risolvendo le contraddizioni che i diversi concetti pongono; ma questo non deve significare in nessun modo una artificiosa e aprioristica riduzione ad un'unica base. Abbiamo parlato di pluralità delle logiche. Ci sembra chiaro da quanto detto sopra che uno dei risultati più significativi dell'indagine di questi anni stia proprio nella giustificazione non aprioristica di questa pluralità di logiche, adeguate di volta in volta alle specifiche « condizioni ambientali » nelle quali vanno applicate. L'affermarsi delle logiche intensionali, con la loro intrinseca flessibilità ad adattarsi a « stati di conoscenza » differenti; lo sviluppo di logiche « empiriche » come loro specificazione che sfrutta sostanzialmente la mediazione della netta contrapposizione Vero /Falso; la stessa non arbitrarietà della logica da www.scribd.com/Baruhk La logica nel ventesimo secolo (II) applicare nello studio di teorie matematiche messa in luce dall'analisi categoriale, tutti questi fatti rendono altamente plausibile ritenere che sia del tutto gratuito o comunque non giustificato voler imporre a priori una rigida schematizzazione logica unica e valida per tutti i casi. Non si tratta, si badi, di dover sostituire una logica ad un'altra, imponendo ad esempio una scelta fra logica classica e logica intuizionista che verrebbe in qualche modo a risolvere a favore di quest'ultima una disputa sorta come abbiamo visto agli inizi del secolo. I risultati sulle interpretazioni nei topoi potrebbero certo far propendere per questa soluzione assegnando alla logica intuizionista la palma della vittoria nella annosa vertenza e nel contempo quell'alone di assolutezza connaturato alla logica classica. Ma credo siano sufficienti....:._ tra gli altri - i risultati relativi alla quantum logic con l'individuazione di « reali » sistemi logici inconfrontabili con la logica intuizionista per far comprendere che la questione è molto più complessa di quanto sembri, e non consente comunque in nessun modo di passare per così dire da assoluto a assoluto. Quello che qui viene messo in forse è proprio tutto il discorso di base relativo alla logica, che la considera del tutto a priori, sganciata dall'esperienza e fissata una volta per tutte. Già i risultati che abbiamo citato sembrerebbero infatti portare come conseguenza che la « realtà » in qualche modo vincola e condiziona la logica, la quale viene così ad assumere una dimensione « empirica » per l'innanzi del tutto impensabile e sdegnosamente rifiutata da tutta una tradizione filosofica. Questo naturalmente pone un problema filosofico di notevole rilevanza- che non possiamo certo analizzare in questa sede - che è quello dei rapporti fra logiche specifiche e linguaggio naturale. Un punto comunque è a nostro parere irrinunciabile: il deciso rigetto di ogni tentativo di subordinare la logica al linguaggio naturale, e ancor meno di usare l'aderenza a quest'ultimo come criterio per la giustificazione della logica. La « scelta » della logica dipende dal tipo di pratica in cui si è impegnati e quindi sostanzialmente dal tipo di oggetti che si studiano. Siamo ritornati al discorso sulla pratica, cui più volte, nel corso di queste pagine, ci siamo richiamati. Ci sembra giusto concludere èon alcune considerazioni a questo riguardo. Come detto all'inizio, una pratica è strettamente legata alle condizioni, anche politiche e sociali, in cui si sviluppa. Può sembrare quindi che il voler restringere sempre di più l'indagine fondazionale- e più in generale l'indagine logica - alle varie pratiche teoriche costituisca una sorta di accettazione dello status quo, una rinuncia a ogni tentativo di analisi critica. Almeno sociologicamente questo può essere in parte vero. Troppi appelli alla pratica mascherano infatti un sostanziale conservatorismo. Nel caso della logica, che si situa tradizionalmente al confine tra filosofia e matematica, questo appello ha avuto spesso infatti un significato di rifiuto: l'indagine sui fondamenti veniva rigett~ta come irrilevante per la pratica, come speculativa, tanto dai filosofi quanto www.scribd.com/Baruhk La logica nel ventesimo secolo (II) dai matematici. Ma la pratica non è solo conservazione: all'interno di essa, si pensi a quanto detto sopra sulla matematica, sorgono contraddizioni, tensioni, che spingono a nuove analisi; il compito del logico è proprio quello di rendere atto di questo fatto. In altri termini, all'interno della pratica scientifica specifica esiste una tensione tra aderenza ai vecchi schemi ed inquadramento in nuove prospettive. Questo provoca uno scarto di tempi, così che spesso la « buona » pratica del futuro è la pura ideologia del presente. Ci sembra che questo ruolo ideologico vada accettato, in quanto esso solo permette un possibile superamento, almeno se non si concepisce il mondo come rigidamente determinato. L'unico problema è di far sì che questo atteggiamento ideologico non risulti puramente difensivo e in ultima analisi mistificante; l'importante, ci sembra, è di mantenere la tensione fra la pratica reale, presente, la sua critica e le prospettive nuove. Non esiste ricetta per trovare un giusto equilibrio e solo il dibattito continuo, libero e intellettualmente onesto può garantirlo. Perché queste condizioni si realizzino materialmente occorre d'altra parte un radicale cambiamento dell'organizzazione del lavoro scientifico, in particolare della scuola, ma più in generale della comunità sociale e politica: così che, in ultima istanza, la critica della scienza, pur senza annullarsi in (e confondersi con) essa, si innesta certamente e positivamente nella critica della società.! I Anche per questo, come per il capitolo v del volume ottavo, mi sono stati preziosi frequenti contatti e discussioni con amici e colleghi. Voglio qui esprimere la mia profonda riconoscenza al prof. Silvio Bozzi per la sua continua ed amichevole assistenza, anche morale. Per i loro contributi ringrazio anche i dottori Edoardo Ballo, Ermanno Bencivenga, Claudio Pizzi. Il prof. Gian Carlo Meloni ha letto con pun- tuale impegno la parte relativa alle categorie dando preziosi suggerimenti: anche a lui il mio ringraziamento, che estendo alla prof. Maria Luisa Dalla Chiara e al prof. Gabriele Lolli che hanno letto tutto il manoscritto e sono stati a loro ~olta prodighi di consigli e suggerimenti. Resta inteso ovviamente che solo mia è la responsabilità di quanto contenuto nelle pagine precedenti. www.scribd.com/Baruhk CAPITOLO QUARTO Filosofta della scienza e storia della scienza nella cultura di lingua inglese DI GIULIO GIORELLO I • PREMESSA. REVISIONE DEL FALSIFICAZIONISMO «I pesci si muovono perfettamente nell'acqua, ma dobbiamo pretendere che conoscano le leggi dell'idrodinamica? » chiede polemicamente Imre Lakatos, uno degli autori di cui ci occuperemo nel presente capitolo; e, fuori di metafora, nota il grande biologo inglese P.B. Medawar che la metodologia, in ultima analisi «essa stessa una teoria sulla condotta dell'indagine scientifica», dovrebbe certo derivare dal tentativo di scoprire « che cosa facciano esattamente gli scienziati o che cosa sarebbe utile facessero», ma «sfortunatamente questa onesta ambizione presenta una quantità di rischi »l Le opinioni degli scienziati sulle loro ricerche paiono infatti « così varie da adattarsi a quasi ogni ipotesi metodologica che si sia deciso di formulare » e, viceversa, ai ricercatori impegnati la filosofia della scienza semora troppo spesso « eterea », estranea ai loro interessi e alle loro motivazioni, degna quindi di esasperato disprezzo. Una frattura insanabile? Niente affatto, risponde ancora Medawar, scienziato come pochi altri sensibile a questioni stricto sensu metodologiche. Attento in particolare ai dibattiti della cultura filosofico-scientifica di lingua inglese, Medawar ha in più occasioni l sottolineato come la riflessione sulla scienza successiva · alla seconda guerra mondiale abbia da una parte continuato la tradizione dei grandi dibattiti epistemologici dei primi trent'anni del secolo, utilizzando proficuamente le tecniche più raffinate dell'analisi logico-linguistica e dall'altra abbia guardato con sempre maggior interesse alla dinamica delle teorie, al mutamento delle categorie scientifiche, alle grandi rivoluzioni intellettuali, scorgendo nella storia il banco di prova delle metodologie rivali: almeno in prospettiva dunque non rottura, ma convergenza degli interessi degli epistemologi con le I In particolare in The art tif the soluble (lett. L'arte del risolubile, I967) e in Induction and intuition in scientijìc thought (Induzione e intuizione nel pensiero scientifico, I 969), entrambi ben noti al pubblico italiano (le traduzioni italiane sono apparse rispettivamente nel I968 e nel 197I, la prima col titolo L'immaginazione scientifica, tratto da uno dei saggi che compaiono nel volume del I967). Sarà bene ricordare che Medawar si è per più versi accostato al falsificazionismo popperiano. 2.74 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese «motivazioni degli scienziati». Con Medawar concorderanno, a parer nostro, non pochi lettori della presente opera che hanno via via avuto modo di ritrovare, al di là dell'apparente separatezza delle diverse «aree di lavoro», profondi e inscindibili nessi tra riflessione filosofica e pensiero scientifico, tra considerazioni metodologiche e pratica della ricerca, tra atteggiamenti epistemologici e specifiche conquiste nei vari settori dell'impresa scientifica. In particolare, proprio chi ha abbandonato l'immagine stereotipa del lavoro scientifico come semplice raccolta e sistemazione di dati, difficile e ardua quanto si vuole, ma sempre lontana da quell'impegno intellettuale che invece caratterizzerebbe la riflessione filosofica e quindi priva di ogni autentica dimensione culturale, potrà cogliere la rilevanza dei problemi che pone quella che nel I 840 William Whewell battezzava come «scoperta scientifica». Era questa l'area in cui «l'attività normale (e non [quella]) eccezionale» consisteva nel concepire «ipotesi», audaci tentativi di spiegazione dei fenomeni che « se non riescono a prender corpo, dobbiamo a prezzo di grande fatica cercare di scalzare », sviluppando le indagini «nel modo più analitico e rigoroso». Lungi dal ridurre la scoperta a un'asettica raccolta di dati grezzi, il filosofo che mirava a rinnovare il Novum organon delle scienze empiriche l realizzava dunque che il riconoscimento dell'interesse centrale per la stessa ricerca di tale problematica dipendeva dalla consapevolezza che « apprendere dalla natura » non coincideva con la ricezione passiva del materiale sensoriale. Una maschera di teoria copre t'intero volto della natura. Come per altri grandi filosofi e scienziati, la teoria è, via via, « uno schizzo », « un disegno », « una trama », « una rete » che ci rende intelligibili i fenomeni. Se abbiamo scelto le parole di Whewell2 tra i numerosissimi riferimenti possibili che offriva la tradizione culturale anglosassone, è stato soprattutto per il fatto che questi ha appassionatamente insistito sulla necessità di comprendere a fondo « i processi del pensiero scientifico » come condizione preliminare al progresso della ricerca, senza però pretendere di ridurre tali processi a mera «tecnica della scoperta» (Medawar), ma prospettandoli in un quadro estremamente critico e articolato in cui la ricerca storica assumeva un ruolo determinante. Prescindendo dalle particolari soluzioni offerte da Whewell alle questioni epistemologiche via via affrontate, restano innegabilmente, un secolo dopo, il fascino e la modernità di un approccio del genere. Per noi questa è anche la via più agevole per introdurre ai dibattiti degli anni sessanta circa « logica della scoperta» e /o « psicologia della ricerca», cui è dedicato il presente capitolo, senza perderne di vista le più profonde «radici» culturali. Questo riferimento ci permette immediatamente di chiarire i limiti del presente capitolo, estremamente arduo, sia per il lettore che per l'autore, alla luce degli I Si allude al Not•um organon renovatum di Whewell (r859). 2 Su questi aspetti dell'indagine whewel- liana e sulla loro ripresa nella riflessione epistemologica degli anni sessanta torneremo nelle considerazioni conclusive del paragrafo YII. 275 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese amplissimi sviluppi - e in direzioni svariatissime - della riflessione epistemologica di lingua inglese. Una rassegna esaustiva della letteratura specifica non è a nostro avviso minimamente possibile in queste pagine: tanto più nella convinzione, che sottende tutta la presente opera, che la riflessione filosofica sulla scienza non possa fare a meno della ricerca storica.! Abbandonata dunque ogni pretesa di completezza e consapevoli di compiere una selezione che a molti può parere arbitraria, ci siamo limitati a enucleare alcuni temi circa « i processi del pensiero scientifico » che Whewell riteneva così rilevanti restringendoci ad alcuni autori per più aspetti dissidenti rispetto alla ·tradizione dell'empirismo logico, per la quale rimandiamo invece ad altri capitoli di quest'opera. Ciò premesso, ci pare opportuno accennare brevemente all'organizzazione del capitolo. A una breve revisione critica del falsificazionismo popperiano dedicheremo le pagine conclusive di questo paragrafo (r); seguirà un paragrafo (n) dedicato alla disamina della « tesi di Duhem-Quine >> e al problema delle contrapposte caratterizzazioni della scienza pura e della scienza applicata (o, se si vuole, della « scoperta scientifica » e della « innovazione tecnologica »); nel paragrafo successivo (nr) si confronterà invece la « logica della scoperta matematica » con quella delle scienze empiriche; si passerà quindi (paragrafo rv) alla considerazione del problema del « mutamento concettuale » e delle « rivoluzioni scientifiche » per pervenire (paragrafo v) all'esposizione della « metodologia dei programmi di ricerca» che ambisce a far proprie alcune istanze di classici come Whewell e a costituire una « logica della scoperta » più raffinata del falsificazionismo popperiano da noi esposto nel capitolo xrv del volume settimo; seguirà una disamina della cosiddetta « incommensurabilità » tra teorie, programmi, paradigmi, ecc. rivali (paragrafo vr) e si concluderà con alcuni rilievi critici circa le tesi epistemologiche via via esposte (paragrafo vn). L'esposizione per temi ci imporrà di spezzare in differenti paragrafi l'esposizione del pensiero di un dato autore e, viceversa, di discutere insieme nel medesimo paragrafo idee di autori diversi; tuttavia per ragioni di chiarezza e di facilità di lettura cercheremo il più possibile di associare, anche a prezzo di qualche schematismo, i temi dei vari paragrafi a particolari autori: più precisamente, gli accenni conclusivi di questo paragrafo I faranno riferimento, oltre che a Popper, a Joseph Agassi e John Watkins; la tematica del paragrafo n verrà delineata soprattutto in riferimento alle tesi di A gassi; quella dei paragrafi m e v alle concezioni di Imre Lakatos; quella del paragrafo IV alle prospettive offerte da Norwood Russell Hanson, Thomas S. Kuhn, Stephen E. Toulmin; quella del paragrafo VI a idee di Paul K. Feyerabend e ancora di Kuhn; 2 diversi riferimenti, spesso per meglio chiarire tesi e argomentazioni critiche saranno infine dati nel paragrafo conclusivo. Infine, I E viceversa. Per dirla con Lakatos: « Filosofia della scienza senza storia della scienza è vuota; storia della scienza senza filosofia della scienza è cieca. » 2 Per i contributi di tutti questi autori si rimanda alla bibliografia del capitolo fornita alla fine di questo volume. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese pur omettendo molti riferimenti per ragioni di spazio, non mancheremo di sottolineare quello che ci pare uno dei fatti più rilevanti della riflessione epistemologica attuale, la proficua interazione tra filosofia della scienza e storia della scienza, che fornisce un filo rosso per ritrovare un serio terreno di confronto tra prospettive epistemologiche rivali, al di là di troppo facili semplificazioni e schematismi. Brevissimi ora i cenni ad alcuni nodi concettuali del falsificazionismo, termine di confronto critico di pressoché tutte le concezioni cui faremo riferimento nei paragrafi successivi. Perché meglio risaltino i tratti specifici e distintivi delle posizioni di Agassi, Kuhn, Lakatos, Feyerabend, ecc., questa breve disamina mirerà a mettere in luce come la pietra angolare del razionalismo critico popperiano, la falsificazione, per essere operante, richieda « decisioni metodologiche ».1 a) Il filosofo della scienza- come il filosofo dell'arte- nel vagliare le possibilità di « apprendere dalla natura » - rispettivamente « imitare la natura » - sa che ogni termine « universale », come insegna la Logica popperiana, può venir utilizzato solo adottando opportune condizioni. Scrive per esempio Ernst Gombrich: 2 « Cosa fa l'artista quando rappresenta una montagna? Copia una particolare montagna, cioè un elemento singolo della classe, come fa il topografo, oppure, più nobilmente, copia lo schema universale, l'idea di una montagna? Sappiamo che questo è un dilemma fittizio. La definizione della " montagna" dipende da noi. Ci è lecito vedere una montagna nel cumulo fatto da una talpa o chiedere al nostro giardiniere di metterne una nel giardino » [corsivo nostro]. L'idea che la realtà contenga apparenze del genere « montagna » e che, osservando una montagna dopo l'altra, lentamente si possa apprendere a generalizzare è « un'idea fallace [cui] si sono ribellate tanto la filosofia che la psicologia » (Gombrich). Ma i resoconti delle osservazioni (cioè gli asserti della« base empirica») di necessità utilizzano termini univer·sali: non c'è dunque denJarcazione «naturale» fra proposizioni osservative e proposizioni teoriche. Solo una decisione metodologica, che «non può basarsi esclusivamente su ragioni psicologiche» (Lakatos), permette di determinare quali asserti vanno considerati « osservativi » e possono costituire i «falsificatori potenziali» di una teoria. b) Nella classe degli asserti « osservativi » (che in genere si assumono essere asserti spazio-temporalmente singolari) vanno poi distinti quelli per cui esiste in quel tempo, per dirla con Popper, «una tecnica opportuna» tale che «chiunque l'abbia imparata» può decidere che l'asserto è« accettabile». In questo modo« il falsificazionista [popperiano] usa le teorie più riuscite come prolungamento dei nostri sensi» (Lakatos); I Cfr. del resto quella componente metodologica della falsificazione da noi tratteggiata nel paragrafo IV del capitolo xrv del volume settimo. 2 In Art and illusion (Arte e illusione, I 900) Gombrich, come avremo modo di sottolineare anche nel seguito, ha più volte sottolineato la rilevanza della critica popperiana all'essenzialismo anche per imprese intellettuali (come la filosofia dell'arte) diversa da quella scientifica. A sua volta la riflessione di questo autore è punto di riferimento e di stimolo per considerazioni di taglio epistemologico (come mostrano per esempio, seppur in prospettive diverse, tesi di Feyerabend e di Kuhn). www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese è però pienamente consapevole della fallibilità delle sue decisioni l e del rischio che si assume, dato che, come lo stesso Popper ha chiarito a più riprese, nelle « tecniche sperimentali » seguite dalla comunità scientifica sono sempre coinvolte delle teorie fallibili, «alla luce delle quali si interpretano i fatti». c) Prima facie le teorie probabi!istiche non sono inconfutabili? Non vanno quindi intese come « metafisiche »?Nella Logica del '34 Popper adotta un punto di vista del genere, là dove scrive che « stime probabilistiche non sono falsificabili e, naturalmente, non sono nemmeno verificabili »: orbene, come osserva Richard Bevan Braithwaite nel noto Scientiftc explanation (La spiegazione scientifica, 195 3), nell'epoca in cui « generalizzazioni statistiche· ricorrevano soltanto nelle scienze sociali e biologiche e nelle teorie fisiche, come la teoria cinetica dei gas, nelle quali non venivano escluse spiegazioni non statistiche, era ragionevole per un filosofo della scienza considerare [asserti del genere] come se fossero accettabili faute de mieux » soltanto fino a che esse non potessero venir rimpiazzate da asserti differenti, che sarebbero stati scoperti in stadi più avanzati delle discipline in questione, quando cioè scienze biologiche e sociali avessero raggiunto maggior articolazione e la fisica avesse posseduto conoscenze più particolareggiate delle singole molecole e dei singoli atomi. Ma « oggi, che le più avanzate tra le scienze, nelle loro teorie più raffinate e di più vasta portata, postulano una forma di spiegazione irredu,,dbilmente statistica », non occorre « prendere in considerazione quali modifiche siano necessarie nella spiegazione che diamo dei sistemi scientifici, come gerarchie deduttive in cui generalizzazioni empiriche sono deducibili da ipotesi di livello superiore»? Non è urgente prospettare come« scientifica» (nel senso della ricostruzione razionale) l'utilizzazione di asserti probabilistici che rientra nella pratica quotidiana dei ricercatori scientifici? Lo stesso Popper nella edizione inglese della Logica propone « di adottare regole metodo logiche che [...] rendano falsificabili le ipotesi probabilistiche »; 2 nella fattispecie, una regola del genere, come ha indicato da parte sua lo stesso Braithwaite andrà intesa come « regola di rifiuto» che rende l'evidenza interpretata statisticamente «incompatibile» con la teoria probabilistica.a d) Ma le decisioni a) b) c), se sono necessarie per la falsificazione di una teoria, non sono in generale sufficienti. Esse infatti, come ha particolarmente insistito Lakatos, non bastano a mettere il ricercatore in grado di « falsificare » una teoria che non può spiegare alcunché di « osservaI Con le decisioni di tipo a) il falsificazionista individua quali teorie sono falsificabili (cioè « scientifiche »); le decisioni di tipo b)_ sono condizioni necessarie per. effettive falsificazioni. 2. Cfr. del resto le pp. soz-so3 del capitolo XIV del volume settimo. 3 Braithwaite ha reinterpretato in questa chiave falsificazionista il «sottile lavoro dei matematici statistici » circa le « regole di rifiuto degli asserti probabilistici », in particolare i metodi proposti negli anni trenta da ]. Neyman e E. S. Pearson, come mostra il cap. VI di La spiescientifica. Varrà la pena di notare che Braithwaite si discosta però da un punto di vista strettamente popperiano in quanto l'oggetto di tale capitolo è «il significato delle asserzioni probabilistiche entro un sistema scientifico » [corsivo nostro] e, più in generale in tutta l'opera, il criterio popperiano della demarcazione tra scienza e metafisica (la falsificabilità) è reinterpretato come criterio di demarcazione tra asserti dotati di significato e asserti che ne sono privi. .~azione www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese bile » senza una clausola ceteris paribus, una clausola che cioè ci garantisca che nessuna causa pertinente agli eventi presi in considerazione (nel controllo della teoria) è all'opera ·in qualche regione- magari remota- dell'universo. Il falsificazionistà popperiano risolve allora il problema prendendo un'ulteriore decisione: quando si controlla una teoria insieme a una clausola ceteris paribus e si ritiene che tale congiunzione sia stata confutata, si deve decidere se considerare tale confutazione una confutazione della teoria in quanto tale. Per fare un esempio: il perielio « anomalo » di Mercurio può fornire una confutazione di N 3 , congiunzione della teoria di Newton, delle condizioni iniziali e di una clausola ceteris paribus; dopo un esame «severo» delle condizioni iniziali si può decidere di considerare « non problematiche » le condizioni iniziali e promuovere « l'anomalia» a confutazione di Nz , congiunzione della teoria di Newton e della clausola ceteris paribus; la decisione «cruciale» concerne se relegare nella «conoscenza di sfondo non problematica » anche la clausola ceteris paribus. Solo una decisione del genere permette di « trasformare un'anomalia in un esempio cruciale falsificante» (Lakatos), in quanto gli asserti che descrivono il perielio di Mercurio da « base empirica » di N2 diventano « base empirica )) di N 1 , cioè della sola teoria di Newton. Orbene, come si può « controllare severamente )) una clausola ceteris paribus? Assumendo che ci siano altri fattori che influenzano il corso degli eventi, specificando tali fattori e controllando infine tali assunzioni specifiche. Ma quando porre un termine a tale controllo? Quando ritenere sufficiente il numero delle assunzioni specifiche confutate e abbandonare così il punto di vista per cui, per dirla con Popper, « le discrepanze che si afferma esistano tra risultati sperimentali e teoria sono solo apparenti e svaniranno col progredire della nostra comprensione )) di cause nascoste? Il falsificazionista riconosce apertamente« i rischi)) di un passo del genere; d'altra parte, ogni teoria, a maggior ragione una teoria di grande prestigio come la teoria di Newton, « deve essere fatta per offrire il collo alla mannaia)) e la decisione spregiudicata circa la clausola ceteris paribus non può venir rimandata all'infinito, anche a rischio di «liquidare)) [kill] una« buona)) teoria! e) Infine, perché non compiere un ulteriore passo, perché non decidere che una teoria, che anche le quattro decisioni a) b) c) d) non sono in grado di tramutare in una «falsificabile», sia falsificata se risulta in conflitto con un'altra teoria «scientifica)) (nel senso di Popper) sulla base di alcune decisioni sopra specificate ed è anche sufficientemente corroborata? Questa proposta, avanzata da J.O. Wisdom l negli anni sessanta, permette di considerare « eliminabili )) e quindi eliminare di fatto persino quelle teorie che nella Logica del '34 apparivano « metafisiche )) per la loro forma linguistica, come tutte le asserzioni strettamente esistenziali. Come esemplificava già a suo tempo Poincaré, un enunciato come « esiste nell'universo qualcosa che resta costante )) è un tipico asserto non controllabile e I Cfr. la bibliografia del capitolo riportata in fondo a questo volume. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese quindi metafisica, ma alcune opportune specificazioni forniscono le controllabili « leggi di conservazione » della fisica; più in generale asserti, che non ammettono asserti spazio-temporalmente singolari come « falsificatori potenziali », possono venir opportunamente riformulati come asserti falsificabili, indicando cosl il cammino della ricerca. Come ha esemplificato John Watkins, «l'aurora» della chimica moderna non va forse cercata in quell'alchimia che moveva dall'intuizione per cui « esiste una sostanza che può trasformare tutti i metalli in oro»? La discussione delle decisioni di tipo e) ci ha condotto cosl ad accennare alla «metafisica influente», per usare una fortunata locuzione di Watkins, che, lungi dal costituire un guazzabuglio di insensatezze, spiana invece la via ai più significativi sviluppi del pensiero scientifico. Facendo proprie le esigenze di un Burtt l e di un Koyré di ritrovare le « radici » della scienza moderna, in particolare della grande sintesi newtoniana « nella metafisica », i popperiani 2 pervengono cosl a chiedersi se in generale « la metafisica sia essa stessa sottoponibile a critica » e a rispondere « affermativamente » cercando di stabilire « sotto quali condizioni dottrine metafisiche costituiscano quadri [frameworks] sufficientemente ampi in cui collocare eventuali teorie scientifiche » (Agassi; corsivo nostro). J oseph Agassi sviluppa tale punto di vista fino ad affermare che « un'idea viene a far parte della corrente fondamentale della scienza proprio perché trova la sua giusta collocazione in un quadro concettuale metafisica ». Quei processi che costituiscono la whewelliana « scoperta scientifica » non si comprendono dunque se non si tien conto dei « catalizzatori » forniti dalle concezioni metafisiche. Rieccoci dunque alle relazioni tra riflessione epistemologica e storia della scienza. Ci pare utile ricordare che gli epistemologi esaminati in questo capitolo vengono a confrontarsi non solo con la filosofia della scienza di taglio neoempirista o con la stessa filosofia analitica, ma anche con quella tradizione a un tempo storica e filosofica che mira a riproporre, in contesti intellettuali diversi, il grandioso progetto baconiano di una storia dei rapporti fra l'uomo e la natura e in cui rientra un Whewell come un Condorcet e un Comte e di cui sono epigoni, pur nella prospettiva del nouveau positivisme della fine dell'Ottocento, anche il Mach della Meccanica o il Duhem storico della cosmologia. E in un quadro culturale cosl ampio, in cui il termine « storia della scienza » designa una gamma di studi che può andare dai progetti di un Comte o di un Whewell alla « analisi concettuale » di un Koyré, dalla ricerca delle « radici metafisiche » care a Burtt come a Popper alla storia di quelle istituzioni scientifiche che condizionano « il gioco della scienza », dalla riflessione dello scienziato che ripercorre il cammino della propria disciplina al tentativo dello storico generale di inquadrare I . È del I 924 il progetto di E. A. Burtt di riscoprire, in contrapposizione alle usuali presentazioni, « i fondamenti metafisici della scienza . moderna», come dice il titolo stesso della sua opera più citata dagli epistemologi anglosassoni, The metophysical foundations of modern science. tolo 2 Cfr. anche la XIV del volume z8o www.scribd.com/Baruhk nota I alla p. 467 del càpisettimo. Filosofia della scienza e storia della scienza nella cultura di lingua inglese l'impresa scientifica nel contesto di eventi tecnologici, economici, politici, ecc., che va valutato anche il tentativo degli epistemologi che, concordando idealmente con un ricercatore come Medawar sui rischi di una scissione tra ricerca scientifica e riflessione metodologica nel presente, scorgono un pericolo altrettanto grave in una scissione tra considerazioni filosofia della scienza e ricerca storica per quanto riguarda il passato. Per esempio, nel polemico Towards an historiograpf?y oj science (Per una storiografta della scienza, 1963) Agassi non risparmiava né i classici della storia della scienza (« la storia più razionale e affascinante [... ] ma oggi [1963] in uno stato desolante») né gli studi contemporanei(« pseudoscolastici e in larga misura illeggibili») e, a prescindere dai riconoscimenti a Burtt e Koyré, imputava tale povertà intellettuale all'atteggiamento di sfiducia verso una storiografia metodica. Quella di Agassi era solo reazione verso una storiografia che, delusa dall'eccessivo schematismo di certe ricostruzioni « razionali», dava esclusivo rilievo all'intelligenza dello studioso e alla sua capacità di elaborazione personale dei dati storici? Senza dubbio, ma non solo. A sua volta schematico, ma con notevole incisività, Agassi giustificava però la delusione verso programmi storiografici ispirati alle metodologie dell'induttivismo (progetto questo risalente per l'autore almeno a Bacone) e del convenzionalismo (sufficientemente articolato già nell'opera di Pierre Duhem) c prospettava un programma storiografico alternativo, « più aderente alle reali esigenze dello storico », basato sul falsificazionismo popperiano, anche se convenientemente « riveduto e corretto » come avremo modo di precisare nel paragrafo successivo. Di qui l'interesse che rivestono prospettive del genere per la stessa disamina del dibattito epistemologico che è al centro di questo capitolo; di qui, in particolare, la rilevanza che assumono le decisioni « rischiose» a)-e) del falsificazionismo, che vanno vagliate alla luce non solo della pratica ma anche della storia della ricerca scientifica. È per questa ragione che la discussione di questi e altri spunti del falsificazionismo nei paragrafi successivi, pur senza prendere direttamente in esame, salvo qualche eccezione, l'immensa letteratura di lingua inglese nel campo della storia della scienza, riterrà essenziale riferirsi anche alle implicazioni a livello storiol,raftco delle varie metodologie.l II· IL FALSIFICAZIONISMO E SCOPER'I'A SCIEN'I'IFICA E LA 'l'ESI DI DUHEM-QUINE. INNOVAZIONE 'tECNOLOGICA Dopo aver rivisto i nodi del falsificazionismo e aver accennato agli sviluppi delle tematiche connesse riprendiamo ora alcuni aspetti della popperiana I Per quanto riguarda: storia della scienza e storia della tecnologia nel paragrafo II; storia della matematica nel paragrafo III; l'influenza delle cosmologie e delle visioni del mondo sulle rivoluzioni scientifiche nel paragrafo rv; il ruolo della metafisica nel paragrafo v; la frattura tra sostenitori di concezioni diverse nel paragrafo VI; la possibilità di una teoria storica della conferma nel paragrafo VII. z81 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese « corroborazione delle teorie ». Delle formule popperiane per « il grado di .corroborazione » che in un senso del tutto particolare « misurano » quanto le teorie resistono a controlli « severi » si è parlato nel paragrafo v del capitolo XIV del volume settimo; qui vogliamo ricordare che il controllo di una teoria per Popper non è « severo » se ne viene predetto il medesimo esito sia dalla teoria insieme con ia « conoscenza di sfondo », sia dalla sola conoscenza di sfondo. A detta di Popper, « chi è impegnato nella proficua discussione critica di qualche problema, fa spesso affidamento, sia pure inconsapevolmente, su due cose: l'accettazione da parte di tutti del comune intento di raggiungere la verità, o perlomeno di avvicinarvisi, e una comune conoscenza di sfondo [background knowledge], considerevolmente ampia». Sulla «approssimazione alla verità» (e sulla connessa idea di verisimilitudine di una teoria) torneremo tra poche pagine. Per la conoscenza di sfondo basterà qui ricordare che Popper vi include tutto quel che «accettiamo (anche se solo provvisoriamente) [... ] in via non problematica ». Tale fondamentale nozione in Popper resta però ambigua; come ha osservato John W orral, essa è stata introdotta « per almeno due scopi distinti »: infatti, 1) indica il complesso di tutti quegli assunti che non appartengono alla teoria sotto controllo e che pure sono necessari per dedurre conseguenze « controllabili» (per esempio condizioni iniziali e clausole ceteris paribus, cfr. paragrafo r); 2) contemporaneamente Popper se ne serve per eliminare « conferme» (o «corroborazioni») banali di una teoria, sostenendo che scarso è il merito di una teoria che si limiti a predire con successo qualcosa che fa già parte della conoscenza di sfondo. Scrive Popper in Congetture e confutazioni: « Un tratto caratteristico della situazione in cui si trova lo scienziato, è che la conoscenza di sfondo aumenta costantemente. Se ne eliminiamo alcune parti, altre, a queste strettamente legate, resteranno [... ]. L'esistenza di questa conoscenza di sfondo svolge un ruolo importante in uno degli argomenti che [...] sono favorevoli alla tesi secondo cui il carattere razionale ed empirico della scienza verrebbe meno se essa cessasse di progredire [... ]. Un serio controllo empirico è sempre un tentativo di trovare una confutazione, un esempio contrario. Nella ricerca di questo dobbiamo servirei della conoscenza di sfondo; cerchiamo sempre, infatti, di confutare per prime le previsioni più arrischiate, le "conseguenze" [... ]più improbabili (come già vide Peirce); il che significa che sempre ricerchiamo nei tipi di luoghi più probabili le specie più probabili di esempi contrari - più probabili nel senso che dovremmo aspettarci di trovarli alla luce della conoscenza di sfondo. Se una teoria regge a numerosi controlli del genere, allora, in seguito all'inserimento dei risultati di questi nella nostra conoscenza di sfondo, dopo un certo tempo possono non sussistere più dei luoghi in cui (alla luce della nuova conoscenza di sfondo) sia lecito attendersi il verificarsi, con un'elevata probabilità, di esempi contrari. Ma ciò significa che il grado di severità dei controlli 282 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese dimir;misce. Questa è anche la ragione per cui un controllo spesso ripetuto non sarà più considerato significativo e severo: c'è una specie di legge dei profitti decrescenti ottenibili da controlli ripetuti (contrariamente a quanto avviene per controlli che, alla luce della conoscenza di sfondo, sono di tipo nuovo e quindi possono ancora venir ritenuti significativi).» Questa lunga citazione bene enuclea, a nostro avviso, il carattere « storico» della popperiana concezione della « conferma ».1 Ma essa non è priva di difficoltà: al momento di controllare [test] una teoria, vengono impiegate certe teorie « interpretative » o « osservati-ve » (touchstone theories è l'indovinata espressione coniata da Imre Lakatos) in modo «non problematico »; il falsificazionista popperiano « divide il corpo della scienza in due, in quel che è problematico e in quel che non lo è» (Lakatos). Certo Popper ammette che, della conoscenza di sfondo, « pochi tratti appaiono assolutamente non problematici in tutti i contesti »: ogni elemento particolare «può venir messo in discussione in ogni momento, soprattutto se sospettiamo che la sua accettazione sia responsabile di qualche nostra difficoltà ». Ma « la maggior parte della vasta conoscenza di sfondo che usiamo costantemente in ogni discussione informale, resta necessariamente fuori discussione, per ragioni pratiche» [corsivo nostro]. Quest'ultima richiesta, in quanto « preliminare » al « non ripartire da zero » nella critica, per Popper si concilia tranquillamente con quell'atteggiamento « critico e razionale » che egli vuole alla base della sua filosofia; essa suona però alle orecchie dei critici «irrazionale e dogmatica» (Lakatos). Nell'eseguire un esperimento, infatti, « dipende solo da una nostra decisione metodologica quale teoria considerare come pietra di paragone e quale invece sottoposta al controllo; ed è questa decisione che determina il modello deduttivo in cui viene applicato il modus tollens: un " falsificatore potenziale " B di una teoria T1 può certo confutare T1 alla luce di una teoria interpretativa T2; ma lo stesso asserto B, considerato come un " falsificatore potenziale" di T2 , una volta ammessa T1 come pietra di paragone, confuta T2 » (Lakatos). Possiamo riformulare l'intera questione servendoci della terminologia introdotta nel paragrafo IV del capitolo XIV del volume settimo: se il falsificazionista adotta un modello monoteorico, considera la teoria come esplicativa e la sottomette al verdetto dei « fatti » (in caso di conflitto, la teoria verrà respinta) oppure considera la teoria come interpretativa e al suo verdetto sottomette i « fatti » (in caso di conflitto, i « fatti » verranno respinti come « patologie »); se irwece adotta un modello pluralistico, in cui più teorie sono in gioco, ha una gamma più ampia di mosse possibili. Ma con questo slittamento da un falsificazionismo « ingenuo » a uno maggiormente « sofisticato» sorge un « nuovo » problema metodologico: a quale teoria verrà applicato il modus tollens nel caso di una « confutazione »? Il verdetto dello sperimentale non darà indicazioni: si limiterà a indicare un'incompatibilità delle 1 La concezione « storica» della conferma verrà ripresa nel paragrafo vu. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese varie teorie (esplicative o interpretative che siano) che svolgono una qualche parte nel controllo. Questo« nuovo» problema altro non è che la questione sollevata dalla cosiddetta tesi di Duhem-Quine, in cui incappa il falsificazionista che abbandona come « troppo povero » (Lakatos) il modello monoteorico e opta per una soluzione pluralistica. Già nel 1894 1 e quindi con maggior respiro nella Théorie physique, criticando l'experimentum crucis, Duhem aveva concluso che «cercare di separare ciascuna delle ipotesi della fisica teorica dagli altri presupposti su cui tale scienza si fonda, allo scopo di sottoporla isolatamente al controllo dell'osservazione, è perseguire una chimera» in quanto la realizzazione e l'interpretazione di qualsiasi esperienza «richiedono l'adesione a un complesso di proposizioni teoriche>>: l'unico controllo sperimentale «consiste nel confrontare il sistema globale della teoria fisica con l'intero complesso delle leggi sperimentali». Da parte sua Quine, in Two Dogmas of empiricism (Due Dogmi dell'empirismo), citando il passo di Duhem qui riportato, ribadisce che « i nostri asserti sul mondo esterno vengono sottoposti al tribunale dell'esperienza sensibile non individualmente, ma solo come un insieme solidale ». Di più, « qualunque asserzione può essere considerata vera qualunque cosa succeda, se facciamo delle rettifiche sufficientemente drastiche in qualche altra parte del sistema [... ] analogamente, per converso, nessuna proposizione è immune, per le stesse ragioni, da correzioni. Infine, il « sistema » può coincidere con « la scienza nella sua globalità »: un'esperienza recalcitrante può venir accomodata modificando a piacere alcune fra le tante valutazioni alternative che sono comparse nei vari settori del sistema (ed è inclusa la possibilità di valutare la stessa esperienza recalcitrante in modo diverso). Al falsificazionista si può dunque obbiettare che basta un po' di immaginazione per salvare qualunque teoria dalla « confutazione » con qualche opportuno accomodamento nella conoscenza di sfondo in cui ,è inserita? In Quine l'argomento è rivolto esplicitamente solo contro «il dogma del riduzionismo [che] sopravvive nella convinzione che ciascuna proposizione, presa di per sé e isolata dalle altre, si possa confermare o infirmare », contro cioè uno di quei « dogmi dell'empirismo», da cui Popper ha invece preso accuratamente le distanze. Inoltre, pur senza addentrarci in una trattazione esauriente delle differenze che indubbiamente sussistono tra Duhem e Quine spesso sbrigativamente accomunati come sostenitori di una « concezione olistica della scienza » (come del resto sembra suggerire la stessa etichetta «tesi di Duhem-Quine »), sarà bene ricordare che, mentre per Duhem, se pur un esperimento da solo non può mai condannare una teoria isolata, una selezione razionale tra le teorie è ancora possibile 1 In un articolo dal titolo Quelques réf!exions au stifet de la physique expérimentale (Riflessioni a proposito della fisica sperimentale, pubbli<;ato nel lu- glio 1894 sulla « Revue cles questions scientifiques »), www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese impegnando « senso comune » e « accortezza » o addirittura un buon 1st1nto metafisica in grado di guidarci verso «un ordine sicuro, supremo »,1 per Quine, che si rifà alla tradizione pragmatistica di William James e di C.I. Lewis, si può solo concludere che « ciascun uomo ha una certa eredità scientifica oltre che una ininterrotta diga di stimoli sensoriali; e le considerazioni che lo guidano a piegare la sua eredità scientifica perché si adatti agli incessanti dettami dei sensi sono, se razionali, di natura pragmatica ». Sembra corretto 2 distinguere dunque due interpretazioni della «tesi di Duhem-Quine » (senza per altro attribuire rigidamente la prima al convenzionalista francese e la seconda al pragmatista americano): a) una interpretazione debole, che asserisce (solo) l'impossibilità di un successo sperimentale diretto contro un obiettivo teorico ben definito e la possibilità di concepire la scienza in un numero indefinito di modi differenti; b) un'interpretazione forte, che invece esclude qualsiasi regola di selezione razionale fra le alternative. Ciò premesso, la nostra domanda può venir riformulata in modo da dar luogo a due quesiti differenti: a) il falsificazionismo metodologico è compatibile con l'interpretazione debole della tesi di Duhem-Quine? b) è compatibile con la tesi forte? In questo paragrafo ci limiteremo alla prima domanda, mentre nel paragrafo v ritorneremo sull'intera questione. Anche così rispondere non è facile. Popper nel contrapporsi alla tradizione del convenzionalismo classico (di Poincaré e di Duhem in Francia, di Eddington in Inghilterra, di Hugo Dingler in Germania) e in particolare nel proporre il bando degli « stratagemmi convenzionalistici » non nega la tesi convenzionalistica secondo cui teorie e asserti fattuali possono sempre armonizzarsi con l'aiuto di ipotesi ausiliari; piuttosto richiama l'attenzione sull'esigenza, sentita in modi diversi sia da Poincaré che da Duhem, di tracciare una qualche linea di demarcazione tra accomodamenti scientifici e· pseudoscientifici, tra mutamenti teorici razionali e irrazionali. Di qui il riconnettersi di Popper a tutta quella tradizione intellettuale che tende a distinguere il recupero di una teoria apparentemente « confutata » mediante ipotesi ausiliari che soddisfano alcune condizioni ben definite (esplicitabili nell'ottica popperiana mediante i requisiti di accettabilità! e accettabilità2, cfr. oltre p. 319) dal salvataggio mediante ipotesi inammissibili (in quanto non soddisfacenti tali condizioni) o ipotesi ad hoc. Orbene la tesi di Duhem-Quine nell'interpretazione debole colpisce certo un falsificazionismo dogmatico che mira a una conclusiva refutazione in cui è ass~nte quella campoI È quest'ordine cui rimanda, nell'opera del 1906 e ancor più esplicitamente nella seconda edizione del 1914 (cfr. in particolare l'Appendice dal significativo titolo La physique du crqyant, La fisica del credente), la duhemiana «classificazione naturale delle scienze ». 2. In particolare L. Laudan, nel suo Grunbaum on « the Duhemian argument » ( Grunbaum e la «tesi di Duhem ») pubblicato nel 1965 in « Philosophy of science » (XXXÙ, pp. 2.95-2.99) ha osservato come Griinbaum nel trattare « la tesi di Duhem » faccia piuttosto riferimento a Quine, fraintendendo così gli argomenti del convenzionalista francese. La proposta di Laudan di distinguere attentamente le due versioni della « tesi di Duhem-Quine » è stata quindi ripresa da Imre Lakatos. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese nente metodologica che in Popper ha un ruolo così rilevante. 1 Ma questi ritiene di concludere che la critica duhemiana all' experimentum crucis neghi « la possibilità di esperimenti cruciali, [solo] perché pensa a essi come a verificazioni », ma non deponga affatto contro « la possibilità di esperimenti cruciali falsificanti». Asserzioni come quest'ultima e successive prese di posizione contro « il dogma olistico » in cui Popper nega che il convenzionalista francese abbia prodotto validi argomenti contro la falsificazione restano però, a nostro parere, vaghe e poco soddisfacenti. Per esemplificare riprendiamo il caso del paragrafo precedente, ave una teoria con le opportune condizioni iniziali e apposita clausola ceteris paribus appare in conflitto con un'esperienza recalcitrante. Il falsificazionista solo grazie a opportune « convenzioni >> riusciva a elevare l'anomalia al rango di esperimento cruciale falsificante. In questo modo realizzava, per dirla con Popper, « che (come avvertì Poincaré nel caso della meccanica di Newton) la teoria non è altro che un insieme di definizioni implicite o convenzioni sussistenti fino a che di nuovo compiamo qualche progresso e [che] confutandola, si ristabilisce incidentalmente il èontenuto empirico che aveva perduto ».2 Ciò direbbe poco, però, a un convenzionalista duhemiano. Duhem, come sottolinea Joseph A gassi, « non ha alcun interessé per la confutazione. Ha esortato i ricercatori, come ha fatto ogni buon filosofo dai tempi di Bacone, a non ignorare le confutazioni, a non tramutarsi in dogmatici [... ]. Ma non c'è alcun bisogno di esortare chi mira alla scoperta scientifica a tener conto di una confutazione più di quanto, si debba esortare un cacciatore in cerca di cibo a non ignorare l'ani:.. male che ha appena ucciso ». La duhemiana libertà « di non tener conto alcuno dell'esperienza » è una componente di rilievo della impresa scientifica, nella fase della costituzione di « reti » destinate a « catturare » i fatti, ma non esclude che l'elaborazione teorica, intesa « come un tutto » possa venire sottoposta al verdetto dello sperimentale in una fase successiva. Un popperiano (anche se « dissidente » come Agassi) può sostenere allora che la ricetta duhemiana « priva l'impresa scientifica della sua maggior attrattiva; [che] per Duhem non c'è più scienza pura e quello che noi chiameremmo scienza si ridurrebbe in parte a matematica pura e in parte a matematica applicata includente le generalizzazioni empiriche riformulate nel linguaggio della matematica »; che resta aperta la questione delle generalizzazioni empiriche stesse che devono risultare in un qualche modo « sicure », e che la garanzia di tale attendibilità va cercata osservando attentamente le applicazioni delle prime e più caute generalizzazioni e proceI Andrà accuratamente distinta la « confutazione» [rifutation] popperiana da una «falsificazione definitiva » [disprooj, che in genere si rende in italiano con « refutazione »], come Popper stesso fa nella Logica della scoperta scientifica. Mirare a quest'ultima è proprio di un « falsificazionismo dogmatico » che alcuni neopositivisti hanno attribuito all'autore della Logica ma che per Lakatos e la stragrande maggioranza dei popperiani è estraneo allo spirito del « razionalismo critico». 2 E Popper aggiunge: «De mortuis nihil nisi bene: il carattere empirico di una teoria confutata è certo e risplende senza macchia. » 286 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese dendo quindi per «ascesa induttiva » (per usare un termine caro a Whewell).l Ci si deve dunque affidare in ultima istanza al successo tecnologico, alla « pratica », la cui rilevanza viene a tratti sottolineata da Duhem, e, con decisione maggiore, anche dal Poincaré di La valeur de la science? Il convenzionalista classico - almeno stando alla caratterizzazione di Agassi - tende cosl a ridurre la specificità delle teorie empiriche a vantaggio dei due poli estremi dell'impresa scientifica, la matematica da una parte, la tecnologia dall'altra. Come mostra lo stesso polemico riferimento alle idee di Poincaré circa la meccanica newtoniana, per Popper invece resta (o è possibile ripristinare) una specificità della scienza empirica (che il suo criterio di demarcazione si preoccupa di definire) e, più globalmente, «si apprende dall'esperienza» nella misura in cui si identificano, come nota Agassi, « scoperta » e « confutazione ». Ma già in un caso estremamente semplificato e molto schematico come quello delineato nel paragrafo 1 tale identificazione richiede decisioni metodologiche « rischiose ». Riferirsi come termine di confronto alla tesi di Duhem-Quine nell'interpretazione debole evidenzia, se non altro, l'esigenza di controllare in qualche modo tali «rischi». Non pochi epistemologi coinvolti nell'articolato dibattito sulle idee popperiane hanno affrontato la questione almeno fin dalla prima edizione inglese (1959) della Logica della scoperta scientifica. I limiti del presente lavoro ci impediscono ovviamente di menzionare tutti i contributi e ci impongono di riassumere le direttive generali delle varie argomentazioni: i falsificazionisti tendono a ribadire che, di fronte a un insieme non coerente di asserti tratti in vario modo dal « corpo della scienza », per prima cosa occorre scegliere fra di essi 1) una teoria da sottoporre al controllo (una specie di noce); z) un asserto in qualche modo« consolidato» (una specie di martello); quel che resta costituirà una sorta di «conoscenza di sfondo» (una specie di incudine) che nessuno vorrà contestare: per poter mettere la noce sotto i denti, occorre in qualche modo « rinforzare » il « martello» e l'« incudine», in modo che ci permettano di rompere la« noce». Fuor di metafora, questo è lo schema sottostante alla progettazione di un esperimento cruciale negativo. Ma quali sono i criteri della scelta preliminare che permette una suddivisione del genere? Se i popperiani ribattono che di nuovo si tratta di «tirare a indovinare» [guess] si può rispondere che ben tenue appare il confine tra il rischio controllato e l'arbitrarietà. Naturalmente questa può venire ridotta in certi casi e con opportuni metodi: per esempio, Adolf Griinbaum in alcuni suoi contributi degli anni sessanta2 caratterizzava il «martello» e l'« incudine» come asserti dotati di alta probabilità a posteriori: « rinforzati » quindi (in un senso plausibile del termine) in modo da poter funzionare da «schiaccianoci ».a 1 Osserva a questo proposito popperiano « eterodosso », Lakatos: venzionalista Duhem e l'induttivista differiscono meno di quanto si pensa vista.>> un altro «Il conWhewell a prima 2 Si rimanda alla bibliografia del capitolo posta alla fine di questo volume. 3 Sull'utilizzazione del teorema di Bayes in questo contesto e sulle riserve dei popperiani ritorneremo nel paragrafo VII. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Non entriamo qui nel merito di questa e di analoghe proposte; ci basta sottolineare che i cospicui esempi storici da Griinbaum e da altri autori addotti a favore di (o contro) singole proposte metodo logiche non solo indicano come gli epistemologi guardino con sempre maggior interesse alla storia della scienza come a un utile termine di confronto, ma anche l'urgenza di tale riscontro per lo stesso falsificazionismo, se la Logica della scoperta scientifica in qualche modo vuol essere rispondente all'effettiva pratica scientifica e non limitarsi alla proposta di standards inaccessibili, di un astratto «codice d'onore». Griinbaum, come altri, ripropone allora il problema della attendibilità (o sicurezza) di certe componenti del modello deduttivo in cui articolare la critica; così facendo si colloca entro una problematica che ha una tradizione tanto lunga almeno quanto la storia del convenzionalismo. « Ci fidiamo » delle varie componenti in modo diverso; siamo disposti a comprometterci con esse in grado diverso e, pur ritenendo « che sia impossibile una falsificazione che escluda l'eventualità di una successiva riabilitazione » (Griinbaum) riteniamo razionale affidarci a tali ineguali distribuzioni della nostra « sicurezza » in vista del controllo critico delle teorie, come del resto avvertiva, ben prima del falsificazionismo metodologico, Henri Poincaré, quando nel capitolo di La science e l' hypothèse dedicato « alle ipotesi in fisica », osservava, rispondendo implicitamente agli argomenti duhemiani del 1 894, che anche se resta la « nostra unica fonte di certezza », l'esito dell'esperimento non ci indica «quale delle nostre premesse occorre rivedere » ed è necessario tuttavia « porre cura nel distinguere tra i differenti tipi di ipotesi », distinguendo quelle « completamente naturali, cui non possiamo sottrarci [... ] le ultime che si debbono abbandonare» da quelle più rischiose e meno attendibili [corsivi nostri]. Tra l'altro, va osservato che Poincaré era già ben consapevole che certe « premesse », come per esempio una clausola ceteris paribus, non sempre possono venir unite agli altri asserti mediante la semplice congiunzione l e metteva in guardia (con un appello al « rigore » della « fisica matematica») dalle «ipotesi [più] pericolose», quelle assunte «tacitamente e inconsapevolmente» (una tematica quest'ultima che Imre Lakatos ha ripreso nel contesto della matematica, come vedremo nel paragrafo successivo). Ma, poiché siamo in contesto falsificazionista, non dimentichiamoci di una nozione chiave per l'oggettivismo popperiano, quella di verisimilitudine. 2 Congetture circa la verisimilitudine delle varie componenti del modello deduttivo non sarebbero già sufficienti a razionalizzare il « gioco delle parti » che sottende l'esperimento cruciale falsificante? O almeno tale «idea regolativa » non dovrebbe in qualche modo evitare quell'appiattimento della scienza pura a matematica o a tecnologia che Agassi paventa? Prima di rispondere a tali interI Il caso del paragrafo I (il perielio di Mercurio) è stato presentato dunque in una forma estremamente semplificata e schematica. 2 Per la verisimilitudine di una teoria t in- tesa come « misura » o « quasi-misura » della differenza tra il contenuto di verità e il contenuto di falsità di t cfr. il paragrafo IV del capitolo XIV del volume settimo. z88 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese rogat1v1, occorre sottolineare che, come accadeva per la « corroborazione » e la « conoscenza di sfondo », anche la nozione di verisimilitudine è ambigua. Tale termine, infatti, ha almeno due diversi significati: I) può infatti venir impiegato per significare l'intuitiva somiglianza alla verità. [truthlikenessj della teoria; 2) può venir usato per significare una differenza fra le conseguenze vere e quelle false di una teoria, conseguenze che, se pur non si possono mai completamente conoscere, si possono almeno congetturare [guess]. Popper usa «verisimilitudine » prevalentemente nell'accezione tecnica z). In una «nota storica sulla verisimilitudine » aggiunta nel I964 e nelle «nuove considerazioni sulla verisimilitudine » aggiunte nel I968 a Congetture e confutazioni, nel «rivolgere l'attenzione alla distinzione tra verisimilitudine da un lato e probabilità (nelle diverse accezioni) dall'altro» Popper fornisce non poche citazioni pertinenti a tale accezione, mentre pare trattare altrove l'accezione I) come «~n'idea pericolosamente vaga e metafisica », in questo condividendo le « apprensioni » manifestate in Word and object (Ptfrola e oggetto) da Quine quando questi critica l'uso di Peirce del concetto di accostamento alla verità. Ma se le cose stanno cosl, si può subito osservare che il cardinal Bellarmino (almeno il Bellarmino di Duhem, mitico precursore del convenzionalismo) avrebbe potuto benissimo concordare con « l'oggetti vista » Popper che la teoria copernicana aveva molta « verisimilitudine » nel senso tecnico z), e contemporaneamente negare che avesse verisimilitudine intuitiva, cioè verisimilitudine nel senso I). Molti «strumentalisti » sono « realisti » o « oggettivisti » nel senso che concordano che la « verisimilitudine » popperiana delle teorie scientifiche (probabilmente) sta crescendo; l ma non sono realisti o oggettivisti nel senso intuitivo, cioè di ammettere, poniamo, che il campo einsteiniano sia intuitivamente « più vicino » allo schema dell'universo di quanto lo fosse l'azione a distanza dei newtoniani. Se le cose stanno così non hanno ragione Thomas Kuhn e Paul Feyerabend quando considerano semplice « retorica » i richiami popperiani al fatto che « ci approssimiamo alla verità»? Nel capitolo dedicato alla «rivoluzione einsteiniana» George Gamow nel suo agile Biography of physics (1961; trad. it. Biografia della fisica, I963), a proposito della teoria che avrebbe dovuto «unificare su una comune base geometrica il campo elettromagnetico e quello gravitazionale », esclama: « [Einstein] sarà certamente in paradiso e saprà se aveva avuto ragione o torto nel volere geometrizzare a ogni costo la fisica! »; alla luce di quanto detto sopra, non gli si può ribattere che le nostre teorie sono tutte « parimenti assurde e inverisimili per la mente divina » (Lakatos)? Fuor di metafora: la verisimilitudine nel senso di Popper riabilita, in un certo senso, l'idea di uno sviluppo cumulativo della scienza; la forza motrice di tale sviluppo è però costituita da un conflitto rivoluzionario nella verisimilitudine intuitiva; orbene si può identificare lo « scopo della scienza » I A una critica alla verisimilitudine popperiana in questo senso tecnico ~: più ristretto accenneremo nel paragrafo conclusivo di questo capitolo. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese con l'accrescimento della verisimilitudine popperiana, ma questo non coincide necessariamente con l'accrescimento della verisimilitudine classica. Un elemento chiave (the drivingforce, «la forza motrice», scrive addirittura Lakatos) del progresso scientifico è quindi eliminato dalla ricostruzione razionale di stampo popperiano, se Popper è conseguente nel condividere le perplessità quineane. Altrimenti: supponiamo che la nozione « empirica » di verisimilitudine proposta da Popper assorba davvero le questioni centrate sulla originaria verisimilitudine « intuitiva »: si chiede allora Lakatos: « Esistono davvero dei gradi di verità? Non è forse pericolosamente fuorviante parlare della verità nel senso di Tarski come se questa fosse posta in una specie di spazio metrico o perlomeno topologico, per affermare sensatamente di due teorie, t1 e t2, che, poniamo, t2 è progredita oltre II? » Obbiezioni del genere per Lakatos non sminuiscono certo « l'importanza » dell'idea popperiana, però mostrano come non sia lecito sostituire la verisimilitudine popperiana alla verisimilitudine intuitiva. A sua volta Kuhn, ben attento proprio agli sviluppi della teoria fisica tra Ottocento e Novecento, ha buon gioco a ribadire, contro Popper, che «dire, per esempio, della teoria [einsteiniana] di campo che essa si accosta alla verità più di una teoria più vecchia della materia e della forza vorrebbe dire, a meno che le parole non siano usate in modo stravagante, che gli elementi ultimi costitutivi della natura sono più simili a campi che a materia e a forza». Ma non si cade in questo modo nel classico equivoco che consiste nell'identificare (o perlomeno nell'« avvicinare») ciò che è « ultimo » solo per un certo stadio della conoscenza con the ultimate nature, « la natura ultima» delle cose, cara ai positivisti anglosassoni della fine dell'Ottocento? Nei paragrafi IV e v rispettivamente riprenderemo i punti di vista di Kuhn e di Lakatos; in questo paragrafo ci limitiamo ad accennare che lo stesso A gassi confessa « qualche perplessità » circa la popperiana « approssimazione alla verità ». Ma non è possibile, restando a livello metodologico e prescindendo da apprezzamenti epistemologici, limitarsi a richiedere che lo « schiaccianoci » sia costituito da un sistema di teorie « più corroborate » ma « di un minor livello di universalità» della «noce», cioè della teoria sotto controllo, come suggerisce Popper nell'ultimo capitolo della Logica del 1934? Per Agassi questo è solo un modo di eludere il problema: la prassi scientifica non segue il cammino «quasiinduttivo » prescritto da Popper, la storia della scienza depone contro l'adeguatezza della proposta della nozione di «corroborazione» come explicatum dell'idea tradizionale di « conferma». Nella storia della chimica, argomenta Agassi, ci imbattiamo per esempio nella « confutazione » della teoria di William Prout T (« tutti gli atomi sono composti di atomi d'idrogeno e quindi i "pesi atomici" di tutti gli elementi chimici devono essere esprimibili in numeri interi ») mediante le ipotesi « osservative» falsificanti addotte da J.S. Stas R « il peso atomico del cloro è 3 5, 5 »; ma, come è noto, è stata T a prevalere su R, cioè la teoria a più www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese alto livello di universalità e meno corroborata su quella meno universale e più corroborata. Dobbiamo allora concludere che un grande conflitto della chimica si è risolto in modo irrazionale? O dobbiamo invece abbandonare la razionalità falsificazionista proposta da Popper? Non c'è bisogno di ricorrere a tali estremi per A gassi: la sua ricetta è falsiftcazionismo senza corroborazione. Ciò è per il nostro autore ancora nello spirito dell'insegnamento popperiano: « nel nucleo [della Logica popperiana] non c'è quasi nulla di esplicito circa la corroborazione, cioè circa il fallimento dei tentativi di confutare un'ipotesi; il cuore [del falsifìcazionismo] si incentra esclusivamente sul successo delle confutazioni delle ipotesi e solo tale tipo di successo è autentico apprendimento dell'esperienza». È in questo modo che Popper ha risolto negativamente l'humeano problema dell'induzione (a cui va per altro affiancata l'idea regolativa dell'approssimazione progressiva alla verità); quanto al più generale problema kantiano della demarcazione, « nulla hanno a che farvi i gradi di corroborazione »: come gli studi antropologici hanno ampiamente mostrato, anche concezioni magiche che usualmente releghiamo nella « pseudoscienza », possono venir corroborate, possono portare a pratiche efficaci, possono aver successo tecnologico; ma il successo nella scienza pura non coincide, come vorrebbe ancora certo convenzionalismo con quello della tecnologia. In conclusione la linea di demarcazione tra « scienza e non scienza >> è ancora la falsificabilità; ancora il successo in questo particolare tipo di impresa è la riuscita di un esperimento cruciale falsificante; ancora il falsificazionista si assumerà tutti i rischi di « rafforzare » in un qualche modo le leve del suo schiaccianoci se vorrà eludere gli argomenti di Duhem e non perdersi nei meandri di un pesante sistema di ipotesi ad hoc, ma non sarà più costretto a rendere un omaggio « non sentito » alle teorie « corroborate » (e a bollare quindi come irrazionale l'abbandono di R a vantaggio di T nell'esempio sopra considerato). Non c'è sviluppo cumulativo nella scienza: la ridda [mess] delle ipotesi (falsificabili) in lotta tra loro non si tramuta mai (né grazie alla neopositivista teoria della conferma né grazie alla popperiana teoria della corroborazione)· in un patrimonio scientifico dotato di una qualche« stabilità». Science in flux, « scorrimento continuo »: questa è la caratterizzazione dell'impresa scientifica che Agassi ritiene di poter legittimamente derivare sia dal « nucleo » della metodologia popperiana sia dallo studio spregiudicato delle grandi svolte del pensiero scientifico, incluso quello del Novecento ave l'apporto di un Einstein forse più di ogni altro ha mostrato che l'atteggiamento critico nell'impresa scientifica può a buon diritto concludere che « nulla è stabile ». Questa caratterizzazione della scienza pura costituisce per Agassi anche la via per dirimere la questione della legalità delle generalizzazioni empiriche. La soluzione adottata dall'empirismo radicale di Mach e condivisa da certo convenzionalismo classico («considerare una generalizzazione empirica puramente come un resoconto osservativo condensato»), non è accettabile, in quanto www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese la scienza perde tutto il suo potere predittivo: se infatti ci arrischiamo a « proiettare nel futuro » una qualche generalizzazione empirica, nulla possiamo aspettarci della verità o della falsità delle nostre predizioni. Wittgenstein soleva dire che « il sole sorgerà domani » è una mera ipotesi: la logica nulla ci dice della verità o della falsità di un'estrapolazione, ma, insiste Agassi, «tutti, di fatto, continuiamo a estrapolare ». Né possiamo concedere alla psicologia di ridurre le motivazioni di fondo dello scienziato applicato e del tecnologo a pure « credenze animali», ché in questo modo «spiegheremmo l'estrapolazione rendendo ogni estrapolazione egualmente irrazionale ». Ma di fatto constatiamo che « certe estrapolazioni hanno più senso di altre »: una logica, non più « della scoperta scientifica » ma « dell'innovazione tecnologica », che miri cioè a rendere conto non « della crescita della conoscenza », ma del progresso della tecnica e del conseguente potenziamento delle forze produttive, si trova così di fronte a quello che, riprendendo Nelson Goodman, Agassi chiama «problema di Goodman» :1 « cosa distingue la previsione Lforecast] razionale da quella non razionale? A tale domanda si deve preliminarmente rispondere in vista dell'intervento razionale in campo tecnologico ». Secondo Agassi il problema è centrale per la versione strumentalistica del convenzionalismo (non a caso Poincaré ribatteva a Le Roy che la sua radicalizzazione del convenzionalismo non discriminava tra buone e cattive estrapolazioni). Ma la questione non può nemmeno essere elusa dal razionalismo critico che si presenta come la « terza via » tra essenzialismo e strumentalismo: A gassi trova sostanzialmente inadeguate le tesi popperiane secondo cui: a) nella tecnologia (per esempio nel settore della ricerca spaziale) si preferisce impiegare una teoria confutata (nell'esempio, poniamo, la meccanica newtoniana) piuttosto che una teoria non confutata (nell'esempio, poniamo, la meccanica relativistica); e b) in questo consisterebbe la specificità della tecnologia rispetto alla scienza (nel popperiano «gioco della scienza [pura] »invece le teorie confutate vengono «scartate»). Tali tesi non danno lumi circa la questione « se l'impiego di una teoria confutata nella tecnologia sia o no razionale »: la filosofia popperiana della tecnologia è carente e Agassi non ha dubbi su come colmare la lacuna. La netta separazione implicita in Popper e Watkins, tra scienza pura da una parte, applicazione e tecnologia dall'altra, 2 per Agassi va esplicitamente rinforzata, a costo di privare « l'ideologia della scienza » di alcuni dei suoi valori più rilevanti. C'è un brano di A gassi, che riteniamo opportuno riportare pressoché integralmente. « A causa dei precedenti religiosi della scienza moderna, si è creduto quando i copernicani hanno scacciato l'aristotelismo dal corpo delle credenze [beliifs] affermate, che qualche altra dottrina l'avrebbe dovuto sostituire e si è dato per scontato che l'unico modo di sostituire l'aristotelismo come credenza affermata era sostituirlo affermando un'altra credenza; I Cfr. N. Goodman, Fact, fiction and forecast (Fatto, finzione e previsione, I95 5). 2 Cfr. il paragrafo v del capitolo volume settimo. www.scribd.com/Baruhk XIV del Filosofia della scienza e storia della scienza nella cultura di lingua inglese s1 e pensato poi o che tale credenza alternativa fosse fondata scientificamente oppure che semplicemente si fosse sostituito un dogma all'altro. C'è molta sensatezza in quest'ultimo punto di vista: oggi come allora, esistono certo cose come le dottrine affermate; ma stabilire una dottrina rientra nell'istituzione di un certo numero di pratiche sociali. [... ] Non ci si pone mai per esempio, il problema di quanti inglesi credano nella religione evangelica prima che si sia disposti ad ammetterla come religione di stato. Il campo della credenza stabilita è materia di tecnologia sociale; e quindi, nella peggiore delle ipotesi, materia di tradizione, di capriccio, nella migliore, di tecnologia razionale o scientifica, ma non di scienza pura» [corsivi nostri]. Dobbiamo allora rinunciare, conclude Agassi, a quel valore che usualmente si chiama « attendibilità» o « affidabilità » [reliabili~y] delle teorie scientifiche anche se « da molti filosofi è stato considerato il contributo più rilevante dato dalla scienza all'umanità »? In un certo senso, sì: si tratta solo di uno dei « vantaggi extraintellettuali che la scienza offre e che rientrano nell'ambito della tecnologia scientifica». Conseguentemente, è doveroso « restringere il campo della scienza il più possibile alla sola spiegazione fenlightenment] » [corsivo nostro]. Si badi, Agassi «non neg[a] che in qualche modo l'affidabilità riguardi la scienza pura», ma si limita a contestare« due ruoli chiave tradizionalmente attribuiti alla affidabilità >> (che rientrano semmai nella caratterizzazione della tecnologia scientifica): I) « l'affidabilità di una teoria nelle applicazioni pratiche non riguarda la scienza pura>>; z) «l'idea che credenze erronee vizino la ricerca è dubbia, poiché non sappiamo cosa sia una credenza corretta e come credenze erronee influenzino la ricerca >>. È questo, per Agassi, l'esito coerente della rivolta intellettuale popperiana contro la concezione induttivista della scienza: mentre « tradizionalmente il corpo della scienza era visto come un corpo di teorie affermate, per Popper consiste invece di congetture confutabili», sicché mentre « per Bacone e i suoi seguaci il progresso della scienza consisteva nella crescita dell'insieme delle credenze affermate », per chi inforchi gli occhiali di Popper è « rivoluzione ininterrotta >> di audaci congetture e di spregiudicati tentativi di confutazione. A questo punto, il lettore può, prima facie, cogliere « una tendenza » nella riflessione sulla questione scienza (tecnologia da Bacone ai nostri giorni. Abbandonato insieme con l'ideale induttivistico anche il nesso tra crescita della conoscenza scientifica e progresso tecnologico, il falsificazionista si ritrova epigono di una tradiziol).e intellettuale risalente almeno ad Auguste Comte e che potremmo chiamare antitecnologica in modo sofisticato. Come il fondatore del positivismo si guardava bene dal contestare alla tradizione « baconiana >> che uno dei compiti principali della scien7.a fosse quello di accrescere il potere dell'uomo sul mondo, così Agassi non nega affatto la rilevanza dell'impresa tecnologica, l'interesse del problema dell'affidabilità [reliability, assurance] per una filosofia razionale dell'azione. Movendo dall'assunto « scienza d'onde previsione; previsione d'onde azione », Com te poneva www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese una netta discriminante tra le scienze e le tecniche subordinando le seconde alle prime. Tale ruolo ancillare della tecnologia era certo logica conseguenza della caratterizzazione comtiana del sapere scientifico, sicché ,gli innegabili successi conseguiti dalla tecnologia contemporanea al fondatore del positivismo francese non solo non creavano alcun imbarazzo ai metodologi comtiani, ma anzi apparivano loro ulteriori corroborazioni dell'indiscutibile validità dei dettami impartiti al tecnico dallo scienziato puro. I convenzionalisti della fine dell'Ottocento adottando un approccio « storico-critico » hanno impugnato la comtiana subordinazione della tecnica della scienza pura, ponendo in luce il carattere tutt'altro che assoluto dei principi della fisica e delle altre discipline empiriche come (almeno in certi casi) degli stessi postulati matematici; di più, come bene esemplifica la disamina di Poincaré della meccanica newtoniana in La science et l' hypothèse e lo stesso excursus di Mach nella Meccanica, se pure l'accettazione dei« principi» è frutto di « libero accordo », essa deve pur tener contò dei bisogni « pratici » e delle esigenze tecnologiche (è la considerazione di tali stimoli all'impresa scientifica che permette di ribadire, pur in un'ottica convenzionalista, la genesi empirica di una data « rete » teorica). Ma, come Duhem e Le Roy seppur con accenti diversi insegnano in questo riprendendo Comte, 1 l'impresa scientifica non si confronta mai con fatti « bruti », ma con « fatti » « impregnati di teorie »; uno schema teorico, pur rozzo quanto si vuole, è dunque preliminare sia alla progettazione dell'esperimento come allo stesso successo tecnologico. Popper e Agassi riprendono dunque un tema comtiano indirettamente, attraverso cioè questa mediazione dei convenzionalisti classici, a molte tesi dei quali si rivolge direttamente la Logica popperiana: scoperte teoriche precedono necessariamente le innovazioni tecnologiche; di più, le modalità della « logica della scoperta scientifica » non sono le stesse delle modalità della « logica della invenzione tecnologica » che mira a quelle operazioni di raffinamento che consentono di stare entro 1 margini di errore consentiti dalle esigenze sociali che motivano la pianificazione degli opportuni interventi tecnologici. Agassi, ovviamente, non nega che sotto questo profilo la tecnologia possa r Scrive infatti Comte nella r lezione del Corso di filosofia positiva: «Tutti gli spiriti acuti ripetono, dopo Bacone, che non vi sono conoscenze reali al di fuori di quelle che poggiano su fatti osservati. Questa massima fondamentale è incontestabile, se applicata, in modo conveniente, allo stadio maturo della nostra intelligenza. Ma riferendoci alla formazione delle nostre conoscenze, è altrettanto certo che il pensiero umano, nel suo stadio primitivo, non poteva, né doveva pensare in questo modo. Infatti, se da un lato ogni teoria positiva deve essere basata su osservazioni, da un altro lato è altrettanto ovvio che, per dedicarsi all'osservazione, il nostro pensiero ha bisogno di una qualche teoria. Se, osservando i fenomeni, non potessimo riferirli immediatamente a qualche principio, non ci sarebbe solo l'impossibilità di collegarli l'uno all'altro e quindi di trame un qualche frutto, ma altresì saremmo del tutto incapaci di percepir li e i fatti quindi resterebbero spesso inosservati ai nostri occhi. Così, stretto fra la necessità di osservare per formulare nuove teorie e la necessità, non meno imperiosa, di crearsi delle teorie qualsiasi per potersi dedicare a sempre nuove osservazioni, il pensiero umano al suo sorgere si trova rinchiuso in un circolo vizioso, dal quale non avrebbe mai trovato il modo di uscire se non si fosse fortunatamente aperta una via di uscita con lo sviluppo spontaneo delle concezioni teologiche che offrirono un punto di incontro ai suoi sforzi. » www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese « condizionare » la stessa scienza pura: questo condizionamento è del resto auspicabile (in quanto riduce a un numero ragionevolmente basso l'amplissima gamma delle alternative teoriche) e pone le premesse, a livello istituzionale di una vita scientifica organizzata, imponendo delle « restrizioni » alle possibili estrapolazioni compatibili con un assegnato insieme di dati empirici (avviando così verso una soluzione del problema di Goodman) e al proliferare di ipotesi ausiliari (avviando così verso una soluzione del problema suscitato dalla tesi di Duhem-Quine nell'interpretazione debole). Se questi sono gli esiti della demarcazione che Agassi propone tra scienza pura e tecnologia, non si può non riscontrare una certa analogia con la soluzione popperiana della demarcazione tra scienza e metafisica e la teorizzazione della metafisica influente. Quelli emergenti dalla tecnologia non sono gli unici « vincoli » [constraints] per la creatività dello scienziato; come abbiamo già visto, ogni grande svolta nel pensiero scientifico non può prescindere dal riferimento a « quadri metafisici »: ma come non discriminare scienza pura e tnetafisica violerebbe i dettami dell'atteggiamento critico, assimilare scienza pura e tecnologia costituirebbe un'altrettanto grave violazione che porterebbe alla perdita della specificità della prima; mutamenti nella metafisica e innovazioni tecnologiche possono essere opportuni « catalizzatori » per la scoperta scientifica e farvi riferimento può contribuire a enucleare le condizioni iniziali di una « rivoluzione scientifica »; ma tali « catalizzatori » restano fuori dell'ambito della « logica della scoperta scientifica »; e conseguentemente, lo storico della scienza che si rifaccia metodologicamente al « razionalismo critico » come deve attentamente guardarsi dal confondere «fisica e metafisica », così dovrà attentamente distinguere gli apporti della tecnologia da quelli della scienza pura. III· LA CONOSCENZA MATEMATICA E DIMOSTRAZIONI E IL FALLIBILISMO. CONFUTAZIONI Ritorniamo ora all'altro «polo» dell'impresa scientifica, la matematica. Riconnettendoci ai riferimenti del paragrafo precedente, ci pare opportuno ricordare che Duhem, proprio là dove demoliva la baconiana fiducia nell'esperimento cruciale, osservava sì che « la contraddizione sperimentale » non era in grado di «trasformare un'ipotesi fisica in una verità incontestabile » («la verità di una teoria fisica non si decide a testa o croce»), ma era appunto questo tratto specifico che permetteva di discriminare tra i modi del controllo della teoria fisica e la reductio ad absurdum propria della matematica pura, il cui sviluppo cumulativo non veniva affatto messo in discussione. Dal canto suo Popper non ha mai sviluppato una logica della scoperta matematica paragonabile in ampiezza e sistemadeità alla sua logica della scoperta per le teorie empiriche, anche se in molte sue ··. opere non sono mancati significativi riferimenti alla « conoscenza » matematica. Ma per la matematica, almeno per la matematica pura, è davvero appropriato il www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese termine « conoscenza »? Dopo tutto, per un popperiano la matematica è « non empirica » nel senso della Logica: si pone dunque, perlo meno, un nuovo problema. Scopo di questo paragrafo è di presentare e discutere un'estensione del falsificazionismo mirante a recuperare il carattere autenticamente conoscitivo della matematica intesa però, contro una tradizione che alcuni falsificazionisti fanno risalire almeno a Euclide, non più come prototipo del sapere certo e indiscutibile, ma come «conoscenza fallibile, conoscenza senza fondamenti» (Lakatos). Alla concezione tradizionale del sapere matematico cui abbiamo fatto riferimento poche righe più sopra si è affiancata, com'è noto, l'idea, ancora diffusa soprattutto nella cultura anglosassone, che il ragionamento matematico (inteso come un caso particolare di inferenza deduttiva) non dia in alcun senso obiettivo (cioè non psicologico) nuove informazioni. Il falsificazionista interessato allo status epistemologico degli asserti logici e matematici si trova di fronte a due nemici: l'uno, il tradizionale e dogmatico « euclideismo » (come i popperiani amano chiamare il punto di vista con cui Duhem è ancora pienamente solidale); l'altro, per certi versi più agguerrito, in quanto rivelatosi capace di utilizzare alcuni dei risultati della ricerca logica, che è stato il punto di vista già di Mach, ed è stato ripreso in seguito « da un gruppetto sparuto di positivisti logici abbastanza cocciuti e coraggiosi» da non temere certe « conseguenze abbastanza implausibili >> (J. Hintikka) e da riuscire a imporlo in molti ambienti come la concezione ufficiale del (non) sapere matematico. Ritorniamo un attimo ai primi anni del Novecento. Come il lettore avrà visto nel capitolo dedicato agli sviluppi della logica simbolica, Bertrand Russell (come già Frege prima di lui) si era proposto di derivare l'intera matematica da pochi principi logici indiscutibili e, ancora pochi mesi prima della scoperta della celebre antinomia che porta il suo nome, pareva convinto che il bagaglio che si richiede all'inizio «non sia molto», che una tale fondazione non celi alcun trabocchetto, che l'edificio della matematica diventerà presto « inespugnabile » al dubbio scettico e che, conseguentemente, « ordine e certezza » sostituiranno «confusione ed esitazione». Ma anche dopo la «crisi dei fondamenti», la soluzione russelliana (teoria dei tipi ed eliminazione dei ragionamenti impredicativi) viene prospettata nel quadro di un programma epistemologico che mira a confutare «lo scetticismo matematico», passo preliminare «all'estensione della sfera della certezza alle scienze empiriche ». In particolare va rilevato come il principio che permette di derivare l'antinomia di Russell non risulti falso nella russelliana teoria dei tipi, bensì non significante. È tale modo di procedere che viene ripreso proprio da quei «candidi positivisti » (come li chiama Hintikka) che ne fanno uno dei punti chiave della loro teoria del significato contro la tradizionale concezione dualistica di teoria ed esperienza («Il pensiero concepisce le leggi più generali [... ] come le troviamo codificate dalla logica e dalla matematica; poi l'osservazione riempie questi schemi dei loro dettagli»). Come Rus- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese sell, anche i neoempiristi temono lo scetticismo, ma« se si è dualisti, lo scetticismo è inevitabile ». Pare abbastanza naturale al fisico sostenere che « la fisica sperimentale ci procura una conoscenza delle leggi naturali mediante osservazione diretta [e che] la fisica teorica applica il pensiero in modo da prolungare questa conoscenza »; ma affermare che grazie alla matematica la teoria si estende oltre l'esperienza non equivale forse a introdurre un'armonia prestabilita «tra il corso del nostro pensiero e quello dell'Universo»? La classica soluzione neoempirista è che la·« logica non si occupa affatto di alcun ogg\!tto, ma solo del modo in cùi parliamo degli oggetti; essa viene introdotta solo col linguaggio». La sterile contrapposizione tra teoria ed esperienza viene evitata ammettendo che «il ruolo del pensiero è molto più modesto» di quanto non pretenda l'atteggiamento dualistico (nella sua versione ottimistica, quella del fisico militante); proprio perché « non si occupa di alcun oggetto » la logica « è irrefutabile >> e si possono evitare le aporie dell'atteggiamento dualistico (nella sua versione pessimistica, che conduce allo scetticismo). La riduzione della matematica a logica coinvolge anche que~t'ultima: per dimostrare tale fatto, ci pare interessante fare riferimento a una breve monografia di Hahn, !JJy,ik, Mathematik und Naturerkennen (Logica, matematim e wnoscenza della natura, 1933) non solo perché il punto di vista neoempirista circa la matematica viene espresso da un « addetto ai lavori » cui si debbono notevolissimi risultati, ma soprattutto in quanto la stessa struttura delle argomentazioni ivi impiegata bene si presta, per contrasto, a evidenziare quel carattere di rottura con la tradb.ione dell'empirismo logico che esplicitamente vogliono avere le tesi espresse da lmre Lakatos cui dedicheremo gran parte di questo paragrafo. Prima facie, osserva Hahn, « può sussistere una certa difficoltà a riconoscere che la matematica sia solo tautologia »; ma tale difficoltà può venir elusa per Hahn in questo modo: non siamo onniscienti lallwissend] e, mentre una intelligenza onnisciente comprenderebbe istantaneamente tutto quello che è implicito in un certo insieme di proposizioni, noi invece, per renderei conto di qualsiasi fatto matematico, dobbiamo percorrere una catena di scritture formali. Ciò non toglie però che, quando si enuncia anche il più importante teorema, per Hahn si perviene a una conquista solo nella misura in cui, essendo lunga la catena delle dimostrazioni, «constatiamo spesso con meraviglia che, nell'affermare un enunciato, affermavamo anche qualcosa di completamente differente>>. Quest'ultima argomentazione, che per certi aspetti ricorda il celebre passo laplaciano che illustra il determinismo universale e prelude all'introduzione del calcolo delle probabilità nelle scienze della natura, può venir considerata sotto due aspetti. In un senso debole contiene un'istruzione cautelativa: quando accetti un dato principio, vedi quel che da esso derivi; i metodi della logica ti mettono in grado di cogliere le conseguenze più inaspettate ed eventualmente di « esorcizzare >>, con opportuni strata~emmi, le patologie. In un senso forte ribadisce che le www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese proposizioni matematiche « non dicono nulla sugli oggetti in questione » e permette di concludere che « mentre di alcuna legge naturale non sappiamo se ha valore di legge » in guanto abbiamo a che fare con ipotesi, è lecito però affermare che « esprimendo delle ipotesi, esprimiamo molto più di quanto diciamo» (l'esplicitazione di questo è compito della logica e della matematica). Com'è noto, tale punto di vista ha trovato tutta una serie di esplicitazioni nel positivismo degli anni trenta e oltre. Occorre dire subito che la critica di Popper all'assolutezza della base empirica porta invece a conclusioni che apertamente contraddicono la tesi di Hahn, secondo cui « a proposito di fatti la teoria è fuori causa>>; tali conclusioni si fondano sull'applicazione dell'argomento del regresso infinito alle pretese traduzioni di linguaggi « teorici » in linguaggi « osservativi ». In questa sede vogliamo prospettare una considerazione di tipo falsificazionista della stessa matematica, consistente nel negare proprio la tesi di Hahn secondo cui gli asserti matematici non sono informativi, attribuendovi invece un « contenuto empirico »: I sotto questo profilo tale punto di vista riprende non pochi aspetti della concezione empiristica della matematica, anche se, ovviamente, non riconduce la matematica all'esperiem~a per la via dell'empirismo classico imboccata, per esempio, da J.S. Mill nel suo Sistema di /,ogica. Ciò premesso, va detto subito che si tratta di una direzione di ricerca estremamente viva e articolata sia nell'epistemologia di lingua inglese che altrove, che meriterebbe un'accurata rassegna delle posizioni che sono progressivamente emerse in questo filone. Definiti (e limitati) i temi del presente capitolo come indicato nel paragrafo I, ci limitiamo ad affrontare la questione prendendo come «filo rosso>> l'argomento del reJ!.resso infinito, applicato ora al problema dei fondamenti della matematica; conseguentemente restringiamo le nostre considerazioni ad alcuni saggi 2 di Imre Lakatos degli anni sessanta, cominciando da un contributo del 1962, dedicato appunto « al regresso infinito e al problema dei fondamenti». Questo argomento, scettico per eccellenza (in quanto mirante, in ultima analisi, a rìvelare «l'abisso>> che sottende la sicurezza del dogmatico), si rivela per il nostro autore, che si propone di estendere l'ambito di « certe idee di Popper e di Braithwaite », un'arma formidabile contro ogni fondazione della matematica che pretenda di aver individuato una base sicura « come roccia eterna » (Frege), sia essa poi costituita da pochi principi logici « indiscutibili » (come vuole il logicismo di Russell) o da <<una metateoria banale» (come auspica il programma formalista di Hilbert). Lakatos ha buon gioco nel ricordare che 1 Una critica radicale di questo punto di vista e la puntualizzazione di un senso obiettivo del concetto di informazione tale che i « giudizi » matematici appaiono «informativi » viene fornita, in una prospettiva completamente diversa da quella del falsificazionismo di Lakatos, da Jaakko Hintikka nei saggi che costituiscono il suo Logic, /anguage-games and information (1973). Non potendo in questa sede trattare nei dettagli le interessanti tesi hintikkiane, rimandiamo il lettore all'edizione italiana, Logica, giochi linguistici e informazione (Milano, 1975). 2 Cfr. la bibliografia riportata alla fine di questo volume. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Russell stesso nel I 924, modificando notevolmente posizioni assunte in passato, avvertiva che, come «tutta l'elettrodinamica è concentrata nelle equazioni di Maxwell, ma queste equazioni vengono accettate solo perché si è constatata la verità di certe loro conseguenze, f... ] così le nostre ragioni per credere alla logica e alla matematica pura sono, almeno in parte, solo induttive e probabili, anche se, nel loro ordine logico, le proposizioni della logica e della matematica pura seguono per deduzione dalle premesse della logica». Ma, allo stesso modo del logicismo, anche altre strade (come quella imboccata dal formalismo) ri~ chiedono analoghe « ritirate strategiche ». Sicché, a detta di Lakatos, le concessioni di un formalista come S.C. Kleene, che riconosce che « il controllo finale circa l'ammissibilità di un metodo nella metamatematica deve ovviamente riguardare la questione se tale metodo è intuitivamente convincente », non permettono certo di rispondere in modo soddisfacente alla domanda: « Perché i fondamenti, se si ammette che sono soggettivi? » Proprio come nelle questioni concernenti la « base empirica » anche qui solo una decisione metodologica può eludere il regresso infinito e consente di arrestarsi a un dato stadio nella questione dei fondamenti. Ma in questo modo si riconosce il carattere fallibile della stessa matematica attribuendo anche a essa quella provvisorietà che Duhem scorgeva solo nella «teoria fisica»; il carattere di tentativo [tentative nature] che gli stessi realisti ai primi del Novecento attribuivano a quest'ultima (e, più in generale, a ogni teoria empirica) investe anche la matematica. Di più: Lakatos (per esempio in un intervento del 1965) può riconsiderare passi come quello di Russell citato più sopra nella prospettiva di una vera e propria « rinascita dell'empirismo matematico». Certo nessuno pretenderà che la matematica sia empirica nel senso che i suoi falsificatori potenziali siano asserti spazio-temporali singolari com'è per le teorie empiriche considerate da Popper nella Logica; sarà però possibile individuare asserti che svolgono per teorie matematiche un ruolo analogo a quello di tali falsificatori potenziali. Teorie formali, per esempio, non solo ammetteranno falsificatori potenziali logici (cioè asserti della forma p (\ -,p), ma anche falsificatori euristici (teoremi informali): si potrà considerare confutata una teoria formale quando uno dei suoi teoremi verrà negato da un teorema della corrispondente teoria informate. Ovviamente un falsificatore euristico di questo tipo « suggerisce solo una falsificazione » e i suggerimenti possono essere ignorati: esso, in realtà, è solo una ipotesi rivale. « Ma ciò non separa la matematica dalla fisica in modo così netto come prima facie sembrerebbe: le stesse asserzioni base di Popper sono esse pure ipotesi rivali. » La questione dell'accettazione di tali falsificatori rimanda a guella della natura delle teorie informaii e il problema sarà allora quello di fornire opportune « regole » che permettano, anche nel caso della matematica, di arrivare a un «verdetto». Quale ne sarà la fonte?, si chiede Lakatos e risponde: «La costruzione matematica? L'intuizione platonistica? Oppure una convenzione? 299 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Difficilmente si potrà dare una risposta monolitica. Un attento studio storicocritico l· .. ] porterà probabilmente a una soluzione composita piuttosto sofisticata. Qualunque sia tale soluzione, gli ingenui concetti scolastici della razionalità statica, quali a priori fa posteriori, analitico /sintetico, potranno solo ostacolarci nella ricerca, senza offrirei alcun aiuto. » Aspra è dunque la polemica con i classici << dogmi dell'empirismo » (per usare la locuzione favorita di Quine); per quanto riguarda poi le questioni che Hahn e gli altri neoempiristi ritenevano così urgenti nella fase iniziale del positivismo logico viennese, basterà aggiungere che è proprio con l'abbandono delle dicotomie « della razionalità statica » che il « dialettico » Lakatos ritiene di aver superato le difficoltà del dualismo ovviamente con un esito che, recuperando il carattere se non empirico almeno « quasi empirico » della matematica, appare agli antipodi sia della soluzione neoempiristica sia di quella « euclidea ». Da « paradigma della certezza e della verità » questa si muta in disciplina « tàllibile >> come ogni disciplina empirica. Tale conclusione in particolare: 1) vanifica il senso forte della tesi di Hahn; 2.) ne banalizza il senso debole. Qualcosa però è conservato dell'antico ideale euclideo; ancora, come osserva il matematico G. Polya, «il consenso che accordiamo a un teorema di matematica dopo averne esaminato passo a passo in modo critico la dimostrazione, è il prototipo del credere razionale ». Compito di una « logica della scoperta matematica » appare allora « una ricostruzione razionale » di tale processo, senza alcuna concessione allo psicologismo. Per usare una metafora cara a Poincaré la storia della matematica e la logica della scoperta matematica rappresentano « la filogenesi » e « l'o n t ogenesi del pensiero matematico »; nel riprenderle Lakatos cita la « euristica matematica» di Polya e accoglie l'esortazione di questi a indagare, con riferimento a « esempi storici sensazionali » quel modo di lavoro « che alterna dimqstrazioni e controesempi » e che costituisce in matematica la spina dorsale dell'euristica. Anche i matematici, non diversamente dagli altri scienziati, dice Polya, « escogitano spiegazioni ipotetiche e sottomettono le loro ipotesi alla prova dell'esperienza» (in un senso che la proposta lakatosiana di considerare «falsificatori potenziali» anche per le teorie matematiche ritiene di poter esplicitare): anch'essi, nella loro pratica scientifi.ca, seguono la direttiva fallibilista «indovina e controlla». Polya non solo sottolinea l'importanza di cogliere «la funzione delle dimostrazioni [matematiche] nel costruire la scienza», ma insiste sulla necessità di prendere atto che « il concetto stesso di dimostrazione in matematica si è evoluto, è cambiato da un'era scientifica all'altra» lcorsivi nostri]. Sono proprio le modalità di cambiamenti siffatti che Lakatos si propone di esaminare in Proofs and refutations (Dimostrazioni e confutazioni, 1963-64), in cui lo stimolo iniziale è fornito dallo studio storico delle varie « diramazioni » (Polya) della ricerca matematica circa la c;elebre «congettura» di Euler sui poliedri,l alcune 1 La congettura di Euler (1758) è, com'è noto, che per tutti i poliedri «regolari» V- E www.scribd.com/Baruhk + Filosofia della scienza e storia della scienza nella cultura di lingua inglese delle quali contribuirono a porre le premesse di uno dei più affascinanti rami della matematica moderna, la topologia combinatoria; Lakatos propone «una storia ricostruita razionalmente o " distillata" » che ritiene necessario punto di partenza per un approccio razionalistico allo sviluppo della matematica « informale » [inhaltliche]. Senza addentrarci nel particolare caso storico preso in considerazione, val la pena di ricordare che una volta ammesso con Polya che «l'euristica matematica è simile all'euristica delle altre scienze[ ... ] in quanto entrambe sono caratterizzate da congetture, dimostrazioni e confutazioni (mentre la differenza rilevante sta nella natura delle rispettive congetture, dimostrazioni e controesempi)», Lakatos ritrova motivazioni di tale approccio in un'esigenza critica che ha una prima espressione articolata nei grandi lavori di analisi di K. Weierstrass. Spesso, rileva Lakatos, gli assunti di una dimostrazione non sono convenientemente esplicitati; quando viene presentato un controesempio risulta dunque difficile comprenderne la portata. L'insegnamento critico di Weierstrass è consistito proprio nel realizzare l'esigenza di rigore « non col nascondere un lemma [... ] ma assumendolo pubblicamente»; ciò viene da Lakatos ribadito non solo in funzione polemica verso il procedimento adottato da Russell e ripreso dall'empirismo logico, ma nella convinzione che la «rivoluzione del rigore» nell'analisi dell'Ottocento abbia costituito una formidabile spinta allo sviluppo di un metodo critico che è riuscito a trionfare dell'opposizione reazionaria di coloro che, scambiando per intuizione un complesso di pregiudizi, lamentavano «l'artificiosità» dell'indagine rigorosa. Weierstrass e gli altri artefici di questa rivoluzione non solo hanno trovato le «dimostrazioni» di importanti asserti, ma hanno delineato anche « un'analisi delle stesse dimostrazioni » dotando così l'impresa scientifica di una maggiore consapevolezza critica. Per chiarire a fondo questo importante concetto dianalisi delle dimostrazioni, riteniamo opportuno affiancare a questa rilettura lakatosiana di rilevanti svolte della riflessione sui fondamenti della matematica, un passo tratto da The laws of thouj!,ht (Le leggi del pensiero, r854), in cui il logico George Boole esamina le «dimostrazioni » circa l'essere e gli attributi di dio fornite da Samuel Clarke e da Spinoza. Non riteniamo questo passaggio dalla matematica alla metafisica affatto fuori tema: si tratti di una dimostrazione puramente matematica o di una catena deduttiva inserita in un sistema fisico o addirittura metafisica, l'indagine booleana mira a una disamina delle « premesse effettive » di tale catena, cioè di « tutte quelle proposizioni che vengono assunte nel corso dell'argomentazione senza essere state provate, e vengono impiegate come parte dei fondamenti sui quali si costruisce la conclusione finale ». Per Boole si tratta di individuare tali premesse, sia che vengano « espresse chiaramente », sia che invece operino come « premesse implicite » e di esprimerle +F = 2. ove V denota il numero dei vertici, E quello degli spigoli e F quello delle facce del poliedro. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese « nel linguaggio dei simboli » in modo da dedurre, servendosi delle sole regole della logica, « le conclusioni più importanti che tali premesse implicano » e con questa pietra di paragone controllare « le conclusioni tratte di fatto dagli autori » presi in considerazione. Col precisarsi degli standards di rigore, si definisce il modello deduttivo in cui articolare la critica: le dimostrazioni in quanto tali diventano oggetto di analisi prescindendo dalle credenze (in senso soggettivistico) che sottendono la scelta delle premesse; sicché Boole non ritiene tanto compito della sua investigazione « cercare fino a che punto i principi metafisici enunciati nelle opere [di Spinoza e di Clarke] siano degni di fiducia », quanto « accertare quali siano le conclusioni che si possono legittimamente trarre dalle premesse date» [corsivo nostro]. È in questa affermazione della natura formale del calcolo logico- con la quale il lettore della presente opera è ormai familiareche cogliamo una prima componente di quella che Lakatos chiama « la dialettica » tra dimostrazioni e analisi delle dimostrazioni. La seconda componente è rappresentata dal recupero dell'aspetto contenutistico delle «conclusioni» (nell'articolo del 1963-64 visto ancora in chiave falsificazionista: cosa vieta un teorema matematico? quali sono i suoi «ja/siftcatori potenziali»?) L'attenzione si incentra sui «conflitti» (in cui possono essere coinvolte teorie matematiche formali o informali, speculazioni metafisiche, differenti concezioni del mondo fisico, ecc.) che per Lakatos, che qui si rivela in pieno accordo col falsificazionismo sofisticato come da noi definito nel paragrafo IV del capitolo XIV del volume settimo, rappresentano nella matematica come nelle scienze empiriche i momenti in cui « cresce » la conoscenza. Una volta adottata quest'ottica pluralistica (che nel caso delle scienze empiriche permetteva di cogliere la « struttura fine » del conflitto teorie /fatti) sia nel problema dei fondamenti (Lakatos 1962, 1965) sia nell'analisi delle dimostrazioni (Lakatos 1963-64), il falsificazionista si trova di fronte anche in questi contesti al problema di fondo che abbiamo già delineato nei due paragrafi precedenti: nei conflitti (tra teoremi formali e informali, tra ampliamento di contenuti ed esigenza di rigore, ecc.) di cui la storia della matematica, come il lettore di questi volumi ha avuto ampiamente modo di constatare, è ricca almeno fin dal tempo dei pitagorici, come si sono distribuiti i ruoli della «noce», del «martello», dell'« incudine» (cfr. p. 287)? Quale parte del «sistema» (in questo caso, la matematica nel senso più ampio del termine) è il vero bersaglio della confutazione? Si può certo sottolineare anche qui « la necessità di decisioni metodologiche » per poter promuovere un controesempio, che potrebbe venir magari eluso con l'opportuna modifica di un «lemma nascosto», al rango di falsificatore di una teoria matematica di grande respiro, adottando una « risoluta » strategia popperiana. Ma tale strategia, qui come nelle scienze empiriche, non è troppo risoluta? La storia della matematica della seconda metà dell'Ottocento offre non pochi esempi di ricercatori che in alcuni casi si sono « eroicamente >> attenuti a un codice di onore del genere, scartando certe direzioni di ricerca in ;oz www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese nome di standards di rigore accettati pacificamente nella « conoscenza di sfondo », salvo pentirsi poi di fronte a fortunate ricerche più spregiudicate e riconoscere talora la « ristrettezza » dei loro canoni originari. Possiamo allora schierarci con quel matematico che affen;nava che se le più prestigiose teorie matematiche risultassero in conflitto con le leggi logiche a noi più familiari, come, per esempio, la legge del terzo escluso, queste ultime andrebbero abbandonate? O sfumare tale paradosso in una elegante soluzione à la Quine, come quella contenuta nella introduzione di Methods of Logic (tr. it. Manuale di Logica)? l Potremmo ancora parlare di scelta razionale tra vari modelli deduttivi in cui artic.olare la critica? Sono state domande di questo tipo (riferite sia a un contesto di filosofia della matematica, come in questo paragrafo, sia a un contesto di riflessione nella scienza empirica, come nei paragrafi precedenti) che hanno mosso Lakatos a una revisione (più radicale, a parere nostro, di quella di Agassi) della metodologia falsificazionista e alla sua sostituzione con una nuova metodologia. A questa verrà dedicato completamente il paragrafo v del presente capitolo; vogliamo intanto terminare queste preliminari considerazioni sulla matematica e sui fondamenti in un'ottica Jallibilista non solo sottolineando la vasta gamma di problemi che tale prospettiva apre, ma anche richiamando come tale prospettiva radicalmente si contrapponga a quella «ricorrente tentazione dei [matematici) di presentare il prodotto cristallizzato del loro pensiero come una teoria deduttiva generale, relegando al ruolo di esempio il fenomeno matematico particolare » (per usare le parole di un protagonista della matematica del Novecento, Richard Courant). La prospettiva fallibilista, insiste Lakatos, proprio nel distaccarsi da forme dogmatiche di falsificazionismo, contempla l'eventualità di mutamenti anche nello stesso contesto dell'analisi delle dimostrazioni, dei canoni del rigore. Un grande ricercatore di rado si piega a norme stabilite una volta per tutte: piuttosto «le crea», cioè riformula i tradizionali « codici d'onore » o addirittura ne propone di nuovi. I canoni meta.dologici vengono spesso reinventati: è questa lezione che la storia della matematica offre (specie a partire dalla feconda «unione tra matematica e logica» realizzatasi nella seconda metà dell'Ottocento) che può convincere il metodo lo go a una maggior flessibilità dei propri standards. È questo un tema che verrà ulter Scrive i vi Quine: « Le stesse leggi della matematica e della logica non sono immuni da revisioni se si scopre che ne potrebbero seguire semplificazioni essenziali dell'intero nostro ordinamento concettuale. È stato suggerito, principalmente sotto lo stimolo dei dilemmi della fisica moderna, di sottoporre a revisione la dicotomia vero-falso della logica ordinaria, in favore di qualche tipo di tri~ o n-cotomia. Le leggi logiche sono le proposizioni più centrali e più cruciali del nostro ordinamento concettuale e per questa ragione le più protette contro una revisione dalla forza del conset:v~nrismo; ma, ancora, proprio a causa della loro posizione cruciale, esse sono tali che una loro adeguata revisione potrebbe offrire la più radicale semplificazione dell'intero nostro sistema di conoscenza. Così, a dispetto di tutte le « necessità», le leggi della matematica e della logica possono essere abrogate. Ma questo non vuoi dire negare che tali leggi siano vere in virtù dell'ordinamento concettuale o in virtù dei significati. Proprio perché queste leggi sono così centrali, qualunque loro revisione è sentita come adozione di un nuovo ordinamento concettuale, come imposizione di significati nuovi a parole vecchie.» www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese riormente elaborato nella più matura riflessione di Lakatos, come vedremo in seguito; ma, fin da questa disamina della complessa dialettica di « dimostrazioni e confutazioni », emerge la rilevanza che, a ogni tappa della rivoluzione del rigore, assume il contrasto tra la « nuova » e la « vecchia guardia », tra i rivoluzionari di un tempo diventati a poco a poco conservatori e l'impietosa avanguardia insofferente di norme stabili: il conflitto può essere aspro, anche nella scienza (sebbene, in genere, lo storico riscontra post Jestum un tipo di asprezza diverso da quello della lotta politica) e mietere le sue vittime. Ma, come già David Hilbert amava ricordare, quest'ultima è la condizione della stessa « stodeità del rigore »; e, da parte sua, Lakatos conclude il saggio del 1964 con la considerazione che, a ogni rilevante modificazione dei canoni del rigore l'analisi delle dimostrazioni penetra sempre più profondamente entro quei « fondamenti » «forniti dalla conoscenza di sfondo» ove dominava l'intuizione e la critica era bandita: « diversi livelli di rigore differiscono solo per dove tracciano la linea di demarcazione tra il rigore dell'analisi della dimostrazione e il rigore della dimostrazione, cioè tra dove occorre bloccare la critica e dove occorre cominciare la giustificazione. "Non si consegue mai la certezza"; i " fondamenti" non si raggiungono mai; ma l'astuzia della ragione tramuta ogni aumento di rigore in un aumento di contenuto». IV· LA NATURA DEL MUTAMENTO CONCETTUALE. RICERCA NORMALE E RIVOLUZIONI SCIENTIFICHE Il falsificazionismo di Popper e le modificazioni fin qui analizzate dovute a Watkins, Agassi, Lakatos, ecc. rappresentano un indirizzo epistemologico vivamente contrapposto a quello divenuto dominante negli anni quaranta e cinquanta nei paesi di lingua inglese dopo la diaspora dei protagonisti dell'empirismo logico mitteleuropeo. Ma a quest'ultimo rappresentante la « concezione standard » (standard wiew, come l'ha battezzata un suo difensore, Israel Scheffier) si sono venute contrapponendo, già negli anni cinquanta e con maggior compattezza negli anni sessanta, anche altre concezioni che hanno fatto propria una gamma di temi tralasciati o programmaticamente espulsi dalla « nuova filosofia della scienza» (Reichenbach) creata dai neopositivisti. Quando il positivista sia « classico » che « logico » considera, poniamo, come « scientifiche » le tre leggi di Keplero, le separa drasticamente dal contesto costituito per esempio dalle analogie «intuitive» (come paralleli tra il sistema solare e la trinità) che pure hanno costituito lo sfondo della scoperta kepleriana. La stessa metafisica influente (da noi vista nel paragrafo r) mira a recuperare molto di ciò che il positivista bolla come « extrascientifico », ma a una decisa rivalutazione della Weltan- · schauung o della Lebenswelt dei protagonisti dell'impresa scientifica muovono anche prospettive che si rifanno a indirizzi di pensiero diversi, come a una tradizione pragmatista radicata soprattutto nella cultura americana (Ch.S. Peirce, C.I. Lewis www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese e lo stesso Quine sono tra i riferimenti più rilevanti) o a quella della filosofia analitica in origine prevalentemente inglese (profondamente condizionata dall'insegnamento del« secondo» Wittgenstein). È ovviamente impossibile, senza cadere in schematismi, distinguere quanto caso per caso si deve all'una o all'altra tradizione e valutare esattamente gli apporti di altre esperienze culturali, quali l'idealismo inglese e continentale, il neokantismo (specie di Cassirer), la fenomenologia, lo stesso- materialismo dialettico. Globalmente il panorama risulta estremamente vario, il che ci costringe in questa sede a limitare e semplificare drasticamente. Movendoci, come nei tre paragrafi precedenti, più per problemi e tematiche che seguendo una puntuale esposizione dei vari punti di vista, in questo paragrafo articoleremo intorno a quattro nodi concettuali l'esposizione delle concezioni di Hanson, Kuhn e Toulmin, riservandoci di riprendere alcune questioni nel delineare più oltre quelle di Lakatos e di Feyerabend, che, mossi entrambi dal falsificazionismo popperiano, hanno elaborato poi prospettive largamente autonome proprio nel continuo confronto con le concezioni cui facciamo qui riferimento. I. Le trame della scoperta. Era stato il berlinese Hans Reichenbach a introdurre nel I938 la distinzione, diventata poi un luogo comune, tra« contesto della scoperta» e «contesto della giustificazione» per considerare separatamente il modo in cui un risultato delle discipline empiriche o di quelle matematiche viene scoperto dal modo in cui viene presentato e difeso dai ricercatori. Ma per Reichenbach e gli epistemologi di impostazione neoempirista in genere, i problemi emergenti nel contesto della scoperta potevano essere al più oggetto della psicologia o della storia; l'epistemologia programmaticamente era limitata al contesto della giustificazione; la ricostruzione razionale, infine, concerneva dunque solo questo ultimo, prescindendo completamente dal cammino percorso « per tentativi » per stabilire un dato sistema teorico. Ma già nel I958, quattro anni prima della comparsa della fortunata monografia di Kuhn sulle rivoluzioni scientifiche di cui ci occuperemo dettagliatamente tra poche pagine, Norwood Russell Hanson, in Patterns of discovery (Trame della scoperta, I958) trova perlomeno astratto il prendere in considerazione le teorie scientifiche solo come « prodotti finiti »: « le teorie fisiche forniscono trame [patterns] che rendono intellegibili i dati» della esperienza e proprio per questo sono in grado di spiegare i fenomeni che dcadon~ sotto il loro ambito; ma al contrario di quanto ha ritenuto la tradizione empirista, le teorie non sono scoperte per generalizzazione induttiva a partire dai dati empirici; ma mediante la formulazione di ipotesi probabili alla luce di dati concettualmente organizzati: il cuore della logica della scoperta non è l'induzione, ma la retroduzione [retroductive reasoning]. A partire dal capolavoro del I 9 58 Hanson viene prospettando un'analisi delle teorie in polemica con l'empirismo classico e con lo stesso empirismo logico e insieme una disamina di rilevanti casi storici, www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese che, come pietre di paragone, permettano di evidenziare i limiti dell'astorica prospettiva positivistal e la maggior aderenza della nuova logica della scoperta alle reali modalità della ricerca. Alla base del fraintendimento positivista sta per Hanson la dottrina del linguaggio osservativo neutro con cui il linguaggio teorico dovrebbe « essere messo in corrispondenza »: l'effettiva pratica scientifica non conosce nulla del genere. Riprendendo classici argomenti di Duhem, il nostro autore sottolinea che l'osservazione, lungi dall'essere «pura», è invece «carica di teorie » [theory !aden] con il che si rivela estremamente innaturale la richiesta di un linguaggio [osservativo] intersoggettivo in cui dare una diretta interpretazione semantica indipendente dalla considerazione di una qualche teoria. Al tempo della grande controversia tra i sostenitori della concezione geocentrica e· di quella eliocentrica, esemplifica Hanson, la comunità scientifica poteva compilare certo resoconti osservativi circa, poniamo, il sole; ma restava il fatto che « Tycho Brahe, come Simplicio, vedeva un sole mobile; Keplero, invece, un sole fisso ». Due persone che sostengono differenti teorie circa gli stessi oggetti vedono davvero la stessa cosa? Si potrebbe rispondere affermativamente osservando che esse condividono la stessa esperienza visiva: Tycho e Keplero hanno entrambi l'esperienza visiva di un disco giallo, rifulgente, ecc. e questo autorizza a concludere che vedono la stessa cosa, il sole. Così risponderebbe però chi ancora ritiene « doveroso erigere un monumento alla memoria del punto di vista tradizionale secondo cui la scienza empirica prende le mosse dalla percezione » (sono le parole che nella Logica del 1934 Popper adoperava per Neurath). Ma è proprio questa « concezione del nucleo percettivo » della scienza empirica (sensory core theory, per usare una pregnante espressione di R. Firth) che per Hanson occorre abbandonare. Per il nostro autore un conto è avere un'esperienza visiva e un conto ricevere certi stimoli sulla retina; solo nel senso che hanno le medesime stimolazioni sulla retina, Tycho e Keplero vedono lo stesso sole. Servendoci di una terminologia introdotta ( 1 966) da A gassi, possiamo dire che, contro il « sensismo ingenuo » che permane non solo nei filosofi della scienza neoempiristi, ma nella stragrande maggioranza dei manuali e anche in molti testi di storia della scienza, Hanson contrappone un « sensismo sofisticato»~~' che si incentra sulla dottrina dell'osservazione impregnata di teorie. A questo si aggiunge una stimolante rilettura di spunti delle Philosophische Untersuchungen (Ricerche filosofiche) di Wittgenstein. Una figura ambigua può venir vista tanto come una testa di lepre quanto come una testa di anatra; ma, osservava a suo tempo Wittgenstein; «non c'è neppure la più lontana somiglianza tra la testa vista in un modo e la testa vista nell'altro, anche se sono congruenti » e aggiungeva: « de1 In questo contesto « positivista » sta per lo più per « neopositivista ». Nei critici della standard wiew l'accostamento del positivismo logico al positivismo classico ha spesso funzione polemica. 2 Il termine è stato introdotto inizialmente « per le concezioni di Duhem e Meyerson ». www.scribd.com/Baruhk Anatra o coniglio? La celebre figura ambigua cui fanno riferimento, tra gli altri, Wittgenstein e, nel contesto della scoperta scientifica, Hanson e Kuhn. scrivo il cambiamento come una percezione; proprio come se l'oggetto fosse cambiato davanti ai miei occhi [... ]. La mia impressione visiva è mutata, e ora riconosco che non soltanto essa aveva [una certa] forma, ma anche una " organizzazione" perfettamente definita». A sua volta Hanson sottolinea che esempi del genere mostrano che «interpretare le linee della figura in modi diversi [... ] è proprio come vedere qualcosa di differente »; ma « ciò non vuol dire che vediamo la stessa cosa e la interpretiamo in modi diversi ». Quando la testa di coniglio diventa una testa d'anatra, ciò avviene « spontaneamente» (addirittura « all'improvviso», diceva Wittgenstein). Hanson ne conclude che non muta una interpretazione sovraimposta alla sensazione, ma (come il passo delle Ricerche filosofiche più sopra citato suggerisce) l'organizzazione di quel che si vede. Ma questo esito del « sensismo sofisticato » in Hanson non mira solo alla demolizione dell'ingenuo sensismo che resta in molta filosofia della scienza degli anni cinquanta (e oltre), ma a mostrare che le organizzazioni concettuali sono «caratteristiche logiche del concetto di vedere, [le quali] sono ineliminabili e indispensabili per l'osservazione in fisica». Quando Brahe e Keplero «vedevano il sole », vedevano davvero « qualcosa di diverso », nel senso che possedevano organizzazioni concettuali estremamente differenti delle loro esperienze! Premessa di questo giudizio storico è che« l'osservazione di x è modellata [shaped] dalla precedente conoscenza di x »: se quest'ultima è diversa in Tycho e in Keplero, perché stupirsi che le osservazioni di x (nell'esempio il sole) dell'uno siano diverse dalle osservazioni di x dell'altro? Le tradizionali storie della scienza per Hanson ·hanno semplicemente ignorato un problema del genere e hanno appiattito in modo arbitrario il frastagliato panorama dello sviluppo delle teorie scientifiche, in ciò non certo illuminate dalle epistemologie di taglio empirista. Controcorrente, storici come Koyré hanno più volte ammonito i « candidi » positivisti che il cielo dei copernicani era radicalmente diverso da quello dei tolemaici: che gli uni vi scorgevano « costellazioni »l differenti da quelle viste dagli altri, perché possedevano diverse costellazioni di teorie. I Il termine va inteso, seguendo Hanson, in senso lato. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Per Hanson le intuizioni di un Koyré si possono precisare se si sottolinea appunto il carattere epistemico del «vedere» [seeing]: in esso c'è infatti una componente, non tanto psicologica, quanto logica, che il nostro autore battezza « vedere che» [seeing that]. Quando vediamo [see] un x, vediamo che [see that] si comporta nel modo in cui sappiamo che gli x si comportano e se capita che non si comporta nel modo in cui ci aspettiamo che gli x si comportino, non siamo più in grado di identificarlo immediatamente come un x. Dunque è implicita nel vedere una conoscenza del comportamento degli oggetti. Ma per Hanson va tenuto anche presente che «vedere che» è usualmente seguito da un asserto: « C'è dunque un fattore " linguistico " nel vedere, benché non ci sia nulla di linguistico in quel che si forma nell'occhio o anche nell'occhio della mente. » Senza questo fattore nulla che viene osservato avrebbe davvero rilevanza per l'impresa scientifica: i fatti bruti non hanno interesse per il ricercatore scientifico. La sua abilità nel cogliere i« fatti» dipende dal suo apparato concettuale e dal suo linguaggio(« tale intreccio di concetti e di linguaggio è fondamentale per tutta la fisica! »);i termini del linguaggio sono in misura rilevantissima « teorici » e se anche possono venir correlati a termini « osservativi » mediante regole di corrispondenza, anche questi ultimi non prescindono dalla nostra organizzazione concettuale. Essi · sono osservativi solo in senso pickwickiano: l tutti i termini che hanno un ruolo nella spiegazione scientifica sono impregnati di teoria; di più, i significati di tali termini sono funzioni degli schemi concettuali [concep tua/ patterns] che ineriscono ai linguaggi. Il significato di una parola è, per lo più, dipendente dal contesto; se ha un ruolo nella spiegazione scientifica, essa non può non far parte di uno schema di organizzazione concettuale per quel contesto; in un altro contesto può rientrare in uno schema differente, o addirittura « scomparire » (cioè non rientrare in alcuno schema). Alcune interconnessioni di uno schema saranno allora relazioni di significato per termini: altre, invece, relazioni contingenti, prescrittive, ecc. « V edere x in un dato contesto » vuol dire allora vedere il referente di « x » al centro di tutte le relazioni determinate dallo schema concettuale in cui rientra il termine «x » in quel dato contesto. La conoscenza di tali relazioni è dunque essenziale per accertare un «fatto» come quello se il referente di «x» sia davvero un x. Più in generale i « fatti » in un dato contesto esplicativo dipendono da una organizzazione concettuale. Tra Brahe e Keplero, tra i sostenitori del geocentrismo e dell'eliocentrismo, ecc. non si erge il tribunale dell'esperienza« pura» (magari formulata in un linguaggio osservativo neutro), ma un complesso intreccio di « differenti modi di vedere ». E una teoria « costituisce sempre una " Gesta/t concettuale ". Essa non è costruita pezzo per pezzo dall'osservazione 1 Cioè in senso translato, non nell'accezione abituale del termine (cfr. il dickensiano Circolo Pickwick). www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese dei fenomeni; è invece ciò che rende possibile osservare i fenomeni come se fossero di un certo tipo e in questo modo correlarli ad altri fenomeni [... ] una ,teoria è un grappolo [cluster] di conclusioni in cerca di una premessa». I limiti dell'invenzione delle teorie sono dati da particolari schemi di organizzazione concettuale dei ricercatori e l'estensione razionale di una teoria utilizza il ragionamento « retroduttivo » cui sopra si è accennato. 2. I paradigmi. Ma fino a che punto l'analisi delle teorie e la conseguente ricostruzione razionale dello sviluppo scientifico che Hanson propone si può ritenere adeguata, al di là della ripresentazione spregiudicata di certe particolari svolte nella ricerca o di certi stimoli che indubbiamente suggerisce allo storico della scienza? Ci pare interessante, alla luce di domande del genere, affiancate alla riflessione hansoniana sul «cambiamento di Gesta/t» [Gesta/t Swi!ch], le- osservazioni su questo stesso argomento sviluppate da Thomas Kuhn specie in The structure of scientiftc revolutions (La struttura delle rivoluzioni scientifiche, 1962). Herbert Butterfield in The origins of modern science (Le origini della scienza moderna, 1949) caratterizza «casi classici di riorientamento della scienza» come processi in cui « si maneggia lo stesso insieme di dati di prima ma ponendoli in un nuovo sistema di relazioni reciproche e dando quindi loro una diversa struttura»; al paragone di Hanson, per cui il mutamento scientifico [scientiftc change] è analogo a un cambiamento della Gesta/t visiva, si affianca così la metafora dello storico delle origini del pensiero scientifico moderno «afferrare l'altra estremità del bastone »; Kuhn, che esplicitamente si rifà a entrambi, nel testo citato os~erva che« gli scienziati non vedono qualcosa come qualcos'altro; al contrario, serpplicemente lo vedono », sicché paragoni come quelli citati possono, se spinti all'estremo, diventare «fuorvianti», tanto più che «lo scienziato è privo della lib~rtà, che il soggetto della Gesta/t possiede, di muoversi avanti e indietro tra diversi modi di vedere » (più volte Kuhn del resto ribadisce che lo sviluppo della scienza è una sorta di processo irreversibile). Tuttavia i paralleli suggeriti da Hanson e da Butterfield costituiscono « utili prototipi elementari » per comprendere «i mutamenti su larga scala nell'impresa scientifica». La domanda- cos'è che muta?- ci porta al cuore della concezione kuhniana. La risposta della monografia del 1962 è che cambia il paradigma, una« costellazione » che « comprende globalmente leggi, teorie, applicazioni e strumenti re chel fornisce un modello che dà origine a una particolare tradizione di ricerca scientifica ldotata] di una sua coerenza» (tradizioni del genere, esemplifica Kuhn, sono quelle « che lo storico descrive con etichette quali " astronomia tolemaica " o " copernicana ", " dinamica aristotelica " o " newtoniana '~, " ottica corpuscolare" o "ondulatoria", ecc.»). Ma perché un tale cambiamento sia possibile occorrono circostanze estremamente particolari che contribuiscono a fare del mutamento scientifico qualcosa di ben diverso da quell'ininterrotto «rovescia- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese mento di teorie » familiare al popperiano. La ricerca « normale », che si svolge entro un paradigma (che appare cioè « stabilmente fondata su uno o più risultati raggiunti dalla scienza del passato, a cui una particolare comunità scientifica, per un certo tempo, riconosce la capacità di costituire il fondamento della sua prassi ulteriore»), spesso «sopprime novità fondamentali, nella misura in cui queste sovvertono i suoi impegni di base», sicché di rado l'effettivo sviluppo rispetta la trama popperiana di congetture e confutazioni. Ma il sovvertimento dello status quo se è difficile e richiede in genere « un lungo periodo », non è però impossibile. «Talvolta [... ] un problema che dovrebbe essere risolvibile per mezzo di regole e procedimenti noti, resiste al reiterato assalto dei più abili membri del gruppo entro la cui competenza viene a cadere. In altre circostanze, uno strumento dell'apparato di ricerca, progettato e costruito per gli scopi della ricerca normale, non riesce a funzionare nella maniera aspettata, rivelando una anomalia che, nonostante i ripetuti sforzi, non può venir ridotta a conformarsi all'aspettativa professionale.» Questo è il modo, conclude Kuhn, con cui la ricerca normale « va fuori strada»: quando ciò accade, quando cioè i professionisti non possono più trascurare anomalie che sovvertono la tradizione della pratica scientifica, cominciano « quelle indagini straordinarie che finiscono col condurre la professione ad abbracciare un nuovo insieme di impegni, i quali verrano a costituire la nuova base della pratica scientifica ». Sono tali « episodi straordinari» che costituiscono le autentiche « rivoluzioni scientifiche». L'attento studio storico di« quei famosi episodi che già in passato sono stati spesso indicati come rivoluzioni » mostra che in tali casi si è sempre rivelato necessario «l'abbandono da parte della comunità di una teoria scientifica un tempo onorata in favore di un'altra incompatibile con essa» [corsivo nostro] e conseguentemente si è prodotto « un cambiamento dei problemi da proporre all'indagine scientifica e dei criteri secondo cui la professione stabiliva che cosa si sarebbe dovuto considerare come un problema ammissibile o come una soluzione legittima di esso». La fondamentale distinzione tra problemi genuini (sui quali soli si deve appuntare l'interesse del ricercatore) e pseudoproblemi, posta come discriminante assoluta e metastorica dai pensatori dei circoli di Vienna e di Berlino, viene così storicizzata e relativizzata. Di qui la lezione metodologica che si può trarre, per Kuhn, dalla storia della scienza:« Gli storici,)) scrive Kuhn, « [... ] piuttosto che andare a cercare, nella scienza di un'epoca passata, i contributi permanenti che quella ha apportato al nostro benessere attuale, si sforzano di presentare l'integrità storica di quella scienza considerata nel suo tempo. Essi, per esempio, si pongono domande non circa il rapporto delle concezioni di Galileo con quelle della scienza moderna, ma piuttosto circa il rapporto tra le sue concezioni e quelle [... ] dei suoi maestri, dei suoi contemporanei, e dei suoi successori immediati nel campo delle scienze. )) Q).lesta rivoluzione nella storiagrafia ha un'importante conseguenza anche per l'epistemologia: l'esame spregiu- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese dicato di quel che la ricerca storica offre fa emergere «l'insufficienza delle direttive metodo logiche [siano pure quelle del falsificazionismo] a imporre da sole un'unica conclusione sostanziale a molti tipi di questioni scientifiche » e a dconferire un carattere problematico a« quell'arsenale di dicotomie», in primis alla reichenbachiana distinzione tra contesto della scoperta e contesto della giustificazione più sopra ricordata, che l'epistemologia positivistica suole invece dare per scontate. Come Hanson, Kuhn profila il recupero di componenti dell'impresa scientifica « dimenticate » dagli empiristi logici e accetta sostanzialmente le dottrine della dipendenza dei significati e dell'osservazione impregnata di teorie; riprende l'« analisi concettuale» di Koyré e rivaluta quindi la funzione dei miti, delle costellazioni di intuizioni circa « le entità che la natura contiene o non contiene », delle speculazioni metafisiche che contribuiscono a formare « la mappa » della ricerca scientifica; un'ottica discontinuista contrappone le fratture che lo storico constata a ogni rivoluzione scientifica con la tradizionale idea di una « crescita del sapere per accumulazione », in questo avvicinandosi idealmente all'epistemologia di Gaston Bachelard (non a caso citato sempre meno timidamente con la fine degli anni cinquanta dagli storici ed epistemologi di lingua inglese insofferenti della caratterizzazione positivista del progresso scientifico) e lontano invece dalla concezione generalmente attribuita agli empiristi logici; riporta infine la dinamica dello sviluppo della scienza alla «lotta tra sezioni della comunità scientifica » sostituendo la considerazione di tale processo storico («l'unico [... ] che abbia effettivamente avuto come risultato l'abbandono di una teoria precedentemente accettata o l'adozione di una nuova») a quei «procedimenti di conferma o di falsificazione resi familiari dalla usuale immagine della scienza». Ciò premesso si comprende come le idee espresse da Kuhn nella monografia abbiano rappresentato agli occhi dei ricercatori impegnati una vera e propria rivoluzione intellettuale e, cosa più interessante, ciò sia valso per scienze relativamente nuove (psicologia sociale, sociologia, economia, ecc. in cui « è aperto il dibattito sui fondamenti») come per scienze più mature come la fisica, la chimica o anche la biologia, ove più ampia appare l'area« di un consenso duraturo ». Di più: la concezione dello ~viluppo secondo uno schema ricerca normale/ crisi e ricerca straordinaria /ricerca normale è stata estesa da storici « kuhniani » anche a discipline non empiriche, in primis alla matematica. Non ha anch'essa avuto le sue « crisi » che hanno interrotto cospicui periodi di « ricerca normale » (a cominciare dalla scoperta degli irrazionali che, col mettere in crisi la matematica pitagorica, ha inaugurato quel filone di scienza straordinaria che è sfociata prima nella teoria eudossiana, quindi nella sua sistemazione istituzionale negli Elementi di Euclide, per finire con la crisi dei fondamenti clamoròsttmente aperta dalle antinomie dei primi anni del Novecento)? Conseguentemente, in una prospettiva più ampia di quella relativa alle sole discipline empiriche si sono venuti www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese prospettando gli stessi nodi concettuali della concezione kuhniana « per paradigmi »: ne segnaliamo qui due. Il primo riguarda la «funzione del dogma» e il ruolo della ricerca normale: nella « tensione essenziale » tra tradizione e innovazione Kuhn, già in lavori precedenti a La struttura delle rivoluzioni scientifiche, viene enucleando il ruolo dell'atteggiamento dogmatico dei membri di una sezione della comunità scientifica che restano aderenti «ai propri impegni di base [basic commitments] ». Con la competenza storica che gli è propria, già nel r96r il nostro autore ricorda che, « da come Galileo ha accolto le ricerche di Keplero, da come Naegeli quelle di Mendel, o da come Dalton ha respinto i risultati di Gay-Lussac e da come Kelvin quelli di Maxwell, novità inattese di fatti o teorie hanno incontrato resistenza e sono state spesso respinte da molti dei più stimati esponenti della comunità scientifica». Ma, come osserva nella monografia dell'anno successivo, «una resistenza opposta per tutta la vita, particolarmente da parte di coloro la cui carriera produttiva è stata legata alla vecchia tradizione della scienza normale, non è una violazione dei criteri scientifici, ma una indicazione della natura stessa della' ricerca scientifica» [corsivo nostro]. In The function of dogma in scientific research (La funzione del dogma nella ricerca scientifica, r96r) già Kuhn aveva sottolineato che un atteggiamento del genere « è elemento costitutivo della ricerca in quanto definisce per il singolo scienziato quali sono i problemi che può affrontare e la natura delle soluzioni accettabili » perché « di norma lo scienziato è un solutore di rompicapo [puzzle], come il giocatore di scacchi, e tale adesione, indotta dalla formazione professionale, gli fornisce le regole del gioco in uso nel suo tempo ». Di più, « l'unanimità con cui il gruppo di professionisti aderisce a una certa concezione fornisce al singolo un rilevatore estremamente sensibile dei punti deboli da cui si produrranno quasi inevitabilmente le innovazioni significative nei fatti e nella teoria». E dunque: « non c'è bisogno di far del dogma una virtù per riconoscere il fatto che nessuna scienza matura esisterebbe senza di esso »: tesi questa che Kuhn rafforzerà alla fine degli anni sessanta indicando come possibile criterio di demarcazione per l'impresa scientifica la presenza rilevante di una tradizione di scienza normale.l Il secondo nodo concettuale concerne « il progresso attraverso la rivoluzione », per usare la stessa terminologia della monogra_fia del 1962. È ben vero, ammette Kuhn, che i nuovi paradigmi, prodotti da una rivoluzione, poiché in qualche modo sono « nati da quelli vecchi » che hanno vittoriosamente spodestato, contengono gran parte del vocabolario e dell'apparato, sia concettuale sia tecnico, che aveva fatto parte del paradigma tradizionale; ma « entro il nuovo paradigma, 1 Scriverà infatti: «Un attento sguardo all'impresa scientifica suggerisce che è la scienza normale, in cui il tipo di controllo caro a Popper non ha luogo, piuttosto che la scienza straordinaria, ciò che più distingue la scienza dalle altre attività. Se esiste un criterio di demarcazione (penso che. non dobbiamo cercarne uno netto o decisivo), può trovarsi proprio in quella parte ·della scienza che Popper non prende in considerazione. » www.scribd.com/Baruhk Filosofi~ della scienza e storia della scienza nella cultura di lingua inglese i vecchi termini, concetti ed esperimenti entrano in nuove relazioni tra di loro». Ne consegue «inevitabilmente» quel che Kuhn chiama («sebbene il termine non sia del tutto esatto») «un'incomprensione fra due scuole in competizione». Kuhn riprende quindi tesi che già abbiamo trovato in Hanson ma, si badi, nessun « ragionamento retroduttivo » sembra indicare la strada da percorrere. « Come il cambiamento di Gesta/t, » dice Kuhn, « il passaggio da un paradigma all'altro deve compiersi tutto in una volta (sebbene non necessariamente in un istante) oppure non si compirà affatto »: se si tratta« di un passaggio tra incommensurabili »esso« non può essere [... ] imposto dalla logica o da un'esperienza neutrale. » Ma allora come si fa strada la genuina novità scientifica? Si deve concludere pessimisticamente, con un protagonista della rivoluzione quantistica, Max Planck,l che essa« si impone non convincendo i suoi oppositori [... ], ma piuttosto perché costoro alla fine muoiono e subentra alloro posto una generazione che ad essa si è abituata »? Ha allora senso parlare ancora di progresso scientifico? Per Kuhn è possibile « render conto sia dell'esistenza della scienza che del suo successo in termini di evoluzione a partire dallo stato delle conoscenze possedute dalla comunità a ogni dato periodo di tempo » senza per questo « immaginare che esista qualche completa [... ], vera spiegazione della natura e che la misura appropriata della conquista scientifica sia la misura in cui essa ci avvicina a questo scopo finale» (ciò giustifica per Kuhn, tra l'altro, l'abbandono della popperiana concezione della verisimilitudine, cfr. paragrafo n). Come nell'Ottocento la teoria darwiniana ha permesso di superare tutte quelle concezioni per cui l'evoluzione «restava un processo diretto verso uno scopo finale», mostrando che era concepibile un costante processo evolutivo « a partire da stadi primitivi, ma che non tendeva verso nessuno scopo», così «il risultato complessivo di una serie di selezioni rivoluzionarie [... ] separate da periodi di ricerca normale, è l'insieme meravigliosamente adeguato di strumenti che chiamiamo conoscenza scientifica moderna », prodottasi in un processo che « può aver avuto luogo [... ] senza l'aiuto di un insieme di finalità, o di una verità scientifica stabilita una volta per tutte, della quale ciascuno stadio dello sviluppo [... ] costituiva. una copia migliore rispetto alla precedente». 3· Logica della scoperta o psicologia della ricerca? Già da quanto precede il lettore avrà intuito che le concezioni di Kuhn non solo divergono dalle prospettive dell'empirismo logico, ma anche dallo stesso falsificazionismo popperiano, da noi esaminato nel capitolo XIV del volume settimo e ripreso nei paragrafi I e n di questo capitolo. Alleati contro « la concezione standard » dell'impresa scientifica, entrambi rivendicatori del ruolo positivo della metafisica e in genere delle varie tradizioni culturali, entrambi critici dell'usuale concezione della « crescita per accumulazione, entrambi diffidenti di un'analisi puramente logica delle I Nella sua Autobi~grafta scientifica (Wissenschaftliche Selbstbiographie, pubblicata postuma nel 1948). www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese teorie che non tenga conto della reale dinamica storica », Popper e Kuhn divergono sul fatto che « [mentre per il primo] la scienza è una " rivoluzione ininterrotta" e l'atteggiamento critico costituisce il cuore dell'attività scientifica, per Kuhn la rivoluzione è un qualcosa di straordinario [... ] e l'atteggiamento critico in tempi "normali" è un anatema» (Lakatos). Sicché tale divergenza, ha ammonito Lakatos, lungi dal riguardare particolari problemi tecnici dell'epistemologia, « ha a che fare coi nostri valori intellettuali di fondo. Ha implicazioni che riguardano non solo la fisica teorica, ma anche discipline meno sviluppate, come le scienze sociali, e anche la filosofia morale e politica. Se anche nella scienza non v'è altro mezzo per giudicare una teoria che non sia quello di valutare il numero, la fede e l'energia vocale dei suoi sostenitori, allora la stessa cosa potrà verificarsi in grado anche maggiore nelle scienze sociali: la verità si fonda sul potere». Fino a che punto è giustificata quest'ultima accusa? Popper, Watkins, Lakatos e in genere tutti i « razionalisti critici » scorgono nei due punti nodali che abbiamo in precedenza esaminato e nella conseguente caratterizzazione kuhniana del passaggio da un vecchio paradigma a uno nuovo come « una conversione » la traccia di quella cOncezione « post-critica » dell'impresa scientifica delineata da Michael Polanyi già nel suo Science,faith and sociery (Scienza,Jede e società, 1946) e quindi in Personal knowledge (Conoscenza personale, 195 8) che tende a prospettare le decisioni di fondo della comunità scientifica come « prese soltanto sulla base della fede » e a valorizzare il ruolo delle componenti extralinguistiche e non razionali dell'attività scientifica che ne costituiscono the tacit dimension, «la dimensione silenziosa ». Di qui la condanna di Popper della ricerca normale (intesa come «l'attività del professionista non critico [...] che accetta il dogma predominante senza metterlo in discussione») come un «pericolo per la scienza e anzi per la civiltà stessa », e la insistente rivendicazione della « razionalità » delle rivoluzioni scientifiche; di qui anche il rifiuto, da parte di Popper come di Watkins, della tesi dell'incommensurabilità o della sua versione più debole, la tesi della «rottura della comunicazione» tra sostenitori di differenti concezioni; di qui la critica, da parte di Popper come di Lakatos, del tentativo di costruire una « psicologia » o una « sociologia » invece che una logica della scoperta. Ritorneremo nel paragrafo successivo sulle critiche di Lakatos nel contesto della « metodologia dei programmi di ricerca »; qui sottolineiamo che, a sua volta, Kuhn è venuto chiarendo, a partire da un suo intervento al colloquio internazionale di filosofia della scienza tenuto nel 1965 a Londra,l le motivazioni del proprio dissenso da Popper, presente, anche se in modo meno esplicito, già nei lavori del periodo 195 8-62. L'errore di fondo che Kuhn ascrive all'epistemologia di Popper è quello di aver riletto« l'intera avventura della scienza in termini che sono applicabili soltanto ai suoi occasicinali momenti rivoluzioI Cfr. la bibliografia del capitolo fornita alla fine di questo volume. 314 www.scribd.com/Baruhk Filoso~ della scienza e storia della scienza nella cultura di lingua inglese nari », trascurando o fraintendendo la ricerca normale. Quando Popper si è rivolto alla storia della scienza, gli esempi che ha preso in considerazione sono del tipo degli esperimenti di Lavoisier sulla calcinazione o addirittura la rivoluzione copernicana e quella einsteiniana, ma « ha dimenticato [che] episodi del genere sono molto rari [... ]. Quando accadono, sono generalmente provocati o da una precedente crisi in un settore attinente (gli esperimenti di Lavoisier oppure quelli di Lee e Y ang) o dall'esistenza di una teoria che è in competizione con i canoni esistenti di ricerca (la relatività generale di Einstein)». Ma questi per Kuhn sono solo occasioni per la ricerca straordinaria, che emerge però, come abbiamo visto, solo «in circostanze eccezionali». L'atteggiamento critico caro ai popperiani per Kuhn diventa una componente rilevante dell'impresa scientifica soltanto nei momenti di crisi, quando cioè le fondamenta stesse del campo di indagine sono in pericolo. Conseguentemente « né la scienza, né lo sviluppo della conoscenza possono essere compresi con facilità, se la ricerca è vista esclusivamente attraverso le rivoluzioni che essa occasionalmente produce». Popper è sostanzialmente fuori strada « nel trasferire caratteristiche proprie della ricerca di tutti i giorni agli occasionali episodi rivoluzionari in cui il progresso scientifico è più ovvio e, quindi, nell'ignorare completamente l'attività quotidiana dello scienziato». Quanto al tentativo di risolvere il problema della scelta delle teorie durante le rivoluzioni « mediante criteri logici che sono applicabili solo quando una teoria può già essere presupposta », esso è condannato al fallimento: la frattura della comunicazione, che Kuhn, come del resto vedremo nel paragrafo VI, tende a ribadire contro le obbiezioni dei critici, implica che non sia la logica a guidare il cambiamento concettuale, in cui svolgono invece un ruolo determinante motivi psicologici e· socio logici. 4· L'astuzia della ragione. Mentre le critiche di Popper e dei popperiani più o meno eterodossi (Watkins, Agassi, Lakatos, ecc. e anche Feyerabend) non mettono in discussione l'esistenza della «componente normale» dell'impresa scientifica, ma vertono sulla sua rilevanza e sulle sue specifiche modalità, diverse sono le obbiezioni che alla prospettiva kuhniana della ricerca normale e delle rivoluzioni muove Stephen Toulmin. Ci pare interessante concludere con alcune osservazioni di questo autore il presente paragrafo, dato che Toulmin è, con Hanson e Kuhn, un altro protagonista della « rivolta » contro la tradizione empiristica e positivistica. A rigore, anzi, il distacco toulminiano dai canoni di tale tradizione precede le « trame della scoperta » come « i paradigmi », in quanto è già presente nell'agile Philosophy of science (Filosofia della scienza) del 1953, anche se una più matura. formulazione, con notevoli variazioni rispetto al disegno originario, compare in saggi degli anni sessanta, per culminare infine nell'ambizioso Human understanding (La comprensione umana, vol. I, 1972). www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese È interessante notare innanzitutto che per Toulmin, benché le teorie scientifiche debbano anche fornire predizioni di successo, una volta fissati i margini di errore tollerabile, la loro funzione precipua è quella di fornire spiegazioni convincenti(« che soddisfino il nostro intelletto», pleasing to the mind è l'espressione di Toulmin) delle regolarità che l'uomo individua nella natura. Secondo una divisione dei compiti presente in aree anche piuttosto differenziate della filosofia della scienza anglosassone (cfr. del resto il paragrafo n) il far previsioni rforecasting] «è un'arte, rientra nella tecnologia, rappresenta un'applicazione della scienza piuttosto che il cuore dell'impresa scientifica». Quest'ultima invece deve specificare, utilizzando teorie, certi schemi di comportamento [behavior patterns] che vengono incontro alle nostre aspettative e render conto di eventuali deviazioni. Più precisamente: la teoria configura « un ideale ordine della natura » che specifica quello che usualmente intendiamo con « il corso naturale degli eventi »; ma, poiché i fenomeni deviano inesorabilmente da tale schema ideale, la teoria deve introdurre varie leggi, intese a specificare tali deviazioni. Così, per esempio, nella meccanica di Newton, il principio di inerzia descrive l'ordine ideale in meccanica (il moto rettilineo uniforme è il solo che non richieda ulteriore spiegazione), mentre le altre leggi hanno il compito di render conto di tutte le deviazioni da tale moto «ideale». Le teorie costituiscono per Toulmin dei «metodi di rappresentazione » dei fenomeni: come tali, possonò essere « eleganti », « fruttuose », ecc. ma non vere o false, proprio come non sono vere o false quelle particolari « rappresentazioni » dei fenomeni che sono disegni o figure. Quanto all' organizzazioni di ipotesi, leggi, ordini ideali in una teoria, questa avviene non secondo uno schema rigidamente ipotetico-deduttivo, ma piuttosto mediante una « stratificazione » in vari livelli linguistici in cui il livello più basso mutua termini dal linguaggio quotidiano e, successivamente, ogni livello mutua termini dal precedente, con un vero e proprio « slittamento linguistico » [language shift] in cui continuamente viene alterato il significato di ogni termin~ coinvolto. Ancora una volta il significato dei termini dipende strettamente dàlla teoria e il significato di un enunciato di un dato livello può essere esplicitato solo ricorrendo a enunciati del livello precedente. In questa prospettiva, per certi versi « strumentalista », pietra di paragone delle varie teorie è quel complesso di « supposizioni » [presumptions] con cui diamo corpo alle nostre aspettative e che costituisce più che un « sistema di riferimento » o « un quadro concettuale » una vera e propria Weltanschauung, che determina sia i problemi che gli scienziati si propongono di risolvere sia le premesse di fondo che sottendono le loro teorizzazioni. Ma una Weltanschauung non è necessariamente rigida: essa evolve, interagendo con l'evoluzione delle teorie e dei linguaggi e restando comunque il punto di riferimento per la valutazione dei risultati teorici. Per certi aspetti, dunque, l'analisi di Toulmin si avvicina a quella di Kuhn, sia nell'abbandonare verificazione e conferma care agli empiristi logici, sia nel www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese tralasciare lo stesso schema popperiano della falsificazione, ancora troppo metastorico e astratto, per seguire «più da vicino [... ] l'effettiva e&perienza storica degli scienziati ». I neoempiristi e Popper sono caduti nel medesimo fraintendimento: hanno immaginato che <~ i procedimenti razionali dell'indagine scientifica obbedissero a una sorta di" logica"» deduttiva o induttiva a seconda delle proprie personali preferenze, mentre sono le strutture formali offerte dalla logica deduttiva, dal calcolo delle probabilità, ecc. che caso per caso «debbono venir utilizzate nelle varie imprese razionali », salva restando la specificità di ciascuna di esse. Kuhn ha indicato la via di un corretto approccio evoluzionistico, ma l'arbitraria distinzione tra ricerca «normale» e «straordinaria» ha implicato l'introduzione di « rivoluzioni scientifiche » come « drammatiche fratture della comunicazione», «vere e proprie catastrofi supe.r-razionali », sì che quest'autore ha enfatizzato il ruolo dell'atteggiamento dogmaticp. fino a prospettare il cambiamento di paradigma (Paradigm switch) come una :conversione religiosa. Nel porre il problema «di come si possono sostituire le costellazioni intellettuali» occorre mantenere invece il punto di vista per cui « si possono delineare in modo significativo confronti razionali tra concetti e giudizi operativi in differenti contesti e si può far ciò in termini che, allo stesso tempo, mostrino le ragioni per cui tali confronti, in certi casi, cessano di essere significativi ». Il punto di partenza è per Toulmin l'analisi dello sviluppo storico di quelle imprese razionali collettive (le usuali « discipline») « in cui secondo uno schema evolutivo mutanq col tempo le popolazioni dei conc€tti »; il passo successivo consiste nell'interpretare « in termini ecologici » come si sono adattati tali concetti alle richieste che i vari ambienti - quello della ricerca pura come quello della tecnologia, o del diritto, o della morale, ecc. - sono venuti via via ponendo. È questa « analisi ecologica» che permette («retrospettivamente») di tracciare una demarcazione tra confronti «legittimi» e no circa diversi apparati concettuali; che consente, per esempio, di conferire un senso alla convinzione intuitiva che, almeno sotto qualche profilo, la quantitas motus di Newton ha rappresentato un progresso intellettuale sull' impetus di Buridano! In questo modo, « mentre si accumula la ·nostra esperienza, le nostre idee circa le strategie razionali e le procedL.re da seguire nel trattare i vari problemi nelle diverse discipline appaiono sempre più suscettibili di revisione e perfezionamento». È finita per Toulmin l'epoca dei rituali epistemologici imposti a priori all'impresa scientifica, come volevano ancora i neoempiristi e Popper; ma non per questo occorre seguire il Kuhn delle Rivoluzioni scientifiche nell'abbandonare ogni speranza di ritrovare una razionalità nello sviluppo storico. C'è ancora, conclude Toulmin la prima parte di La comprensione umana, la possibilità di trarre profitto dalla storia apprendendo qualcosa sui nostri comportamenti intellettuali (e sociali) e sotto questo profilo ha ancora un senso il richiamo al kantiano « piano della natura » o all'hegeliana « astuzia della ragione » (ricomparsa, come abbiamo visto alla fine del paragrafo III a 317 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese razionalizzare l'incessante, anche se lento rispetto ad altre componenti della ricerca, mutare dei criteri di rigore e, in generale, dei « principi costitutivi » di una disciplina intellettuale). V· LA METODOLOGIA DEI PROGRAMMI DI RICERCA SCIENTIFICI Ritorniamo ora al caso storico invocato da Agassi nel paragrafo n ed esaminiamo la « struttura fine » della « confutazione » di Prout da parte di Stas. Un primo punto, come ha sottolineato Imre Lakatos, è che, nella formulazione riportata da A gassi (p. 290) T e R non si contraddicono. Per evidenziare la loro incompatibilità, occorre riformulare T come «i pesi atomici di tutti gli elementi chimici puri (omogenei) sono multipli del peso atomico dell'idrogeno » e R come « il cloro ~ un elemento chimico puro (omogeneo) e il suo peso atomico è 3 5,5 ». Quest'ultimo asserto ha la forma di un'ipotesi falsificante che, se fosse corroborata, ci permetterebbe di usare asserzioni base B «il cloro X è un elemento chimico (omogeneo) e il suo peso atomico è 35,5 » oveXè il nome proprio di una quantità di cloro determinata, per esempio, dalle sue coordinate spaziotemporali. Si badi: per A gassi B è corroborata e il fatto che, ciononostante, «non scalzi» R depone contro la popperiana teoria della corroborazione. Per Lakatos invece che B sia sufficientemente corroborata è per lo meno problematico. Infatti la .sua prima componente dipende da Rt: « Il cloro è un elemento chimico puro », verdetto del chimico sperimentale dopo un'applicazione rigorosa delle« tecniche sperimentali» dell'epoca. Occorre allora passare alla «struttura fine» di Rt. Ma questa sta per la congiunzione di due asserti Tt e T2. Il primo asserto Tt potrebbe essere del tipo: « Se procedure di purificazione Pt, p2, ... , Pn sono applicate -a un gas, quel che resta sarà puro cloro. » T 2 sarà allora: « X è stato sottoposto alle n procedure Pt. p 2 , ••• , Pn· » Lo sperimentale ha applicato accuratamente tutte le n procedure: T 2 dev'essere accettato. Ma la conclusione che quel che resta dev'essere cloro puro è un « fatto bruto » solo se T 1 è relegata tra la conoscenza di sfondo non problematica; infatti lo sperimentale, nel controllare T, applicava T 1 ed interpretava quel che vedeva alla luce di Tt. Sono tali approfondimenti di apparenti conflitti teoria /fatti che per Lakatos permettono di evidenziare i limiti sia di Popper che di Agassi. Popper, almeno in un primo tempo, ha adottato un modello monoteorico in cui non c'è posto per «teorie interpretative come T1 ». Agassi ha accettato B come « sufficientemente corroborata » (anche se allo scopo di espellere dalla scienza pura la corroborazione). Per Lakatos nel caso specifico sarebbe stato possibile « applicare » T invece di T 1 e affermare che i pesi atomici debbono essere numeri interi respingendo così T 1 e cercando magari nuove procedure addizionali di purificazione. Nel modello pluralistico del falsificazionismo sofisticato per Lakatos il problema centrale non è se una confutazione è ef- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese fettiva o no, ma come riparare a una incompatibilità fra la teoria esplicativa in esame e la teoria interpretativa- esplicita o nascosta; o, se si preferisce, quale teoria considerare interpretativa, tale che fornisca « i fatti», e quale esplicativa, tale che li spieghi «per tentativi». Si è prodotto così uno « slittamento » dal vecchio problema di sostituire una teoria confutata da « fatti » al nuovo problema di come risolvere le incompatibilità fra teorie strettamente associate. Quale fra (almeno) due teorie incompatibili deve essere eliminata? Il falsificazionista sofisticato per Lakatos cercherà di sostituire prima una, poi l'altra, poi forse entrambe, ecc. e optare per il nuovo sistema che f®rnisce il maggior aumento di contenuto corroborato, che soddisfa cioè i requisiti di accettabilitàl e di accettabilitàz (caratterizzati come alle pagg. 491 sgg. del capitolo XIV del volume settimo). Agassi lotta invano con:tro la corroborazione: centra infatti il bersaglio solo nel caso del falsificazionismo ingenuo (modello monoteorico), ma non di quello sofisticato (modello pluralistico) e nel suo « polemizzare contro gran parte della filosofia della scienza contemporanea», nel respingere, tra le varie concezioni della « crescita della scienza per accumulazione», anche la visione « quasi-induttiva » di Popper sembra non accorgersi, osserva con ironia Lakatos, di « riprendere i vecchi argomenti di Neurath » che abbiamo esaminato nel paragrafo 11 del capitolo XIV del volume settimo. Le critiche di Lakatos appaiono estremamente convincenti; ma ci chiediamo subito: il più ampio respiro che in vari saggi Lakatos ha conferito alle idee espresse in un primo tempo solo in relazione alla matematica (cfr. paragrafo m) si riduce solo a una difesa d'ufficio della « ortodossia popperiana », per usare un'espressione di Feyerabend? Vediamo. Almeno da The aim of science (Lo scopo della scienza, 1957) Popper mostra chiara consapevolezza che «critica e crescita della conoscenza » non vanno valutate in riferimento a una teoria isolata, ma a una successione di teorie.l Lakatos propone una suggestiva terminologia. Data una successione di teorie T1, T2, Ts, ... , dove ogni teoria T71 (n > 1) si ottiene aggiungendo clausole ausiliari alla teoria T71_ 1 (o a una sua reinterpretazione semantica) per poter accomodare alcune anomalie e supposto che ogni teoria abbia almeno tanto contenuto quanto il contenuto non confutato della precedente, Lakatos battezza tale successione di teorie « uno slittamento-di-problema [problem shift] progressivo teoricamente » se ogni teoria Tn ha contenuto empirico eccedente rispetto alle teorie che la precedono, ossia, se predice qualche fatto nuovo, inaspettato; T n costituirà anche « uno slittamento-di-problema progressivo empiricamente » se parte di questo contenuto empirico in eccesso sarà corroborato, ossia, se ogni teoria Tn conduce alla scoperta effettiva di qualche fatto nuovo. Finora si è trattato solo di aggiungere qualche definizione al falsificazionismo popperiano sofisticato. Ma Lakatos ricorda che «sussiste un'abbiezione cui nemmeno il falsificazionista sofisticato riesce a rispondere senza qualche conI Cfr. in particolare il paragrafo IV del capitolo xiv del volume settimo. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese cessione alla " teoria della semplicità " di Duhem ». Questi a suo tempo aveva osservato che non sempre si trova« sensata» « la fretta con cui [il rivoluzionario] ha messo sottosopra i principi di una teoria ben articolata e armoniosamente costruita, proprio quando la modificazione di un dettaglio, una piccola correzione sarebbero bastate a mettere la teoria in accordo coi fatti »; ma pure può apparire «puerile e irragionevole l'ostinazione con cui [il conservatore, Kuhn direbbe lo scienziato " normale "] difende a qualsiasi costo, al prezzo di continue correzioni e di un'accozzaglia di puntelli ingarbugliati [foui/lis d'étais enchevetrés] le colonne corrose dai vermi di un edificio che traballa da tutte le parti, mentre, radendo al suolo le colonne, sarebbe possibile costruire sulla base di nuove ipotesi un sistema semplice, elegante e solido». Come distinguere, si chiede allora Lakatos, buone (cioè «progressive») modificazioni di certi «dettagli» àal «groviglio» di pesanti ipotesi ausiliari? Stando alle definizioni di cui sopra aggiungere a una teoria ipotesi di basso livello tra loro non connesse può costituire uno « slittamento progressivo». Per Lakatos è difficile «eliminare tali espedienti senza richiedere che le asserzioni aggiuntive debbano essere connesse con l'asserzione originaria più intimamente che dalla semplice congiunzione». Ma questa è una sorta di richiesta di semplicità che assicurerebbe la continuità nella successione di teorie che nella terminologia lakatosiana costituisce un unico slittamento di problema. L'osservazione di Lakatos mette a fuoco quel che è uno dei punti deboli della concezione di Popper, la questione della continuità: se la « logica della scoperta» popperiana riesce a realizzare che è una successione di teorie e non un'unica teoria che va valutata come scientifica o pseudoscientiftca, ancora le sfugge che gli elementi di tali successioni sono usualmente connessi da una notevole continuità, «reminiscenza della "scienza normale" di Kuhn », che svolge un ruolo essenziale nella storia della scienza. Per Lakatos questa continuità si sviluppa da un «programma di ricerca » adombrato all'inizio: ,esso consiste di regole metodologiche che indicano o quali vie evitare («euristica negativa») o quali vie perseguire («euristica positiva»). Certo, osserva il nostro autore, « anche la scienza intesa come un tutto unico può essere considerata come un enorme programma di ricerca se si adotta la regola euristica di Popper- escogitare congetture che abbiano maggior contenuto empirico delle precedenti - e regole metodologiche del genere possono essere formulate, come lo stesso Popper ha messo in evidenza, come principi metafisici ». Ma Lakatos non pensa tanto alla scienza come un tutto unico, bensì a programmi di ricerca particolari, come per esempio la « metafisica cartesiana ». Questa, cioè la teoria secondo cui l'universo è un enorme meccanismo con un impulso come unica causa di movimento, « funzionava come un potente principio euristico: scoraggiava il lavoro sulle teorie scientifiche - come la versione " essenzialista" della teoria dell'azione a distanza di Newton - che erano incompatibili con essa www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese (euristica negativa). D'altra parte, incoraggiava il lavoro su ipotesi ausiliari, che avrebbero potuto salvarla da un'apparente evidenza contraria- come le ellissi di Keplero (euristica positiva) ». Per certi versi Lakatos riprende qui, dunque, le idee sulla «metafisica influente» o sui «quadri metafisici » care a Popper, Watkins, Agassi. Lo stesso termine « programma di ricerca » è di origine popperiana. Nell'Autobiografia Popper, alludendo all'inedito Postscript: after twenty years (Poscritto: dopo vent'anni), ricorda che, già negli anni cinquanta, « uno dei [suoi] scopi era mostrare che il realismo· della Logica [del 1934] era una posizione criticabile o discutibile [... ]. La Logica era il libro di un realista che a quel tempo non osav[a] dire c\i più sull'argomento». E aggiunge: «La ragione "era che non avevo ancora compreso che una posizione metafisica, benché non controllabile [testable], può essere razionalmente criticabile [criticizable] o discutibile [arguable]. Avevo dichiarato di essere un realista, ma avevo pensato che questa non fosse nulla più che una professione di fede. Così, a proposito di una mia argomentazione circa il realismo avevo scritto [nella Logica] che essa esprime la fede metafisica nella esistenza di regolarità nel nostro mondo (fede che io condivido, e senza la quale l'azione pratica è quasi inconcepibile) » [corsivi nostri]. Ma nel perseguire tale obbiettivo, Popper mirava anche « a una rivalutazione del ruolo giocato dai programmi di ricerca metafisici » mostrando «con l'aiuto di un breve profilo storico che c'erano stati mutamenti durante le epoche (nel corso dei secoli) nelle nostre idee, di cui era auspicabile una soddisfacente spiegazione. Tali idee erano mutate sotto la pressione della critica. Erano dunque criticabili, anche se non controllabili. Erano sì idee metafisiche, ma idee metafisiche della massima importanza» [corsivi di Popper], in quanto fornivano «un possibile quadro [Jramework] per teorie scientifiche controllabili ». Con Popper, Watkins, Agassi, ecc. Lakatos conviene che questa è la via per articolare ulteriormente le esigenze di un Koyré o di un Burtt di rivalutare la metafisica contro la « tradizione positivista ». Di più, passi come questo di Popper evidenziano lo stretto legame che intercorre tra programmazione razionale dell'impresa scientifica, continuità e quadri « metafisici » (forse più di quanto permetta una caratterizzazione dello sviluppo scientifico come ininterrotta sequenza di « congetture e confutazioni » !), ma, a detta di Lakatos, Popper, Agassi e Watkins hanno «confuso» non confutabilità sintattica e metodologica, hanno strettamente associato agli asserti della metafisica una particolare caratterizzazione linguistica.! Ma· ciò per Lakatos non è affatto necessario: non è interessante classificare la concezione cartesiana come metafisica in quanto sintatticamente non falsificabile, ma riconos.cere in essa della « cattiva scienza » se, poniamo, il tentativo di reinterpretare in tale quadro concettuale la teoria rivale dell'azione a distanza ha dato luogo a uno slittamento di problema regressivo (nel senso di P· 319). Per Lakatos non ci sono programmi di ricerca metafisici che forniscono x Cfr. quanto detto delle teorie « metafisiche per la loro forma linguistica» nel paragrafo x. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese dall'esterno i quadri concettuali delle teorie scientifiche: la metafisica non è solo un «catalizzatore», è invece il cuore dell'impresa scientifica. Ci pare opportuno, vista la rilevanza che ha in tutta la presente opera il rapport~ scienza /metafisica, f~;nire alletto re un filo rosso su tale questione, di necessità schematico, ma che riteniamo utile al fine di cogliere i tratti specifici delle concezioni delineate in questo capitolo. In un positivista come Comte lo «stadio» metafisico precedeva (epistemologicamente e storicamente) quello della scienza matura (cioè lo stadio « positivo »); per un «nuovo positivista » come Mach la metafisica compenetrava accreditate teorie scientifiche (come la meccanica di Newton) e costituiva una pericolosa insidia nascosta da espellere, obbiettivo questo della stragrande maggioranza dei « posi tivisti logici », almeno nella fase iniziale del neoempirismo; per Popper e gli altri teorici della metafisica influente essa è la «fonte» delle più prestigiose teorie scientifiche, ma ha uno « status » che va attentamente distinto da quello delle teorie scientifiche; per Kuhn è.una fondamentale componente (non certo l'unica, come ha brillantemente mostrato Margaret Masterman l) dei suoi paradigmi entro cui si svolge la ricerca «normale»; per Lakatos, infine, costituisce il nucleo originario da cui muove ogni serio programma di ricerca scientifico. Ci par opportuno aggiungere che tale esito lakatosiano, per così dire, riabilita notevoli affermazioni in cui ci imbattiamo nello scorrere i classici della scienza, come quando leggiamo in Lazare Carnot2 che la « metafisica del calcolo [infinitesimale] » è costituita da quelle « idee primitive che possono lasciare semp~e qualche nube nella nostra mente, ma le cui conseguenze, una volta che siano state dedotte, aprono un campo vasto e facile a percorrersi ». Orbene, tali « nubi » possono offuscare « il limpido cielo » del falsificazionista popperiano, ma non deviare spregiudicati ricercatori dal seguire la direttiva del loro programma di ricerca! N o n pochi studi di storia della scienza, sottolinea Lakatos, hanno evidenziato che certe « differenze di fase » (per usare una locuzione di Feyerabend) accompagnano quasi sempre grandi svolte scientifiche: un grandioso mutamento della cosmologia, come il passaggio dalla teoria geocentrica a quella eliocentrica non necessariamente si produce in accordo con lo sviluppo delle teorie ausiliari, anzi, si verifica spesso il contrario. (Così lo sviluppo di un'adeguata ottica fisiologica è stato «fuori fase» rispetto all'avvento del copernicanesimo e all'utilizzazione del telescopio.) Ma per Lakatos gli scienziati sono in grado, combinando « tenacia » (resistere a pretese confutazioni delle proprie teorie o addirittura procedere « in un mare di anomalie ») e « proliferazione » (presentare sempre nuove alternative teoriche), di far fronte alle «differenze di fase » del loro « ambiente », cioè del complesso di teorie, strumenti, linguaggi, ecc. che la loro epoca offre. La metodologia dei programmi di ricerca accoglie così istanze kuhniane - il cattivo esito di un esperimento non incrina necessaI grafia. Si rimanda al saggio citato nella biblio- z L. Carnot, Réflexions sur !a métapf?ysique du ca/eu! infìnitésima!, I 797. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese riamente la fiducia nel paradigma - e popperiane - è bene disporre di svariate alternative teoriche. La proposta incessante di queste ultime rende « attraente ed esaltante» l'impresa scientifica, come ha sottolineato Feyerabend nello sviluppare il tema della proliferazione; ma la stessa tenacia non è meno razionale. Ma vediamo come Lakatos articola in una metodologia tenacia e proliferazione. Un programma di ricerca muove necessariamente da alcune decisioni metodologiche prese dagli scienziati che promuovono il programma; tali decisioni hanno il compito di dividere una data collezione di ipotesi in due gruppi: un primo gruppo costituisce il «nucleo metafisica» [metaphysical hard-core] del programma e in esso rientrano le ipotesi che si vogliono difendere a ogni costo, le ipotesi cioè che vanno considerate « non falsificabili » in forza di un vero e proprio decreto metodologico. Condizioni iniziali e ipotesi ausiliari che permettono di fare predizioni applicando le ipotesi del nucleo costituiscono invece il secondo gruppo, la « cintura protettiva » [protective bel!] del programma; solo quest'ultima può venire modificata di fronte a confutazioni. Per esempio, l'astronomia copernicana, la teoria della gravitazione di Newton, la teoria della relatività di Einstein sono tre rilevanti esempi di programmi di ricerca che hanno avuto un pieno successo: la tenacia nella difesa dei rispettivi « nuclei » e la proliferazione di teorie nelle rispettive «cinture protettive» (cioè l'articolarsi delle due euristiche) non solo hanno potentemente rinnovato astronomia e fisica, ma hanno gettato nuova luce su altre discipline scientifiche, in primis sulla matematica impiegata in tali teorie. Aggiungiamo subito un altro esempio, in modo da completare quanto detto alle pp. 290-29I e pS-319: il programma di Prout. Questi già in uno scritto anonimo del I 8 I 5 sosteneva che il peso atomico di ogni elemento chimico puro era un numero intero. « Sapeva benissimo, » fa notare Lakatos, « che le anomalie abbondavano, ma diceva che ciò accadeva perché le sostanze chimiche, in cui ci si imbatte di solito, erano non pure: ossia che le relative " tecniche sperimentali" del tempo non erano attendibili, o, detto in altri termini, le teorie " osservative" dell'epoca, alla luce delle quali veniva stabilito il valore di verità dell'asserto base della teoria, erano false. » I difensori della teoria di Prout si gettavano così in un'avventura« rischiosa»: demolire le teorie che fornivano l'evidenza contraria alle loro tesi. Per ottenere questo dovevano rivoluzionare l'affermata ch}mica analitica dell'epoca e modificare le tecniche sperimentali con le quali gli elementi puri dovevano essere separati. Di fatto, aggiunge Lakatos, « la teoria di Prout demolì, una dopo l'altra, le teorie che in precedenza venivano applicate nella purificazione delle sostanze chimiche, [ma] anche così alcuni chimici si stancarono del programma di ricerca e, poiché i successi erano ancora lungi dal conseguire una vittoria definitiva, lo abbandonarono>>. Per esempio nel I 86o Stas, frustrato da alcuni esempi recalcitranti, concluse che la teoria di Prout era « senza fondamento », ma altri « furono più incoraggiati dal progresso che scoraggiati dalla man323 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese canza di un successo completo », sicché illuminante appare un giudizio di Crookes del r886: «Non pochi chimici di riconosciuta fama considerano che si abbia qui [nella teoria di Prout] un'espressione della verità, mascherata da alcuni fenomeni residui o collaterali che non siamo ancora riusciti a eliminare. » E glossa Lakatos: « Ci dovevano essere alcuni altri presupposti falsi nascosti nelle teorie " osservative " sulle quali erano basate " le tecniche sperimentali" per la purificazione chimica e con l'aiuto delle quali venivano calcolati i pesi atomici.» Orbene, per Crookes « alcuni dei presenti pesi atomici rappresentano semplicemente un valore medio » sicché appariva lecito proporre nuove teorie di « frazionamento ». Lakatos conclude il suo resoconto notando che « tali nuove teorie osservative si rivelarono tanto false quanto audaci, e in quanto non erano in grado di anticipare fatti nuovi, furono eliminate dalla scienza [... ]. Come risultò una generazione dopo, c'era un assunto davvero di base nascosto [... ] che due elementi puri devono essere separati con metodi chimici. L'idea che due diversi elementi puri possano comportarsi identicamente in tutte le reazioni chimiche, ma che possano essere separati con metodi fisici, richiedeva un mutamento, una " deformazione" [stretching] del concetto di" elemento puro", che çostituiva un mutamento [... ] del programma di ricerca stesso. Questo slittamento creativo altamente rivoluzionario fu accettato soltanto dalla scuola di Rutherford [... ]. Tuttavia, [esso] fu in realtà solo un risultato collaterale di un diverso (e lontano) programma di ricerca; i seguaci di Prout, in mancanza di questo stimolo esterno, non si sognarono mai, per esempio, di costruire potenti macchine centrifughe per separare gli elementi ». Se abbiamo ampiamente riportato questa lakatosiana ricostruzione razionale di un rilevante « caso storico » è perché non solo essa esemplifica adeguatamente cosa Lakatos intende per « programma che procede in un mare di anomalie », ma anche perché permette di confrontare su un terreno storico le idee di fondo della metodologia dei programmi di ricerca con le tematiche emerse nei paragrafi precedenti. Lakatos recupera e articola maggiormente la tematica delle « premesse nascoste », prospetta un significativo approfondimento delle idee di fondo circa la nozione di « elemento chimico », ripropone la « slittante » [shifting] contrapposizione tra teorie interpretative ed esplicative alla luce di tenacia e proliferazione; certo anche in tale caso chi guardi alla storia della scienza a un primo sguardo vi coglie solo « la ridda » delle ipotesi contrastanti cara ad A gassi; ma una metodologia più attenta alla «dialettica» (Lakatos) tra la componente continuista (o conservatrice) e quella fratturista (o innovatrice) dell'impresa scientifica (anche in prospettiva dei suoi agganci con lo sviluppo tecnologico) permette di scorgere slittamenti razionali dietro mutamenti apparentemente bruschi e di dar corpo a quella hegeliana « astuzia della ragione » evocata nell'articolo del 1964. Le esemplificazioni storiche si potrebbero moltiplicare, come hanno mostrato 32·4 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese lo stesso Lakatos e altri (E. Zahar, C. Howson, J. Worrall, P. Urbach, ecc.), spaziando dalla storia della matematica, della fisica, della chimica, ecc. - discipline ormai« mature» (anche nel senso di Kuhn, in cui cioè la« ricerca normale» è una componente molto forte) - alla psicologia o alla sociologia (ove in molti settori è assai vivo «il dibattito sulle nozioni di base», per usare un'altra locuzione kuhniana); né mancano esempi di «cattiva scienza», cioè di programmi cui a detta di Lakatos spetta ancora l'attributo di« scientifici», ma regressivi (come la stessa « metafisica» cartesiana, cfr. sopra p. 3zo, e il marxismo ). Esemplificheremo ulteriormente nei paragrafi successivi. Qui ci pare ora interessante riprendere quattro spunti, uno per ciascuno dei paragrafi precedenti. Revisione del falsiftcazionismo popperiano. Una volta compreso quale sia il peso delle componenti convenzionalistiche nel falsificazionismo sofisticato e caratterizzata in riferimento al « nucleo » non falsificabile « per decreto metodologico »la continuità della ricerca che sottende la proliferazione delle più diverse teorie nella « cintura protettiva », i sostenitori della metodologia dei programmi di ricerca oltre agli elementi ripresi dal falsificazionismo popperiano (accomodamenti di anomalie che aumentano il contenuto, predizioni di fatti nuovi che abbiano successo, ecc.) vi scorgono tratti nuovi e più specifici, quali la rilevanza che assume in essa l'euristica di un programma. Mentre, osserva per esempio Peter Urbach, «secondo la teoria popperiana della scoperta, la storia della scienza consiste di una successione di teorie non connesse né sotto il profilo logico né quello psicologico e nulla si può predire degli sviluppi futuri della scienza teorica », il « potere euristico » fornisce, per così dire, una misura « di quel che oggettivamente promette un programma di ricerca scientifico». L'idea di fondo è che le « euristiche » possono variare sotto differenti aspetti: per la precisione con cui guidano la costruzione delle teorie che una dopo l'altra realizzano uno slittamento di problema come per il numero di versioni controllabili che possono offrire di certe concezioni chiave, ecc. Di qui, senza addentrarci in una più dettagliata disamina della questione, l'interesse che, in un grande programma, vengono ad assumere certe componenti che prima facle possono parere puramente collaterali: basterà, per chiarire la questione, far riferimento a uno degli esempi preferiti da Lakatos, la gravitazione newtoniana, ove l'analisi infinitesimale è l'elemento chiave che permette sia una sempre più precisa «costruzione di teorie » sia la presentazione di versioni controllabili e per questo rappresenta «una condizione decisiva del successo» (Lakatos). Di qui, sotto un profilo più generale, quella che Lakatos chiama «l'autonomia relativa della scienza teorica: un fatto storico la cui razionalità non può essere spiegata dai precedenti falsificazionisti », cioè dai popperiani più stretti. La ragione di ciò, per Lakatos, sta nel fatto che qualunque problema gli scienziati che lavorano in importanti programmi di ricerca scelgano razionalmente, esso « è determinato dall'euristica 1. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese positiva del programma, più che da anomalie psicologicamente preoccupanti o tecnologicamente urgenti [... ] soltanto quegli scienziati che sono impegnati in esercizi di prova ed errore - oppure che lavorano in una fase regressiva di un p~rogramma di ricerca devono fissare saldamente la loro attenzione sulle anomalie ». La pratica scientifica non segue sempre la ricetta di Popper. Questa è per Lakatos la ragione di fondo del fatto che « la ricostruzione del progresso scientifico come proliferazione di programmi di ricerca rivali e slittamenti di problema progressivi e regressivi, dà un'immagine dell'impresa scientifica per vari aspetti ben diversa dall'immagine che ne fornisce la sua ricostruzione come successione di audaci teorie e del loro drammatico rovesciamento. [... ]. La differenza più importante dalla versione originaria di Popper consiste [... ] nel fatto che nella [nuova] concezione la critica non liquida- e non deve liquidare [kill]- con la rapidità che immaginava Popper. La critica puramente negativa e distruttiva, come la " confutazione" o la dimostrazione di una incoerenza, non elimina un programma. La critica a un programma è un processo lungo e spesso frustrante e bisogna trattare con indulgenza i programmi al momento del loro nascere. Si può ovviamente smascherare la degenerazione di un programma di ricerca, ma solo la critica costruttiva, appoggiata da un programma di ricerca rivale, può riportare un successo reale; e risultati drammatici e spettacolari diventano visibili soltanto con uno sguardo all'indietro mediante una ricostruzione razionale ». 2. La tesi di Duhem-Quine. Per Lakatos «vi è addirittura, purché si sia dotati della giusta dose d'immaginazione, un numero infinito [corsivi nostri] di possibili modi in cui sostituire una qualsiasi delle premesse (nel modello deduttivo) ricorrendo a una modificazione in qualche lontana regione della conoscenza globale Uuori del modello deduttivo)» qualora si produca quello che il falsificazionista ingenuo eti- chetta come conflitto tra una « teoria » e un « fatto »; questa « banale considerazione » può addirittura venir riformulata come la tesi per cui « ogni controllo mette alla prova l'intera nostra conoscenza »; ciò non pertanto questa caratterizzazione dei« controlli» (che Popper bollerebbe come« olistica »)non costituisce una difficoltà per « il falsificazionista sofisticato »; la tesi di Duhem-Quine nella sua versione debole (cfr. p. 285) è compatibile con tale concezione: in questa prospettiva la « mossa » razionale di fronte a una « esperienza recalcitrante » non consiste tanto. nell'eliminare una ben definita premessa utilizzando il modus tollens, ma nel modificare l'originario modello deduttivo. Ma Lakatos ha ammesso (tessendo, di fatto, l'elogio della «immaginazione creativa») che in ogni caso rilevante disponiamo in realtà di un numero infinito di mosse del genere: come può allora pretendere di recuperare il meglio dell'insegnamento di Duhem o di Popper? Come, in altri termini, può giustificare nell'ottica di un falsificazionismo sia pure 1 sofisticato » l'inevitabile riduzione di tale infinita gamma di possibilità a un insieme finito di alternative che una data équipe di ricercatori via via im- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese bocca, senza fare concessioni a un pragmatismo à la Quine (che per Lakatos non è altro che una forma di irrazionalismo)? Qui interviene, col suo carattere specifico e distintivo rispetto alle concezioni di Popper, una delle idee di fondo della metodologia dei programmi di ricerca: la ricerca delle alternative non è lasciata a un cieco tirar ad indovinare [guess] ma si articola in un definito « quadro concettuale » e, se questa è una formulazione che ancora risente della « metafisica influente », si deve ribadire, con un altro protagonista della « rivoluzione convenzionalista» di fine Ottocento (della quale Lakatos proclama di aver assimilato nella propria metodologia «l'eredità migliore»), Gaston Milhaud, che se la contraddizione di una « teoria» con un « fatto » « mostra semplicemente la necessità di modificare almeno uno degli elementi » di un insieme di premesse « più complesso » di quanto non paia a una considerazione ingenua, « nessuno di tali elementi è però direttamente designato e, in particolare, l'idea guida [l'idée maftresse] della nostra ipotesi, quella che la caratterizza in modo essenziale, può essere conservata per tutto il tempo che ci si permetterà di indirizzare le correzioni su elementi [da essa] differenti »; Lakatos non fa altro, a nostro avviso, che seguire la strada imboccata da Milhaud di fronte agli argomenti di Duhem, con un'importante conseguenza per la tradizione Jalsificazionista di stampo popperiano: nella metodologia dei programmi di ricerca, infatti, « è consentito sostituire una parte qualsiasi del corpo della scienza, ma solo a condizione che venga sostituita in modo " progressivo ", in modo cioè che la sostituzione anticipi con successo " fatti nuovi "; nella ricostruzione razionale della falsificazione [che tale metodologia consente] gli " esperimenti cruciali negativi" non hanno ruolo alcuno »: un gruppo di ricercatori può « con ostinazione » restare aderente a una « idea guida », tentare di riassorbire anomalie nel proprio programma, difendere contro controesempi il nucleo, purché tutto ciò « avvenga in modo progressivo ». In questa prospettiva, eliminare un programma, chiarisce Lakatos, significa solo decidere di non lavorare più con esso e passare a uno che promette maggior successo empirico, significa cioè adottare un quadro concettuale più flessibile per l'incessante proliferazione delle nostre alternative teoriche. Riqualificando in questo modo la falsificazione Lakatos ritiene non solo di poter assimilare la versione debole della tesi di Duhem-Quine, ma anche di paterne eludere la versione forte (cfr. p. 28 5) (« questa si incompatibile con ogni forma di falsificazionismo »i,; il prezzo che si deve pagare è la rinuncia alla « razionalità istantanea » implicita nella concezione popperiana della confutazione. 3· Matematica e discipline non empiriche. Nei contributi di Lakatos analizzati nel paragrafo 111 l'idea di fondo era che «le teorie della matematica pura dovessero essere soggette a criteri di valutazione metodologica analoghi a quelli cui sono sottoposte le teorie delle discipline empiriche » (C. Howson); gli strumenti concettuali e la terminologia stessa non erano però quelli dell'articolazione ma327 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese tura della metodologia dei programmi di ricerca; in questa, per altro, i criteri che dovrebbero permettere di riconoscere il carattere «progressivo» di un programma sono ancora « di pretto stampo popperiano » (accettabilità!, e accettabilità~, cfr. p. 319 e fanno essenziale riferimento al «contenuto empirico» (l'insieme dei falsificatori potenziali) delle singole teorie prese in considerazione. Ma un « contenuto empirico » è definibile anche per le teorie matematiche? La risposta negativa tradizionale è che la base empirica presente nelle scienze fisiche, biologiche, sociali, ecc. manca in matematica: il mondo reale, in quanto può venir localmente indagato con tecniche sperimentali, impone dei vincoli all'accettabilità delle teorie nelle discipline empiriche, ma un termine di confronto del genere non può essere invocato per una teoria matematica, a meno di non assumere il punto di vista radicale dell'induttivismo milliano circa « i principi » della matematica! Ma tale risposta è per Lakatos schemati ca e non tiene conto della possibilità di delineare un tipo di « empirismo matematico » sofisticato lontano dall'induttivismo almeno quanto lo è, per le scienze empiriche, il falsificazionismo sofisticato. La prospettiva indicata da Lakatos (riprendendo e riutilizzando liberamente spunti sia del platonismo che dell'intuizionismo matematico, cfr. in particolare p. 300) già negli anni sessanta, è stata ripresa da altri sostenitori della metodologia dei programmi di ricerca negli anni settanta. Per esempio, secondo Colin Howson, « c'è poca differenza epistemologica tra osservare la deviazione della lancetta di un galvanometro e affermare, per esempio, un principio di induzione nella teoria dei numeri »: in entrambi i casi si forniscono degli « asserti di controllo » che sono « impregnati di teorie », anche se in un caso l'oggetto del controllo è una teoria fisica, poniamo elettromagnetica, e nell'altro una teoria matematica dai cui principi si ottengono conseguenze aritmetiche come, poniamo, una particolare teoria degli insiemi. Orbene, conclude Howson, « il fatto che già nel controllare una teoria empirica universale sia necessario accettare come vere (seppur provvisoriamente) certe teorie ausiliari mostra che la " base empirica" delle stesse discipline empiriche non differisce neppure sintatticamente da quella che è stata indicata come " base empirica" delle teorie matematiche: nessuna delle due " basi" è in realtà caratterizzabile sintatticamente, dal momento che consiste di un misto di proposizioni esistenziali e universali». Se la celebre immagine neurathianal della nave che viene riparata in mare aperto rappresenta efii cacemente la ricerca empirica, essa si adatta altrettanto bene anche a quella matematica. Ciò premesso, la metodologia dei programmi di ricerca diviene in via di principio applicabile alla matematica: anche in tale contesto dovrà essere possibile specificare « nuclei » e « cinture protettive » dei vari programmi e applicare quei criteri che permettono di valutarne il carattere progressivo o regressivo. In particolare, in matematica, saranno le teorie più affermate, accettate pacifiI Cfr. capitolo XIV del volume settimo, p. 467. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese camente dalla comunità matematica e la costellazione di tutte quelle concezioni ritenute « intuitivamente plausibili» (Polya) a fornire i riferimenti « empirici» o « quasi-empirici» per i programmi di ricerca matematici. Un tipico sviluppo sarà, poniamo, il seguente: un programma che con successo risolve i problemi alla cui soluzione originariamente era destinato, introdurrà nuovi linguaggi e nuove teorie, in cui dovrà tradurre discipline già esistenti e formatesi autonomamente, in modo che il programma le possa proficuamente assimilare (possa cioè utilizzare le traduzioni dei teoremi « tradizionali » di tali teorie): l'interesse si focaliz2:erà sulle traduzioni non banali ave lo sviluppo del programma apre nuovi problemi; e la misura in cui l'euristica del programma fornisce soluzione a quest'ultimi permetterà una prima valutazione del programma stesso, ecc. Come il lettore ormai si aspetta, coloro che adottano anche in matematica (ed eventualmente anche in altre discipline non empiriche) 1 la metodologia lakatosiana, andranno alla ricerca di « casi storici » che svolgano in questo contesto un ruolo analogo a quello svolto dal « programma di Prout » da noi riportato sopra per la metodologia dei programmi di ricerca riferita alle scienze empiriche: quello di mostrare, come già la storia della congettura sui poliedri analizzata da Lakatos in Dimostrazioni e confutazioni, che tali canoni sono al contempo più vicini alla effettiva pratica della ricerca di quelli strettamente popperiani (cfr. del resto i punti r e 2) e più soddisfacenti per una prospettiva « oggettivista » (nel senso di Popper) delle considerazioni nello stesso tempo «descrittive e normative » (Feyerabend) di Kuhn. 4· Il «programma di ricerca» di Kuhn. Violando il «codice d'onore» popperiano, nota Lakatos, gli scienziati di frequente («e razionalmente») affermano « che non ci si può fidare dei risultati sperimentali, o che le discrepanze che si afferma esistano tra i risultati sperimentali e le teorie sono solo apparenti e svaniranno col progredire della nostra comprensione» (Popper 1934). Nel far ciò essi adottano davvero « l'opposto di quell'atteggiamento critico che secondo [Popper] è l'unico veramente adatto a uno scienziato» [ibidem]? Nella Logica del '34, osservava già Neurath, Popper ha attribuito a dei filosofi- i convenzionalisti - una forma di conservatorismo intellettuale che si riscontra invece nella pratica effettiva degli scienziati. Le osservazioni kuhniane circa « la funzione del dogma » e il ruolo essenziale svolto nell'impresa scientifica dalla « ricerca normale >~ rappresentano dunque, in ultima analisi, una conferma della ragionevolezza del rifiuto neurathiano del tàlsificazionismo? O possono suonare addirittura come una riabilitazione del vecchio convenzionalismo conservatore, una dottrina «filosofica» dopo tutto più vicina alla pratica degli scienziati dell'astratto « ideale » (Neurath) popperiano? Si può ancora rispondere negativamente, per , Per esempio nell'etica o anche, come ve- dremo tra poche pagine, nella stessa metodologia scientifica. www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Lakatos, a tali domande, se si tiene conto che « dogmatismo » o « ricerca normale» (per usare le locuzioni favorite di Kuhn in La funzione del dogma e in La struttura delle rivoluzioni scientifiche rispettivamente) sono componenti di progresso finché si riconosce, come più volte abbiamo ricordato nelle pagine precedenti, che esiste una scienza normale «buona» (progressiva) e che esiste una scienza normale « cattiva» (regressiva) e si conserva « la determinazione di eliminare in certe condizioni oggettivamente definite alcuni programmi di ricerca». Per Lakatos, dunque, Kuhn ha ragione: 1) nel criticare il falsificazionismo «ingenuo »; z) nel porre in risalto la continuità del progresso scientifico e la tenacia di alcune teorie scientifiche; ma ha torto nel ritenere che una volta demolito il falsificazionismo « ingenuo » abbia demolito con questo ogni tipo di falsificazionismo e nell'opporsi a tutto il programma dì ricerca popperiano. Dice Lakatos: « confrontando Hume, Carnap e Popper, John Watkins fa osservare che la crescita della scienza, secondo Hume, è induttiva e non razionale, secondo Carnap, induttiva e razionale, non induttiva e razionale secondo Popper. Ma il confronto di Watkins può essere esteso aggiungendo che tale crescita è, secondo Kuhn, non induttiva e non razionale. Secondo il modo di vedere di Kuhn, non ci può essere logica, ma solo psicologia della scoperta ». Per Kuhn, anomalie e anche incoerenze abbondano sempre nella scienza, ma nei periodi «normali» il paradigma dominante assicura un modello di sviluppo che può essere rovesciato solo da una « crisi». Ma, obbietta Lakatos, « crisi è un concetto psicologico »; di più, quando, dopo la crisi, è emerso un nuovo « paradigma » kuhniano, questi « offre una razionalità totalmente nuova. Non ci sono standards metaparadigmatici. Il mutamento consiste nell'accodarsi al carro del vincitore. Cosi, secondo la concezione di Kuhn la rivoluzione scientifica è irrazionale, è materiale per la psicologia della folla». Ma, se è vero che Popper ha sostituito al vecchio problema dei fondamenti il nuovo problema della crescita critica e fallibile, un « miglioramento » del programma popperiano in grado di rendere razionalmente conto della continuità nella rivoluzione, come quello che la metodologia dei programmi di ricerca ritiene di poter fornire, è per Lakatos sufficiente a eludere tutte le critiche kuhniane. La kuhniana psicologia della scienza può « rivelare importanti verità » sia al metodologo che allo storico, ma occorre ricordare che essa « non è autonoma », in quanto « la crescita della scienza razionalmente ricostruita, ha luogo essenzialmente nel mondo delle idee, nel "terzo mondo" di Platone e di Popper, nel mondo della conoscenza [... ] indipendente dai soggetti conoscenti ». Se il programma di Popper mira a una descrizione di questa oggettiva crescita scientifica, quello di Kuhn sembra mirare invece alla descrizione del mutamento del pensiero scientifico («normale») (sia individuale che comunitario).« Ma,>> conclude Lakatos, «l'immagine del terzo mondo riflessa nello spirito dei singoli scienziati [... ] è in genere una caricatura dell'originale: e descrivere questa caricatura senza metterla in relazione col suo originale nel terzo mondo può diventare la caricatura di una caricatura. » www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Di qui, per lo stesso storico della scienza, l'importanza della ricostruzione razionale. Per Lakatos la filosofia della scienza fornisce « metodologie normative » nei cui termini lo storico ricostruisce quella che usualmente è chiamata « storia interna », offrendo una spiegazione razionale della crescita della conoscenza oggettiva. Il nostro autore non nega che «qualsiasi ricostruzione razionale della storia abbia poi bisogno di essere integrata da una storia "esterna" empirica>>, ma ribadisce il carattere preliminare della storia «interna», che seleziona, per cosl dire, quei problemi che in una prospettiva più ampia riprenderà lo storico « esternista ». Com'è noto, fiumi d'inchiostro sono stati spesi sulla distinzione storia interna fstoria esterna e non è qui possibile accennare a tutti quegli autori - filosofi, metodologi, scienziati, storici della scienza, della filosofia,. della cultura, ecc. - che hanno argomentato pro o contro questa « grande divisione ». Basti dire che ancora nel I968 Kuhn definisce, prescindendo dal riferimento a metodologie particolari, la storia interna come « storia intellettuale » e quella esterna come « storia sociale », risolvendo, sulla scia di M. Polanyi, il problema della valutazione delle teorie in quello delle motivazioni che spingono i membri di una comunità scientifica ad accettare una data autorità. La novità dell'approccio di Lakatos sta invece nel presentare la dicotomia interno /esterno in modo dinamico e non statico, in quanto la demarcazione tra storia della scienza « normativainterna » ed « empirica-esterna » differisce a seconda della metodologia. È proprio in questo modo che per Lakatos I) si può evitare il pericolo di una risoluzione della storia della scienza sia nell'epistemologia sia, al polo opposto, nella storia delle istituzioni scientifiche senza alcun riferimento all'analisi delle teorie o dei programmi di ricerca; z) si può far fronte a quella separazione tra« ontogenesi » e « filogenesi » del pensiero scientifico che A gassi nel suo contributo del I 96 3 (cfr. paragrafo 1) lamentava e assimilare al contempo molte istanze presenti nei critici della reichenbachiana distinzione tra contesto della scoperta e contesto della giustificazione (cfr. paragrafo IV) senza nulla concedere però alle tesi « auto.ritaristiche » di Polanyi e di Kuhn. Se nel citato lavoro di Agassi, lo storico della scienza si rivolgeva al metodologo (nella fattispecie a Popper), qui invece il metodolago controlla alla luce della storia le varie metodologie fornendo i« problemi rilevanti» allo storico. Come ha osservato nel I97I Y. Elkana, un raffinato studioso dello svilup.po della fisica dell'Ottocento, Lakatos ha così « brillantemente riformulato un [classico problema], come la filosofia della scienza[ ... ] possa essere una guida naturale per la storia della scienza » e al contempo « ha sfidato gli storici sul loro stesso terreno ». Il compito della storia esterna è dunque quello di giustificare il « residuo non razionale » (alla luce della particolare teoria della razionalità adottata) dell'impresa scientifica e per Lakatos è auspicabile ridurre il più possibile tale residuo, sicché risulteranno preferibili teorie della razionalità che consentono ricostruzioni razionali più ampie e articolate. Lakatos esempl':fica con quattro di tali teorie o « logiche della scoperta »: le tradizionali « logiche » dell'induttivi- 331 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese smo e del convenzionalismo, già affrontate a suo tempo da Agassi, la popperiana « logica » falsificazionista e infine la stessa metodologia dei programmi di ricerca scientifici. L'induttivismo, sia nella forma classica («baconiana») che in quella neo classica (propria di empiristi logici come Reichenbach o anche Carnap ), riconosce a detta di Lakatos solo due tipi di genuine scoperte, le mere proposizioni fattuali e le generalizzazioni induttive (assolutamente certe per l'induttivista classico; altamente probabili per il neoinduttivista); conseguentemente le rivoluzioni scientifiche consistono essenzialmente nello smascherare errori, pregiudizi, anticipazioni infondate. Ne scende immediatamente che, dopo ogni rivoluzione, si deve riscrivere la storia: la storia di una teoria sconfitta non è storia di una teoria scientifica, ma di una teoria (che si è rivelata) pseudoscientiftca e rientra quindi« in una storia di mere credenze». Tra i « paradigmi vittoriosi» l dell'induttivismo spicca, come di fatto accade in molte tradizionali storie della fisica, la gravitazione newtoniana, intesa come generalizzazione (per induzione) dalle leggi di Keplero e di Galileo. La seconda teoria è quella convenzionalistica, per cui l'impresa scientifica consiste nella costruzione di sistemi di reti in cui imprigionare i fatti: il convenzionalista decide di tenere intatto il centro di tale sistema il più a lungo possibile; quando sorgono difficoltà (cioè emergono anomalie), cambia le disposizioni periferiche. Non necessariamente .si deve aderire per sempre a un certo sistema di reti; piuttosto si deve abbandonarlo se diventa troppo pesante e se viene proposto come sostitutivo uno più semplice. Per entrambe le versioni, comunque, a livello teorico, la scoperta è una semplificazione: le rivoluzioni scientifiche sono mutamenti di carattere meramente strumentale. Ne consegue che, dopo ogni «rivoluzione», non occorre riscrivere la storia; più tollerante dell'induttivismo, il convenzionalismo non relega nella pseudoscienza i sistemi che via via sono stati abbandonati. Anche la storiografia convenzionalista ha i suoi paradigmi, tra cui spicca la rivoluzione copernicana. La terza teoria della razionalità, il falsificazionismo di Popper, Watkins, Agassi, ecc., intende una scoperta come la proposta di un'audace congettura, la rivoluzione come il rifiuto, via falsificazione di tale proposta: conseguentemente « lo storico popperiano va in cerca di teorie tàlsificabili e di esperimenti cruciali negativi: questo è lo scheletro della sua ricostruzione razionale ». I paradigmi preferiti dalla ricostruzione popperiana sono, non a caso, teorie come quelle p re-einsteiniane dell'etere e l'esperimento di Michelson e Morley, o le formule di Rayleigh, Jeans e Wien per il corpo nero e gli esperimenti di Lummer e Pringsheim, ecc. Infine, al popperiano non tocca l'oneroso compito di riscrivere la storia dopo ogni rivoluzione; di più, se l'insistenza sulla falsificazione può indurre il pessimista che guardi a posteriori alla storia della scienza a vedervi solo « un cimitero di morte teorie », la popperiana insistenza sulla crescita della conoscenza ci lascia l'ottimistica assicurazione di I Naturalmente in questo contesto il ter- mine « paradigma » è impiegato nell'usuale accezione (e non in quella kuhniana). www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese «poter imparare dagli errori». Un progresso, dopo tutto, è possibile; il popperiano mantiene, grazie alla teoria della verisimilitudine, l'ideale « regolativo » dell'approssimazione alla verità. La quarta teoria della razionalità è la metodologia dei programmi di ricerca; come abbiamo già detto, essa fa proprie non poche istanze popperiane e kuhniane, rielabora spunti del convenzionalismo di Duhem e di Milhaud, cerca i suoi paradigmi in grandi progetti scientifici difficilmente ricostruibili come « sconnesse catene di congetture e confutazioni »: quel che per Popper, Watkins, Agassi, ecc. resta «esterno», a cominciare dal « nucleo metafisica » diventa qui « internÒ », viene sottolineato il ruolo dell'euristica nella scelta dei problemi, si pretende infine di cogliere appieno quella « continuità » che costituiva invece il punto debole, anche sul piano storico, dell'approccio di Popper. Come il convenzionalismo ha demolito la «logica della scoperta» induttivista mostrando, con un'analisi storica, che i suoi paradigmi preferiti erano scelti male, e come non poche ricerche storiche hanno a loro volta mostrato i punti deboli di una applicazione storiografica della teoria convenzionalistica della semplicità sul terreno della storia della scienza, così, per Lakatos, lo storico può con pieno diritto ribattere al popperiano che, se di fronte a una miriade di anomalie, di controesempi, addirittura di incoerenze logiche, una teoria deve essere abbandonata in ossequio al «codice d'onore falsificazionista », di tàtto ben pochi scienziati hanno seguito tale direttiva. Di fronte al mare di anomalie che i cartesiani opponevano loro non si sono mostrati irrimediabilmente dogmatici i seguaci di Newton che hanno tenacemente difeso la teoria della gravitazione? E nel calcolo infinitesimale, sviluppatosi addirittura su fondamenti incoerenti, l' Allez en avant, la Joi vous viendra di d' Alembert non rappresenta forse per il popperiano il non plus ultra dell'insensatezza? E infine, i Michelson, i Morley, o i Lummer e i Pringsheim erano davvero consapevoli di eseguire degli esperimenti cruciali falsificanti? Ricostruiti razionalmente alla luce della metodologia dei programmi di ricerca, tutti « i casi storici » qui invocati depongono contro la popperiana teoria della falsificazione; gli scienziati (matematici inclusi) non si lasciano turbare da « anomalie » e un esperimento si rivela «cruciale» solo «retrospettivamente». Non c'è, come già abbiamo accennato, « razionalità istantanea »: la nottola di Minerva spicca il volo al crepuscolo. ~orge però un dubbio. Se la teoria della razionalità dell'induttivismo, del convenzionalismo e dello stesso falsificazionismo sono state tutte « falsificate » dalla storia, non sarà possibile falsificare anche la stessa teoria della razionalità che Lakatos propone? E, più in generale, se la storia smentisce le sue « ricostruzioni razionali », ha ancora senso parlare di « teoria della razionalità », « logica della scoperta», «storia interna», ecc.? Non si deve dopotutto adottare quella idea « della verità per consenso » continuamente mutevolé; proposta a più riprese da Polanyi? Per Lakatos la via da seguire non è questa, che porterebbe a 333 www.scribd.com/Baruhk Filoso~ della scienza e storia della scienza nella cultura di lingua inglese una forma di conservatorismo intellettuale (e, conseguentemente, anche a una politica culturale conservatrice): le teorie della razionalità via via proposte danno invece luogo a veri e propri « programmi di ricerca » in campo storiograftco, a cui può essere applicata l'analisi fin qui delineata per i programmi scientifici. Dobbiamo allora, di nuovo, farci intimorire da « anomalie » o non piuttosto valutarne il carattere « progressivo » o « regressivo » a seconda dei « fatti nuovi » che predicono o meglio retro-dicono (trattandosi di ricerca storica, e quindi ovviamente, rivolta al passato)? La storia non solo falsifica, ma anche « corrobora le sue ricostruzioni razionali »: più è audace e più è corroborata (in questa accezione particolare), più una ricostruzione razionale della storia del pensiero scientifico è accettabile (accettabile1 e accettabile 2). Di più, se davvero, come vogliono Popper e Watkins, Agassi e Medawar, la storia vuoi essere il banco di prova delle varie metodologie, la riflessione metodologica non può concernere solo un gioco, il popperiano « gioco della scienza »; le valutazioni metodologiche stesse, nonostante l'orrore popperiano per l'induzione, vanno collegate all'idea regolativa della verisimilitudine, della approssimazione alla verità, mediante « principi induttivi sintetici » che riconferiscano a tali valutazioni un autentico significato epistemologico.! Le considerazioni di « metodo » non sono solo flessibili e fallibili, come Popper stesso riconosce; possono essere or:ganizzate in programmi di ricerca metodologici (o « metaprogrammi ») a loro volta controllabili alla luce di quei particolari « falsificatori potenziali » forniti dai normative Basissatze, dagli asserti base normativi, « impregnati di valori » più o meno condivisi dalla comunità dei ricercatori nel tortuoso cammino della scoperta scientifica. VI· INCOMMENSURABILITÀ DELLE TEORIE E DIFFICOLTÀ DI COMUNICAZIONE Abbiamo visto articolarsi il progetto lakatosiano in tre direttive, programmi di ricerca scientifici, storiograftci e metodologici movendo sia dalla revisione del modello di Popper del mutamento scientifico sia dalla versione oggettivistica di certi temi kuhniani. Ma vari critici, e in particolare l'« ex popperiano » Pau l Feyerabend, trovano tutto ciò compromesso da un grave ostacolo, rappresentato dalla questione della « varianza di significato» [meaning variance] e dalla conseguente «esistenza di teorie incommensurabili ». Non è nostra intenzione affrontare qui nella sua generalità tale complessa problematica che: i) ha ormai una storia relativamente lunga, in quanto risale alla contrapposizione del convenzionalismo fratturista e radicale di Le Roy a quello continuista e moderato di 1 Un tale principio per Lakatos sarebbe per esempio quello che fa del grado di corroborazione di Popper (cioè di una valutazione di carattere convenzionale) la misura della verisimili- tudine. Un altro « principio induttivo » potrebbe essere questo: « quel che la comunità degli scienziati professionisti decide di accettare come vero, è vero» ecc. 334 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Poincaré e di Duhem; ii) ha conosciuto una significativa ripresa con l'empirismo logico negli anni trenta, quando si trattava di sottolineare la « novità» e la sostanziale « incompat:bilità » delle nuove conquiste della fisica - in particolare relatività e teorie quantistiche - rispetto alle concezioni tradizionali difese dalle componenti più conservatrici della comunità scientifica; iii) è riemersa negli anni sessanta nel contesto della cultura epistemologica di lingua inglese come potente tesi ausiliare per molte concezioni che più o meno direttamente si opponevano alla «concezione canonica» dell'empirismo logico; iv) infine appare strettamente connessa a quelle tesi circa l'osservazione impregnata di teorie e la dipendenza dei significati dei termini dal contesto che abbiamo visto (paragrafo Iv) svolgere un ruolo essenziale nelle concezioni di Hanson e di Toulmin, nonché nello stesso Kuhn dei primi anni sessanta. Ciò premesso, in questo paragrafo ci limiteremo a riprendere certi spunti del paragrafo IV e a dare una sintetica formulazione della varianza di significato utilizzando alcuni contributi di Mary Hesse e di Jerzy Giedymin1 in cui la questione è stata esposta con notevole lucidità; dedicheremo quindi alcune pagine all'« anarchismo metodologico » di Feyerabend che insiste sulla incommensurabilità di teorie, programmi, paradigmi rivali e alla revisione della concezione « per paradigmi » della scienza che Kuhn è venuto sviluppando dal I965, revisione in cui Kuhn riformula la propria tesi circa le « difficoltà di comunicazione » tra sostenitori di paradigmi rivali. 1. Varianza di significato. Non c'è linguaggio osservativo «neutro»; i termini « teorici » dipendono strettamente dal contesto: non possiamo da queste due premesse dedurre la tesi secondo cui «i significati [meanings] di tutti i termini extralogici di una teoria emp'irica sono determinati dall'intero contesto teorico e cambiano a qualsiasi cambiamento in tale contesto »? Se la risposta è affermativa, questo appare l'esito inevitabile cui portano le premesse di Hanson e di Toulmin. Prima di domandarci (come faremo tra poche pagine) di che natura siano tali premesse e se tale deduzione sia corretta, riteniamo opportuno dare un esempio già utilizzato nei dibattiti degli anni trenta e tornato negli anni sessanta al centro dell'attenzione come rilevante esempio di «rivoluzione scientifica»: il conflitto tra la meccanica classica (MC) e la relatività speciale (RS). Orbene: « forza », « massa », ecc. in M C significano qualcosa di diverso da «forza», «massa», ecc. in RS, se applichiamo la tesi della varianza di significato nella formulazione su accennata. Meglio sarebbe, tra l'altro, se si vuol ancora parlare di «conflitto» tra MC e RS, premettere a questo termine l'aggettivo « apparente »: date due teorie prima facie incompatibili nessun termine della prima ha lo stesso significato nella seconda e dunque nessun enunciato (nemmeno ( 1 Cfr. la bibliografia del presente capitolo posta alla fine del volume. 335 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese osservati v o) in cui compaia un tale termine può essere in una relazione logica come conseguenza, contraddizione, compatibilità, ecc. con alcun enunciato della seconda teoria in cui compaia quel termine; in particolare neanche il ricorso all' osservazione può decidere tra due teorie prima facie in conflitto: a rigore, più che incompatibili, esse sono « incommensurabili >>. Dobbiamo da ciò immediatamente dedurre che Einstein non ha mai criticato la meccanica classica dal nuovo punto di vista perché non poteva farlo o che i difensori di questa hanno vaneggiato nel formulare argomentazioni contro la relatività ispirate al vecchio punto di vista? Prima di accettare simili drastiche conclusioni (che implicherebbero una rottura totale della comunicazione tra sostenitori di concezioni diverse e che farebbero della vittoria di una concezione sull'altra solo «una vittoria della propaganda», riducendo a «falsa coscienza» la pretesa dei sostenitori e degli oppositori di avere argomenti razionali pro o contro), ci pare opportuno puntualizzare alcuni aspetti seguendo alcune argomentazioni di Giedymin che ci paiono estremamente convincenti: a) L'approccio tradizionale (dai convenzionalisti agli empiristi logici) è di tipo essenzialmente logico; quello degli anni sessanta è invece molto più preciso nei particolari storici. Tuttavia il problema della comparabilità delle teorie, ribadiamo con Giedymin, resta « un problema logico, semantico, e non storico, sociologico e psicologico». Con ciò non si vuole negare che le soluzioni di tale problema concernino la storia delle scienze, ma solo sottolineare che, senza le adeguate mediazioni, trasferire tali soluzioni dal piano logico a quello storico può portare a situazioni paradossali o a schematismi non sostenibili alla luce di una ricerca storica sufficientemente approfondita. Il problema della comparabilità è un problema storico nella misura in cui può venir riferito a teorie storicamente determinate, come MN e RS; ma è illusorio aspettarci una soluzione univoca del problema se le teorie in questione siano o no commensurabili dal solo esame delle fonti. b) Infatti il problema è formulato in maniera incompleta se non si precisano a livello logico nozioni tradizionalmente ambigue, come « significato », « interpretazione », « sinonimia », ecc. Per chi « fugge dall'intensione » (come Quine, Scheffier) la via è quella di sostituire ai « significati » le « denotazioni »; questa è, per altro, la procedura seguita anche dagli autori che hanno affrontato il problema via teoria dei modelli. La situazione è ancor più complicata se l'approccio è di tipo intensionale e se si ammettono differenti logiche per definire relazioni tra espressioni e vengono prese in considerazione teorie basate su logiche differenti. Infine se si esaminano teorie storicamente determinate, queste nella maggior parte dei casi sono formulate in modo che non vi è un metodo effettivo per decidere se un'espressione arbitraria appartiene o no al linguaggio della teoria. Sicché a domande come « MN e RS hanno qualche espressione in comune? », « MN e RS sono logicamente confrontabili? » non si può rispondere senza decisioni che permettano di esplicare termini metalogici come « significato », « interpreta- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese zione », « sinonimo », ecc. e di riformulare le teorie in questione in opportuni linguaggi logici. Certe scelte renderanno le teorie logicamente confrontabili, altre no. Le risposte alle nostre domande, per dirla ancora con Giedymin, sono « risposte sub condicione ». c) Riprendiamo il caso di MN e RS con un riferimento esemplificativo al « positivista » Philipp Frank. Questi, come Kazimierz Ajdukiewicz e altri prima di lui, era consapevole della disparità concettuale tra MN e RS; nel suo Foundations of physics (Fondamenti di fisica, 1938) si discutono dettagliatamente le differenze sintattiche e semantiche tra i concetti fondamentali delle due teorie («massa», «lunghezza», «forza», ecc.) su cui si basano le asserzioni di nontraducibilità e non-comparabilità di MN e RS. La tesi cui Frank perviene in quest'opera è che, nonostante la «disparità concettuale», MN e RS sono logicamente confrontabili: anzi, la tesi di Frank è che la loro parziale disparità concettuale risulta dalla loro incompatibilità logica (quindi a ragione sono considerate due teorie rivali); con il che Frank poco concede alla tesi dell'incommensurabilità a livello logico; ma la sua può essere anche interpretata come una lezione di cautela per lo storico troppo incline a riscontrare nella dinamica delle teorie scientifiche insanabili fratture. d) Che non ci sia dunque una risposta univoca alla questione della comparabilità logica di due teorie viene evidenziato per altro dal fatto che un linguaggio può venir esteso in più modi arricchendo il suo vocabolario con nuove espressioni extralogiche e con regole per il loro uso; l'intera questione va quindi relativizzata alle estensioni dei linguaggi che si è disposti a prendere in considerazione (come già Ajdukiewicz sottolinea nel 1934 e Giedymin riprende alla fine degli anni sessanta); alcune estensioni lasceranno i significati (o Je le denotazioni) di tutti i termini primitivi inalterati mentre altre estensioni modificheranno i significati (o Je le denotazioni) di certi termini primitivi; se poi non vengono imposte restrizioni alle estensioni e alle regole allora due qualsiasi linguaggi (e rispettivamente due qualsiasi teorie) potranno sempre venir trasformati in linguaggi (rispettivamente teorie) logicamente confrontabili. In Lakatos ci si imbatte nell' osservazione che si possono sempre rendere due teorie logicamente compatibili fornendo «un opportuno dizionario». Non sempre tale operazione è sterile; essà va inquadrata nella pianificazione del confronto (o dello scontro) con le teorie precedenti o rivali; «dizionari», «prescrizioni metodologiche », «scelte di particolari linguaggi », sono elementi che assicurano la possibilità della critica tra le varie teorie (e non solo all'interno di una singola teoria, possibilità che, come vedremo, anche Feyerabend concede) e possono perciò aver una loro funzione, sia nella pianificazione razionale (a livello metodologico), sia nella ricostruzione razionale (a livello storico), purché si individui l'unità dello sviluppo non in teorie, ma in serie di teorie o, se si vuole, in progranfmi di ricerca. e) Un approccio « razionalistico »(come quelli di Popper e di Lakatos) sem337 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese bra certo richiedere un linguaggio in cui si possono formulare argomentazioni critiche; ma non necessariamente tale linguaggio dev'essere rappresentato dal linguaggio oggetto di una teoria presa in considerazione: può essere, per esempio, un metalinguaggio comune; né pare necessario assumere tesi olistiche radicali che non lasciano spazio agli enunciati più caratteristicamente metalinguistici. f) La tesi della varianza di significato è dunque, come si è visto in a) e in b), una tesi logica; di più, anche le premesse-condivise da Hanson e da Toulminda cui scenderebbe tale tesi sono, come ha chiarito in un lucido intervento Karl Popper, di carattere logico; infine si può sottolineare che da esse non è affatto derivabile, senza opportune tesi ausiliari, la varianza di significato nella forma radicale che abbiamo dato all'inizio di questo paragrafo. Significatamente infatti Hanson ha ripetutamente sottolineato che vi sono « parole non impregnate di teoria» [non theory-laden words] che possono venir intese come termini di «un linguaggio puramente sensistico » (pur negando che tali parole possano svolgere un qualche ruolo nella spiegazione scientifica) e che dipende essenzialmente dal contesto se un termine vada riguardato come appartenente a un linguaggio teorico o a quello sensistico; e da parte sua Toulmin nel richiamare la specificità di certe « componenti intellettuali » ha più volte insistito che tempi e modalità del mutamento concettuale possono variare a seconda del particolare settore preso in considerazione: per esempio le intelaiature matematiche utilizzate in teorie fisiche possono mutare più· lentamente delle nozioni fisiche i vi implicate (un sostenitore della meccanica classica e uno della relatività speciale verisimilmente usano « forza » o « massa » in accezioni diverse, ma « numero » o « funzione » nella stessa accezione) e l'apparato logico ancor più lentamente dell'intelaiatura matematica; d'altra parte il mutamento teorico [theory change] in logica e in matematica può avere aspetti del tutto differenti da quello in fisica, in chimica, in biologia o in altre scienze empiriche. Ciò premesso, non deve stupirei che Toulmin concluda che restano « zone )) e « modalità )) di confronto tra sostenitori di concezioni prima facie rivali, e, dopo aver attribuito a Kuhn la tesi della rottura totale della comunicazione, imputi a questo autore sia un errore logico che una deformazione della storia reale. In a)j) abbiamo dato, per così dire, un sommario degli argomenti di coloro che tendono a ridurre in maniera notevole o addirittura a eliminare la rilevanza della varianza di significato per le ricostruzioni razionali. Orbene, qui non possiamo discutere fino a che punto sia corretto giustificare su tali argomenti atteggiamenti del genere: ci pare lecito tuttavia concludere dal nostro pur schematico elenco che ci sono buoni motivi per ritenere che il problema (reale) che Toulmìn, Hanson, Kuhn, Feyerabend e altri assertori dell'incommensurabilità delle teorie sollevano (con argomentazioni differenti e spesso tra loro in polemica) nel contesto della possibilità e dei limiti della « ricostruzione razionale », se deve avere interesse per lo storico (sulla base dell'interscambio prospettato www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese nei paragrafi IV e vi) va allora riformulato nel modo seguente: che ragioni vi sono per adottare e Jo preferire ricostruzioni che portano all'incommensurabilità piuttosto che quelle che portano alla confrontabilità delle teorie? In quanto segue è alle ragioni che Kuhn e Feyerabend adducono, specie in polemica con Popper e Lakatos, che rivolgeremo l'attenzione. 2. L'Anarchismo metodologico. Cominciamo con Paul Feyerabend. Nei primi anni sessanta questo autore si muove lungo una linea per molti versi vicina alla critica dello strumentalismo e alla ripresa di istanze realistiche articolate in un « programma di ricerca metafisica » (cfr. paragrafo v) che divengono tratti sem,. pre più marcati della riflessione di Popper. Col Popper degli anni sessanta Feyerabend condivide in particolare l'ostilità al riduzionismo. Feyerabend rifiuta infatti non solo la riduzione di tipo classico, propria, per esempio, di certo « mecca-nicismo » ottocentesco, bollata come « metafisica » dai positivisti logici e come « essenzialistica » dai popperiani, ma anche quella « metodologica » tipica della filosofia della scienza di impostazione neoempiristica sia nella versione usualmente legata al nome di Ernst Nagel o riduzione «diretta» (una teoria t1 è « ridotta» a un'altra teoria t 2 se si è stabilito un dizionario che correla i termini primitivi di t 1 a quelli di t2 in modo che assiomi e leggi di II possono opportunamente venir tradotti in teoremi di t2), sia nella versione che abbiamo già visto (capitolo XIV del volume settimo, paragrafo n) formulata con-notevole maturità nella cornice del fisicalismo neurathiano ed è stata ripresa da vari autori (J.G. Kemeny, P. Oppenheim, ecc.) o riduzione «indiretta» (t1 è «ridotta» a t2 se l'insieme di predizioni riuscite A fornite da t 1 è incluso nell'insieme B di predizioni . riuscite fornite da t 2). La tesi della varianza di significato, con le opportune tesi ausiliari, può venir utilizzata contro- entrambi gli schemi di riduzione metodo logica (e a fortiori contro la riduzione di tipo « essenzialistico »): i) contro la riduzione « diretta », sfruttando tutte le difficoltà della traduzione radicale tra linguaggi differenti (quelli rispettivamente di II e t 2 ) emerse già nella riflessione dei convenzionalisti e riprese dagli stessi empiristi logici più critici degli anni trenta e oltre; ii) contro la riduzione « indiretta », sfruttando tutte le implicazioni della tesi circa l'osservazione impregnata di teoria contro un linguaggio « neutrale » atto a formulare le predizioni delle varie teorie in modo da consentirne il confronto (cioè a formulare gli elementi di A e di B in modo che sia ragionevole utilizzare la relazione di inclusione per confrontare i oue insiemi di predizioni riuscite). Spiegazione scientifica non è sinonimo di riduzione, in particolare di teorie non familiari o anche di poco successo a teorie più familiari o di maggior successo: i riduzionisti hanno torto, conclude Feyerabend, e Popper ha ragione. Ma fino a che punto? La critica di Feyerabend si inserisce in un'ampia polemica contro l'empirismo: verso la metà degli anni sessanta il nostro autore fntroduce due condizioni indispensabili per il riduzionismo e più in generale per la visione empi- 339 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese ristica della scienza: una condizione di coerenza jconsistenry condition] e una condizione di invarianza di significato [condition of meaning invariance] e, per mostrare l'insosteni': bilità dell'empirismo, argomenta a favore di due tesi che implicano che tali condizioni non possono venir soddisfatte: la tesi della proliferazione di teorie mutualmente incompatibili (uno spunto per certi esempi implicito in Popper e a cui un particolare respiro, come si è già detto nel paragrafo v, conferirà Lakatos) e la tesi, appunto, della varianza di significato. Ma, sempre più nettamente (e, a partire dal 1968, con una polemica che ìnveste in pieno i «valori di base» del programma popperiano) Feyerabend viene individuando « un residuo empirista )> anche in Popper che, pur avendo fatto della tradizionale base empirica più « una palude » che « una roccia », sembra ammettere la possibilità di un linguaggio osservativo neutro in cui vengono formulati gli asserti della base che forniscono gli opportuni falsificatori della teoria. E, più in generale, lo stesso Popper ha sottolineato che il suo « razionalismo » presuppone almeno l'esistenza di un linguaggio comune in cui formulare le argomentazioni ed esprimere i risultati delle osservazioni; concetti metodo logici come «falsificazione », « falsificabilità », « corroborazione », ecc. sarebbero altrimenti inapplicabili e incomprensibile diverrebbe anche l'assegnazione di una minor o maggior « verisimilitudine » alle teorie e la connessa « idea regolativa » di approssimazione alla verità. Ma per Feyerabend il presupposto che le varie teorie prese in considerazione abbiano qualche espressione logica ed extralogica in comune e che le loro classi di conseguenze non siano disgiunte, è negato proprio dalle tesi della varianza di significato. Nei lavori dopo il 1968, e in particolare in Against method (Contro il metodo tre differenti stesure, 1970, 1972, 1975), Feyerabend è venuto articolando obbiezioni di questo tipo in una critica di più ampio respiro del « razionalismo critico » di Popper e dei suoi seguaci. Questa resta « la metodologia positivista più liberale oggi esistente« [corsivo nostro]: ma, nella misura in cui ancora propone« regole» metastoriche, ha senso chiedersi: i) se sia desiderabile che la comunità scientifica proceda in accordo con tali regole; ii) se sia possibile che queste abbiano un peso effettivo nella scienza come di fatto viene praticata. Le analisi di Kuhn e di Lakatos, nota a questo punto Feyerabend, hanno mostrato che la concezione popperiana è: i) r(f!,ida in modo ben poco desiderabile (se, con Lakatos e con lo stesso Popper, è la « ingegnosità » o la « creatività'>r il valore che si vuole privilegiare nelle nostre ricostruzioni; razionali) ii) schematica e irrealistica, se si guarda alla storia «non imbalorditi» dagli« occhiali »1 di Popper. Questi nello sviluppo del suo programma metodologico « ha troppo risentito dell'influenza del circolo di Vienna » nel costruirne la cintura protettiva, sì da assorbire la rigidità e l'astorir L'espressione è ricalcata sulla celebre battuta di Cesare Cremonini circa l'impiego del canocchiale (appunto «gli occhiali che J . . . J im- balordiscono la testa») riferita a Galileo da Paolo Gualdo in una lettera del 29 luglio r61 l. 340 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese cità dei canoni proposti dal neoempirismo almeno nella sua prima fase, soffocando così la forza dirompente delle sue intuizioni circa la crescita della conoscenza e le origini dell'atteggiamento critico: un tipico programma « regressivo »! E, soggiunge Feyerabend, « qualsiasi caso storico consideriamo, vediamo che i principi del razionalismo critico (prendi sul serio le falsificazioni, aumenta il contenuto, elimina ipotesi ad hoc, sii " onesto " - qualunque cosa significhi mai questa parola) e, a fortiori, i principi dell'empirismo logico (sii preciso, basa le tue teorie sulle misurazioni, elimina le idee confuse e non esprimibili in modo definito) danno un'immagine inadeguata dello sviluppo della scienza nel passato e possono incepparlo nel futuro». C'è più «opportunismo» nell'impresa scientifica (come in molte altre imprese umane, dalle arti alle tecniche) di quanto la moralità neoempirista o popperiana vogliano ammettere: le « deviazioni » dai «codici d'onestà intellettuale sono le condizioni preliminari del progresso>>. Ma nemmeno i« critici della [popperiana] teoria della critica» come Kuhn e Lakatos offrono delle alternative per Feyerabend soddisfacenti. L'insistenza kuhniana sulla funzione del dogma e sulla ricerca normale fanno della ricerca un'impresa prima facie poco interessante; una disamina più attenta mostra però che oltre a essere « poco attraente », il quadro che Kuhn dà nella Struttura delle rivoluzioni scientifiche è falso: la scienza, dice Feyerabend, non è una successione di periodi di ricerca « straordinaria » e di periodi di « monismo >>- ove si impone sovrano un paradigma: se ogni giorno constatiamo l'attività «normale» di coloro che «di continuo si impegnano in " minuti rompicapo"», è «con l'attività della minoranza che si dà alla proliferazione delle teorie » che cresce la conoscenza; d'altra parte, anche durante una rivoluzione la «palude» insisterà ottusamente sui vecchi rompicapo! Riducendo la scienza in larghissima misura a semplice « soluzione di rompicapo » Kuhn ha fornito solo « consolazioni agli specialisti » più gretti nelle scienze mature e ha imbaldanzito i dilettanti meno preparati nelle scienze relativamente nuove, « incoraggiando coloro che non hanno un'idea delle ragioni per cui una pietra cade al suolo a parlare con sufficienza del metodo scientifico ». A Lakatos sembra toccare un trattamento migliore: per Feyerabend la metodologia dei programmi di ricerca « è incomparabilmente più raffinata » della concezione kuhniana per paradigmi, in quanto, anche se a prima vista si può sostenere « che quelli che Lakatos chiama programmi di ricerca altro non siano che i paradigmi di Kuhn », essa ha articolato le due componenti della ricerca («tenacia» e « proliferazione ») non come due fasi temporalmente distinte (come, secondo Feyerabend, farebbe il Kuhn degli anni sessanta), ma come due elementi compresenti in una medesima «dialettica». Grazie « alla sua ottima educazione hegeliana » Lakatos « ha innestato sul tronco della filosofia anglosassone il frutto proibito del leninismo »yspezzando « il cerchio magico» della epistemologia tradizionale, «dei Carnap e dei Nagel come dei Popper e dei Kuhn » e realizzando una proficua fusione della tradizione di 341 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese Mill e di Whewell con gli spunti più vivi « del materialismo dialettico ». Queste sono le premesse del modello lakatosiano « del mutamento scientifico », col suo insistere (contro Popper non meno che contro i posi tivisti logici) sulla contraddizione come forza motrice dello sviluppo storico, « banco di prova » di ogni seria impresa intellettuale che delimita i propri problemi e l'ambito delle soluzioni (tenacia, che solo le prospettive « regressive » di Popper e di Kuhn potrebbero confondere col « dogmatismo », sia pure l'una per condannarla come « frode disonesta» e l'altra per riconoscerne «la funzione insostituibile ») ma anche vuol saggiare la flessibilità delle proprie categorie (proliferazione, che la critica popperiana, fin da Cos'è la dialettica?, avrebbe con poca fondatezza negato a Hegel, a Marx ed Engels e ai loro seguaci). Ma con l'insistere su standards, accettabilità, falsificazione, ecc. Lakatos troppo ancora concede « all'ortodossia popperiana » e con ciò riduce drasticamente la portata rivoluzionaria del suo modello. La disamina delle teorie articolate in programmi di ricerca trova dunque consenziente Feyerabend non foss'altro per il continuo confronto che Lakatos istituisce tra epistemologia e storia della scienza (un abisso lo separa, osserva Feyerabend, da, chi, come il Carnap degli anni cinquanta, considera ancora l'appello a considerazioni di tipo storico «un metodo estremamente poco efficiente»): ma è proprio tale programmatica aderenza alle effettive vicende storiche che fa sì che i criteri della metodologia dei programmi di ricerca « possono sì descrivere la situazione in cui lo scienziato si trova; ma non gli dicono come procedere». Se il riscontro con l'ausilio di opportuni casi storici del carattere empiricamente progressivo Q regressivo di un programma è un fatto empirico, per l'accertamento del quale occorre «uno sguardo all'indietro» dopo «un lungo periodo» (come Lakatos ammette, ma senza specificare quanto lungo!), non ci si deve stupire che Lakatos conceda che un'équipe di ricercatori « può razionalmente difendere un programma regressivo fino a che è superato da uno rivale e anche dopo ». Ma quando un programma può venir razionalmente eliminato? Come può venir giustificata « la decisione metodologica di non lavorare più con esso »? Orbene, osserva Feyerabend, Lakatos è dotato di troppo senso storico per fissare « limiti temporali »; ma proprio per questo « gli standards [della metodologia dei programmi di ricercal non sono in grado di vietare, presi di per sé, il comportamento più testardo. Solo se vengono uniti a una sorta di conservatori.rmo [... ] possono in modo sottile condizionare il ricercatore. Ed è proprio così che Lakatos li vuoi vedere usati »: Feyerabend ricorda che a proposito di programmi « regressivi » Lakatos consiglia «alle redazioni delle riviste scientifiche di rifiutare gli articoli [dei loro sostenitori]: le stesse fondazioni dovrebbero bloccare i finanziamenti». È un esito « per lo meno curioso »: il sostenitore della priorità (metodologica) della storia interna viene in ultima analisi a lasciare il settore delle decisioni finali alla storia esterna; il rivoluzionario a livello intellettuale si svela un conservatore a livello istituzionale; lo « scopritore » dei vantaggi che offre il materialismo dia- www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese lettico rispetto alle concezioni « statiche » dei filosofi analisti o neoempiristi per la scienza «pura» si muta in poliziotto quando si tratta di politica della ricerca. Questo esito- con cui Lakatos, non certo meno di Kuhn, verrebbe a consegnare « la verità » scientifica nelle mani del «potere » (a cominciare dalle varie istituzioni della ricerca) - può essere evitato secondo Feyerabend solo sottolineando che gli standards lakatosiani sono compatibili anche con atteggiamenti intellettuali meno conservatori, e questo proprio perché essi in sé « legittimano tanto un comportamento [per esempio abbandonare un programma] quanto il suo opposto »; come norme, essi, in realtà, sono vuoti; sono « ornamenti verbali », semplice retoriCa per una posizione del tipo « tutto va bene ». Quello di Lakatos appare allora « un anarchismo mascherato »; ritenendosi « più spregiudicato », Feyerabend opta, sul piano epistemologico, per un anarchismo più esplicito. Per Feyerabend « l'idea di un metodo fisso, di una rigida razionalità sorge da una visione troppo ingenua dell'uomo e del suo ambiente sociale. [Un residuo di tale impostazione resterebbe anche in Lakatos.] A quanti guardano al ricco materiale fornito dalla storia e non intendono impoverirlo per compiacere i propri meschini istinti, la propria brama di quelle che vengono spacciate per chiarezza e precisione: a costoro sembrerà che esista un unico principio da salvaguardare in tutte ·le circostanze e in tutti gli stadi dello sviluppo umano. Il principio è [... ] tutto va bene». L'unico principio « metodologico » ammissibile è dunque un'istruzione contro il metodo. Per Feyerabend si può motivare tale scelta con la constatazione lakatosiana che « nessuna singola teoria è mai in accordo con tutti i " fatti noti " del suo campo »; ma, più risolutamente che in Lakatos, occorre abbandonare «l'assunto per cui sarebbe possibile far corrispondere completamente le teorie ai fatti noti» e «l'uso del livello di accordo raggiunto come principio di valutazione»! Nel Seicento, esemplifica Feyerabend, la teoria copernicana era incompatibile « con fatti talmente chiari e ovvi » che perfino Galileo nel Saggiatore la proclamava « sicuramente falsa » e nel Dialogo sopra i due massimi sistemi del mondo si meravigliava di « come abbia possuto in Aristarco e nel Copernico far la ragione tanta violenza al senso, che contro a questo ella si sia fatta padrona della loro credulità»; lo stesso si potrebbe ripetere per la gravitazione di Newton, per la relatività speciale e generale di Einstein, per il modello di Bohr e in genere per la stragrande maggioranza delle teorie quantistiche; né c'è ragione di pensare che situazioni analoghe non si siano presentate, e ancora non si presentino, nella chimica, nella biologia, nell'economia, nelle scienze sociali, ecc. Quelle di Galileo possono certo venir interpretate anche come mosse per accattivarsi la autorità ecclesiastica o il pubblico scientifico più tradizionalista; Bohr può aver impiegato artifizi ad hoc nel suo modello e, in seguito, gli stessi principi di corrispondenza e di complementarità possono avere avuto anche la funzione di ridurre il contenuto [nel senso di Popper] delle teorie, ecc. ~e Lakatos, allora, può temere la « polluzione intellettuale» dei vari «stratagemmi», Feyerabend 343 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese ribatte che né Galileo né Bohr la temevano. La loro« ricetta» non era l'induzione, enumerativa o eliminativa che fosse, e nemmeno la retroduzione cara ad Hanson, ma una sorta di « controinduzione »: elaborare e diffondere ipotesi « incompatibili sia con le teorie acquisite sia coi fatti altrettanto. acquisiti ». Abbandonata la «razionalità» neoempirista e popperiana, la controinduzione appare a Feyerabend « sia un fatto - la scienza non potrebbe esistere senza di essa - sia una mossa nel gioco della scienza » che si deve compiere se si vuole nell'impresa scientifica «conservare quella che potremmo chiamare libertà di creazione artistica c usarla appieno, non solo come via di fuga, ma anche come mezzo necessario per scoprire e perfino per mutare le proprietà del mondo in cui viviamo »; a ciò ci spinge la stessa storia della scienza nonostante il peso della tradizione epistemologica (sotto questo ultimo profilo optare per la controinduzione è una mossa« a sua volta controinduttiva >>).Gli elementi che Reichenbach e Carnap e ancora Popper e Lakatos tendono a espellere dall'impresa scientifica .re impresa « razionale » secondo i loro canoni di razionalità sono componenti ineliminabili di quelle « visioni del mondo », di quelle « cosmologie » entro i cui quadri hanno preso forma le intuizioni scientifiche di un Galileo, di un Newton, di un Einstein o di un Bohr. E se si guarda alla grande rivoluzione scientifica da cui prende l'avvio l'età moderna, evento, per dirla con lo storico Butterfield, che « supera per importanza ogni avvenimento dal sorgere del cristianesimo e riduce il rinascimento e la riforma al livello di semplici episodi », il sostenitore dell'« anarchismo metodologico » scopre che tale sviluppo («dal mondo chiuso all'universo infinito » per usare la celebre frase di Koyré) « si è prodotto solo grazie al fatto che gli scienziati spesso inconsapevolmente facevano uso di questa filosofia entro la loro ricerca, in quanto [... ] non si vincolavano a " leggi della ragione ", " standards di razionalità " o " immutabili leggi della natura"», ma nei fatti realizzavano quello che il pittore Hans Richter secoli dopo ha individuato come «il messaggio centrale del dadaismo», per cui « ragione e anti-ragione, senso e non-senso, progettazione e caso, consapevolezza e non-consapevolezza [umanesimo e anti-umanesimo, aggiunta di Fryerabend] sono inestricabilmente fusi come parti necessarie di un tutto ». Ciò premesso, ci appare conseguente che Feyerabend si allinei in Contro il metodo del 1975 con quegli studiosi (basterà qui fare i nomi di F. A. Y ates e P. M. Rattansi) che, nella controversia degli anni sessanta tra gli storici di lingua inglese sul peso della tradizione ermetica e magica, hanno insistito sugli elementi di continuità tra la tradizione ermetica e la moderna immagine della scienza e che ne recepisca le tesi più estreme, per cui « nel nostro tipo di scienza » e « nel nostro tipo di razionalità » (le locuzioni sono di Rattansi) non vi è maggior « obbiettività» e «razionalità» che nel comportamento intellettuale del mago o del mistico. I vari standards che la tradizione della cultura occidentale dal rinascimento in poi ha fornito, con Bacone, Descartes, Locke, Kant, Comte e ancora con gli « induttivisti » dell'Ot344 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese tocento e i « convenzionalisti» dell'inizio del secolo, fino a Carnap e Reichenbach, come a Popper e Agassi, per quanto diversi siano tra loro, sono sempre elementi interni a particolari « cosmologie » ed è arbitrario per Feyerabend elevarli a criteri di demarcazione tra pensiero « scientifico » e « magico », tra « scienza » e « pseudoscienza », tra « razionale » e « irrazionale »; e vani saranno pure gli « espedienti » o la « retorica » degli ultimi epigoni di tale tradizione, Kuhn e Lakatos, convinti il primo che « la crescita della conoscenza » sia ancora un processo « irreversibile » e il secondo addirittura che esso possa venir « razionalmente » ricostruito « nel mondo delle idee, nel terzo mondo di Platone e di Popper »! Anche gli aristotelici e gli scolastici o gli alchimisti e i maghi avevano, dice Feyerabend, i loro standards: su che basi decidere allora che quelli di Bacone o quelli di Comte, o quelli di Popper sono migliori? Su che basi privilegiare gli uni come « razionali » e disprezzare gli altri come « irrazionali »? I canoni di « razionalità scientifica », argomenta Feyerabend, sono simili ai canoni dei poeti o degli artisti; elementi «influenti» all'interno di una particolare ricerca o esperienza intellettuale (e spesso con un ruolo abbastanza marginale: lo scienziato è vincolato dalla propria metodologia tanto poco quanto il poeta lo è dalla sua poetica!) non possono tramutarsi in pietre di paragone che giudichino tali esperienze dall'esterno: « ricostruire » la storia della scienza sulla base di una prefissata metodologia è « razionale » come intestardirsi, poniamo, a « ricostruire » la storia delle arti dal medioevo ai giorni nostri adottando canoni rinascimentali. Ciò posto, si può intuire quale sia il ruolo della tesi della varianza di significato nel Feyerabend degli anni settanta e <:ome egli si distacchi da una parte dai popperiani e dallo stesso Lakatos, dall'altra da Kuhn nonché da Hanson e da Toulmin. Serviamoci, come di un filo rosso dei punti a)j) delle pp. 336-338. Non è tanto nella ripresa delle dottrine dell'osservazione «modellata dalle teorie » e della dipendenza contestuale dei termini quanto nella loro utilizzazione che sta l'interesse e la novità della posizione « anarchica » di Feyerabend. È ben vero- cfr. punti a) e b)- che tali tesi sono tesi logiche e quindi, in casi storici, le risposte alla domanda circa la comparabilità o l'incommensurabilità di due teorie sono « sub condicione »: ma che ragioni ci sono - cfr. punto c) - di privilegiare ricostruzioni à la Frank, tipiche di un positivismo più accorto (che ammette la « disparità concettuale » di teorie rivali e non la semplice crescita per accumulazione) e non altre, più radicalmente fratturiste? In base a quali standards considerare le prime delle ricostruzioni «buone>> (cioè «razionali») e le seconde delle ricostruzioni «cattive» (cioè «non razionali»)? Un'argomentazione analoga può venir utilizzata in relazione al punto e): perché dev'essere considerato «non razionale» l'atteggiamento di chi sostiene che il linguaggio in cui si formulano le obbiezioni critiche possa presentare un muta~ento di significato [meaning change] dei termini drastico e repentino almeno quanto quello dei termini teorici cui si appunta la «critica» (o la «propaganda»), tanto più che i canoni 345 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese della critica appaiono spesso difficilmente scindibili dalle idee di fondo di una data concezione (essi rientrano, a detta di Watkins, nella «metafisica influente» o addirittura a detta di Lakatos, nel « nucleo metafisica » di un programma scientifico)? Se poi componenti logiche, matematiche, tecnologiche, ecc. rientrano in modo essenziale vuoi nel « nucleo » vuoi nella « cintura protettiva » di un programma di ricerca (sia esso etichettato come «metafisica» o come «scientifico») hanno ancora senso le specificità delle varie componenti delle « trame della scoperta » e le zone di confronto «locale» invocate- cfr. punto f)- da Hanson e da Toulmin? Per quanto riguarda infine il punto d), ci pare che contro Lakatos, Zahar e gli altri sostenitori della metodologia dei programmi di ricerca, su tale specifica questione Feyerabend, a partire dal suo Consolations Jor the specialist (Consolazioni per lo specialista, 197o), abbia seguito, entro la medesima strategia, due diverse tattiche: la prima, a nostro avviso poco producente, consiste nell'identificare sommariamente « teorie » e « programmi di ricerca », prescindendo dalla distinzione che Lakatos ritiene essenziale per poter concludere che è possibile solo la critica entro una teoria, ma non tra diverse teorie; la seconda, ben più sottile, consiste nell'accettare, in prima istanza, la distinzione tra teorie e programmi e ammettere, entro un programma, la possibilità del confronto tra varie teorie, per domandarsi quali possibilità di confronto vi siano tra dù;ersi programmi e se non si debba invece parlare di « programmi incommensurabili »? Chi difende la prospettiva di Lakatos può certo osservare che così facendo Feyerabend ripropone a un livello più sofisticato il vecchio argomento dell'incommensurabilità delle teorie e obbiettare che Lakatos ha più volte fornito esempi storici di «programmi innestati [grafted] su programmi più vecchi », in cui condizione necessaria per la riuscita di tale « innesto » si è rivelata la costituzione di un buon « dizionario ». Pure, a nostro avviso, là critica feyerabendiana nel seguire questa seconda tattica individua un problema reale e un effettivo punto debole del !ltodello di Lakatos: questi infatti, sia nei casi tratti dalla storia delle matematiche che in quelli tratti dalla storia delle scienze empiriche, ammette che tali dizionari sono gli strumenti con cui si realizza una vera e propria « deformazione dei concetti » [concept stretching] che sarà, a seconda dei casi, «progressiva» o « regressiva », ma che apparirà totalmente arbitraria o addirittura incomprensibile ai sostenitori « ortodossi » del vecchio programma c naturale o utile o necessaria, ccc. agli «eretici» promotori del nuovo. Ci sia lecito aggiungere, utilizzando le parole di uno storico italiano della fisica dell'Ottocento, Enrico Bellone, che spesso tali dizionari si rivelano « complessi, instabili e internamente sfasati » e che quindi, lungi dal costituire la zona meno problematica del programma, si rivelano di fatto ricchi di questioni e anche di insidie. L'argomento feyerabendiano e queste ultime sommarie considerazioni ci permettono dunque un primo giudizio critico su Lakatos: questi ha fatto sue non poche delle obbiezioni alla popperiana «logica della scoperta» e ne ha proposto un (( mzglioramento »; ma se la critica kuhniana al falsiftcazionismo concludeva con www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese un appello a una « r~(orma », la posizione di Lakatos è stata una tipica strategia « controriformistica» (l'accettazione di certe obbiezioni dei critici non ha significato affatto convergenza sulle loro tesi di fondo, ma solo delle « mosse » nello spregiudicato tentativo di « salvare il salvabile » del razionalismo critico); sulla questione della varianza di significato e della incotmmnsurabilità, in particolare, ha diviso la questione in due, prospettando il problema del mutamento concettuale sia come transizione da una teoria all'altra entro un programn;a sia come transizione da un programma a un altro; ha infine fornito una soluzione alla prima questione in termini di « logica della scoperta», ma non alla seconda: poiché la costituzione dei « dizionari» è un fatto interno a un programma, resta aperta, proprio alla luce dell'abbiezione di Feyerabend, per dirla con lo studioso polacco Stefan Amsterdamski, « la questione del passaggio da un programma a un altro, [in sostanza] la questione se tale passaggio può venir spiegato in termini puramente metodologici [... ]. Finché tale domanda non ha una risposta, la stessa tesi che la logica della scoperta può costituire una base soddisfacente per la ricostruzione del processo dell'evoluzione della conoscenza resta priva di giustificazione ». Nel paragrafo· vn prenderemo in considerazione altri limiti del modello lakatosiano; qui vogliamo ancora aggiungere che, come mostra lo stesso rilievo di Amsterdamski, studioso ben critico anche dell'anarchismo metodologico, la realizzazione che certe osservazioni di Feyerabend enucleano delle autentiche difficoltà della metodologia dei programmi di ricerca non porta necessariamente a condividere gli obbiettivi globali della strategia dell'autore di Contro il ntetodo. Questi ha come bersaglio non solo l'oggettivismo di Popper o di Lakatos, ma ogni forma di oggettività della conoscenza scientifica: una scienza cui venga conferita una qualsiasi forma di oggettività è, sotto il profilo politico e morale, pericolosa quanto « una tigre» e il nostro autore esplicitamente preferisce « aver per compagna non una belva feroce, ma una gattina compiacente)>. Questa, che per Feyerabend è dopo tutto una « scelta di gusto », yiene in Contro il metodo motivata da una vasta gamma di riferimenti filosofici, alcuni dei quali certo poco abituali nell'epistemologia di lingua inglese. Vediamone alcuni. Per Feyerabend Hegel è il filosofo della tradizione occidentale a cui occorre guardare per compiere il primo passo in direzione della « riforma delle scienze >> contro l'empirismo. Come abbiamo visto, anche il Popper degli anni sessanta recupera alcuni aspetti dell'hegelismo, ma Feyerabend va ben oltre la cauta rivalutazione popperiana e si appella a quella ragione « negativa e dialettica » che « dissolve in nulla le determinazioni dell'intelletto ». Feyerabend pare dunque dimenticarsi che «il contenuto della scienza pura è [... ] il pensare oggettivo» come è scritto nella Scienza della logica, anche se Hegel amm~;tte che prima facie quella di «pensare» è un'espressione che attribuisce la determinazione in essa contenuta soprattutto alla coscienza. È legittimo però trarre da quest'ultima ammissione la tesi feyerabendiana che « ciò che resta sono i giudizi estetici, i giu347 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese dizi di gusto e i nostri desideri soggettivi »? Per H e gel « l'uso delle forme del concetto [... ] riposa in generale sulla base che coteste non siano semplicemente forme del pensiero autocosciente, ma anche dell'intelletto oggettivo »; solo parzialmente dunque Feyerabend trae la propria « lezione metodologica » dall'hcgelismo: se occorre « non lavorare mai con concetti fissi; non lasciarsi sedurre dall'idea di aver finalmente trovato l'esatta descrizione dei" fatti", mentre guello che si è verificato è soltanto l'adattamento di alcune nuove categorie a vecchie forme di pensiero, ormai tanto familiari da farci prendere le loro strutture per le strutture del mondo stesso», non è ridotta l'efficacia di queste stesse prescrizioni dall'intenzionale riduzione della critica a gusto o a propaganda? Infine Feyerabend respinge « la continuità dei concetti »: il fisico relativista « dovrebbe interessarsi al destino della meccanica classica » soltanto « per un'esercitazione storica »! Pure anche chi « abbia la minima conoscenza della filosofia hegeliana » (Feyerabend) può ribattere che il sistema dei concetti per Hegel deve « costruir se stesso» con un andamento «irresistibile, puro, senz'accoglier nulla dal di fuori» e che la dialettica in Hegel è inseparabile dall' oggettivismo: di conseguenza, può sostenere che gli appelli di Feyerabend a tale dialettica sono semplici espedienti retorici! Questa impressione è, a nostro avviso, consolidata dal contesto in cui Feyerabend inquadra i suoi numerosi riferimenti a Marx a proposito del concetto di alienazione. La pretesa all'oggettività cela per Feyerabend il fatto che « il risultato della nostra stessa attività viene da essa separato, assume un'esistenza indipendente»: la scienza moderna« da strumento umano variabile, con cui esplorare e cambiare il mondo » si è trasformata in un blocco di conoscenze, « inaccessibile ai sogni, ai desideri, alle· aspettative degli uomini »: lo sviluppo « da Galileo a Laplace >> ha dunque progressivamente « posto in ombra » quella Lebenswelt che pure costituiva iÌ fondamento originale della scienza galileana. Con la sua astrazione, generalizzazione, formalizzazione, ecc. la scienza « alienata » maschera dunque la struttura prescientifica, tecnica, ecc.: il recupero della « realtà» è affidato «al pensiero negativo». Questo in Contro il metodo si trova come alleato una forma di convenzionalismo radicale che richiede a una teoria o un programma solo di dare « una spiegazione corretta del mondo, cioè della totalità dei fatti così come essi vengono visti attraverso i suoi concetti»: sicché il « mondo » sarà (o apparirà, se si preferisce) volta per volta aristotelico, newtoniano, einsteiniano, quantistico senza alcuna possibile mediazione! L'esito dell'epistemologia « anarchica » è quindi, a parer nostro, agli antipodi del razionalismo che costituisce il nucleo della logica hegeliana e della stessa concezione di Marx e di Engels. Con uno slittamento abituale per alcune correnti di pensiero (certe versioni della fenomenologia di Husserl, varie tendenze dell'esistenzialismo, la «scuola di Francoforte», ecc.) Feyerabend viene ad attribuire la causa profonda della www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese «alienazione» alla scienza moderna e a contrapporre alla «ristretta razionalità» di questa (il termine è di Theodor Roszak) dei nuovi modelli culturali che, come ha proclamato in una. conversazione all'università del Sussex (novembre 1974), hanno il compito « di difendere la società contro la scienza ». Facendo propri non pochi motivi della protesta tardoromantica contro la scienza e la tecnologia moderna e avvicinandosi a quella « letteratura della contestazione » che in modo esasperato e unilaterale sul finire degli anni sessanta ha insistito sul fatto che l'impresa scientifica, priva di qualsiasi presa sulla realtà, trova solo in fattori extrascientifici le proprie motivazioni, Feyerabend perviene alla conclusione che la scienza « è oggi tanto oppressiva quanto le ideologie contro cui ha dovuto combattere» nella sua storia da Galileo in poi. Non più la metafisica, ma gran parte della ricerca scientifica merita l'etichetta humeana di «sofisticheria e inganno »! Coerente nella sua radicale svalutazione, Feyerabend riduce drasticamente anche la portata dei suoi rimandi al materialismo dialettico c non è un caso che, nella conversazione sopra ricordata, egli includa nella scienza da cui ci si deve difendere « anche la scienza di Karl Marx », suscitando lo stupore e la rabbia dei suoi ascoltatori della New Left delusi di tale franchezza e forse troppo illusi di poter conciliare una qualche forma di « materialismo storico » (avulsa da quell'« oggettivismo » di cui anche Marx, Engels o Lenin risultano colpevoli!) con una tradizione epistemologica che, risalendo oltre i consensi o i dissensi con Popper, Lakatos e Kuhn, ritrova le sue radici nel convem:ionalismo radicale del bergsoniano Le Roy .. 3. Matrici disciplinari, esemplari e difficoltà di cotnunicazione. La risposta che Feyerabend offre al problema del passaggio da un « programma » a un altro «ha [dunque] tutte le caratteristiche della fede religiosa», come sottolinea P. K. Machamer, critico sia della prospettiva generale di Feyerabend sia della presentazione c dell'utilizzazione dei casi storici che questi invoca a sostegno dell'anarchismo metodologico. Per esempio, Galileo, nota Machamer, a detta di Feyerabend « ebbe fede nel copernicanesimo grazie a un colpo di genio, in assenza di ogni evidenza e a dispetto di tutto ciò che è razionale »; orbene: una tale « fede » è senza dubbio « molto vicina ai più tradizionali punti di vista con-' cerne~ti il genio della scoperta »! La « riforma » epistemologica invocata da Hanson, Toulmin, Kuhn sia contro la tradizione dell'empirismo logico che contro il razionalismo critico si riduce allora a un ritorno a più vecchie concezioni che privilegiano in modo unilaterale la psicologia individuale e collettiva? Alla fine del paragrafo rv abbiamo accennato alla prospettiva di S. Toulmin articolata ampiamente in La comprensione umana, in polemica d~ una parte con le «logiche della scoperta>> di tipo popperiano o lakatosiano, ma, dall'altra, con le tesi « anarchiche » di Feyerabend; in questo paragrafo dedichiamo ancora qualche pagina alle concezioni di Kuhn, concezioni che nella seconda metà degli anni 349 www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese sessanta questo autore ha sottoposto a una considerevole revisione, mirando a distinguersi nettamente dall'apologia feyerabendiana del «tutto va bene». In questa esposizione di necessità breve e schematica prendiamo le mosse dall'ammissione di Kuhn che la nozione chiave di « paradigma » in La struttura delle rivoluzioni scientifiche resta « piuttosto ambigua » e diciamo subito che Kuhn è venuto via via precisando che lo storico della scienza può individuare i paradigmi esamiuando il comportamento dei membri di una comunità scientifica determinata in precedenza servendosi di altri criteri. Ciò premesso, in questa « accezione sociologica », come dice Margaret Masterman, un paradigma o, come preferisce chiamarlo ora Kuhn, una« matrice disciplinare» [discip!inary matrix] è costituito dall'intera « costellazione » delle credenze, dei valori, delle tecniche, ecc. condivise dai membri di una data comunità. Una siffatta « matrice» ha « elementi» di almeno quattro tipi differenti: « generalizzazioni simboliche » (non leggi, ma piuttosto schemi di leggi), credenze metafisiche (corrispondenti in qualche modo, nello schema kuhniano, alla « metafisica influente » o al « nucleo metafisica»), giudizi di valore riferiti alle teorie (quelli che Lakatos chiama «asserzioni base normative ») e infine «le concrete soluzioni dei rompicapo [puzzles] impiegate come modelli o esempi». Queste ultime svolgono un ruolo essenziale in una matrice, in quanto permettono di organizzare l'esperienza e di riconoscervi in essa delle « reiterazioni »: un ruolo per certi versi analogo a quello che nell'insegnamento della grammatica di una lingua svolge, poniamo, un particolare verbo nel fornire il « paradigma » della coniugazione di altri. Ne consegue l'importanza che viene a rivestire nell'impresa scientifica «l'abilità a riconoscere una data situazione come simile a certe cose di quelle già viste, ma come dissimile a certe altre»: la preparazione dei professionisti della ricerca (attraverso manuali, esercitazioni di laboratorio, letture di classici, ecc.) mira in una comunità scientifica efficiente a stimolare tale abilità di « riconoscimento » di rassomiglianze e diversità nel contesto della « costellazione » condivisa. Anche se utile, la familiare analogia con l'apprendimento delle forme verbali non va però estesa oltre un certo limite. Questo processo di riconoscimento, infatti, è una sorta di «programmazione degli stimoli»: ora, se nella Struttura delle rivoluzioni scientifiche, citando Hanson si faceva riferimento a organizzazioni gestaltiche delle percezioni, Kuhn tende ora a distinguere attentamente tra processi « percettivi » e « interpretativi », aggiungendo che « quel che la percezione lascia all'interpretazione dipende in modo essenziale dalla natura e dalla quantità della precedente esperienza e formazione»; sottolinea poi che l'abilità che si acquista con gli esemplari a « programmare gli stimoli» non può venir inculcata insegnando regole esplicite: è un tipo di processo spesso inconscio, che non può venir caratterizzato in modo adeguato « interpretando gli stimoli alla luce di regole di generalizzazione ». È un tipo di processo, aggiungiamo noi, che può a buon diritto rientrare in quella che M. Polanyi chiama « conoscenza silenziosa» www.scribd.com/Baruhk Filosofia della scienza e storia della scienza nella cultura di lingua inglese [tacit knowledge], la «zona», per Polanyi piuttosto estesa, in cui «l'euristica» non può avvalersi di strumenti linguistici. Ciò premesso, Kuhn ritiene per questa via di poter evitare gli esiti « che personalmente gli ripugnano » cui perviene Feyerabend e nello stesso tempo eludere le critiche mossegli da continuatori della tradizione empiristica e da popperiani che gli rinfacciano che la vittoria di una nuova teoria è segnata in parte da una propaganda irrazionale, in parte dalla dipartita per cause naturali della vecchia guardia, mentre un modo di vedere il mondo e di concepire la pratica scientifica viene sostituito da uno con esso « incommensurabile ». Kuhn ora non insiste più sul carattere « istantaneo » del mutamento scientifico e raccomanda maggior cautela allo storico nello sfruttare la categoria, proveniente da vari contesti culturali (si pensi a Bachelard e a Koyré) di «rottura» nelle visioni del mondo, nell'epistemologia, ecc.; allo stesso modo ammette come componenti della ricerca normale anche « i controlli delle teorie » raccogliendo istanze neoempiristiche e popperiane, pur senza attribuire loro la funzione centrale che Popper vi scorgeva nel «rovesciamento» delle teorie. Né Kuhn ritiene che si possa rivolgere alla sua prospettiva un'accusa del tipo di quella che Machamer rivolge a Feyerabend circa il riportare in auge vecchi schemi della psicologia della scoperta. L'appello alla psicologia dei gruppi, più che del singolo ricercatore e, su scala più ampia, alla sociologia per Kuhn corrisponde al fatto che la popolazione dei ricercatori scientifici nel passato e ancor di più nel presente si articola in comunità a vari livelli e che corrispondentemente termini come «scoperta», « rovesciamento di una teoria», « rivoluzione scientifica » per essere più di mere etichette vanno sempre riferite a una o più comunità e alle relazioni che ai vari livelli si sono stabilite diacronicamente e sincronicamente tra tali comunità. È in questo contesto che Kuhn prospetta anche la questione delle difficoltà di comunicazione. Membri di una stessa comunità, ma appartenenti a sotto-comunità diverse, spesso pur essendo d'accordo in astratto, non concordano in concreto e proprio tali divergenze nell'applicare «valori condivisi» possono rivestire una funzione «essenziale» per la scienza, possono, per esempio, permettere fruttuosi recuperi di linee di ricerca che la maggioranza dei membri di una comunità altrimenti tralascerebbe, o addirittura, diventare un fenomeno relativamente di massa e porre così le condizi