Storia del pensiero filosofico e scientifico

annuncio pubblicitario
LUDOVICO GEYMONAT
Storia
del pensiero
ftlosoftco
e scientifico
VOLUME NONO
Il Novecento (3)
Con specifici contributi di
Bernardino Fantini, Giulio Giorello, Corrado Mangione,
Silvano Tagliagambe, Renato Tisato
GARZANTI
www.scribd.com/Baruhk
I edizione: aprile 1972
Nuova edizione: novembre 1976
Ristampa 1981
©
Garzanti Editore s.p.a., 1972, 1976, 1981
Ogni esemplare di quest'opera
che non rechi il contrassegno della
Società Italiana degli Autori ed Editori
deve ritenersi contraffatto
Printed in Italy
www.scribd.com/Baruhk
SEZIONE UNDICESIMA
Per una nuova concezione del mondo
realistica e razionalistica
www.scribd.com/Baruhk
www.scribd.com/Baruhk
CAPITOLO PRIMO
N ola introduttiva
L'oggetto del presente volume è la contemporaneità, nel senso più pregnante del termine.
In effetti, entro l'amplissimo ventaglio delle scienze odierne, la biologia
e la logica - alle quali sono dedicati i capitoli secondo e terzo, costituenti in
certo senso la prima parte del volume - possono venire a buon diritto considerate le scienze oggi più ricche di novità, le più promettenti per il futuro, le
più feconde di sviluppi originali.
Come è noto, non sono pochi a ritenere che la prima di esse (la biologia)
abbia assunto negli ultimi tempi la posizione di « scienza-guida » occupata fino a qualche anno addietro dalla fisica.
Aggiungiamo che di entrambe vengono analizzati, negli anzidetti capitoli,
gli sviluppi più moderni, come - per la logica - la teoria delle categorie, di
importanza capitale anche per la matematica, e come - per la biologia - la
genetica molecolare che notoriamente si trova alla base del nuovo evoluzionismo nonché degli affascinanti dibattiti che si sono avuti intorno al caso e alla probabilità.
Sia la trattazione della prima sia quella della seconda scienza richiedono,
come il lettore vedrà, il ricorso a qualche tecnicismo; ma tale ricorso verrà tenuto nella minima misura possibile, dato il nostro esplicito intento di porre
in luce, non solo il significato scientifico degli argomenti presi in esame, ma
pure quello filosofico generale.
Il fatto che, nei due capitoli in esame, i legami fra scienza e filosofia rivelino la loro essenzialità per entrambe, acquista un particolare significato nel
presente volume; dimostra infatti che si tratta di legami ancora oggi di grande
attualità, confutando così la pretesa che essi si riducano ormai a poco più che
un ricordo del passato. Confessiamo francamente di scorgere in ciò una chiara
conferma della validità dell'impostazione che abbiamo cercato di dare all'intera nostra opera, imperniata appunto sulla inscindibilità fra pensiero filosofico
e pensiero scientifico.
Né meno attuali o meno significativi risultano gli argomenti trattati nel
7
www.scribd.com/Baruhk
Nota introduttiva
quarto e nel quinto capitolo (che possono considerarsi come costituenti la seconda parte del volume).
Il quarto fornisce infatti un ampio resoconto cr1t1co di uno dei più v1v1
dibattiti che stanno appassionando da circa un decennio la cultura filosofica
e scientifica anglo-americana: il dibattito sul significato della crescita della scienza, sul suo carattere razionale o meno, sui modelli più idonei a farci cogliere
tale razionalità, posto che esista.
Il quinto affronta poi in forma originale il complesso problema, di natura
non solo teorica ma anche politica, dei rapporti tra scienza e filosofia nell'Unione Sovietica. Al fine di farcelo cogliere in tutti i suoi aspetti, ne delinea
la storia a partire dal I 92 I, seguendo ne le alterne vicende durante gli ultimi
anni della vita di Lenin e poi durante la lunga era staliniana per giungere fino ai nostri giorni.
Parecchie pagine del più vivo interesse sono dedicate al « caso Lysenko » e ai
dibattiti intorno all'interpretazione filosofica della meccanica quantistica, studiati - sia quello che questi - su abbondante materiale pressoché sconosciuto
in Occidente.
L'importanza culturale di questi due capitoli è evidente, come è evidente
il nuovo contributo che essi recano alla tesi, poco sopra accennata, circa l'interesse essenziale che presenta ancora oggi, non meno che in passato, il problema dei legami tra scienza e filosofia. Ovviamente questo problema viene
attualmente formulato in termini diversi da quelli usati nei secoli scorsi, ma
ciò non toglie nulla alla sua centralità. Ed è pure rimarchevole che esso possegga
un peso altrettanto grande in due culture così diverse come quella anglo-americana e quella sovietica.
Finora la cosa era relativamente nota per la prima, ma non per la seconda; uno dei meriti incontestabili di Silvano Tagliagambe, autore del quinto
capitolo, sta proprio nell'averci fatto scoprire l'incidenza del problema anche
nell'Unione Sovietica, erroneamente considerata ancora oggi, specialmente in
Italia, come impermeabile a queste raffinatissime indagini.
Quanto all'attualità delle varie questioni discusse nell'ultima parte del volume, cioè nei capitoli sesto e settimo (quali ad esempio la questione della gestione sociale della scuola o quella della neutralità della scienza), non è il caso
di aggiungere parola, tanto essa appare evidente. In effetti, tali capitoli affrontano, in forma teoretica più che storica, alcuni nodi centrali della nostra civiltà
largamente dibattuti in Italia come all'estero. Non già che prescindano da ogni
considerazione storica, ma possono esimersi dal discuterla direttamente, perché
basta loro far riferimento ai numerosi capitoli di specifico argomento storico
contenuti nei volumi precedenti. Possono anzi considerarsi come la conclusione di tali volumi, cioè come il punto di approdo delle indagini ivi
ampiamente svolte.
www.scribd.com/Baruhk
Nota introduttiva
In quanto tali, hanno un carattere non solo teorico ma in certo senso programmatico, perché cercano di enucleare le più profonde esigenze della scuola
e della cultura odierne, e su questa base si sforzano di indicare alcuni impegnativi
suggerimenti, nella convinzione che possano riuscire di qualche utilità a chi
intenda darvi una risposta seria e consapevole.
9
www.scribd.com/Baruhk
CAPITOLO SECONDO
La nuova biologia
DI BERNARDINO FANTINI
I • INTRODUZIONE
Con la trattazione sostanzialmente storica che è stata seguita nei precedenti capitoli di quest'opera dedicati alla biologia, siamo giunti alle soglie di
quella che viene chiamata la « nuova biologia », per sottolineare il carattere
di profonda svolta che si è verificato nelle scienze biologiche, nel loro complesso, intorno al I 9 5o, svolta le cui premesse, come abbiamo visto nel capitolo
IV del volume ottavo, erano già state poste negli anni trenta e quaranta.
Si dovrebbe infatti parlare, più che di svolta, di un momento di sintesi,
di incontro fra filoni di ricerca che sembravano incomunicanti, di unificazione
all'interno di una teoria unitaria di interpretazioni che sembravano contrapposte (come nello studio dell'evoluzione, dove la teoria moderna, che unifica
l'approccio genetico e quello morfologico ed ecologico, non a caso è detta
«sintetica»). La stessa nascita della genetica molecolare che, nel bene e nel
male, ha segnato profondamente tutta la biologia contemporanea, è un momento di sintesi fra conoscenze ed interpretazioni teoriche che erano state raccolte ed avanzate da decenni, una sintesi che prima o poi, per dire così, « doveva esserci ». Ma come sempre nella storia della scienza, un momento di sintesi audace diviene il punto di partenza per nuovi programmi di ricerca, per
una reinterpretazione di vecchie teorie, anche delle più consolidate, per gettare nuova luce su aspetti rimasti ancora non spiegati, per prevedere nuovi risultati sperimentali. Tutto il complesso delle ricerche biologiche nella sua fase
attuale è caratterizzato da questo processo di costruzione di nuove interpretazioni della realtà della vita, basato sulla teoria sintetica della evoluzione da
una parte, sulla biologia molecolare dall'altra e sul loro incontro-confronto.
La « svolta sintetica » non ha portato solo ad un incredibile aumento di
conoscenze ma soprattutto ha permesso di fondare su basi più solide che nel
passato lo sforzo di costruzione di una teoria generale della biologia, anche se
questo sforzo si è spesso limitato ad una più rigorosa chiarificazione dei principali termini esplicativi e metodologici, senza impegnarsi nella costruzione
dello « scheletro logico del sistema esplicativo » (Ernst Nagel).
IO
www.scribd.com/Baruhk
La nuova biologia
Fino agli anni quaranta infatti, se si eccettua, forse, la sola genetica, che sin
dall'inizio aveva assunto una struttura quasi assiomatica, la biologia era rimasta
una scienza puramente descrittiva, che si limitava alla raccolta dei dati ed alla
loro correlazione. Il dibattito teorico era molto vasto ma riguardava i principi primi, era sganciato dalla ricerca militante. La biologia molecolare e la
teoria sintetica dell'evoluzione si pongono invece immediatamente, e prepotentemente, come spiegazioni scientifiche e non prevalentemente speculative dei
fenomeni biologici, dei quali diviene possibile individuare cause e modalità
sulla base di alcuni principi teorici generali. Parliamo di spiegazioni e non di
spiegazione perché, come meglio vedremo in seguito, la teoria dell'evoluzione
e la biologia molecolare si pongono come spiegazioni alternative, l'una sostanzialmente storica e teleologica, l'altra funzionalistica, di un unico oggetto: la complessità coordinata dei sistemi biologici, nella sua multiforme varietà di livelli
di organizzazione.
Sulla base di questa generalizzazione delle proprie capacità esplicative, la
biologia, pur senza raggiungere ancora i livelli teorici sui quali si era mossa
all'inizio del secolo la fisica, si impegna nella assiomatizzazione e formalizzazione
delle teorie, nella elaborazione di modelli generali, nella ridefinizione dei metodi, degli schemi interpretativi, dei principali concetti ed enunciati. Di conseguenza, si estende anche l'interesse per la filosofia della biologia e per la sua
storia, che diviene uno strumento di chiarificazione e di ridefinizione dei fondamenti teorici, parte integrante della stessa costruzione delle teorie scientifiche.
Nostro compito, in questo capitolo, sarà enucleare, dal vasto panorama
delle scienze biologiche nel periodo 1940-70, i filoni di ricerca più rilevanti,
i nodi teorici, i problemi epistemologici aperti, gli aspetti che hanno un maggiore rilievo filosofico e culturale, senza pretendere- non ci basterebbe lo spazio né ci interessa in questa sede - , di fare un resoconto esaustivo. Per ottenere
ciò non potremo, data la vicinanza nel tempo, seguire un criterio di ricostruzione cronologica né crediamo sia facile individuare precise linee di pensiero
fra loro separate da mettere a confronto, a causa della estrema varietà delle
posizioni teoriche e culturali, anche all'interno di singoli settori e talvolta del
singolo autore, e il carattere tuttora aperto del dibattito, continuamente arricchito da nuovi dati e nuove interpretazioni teoriche.
Non crediamo utile nemmeno una trattazione per discipline. La biologia
moderna infatti è abbastanza frastagliata in singoli settori specialistici, ciascuno dei quali ha dato contributi essenziali all'insieme delle conoscenze ed
alla definizione dei nodi teorici, ma che non è possibile, se non si vuol cadere
in un antologismo banale ed inconcludente, seguire nel suo particolare sviluppo.
La multidisciplinarità, quindi, e la varietà delle posizioni teoriche e culturali
che caratterizzano buona parte della biologia, dove un oggetto è affrontato da
Il
www.scribd.com/Baruhk
La nuova biologia
diversi punti di vista, sia sperimentali che interpretativi, che culturali, consiglia di puntare l'attenzione più sull'oggetto stesso che sulle diverse posizioni
che con esso si confrontano. Occorrerà quindi seguire una trattazione per problemi, scegliendo, anche a costo di drastiche esclusioni e di raggruppamenti
che non sempre potranno essere condivisi, quei temi scientifici che hanno avuto
ed hanno maggiore valore euristico e rilievo teorico, culturale e filosofico. Il
tema unificante di questo insieme di problemi, se si vuole trovarlo, potrebbe
essere quello della spiegazione scientifica in biologia, intesa sia come spiegazione
dell'oggetto biologico, sia come spiegazione con concetti e teorie biologiche
di altri aspetti della natura, ed in particolare del comportamento e del pensiero.
Da quanto detto, risulta che il primo problema da affrontare riguarda la
collocazione della biologia nei confronti delle altre scienze, la fisica, la chimica
e la matematica da una parte e la psicologia e le cosiddette scienze umane dall'altra.
Nella nostra trattazione dovremo quindi, innanzitutto, analizzare in dettaglio i rapporti della biologia con le scienze fisico-matematiche, rapporti che,
diversamente dal passato, non sono, specie negli ultimi anni, a senso unico,
basati cioè sull'utilizzazione delle conoscenze e dei metodi fisici e chimici sul
terreno biologico, ma rapporti di scambio estremamente fecondi. Lo prova
l'uso di concetti tipicamente biologici - gerarchia, organizzazione, omeostasi,
selezione naturale - in fisica e viceversa l'ampia utilizzazione di concetti fisici
e matematici in biologia. L'analisi del contributo dato alla biologia dalle scienze
fisiche in questo secolo (in particolare dalla meccanica quantistica, dalla termodinamica, dalla cibernetica e, per entrare direttamente in campo biologico,
dalla biofisica e dalla biochimica) ci fornirà elementi conoscitivi e linguistici
per comprendere le fasi successive della «nuova biologia», che proprio dall'incontro fra scienze fisiche e biologiche ha derivato nuovi concetti.
Passeremo poi ad analizzare, nel loro sviluppo storico e nella loro formulazione attuale, i due pilastri della moderna biologia, e cioè la teoria sintetica
dell'evoluzione e quella che potremo complessivamente chiamare la spiegazione molecolare. Preferiamo parlare di spiegazione molecolare dato che il termine biologia molecolare nell'uso ha acquisito un particolare campo d'azione,
chè non corrisponde al grande tentativo di spiegare il complesso delle funzioni
dei sistemi viventi sulla base delle strutture molecolari e delle loro aggregazioni
meccaniche in livelli gerarchici più elevati. Affronteremo, nell'ambito di questo paragrafo, i due settori che maggiormente hanno beneficiato della trattazione molecolare. Il primo è la genetica, o almeno una parte di essa, che viene
appunto chiamata genetica molecolare, dato che alcune branche genetiche ed
in particolare la genetica di popolazione per la verità molto poco hanno in
comune con la biologia molecolare e tendono invece a collegarsi più stretta12
www.scribd.com/Baruhk
La nuova biologia
mente alla teoria dell'evoluzione (genetica evoluzionistica). Quindi tratteremo
della embriologia, intesa in senso lato, cioè come l'insieme degli studi sui processi ontogenetici che portano dall'uovo fecondato all'individuo maturo.
La teoria dell'evoluzione si pone al centro della biologia moderna, non
solo perché è il quadro di riferimento necessario per ogni teoria biologica,
ma perché costituisce realmente il punto di congiunzione fra le scienze « della
natura » esterne all'uomo e le scienze dell'uomo stesso, della sua struttura al
tempo stesso biologica e psicologica. I rapporti fra l'evoluzione biologica e
l'evoluzione culturale e sociale nell'uomo, ma non solo nell'uomo, si pongono,
in effetti, come una discriminante netta fra diverse concezioni del mondo e
non a caso hanno costituito e costituiscono anche oggi, e forse più di ieri, perché nel frattempo sono di molto aumentate le conoscenze su entrambi i tipi
di evoluzione, un terreno di vivace battaglia culturale e teorica e, in ultima
_
istanza, politica.
A questo stesso filone esplicativo, quello evoluzionistico, si riallacciano
anche le moderne correnti di studio del comportamento animale e umano sviluppatesi rigogliosamente solo dopo gli anni quaranta e presto divenute oggetto
di esaltazioni acritiche e di attacchi altrettanto gratuiti. L'etologia, ossia lo studio
delle basi biologiche del comportamento, ha acquistato, come vedremo, una
propria autonoma collocazione, basata su solide conoscenze sperimentali e su
autonomi principi esplicativi.
Nel penultimo paragrafo dovremo confrontarci con il problema che, insieme con la natura della vita, costituisce la maggiore sfida alla biologia moderna
e alle sue capacità esplicative: la natura del pensiero, le sue basi biologiche,
il rapporto fra il biologico e lo psichico.
Al termine della nostra trattazione, affronteremo i nodi metodologici ed
epistemologici e infine culturali e filosofici che gli sviluppi delle scienze biologiche pongono alla riflessione teorica. A partire dagli anni cinquanta la biologia si pone come oggetto sempre più privilegiato dell'insieme delle riflessioni
teoriche e metodologiche, diviene- il punto di riferimento sul quale misurare
la capacità esplicativa di altre discipline scientifiche. La fisica e la matematica,
in particolare, confrontandosi con l'oggetto biologico, che non possono più
evitare se vogliono costruire teorie generali, elaborano nuovi concetti, nuovi
principi esplicativi.
La biologia si pone oggi al centro della riflessione filosofica e culturale,
ed anche dell'attenzione del grande pubblico, non solo per l'enorme massa di
conoscenze che in pochi anni è riuscita ad accumulare, ma soprattutto perché
rappresenta ciò che rappresentò la fisica all'inizio del secolo: il punto di riferimento costante per la riflessione teorica, il crogiuolo da dove emergono concetti e teorie in grado di modificare in profondità l'immagine che l'uomo ha
del mondo e di se stesso.
www.scribd.com/Baruhk
II
I R A P POR T I C O N L E S C I E N Z E F i S I C O-M A T E M A T I C H E
1) Fisica e biologia
Avremmo forse dovuto chiamare questo paragrafo semplicemente « biofisica ». Così facendo però, ci saremmo imbattuti in una difficoltà tradizionale che
si incontra quando si parla delle cosiddette discipline di confine: quella di darne
una definizione. Del termine biofisica si è fatto e si fa tuttora un ampio uso
(anche per indicare la mera applicazione di tecnologie fisiche allo studio di problemi biologici, se non alla semplice analisi), ma un accordo su cosa debba
rientrare in questa disciplìna non esiste.
Definizioni del tipo «la biofisica è l'insieme dei campi di ricerca sugli organismi viventi che richiedono l'uso di concetti e metodologie tipiche della fisica »
o del tipo « la biofisica si occupa dei problemi al limite fra la fisica e la biologia »,
che spesso si tro.vano nelle prime pagine dei trattati di biofisica; oscillano tra
una concezione totalizzante, per cui la biofisica diviene semplicemente l'applicazione di ogni tipo di metodo e concetto fisico alla biologia ed è quindi solo
della biologia fatta con particolari metodi, e una restrittiva, che però lascia
fuori buona parte della ricerca spesso importante che sotto questo nome si
fa su materiali biologici.l Per definire una scienza non basta individuarne alcune tecniche né isolare dei problemi particolari che non sono specificamente
affrontati dalle discipline « tradizionali», ma occorre definirne i criteri esplicativi e la struttura logica, e vedere se questa è o meno autonoma. Per queste
difficoltà di definizione, preferiamo parlare più in gene>:ale dei rapporti tra fisica e biologia.
Questi rapporti hanno avuto una storia piuttosto complessa. Mentre nell'Ottocento, nell'ambito soprattutto dei programmi meccanicistici, la fisica era
la base e il modello dei criteri esplicativi dei fenomeni biologici, e la fisiologia
è stata il risultato di questa volontà di descrivere fisicamente le funzioni biologiche
fondamentali, all'inizio e fino alla metà di questo secolo vi è stata una frattura
abbastanza netta, a causa di un divergere degli interessi rispettivi dei biologi
e dei fisici. La fisica infatti, con la relatività e la meccanica quantistica, viene
ad occuparsi di oggetti o troppo piccoli o troppo grandi rispetto a quelli bioI Una dimostrazione di tali difficoltà è evidente nella seguente definizione data da M. Ageno:
« La biofisica assume come dati di partenza i principi generali della fisica.e tutte le note conseguenze
che da essi .derivano per via deduttiva, e si pro;:>ane di spiegare in base ad essi la possibilità
dell'insorgere di sistemi materiali quali gli organismi viventi, nonché l'intera fenomenologia
cui questi danno luogo. » Se si interpreta in senso
lato questo tipo di definizione, ogni studio con
metodi fisici ed ogni spiegazione con concetti
fisici dei fenomeni biologici possono rientrarvi;
se la si interpreta in senso stretto si identificherebbe la biofisica con la spiegazione fisica di
processi naturali delimitati nel tempo (in parole
povere l'origine della vita). E questo è certo
per lo meno singolare; sarebbe infatti la prima
volta che una disciplina viene definita non sulla
base dei propri principi teorici, metodologici e
tecnici o dal suo campo di applicazione ma da
un lasso di tempo.
14
www.scribd.com/Baruhk
La nuova biologia
logici, mentre la biologia, dopo il sostanziale fallimento del programma meccanicistico,1 si andava impegnando nella costruzione di un proprio sistema teorico,
basato su concetti autonomi.
Il legame fra la biologia e la fisica si ripristina, più che con l'affermazione
di una nuova disciplina, col diretto passaggio di molti fisici allo studio dei processi vitali; molti di questi infatti, anche per un certo esaurirsi delle problematiche della fisica in senso stretto, scoprono, come dice Max Delbruck, « per la
prima volta i problemi della biologia », divengono semplicemente dei biologi,
portando con loro non tanto l'uso di tecniche fisiche particolari quanto soprattutto un metodo di ricerca ed un rigore teorico allora non molto diffusi nel
mondo biologico.
Dal punto di vista propriamente teorico, i contributi maggiori alla conoscenza biologica da parte della fisica sono venuti dal confronto fra due delle
maggiori teorie fisiche contemporanee, la meccanica quantistica e la termodinamica
statistica, con l'organizzazione biologica e la sua modificazione evolutiva.
a) Meccanica quantistica e biologia. La meccanica quantistica all'inizio si era
praticamente disinteressata dei fenomeni vitali, nonostante che alcuni processi
biologici, come le mutazioni, i processi di regolazione ed i fenomeni di trasporto sembrassero coinvolgere atomi isolati e singole molecole, elettroni delocalizzati ed anche singoli quanti di energia, come nella fotosintesi clorofilliana,
e avrebbero potuto essere trattati con metodi quantomeccanici. Le difficoltà
che si frappongono a questa trattazione, che ridurrebbe almeno parte della
biologia alla meccanica quantistica, risiedono in primo luogo nel fatto che tali
singoli eventi elementari non sono mai isolati ma fanno parte di una lunga catena
di relazioni che comporta in genere aspetti tipicamente macroscopici. La meccanica quantistica, nella sua attuale formulazione, non è in grado di trattare
adeguatamente le interazioni fra micro e macrofenomeni.
L'altra difficoltà per una trattazione quantomeccanica dei fenomeni vitali
consiste nel fatto che i sistemi biologici a livello più semplice, ed in particolare
le proteine e gli acidi nucleici, non possono essere considerati né macroscopici
né microscopici perché il numero di particelle che li compongono è troppo
piccolo per una trattazione macroscopica (nei termini della termodinamica statistica classica) e troppo grande per una trattazione quantomeccanica.
La applicazione dei metodi quantistici ha svolto un· ruolo importante nel
calcolo dei parametri chimici e fisici delle molecole di interesse biologico. Soprattutto grazie al metodo semiempirico di approssimazione LCAo (Liner comI Il programma meccanicistico in biologia,
sviluppatosi negli anni I87o-1920 fu cosa diversa
dal meccanicismo fisico (si veda il voL v). Il
fatto stesso che il meccanicismo biologico si sia
affermato solo quando ormai il programma la-
placiano mostrava ampie crepe, è indice di un
tipo di riduzione che proprio dalla crisi del meccanicismo fisico e dai nuovi principi teorici della
termodinamica e della chimico-fisica traeva stimoli per una impostazione riduzionistica.
www.scribd.com/Baruhk
La nuova biologia
bination oj atomic orbitals) è stato possibile calcolare i valori energetici e gli indici
elettronici delle molecole o dei gruppi funzionali. Tali valori e indici determinano le proprietà chimiche e chimico-fisiche essenziali delle molecole e permettono quindi una interpretazione della loro struttura e del loro comportamento
nelle reazioni. Il frutto più recente di questa tecnica, l'analisi conformazionale,
permette di calcolare la struttura teoricamente più stabile di una molecola, che
confrontata con quella ottenuta sperimentalmente, ad esempio mediante diffrazione ai raggi X, può venire via via affinata sino a raggiungere una elevata
risoluzione, rendendo possibile la predizione del suo comportamento nelle diverse condizioni naturali o sperimentali.
Particolarmente studiato è il fenomeno della delocalizzazione elettronica
lungo la molecola. La quasi totalità delle molecole di interesse biologico, compresi
gli acidi nucleici e le proteine, sono molecole parzialmente o completamente coniugate; contengono cioè molti legami di tipo TI. Ciò renderebbe possibile una
« delocalizzazione elettronica generalizzata in buona parte dalla superficie molecolare » (A. Szent-Gyorgy) in grado di permettere la stabilità strutturale, mediante risonanza, delle molecole ad alto contenuto energetico, e il trasferimento
di energia o di segnali tramite veloci perturbazioni elettroniche.
Come suggerisce H. Frolich, questa delocalizzazione potrebbe dare origine a vibrazioni elettroniche coerenti ad alto contenuto di energia che svolgerebbero il ruolo di stimolo e di segnale (oltre che di immagazzinamento di energia).
Un processo quantistico sarebbe così all'origine di un processo macroscopico,
mediante un meccanismo di tipo « catastrofico » (cioè con rottura totale dell'equilibrio preesistente e comparsa di un nuovo tipo di equilibrio). Si deve
tuttavia notare che: 1) lo stimolo si applica ad una struttura preesistente, la cui
origine non viene spiegata ma presupposta e 2) il corso futuro dell'evento «catastrofico» è determinato da questa struttura (e dal suo «ambiente») e non dall'evento microfisico scatenante.
Una descrizione quantomeccanica dei sistemi biologici potrà quindi es~ere ottenuta solo affrontando il problema della struttura dei sistemi intermedi,
che non può essere descritta con le ordinarie variabili termodinamiche e che
richiede quindi la determinazione di altre osservabili macrofisiche.
Su questa linea si sono mosse le ricerche di due fisici, Gustav Ludwig e
Ilya Prigogine, che hanno elaborato delle teorie generalizzate in grado di spiegare il passaggio dalla microfisica alla macrofisica.
Non possiamo in questa sede occuparci della macrodinamica quantistica
di Ludwig, in quanto si tratta di una teoria prettamente fisica. Dobbiamo invece
esaminare la teoria di Prigogine che si pone come una possibile soluzione della
tradizionale dicotomia fra evoluzione fisica ed evoluzione biologica, cercando
di fornire un substrato rigorosamente fisico alle leggi che regolano la comparsa
e lo sviluppo dell'ordine biologico.
16
www.scribd.com/Baruhk
La nuova biologia
b) Termodinamica e biologia. Nella termodinamica classica l'evoluzione fisica
di un sistema è descritta dal secondo principio della termodinamica che lega
il verificarsi di fenomeni irreversibili all'aumento della funzione di stato entropia, S. Secondo il principio d'ordine di Boltzmann, l'entropia è una misura
del disordine molecolare, della probabilità di esistenza di un certo stato. La
legge di aumento dell'entropia è quindi una legge di progressiva scomparsa di
ordine e di organizzazione. L'evoluzione organica e lo sviluppo ambientale
sembrano andare esattamente nella direzione opposta, verso una maggiore organizzazione, verso l'aumento dell'ordine, verso configurazioni «improbabili».
Superando questo paradosso la teoria di Prigogine si pone come una generalizzazione della termodinamica classica, in grado di spiegare sia la distruzione che
la formazione di strutture.
Innanzitutto, osserva Prigogine, il principio d'ordine di Boltzmann è valido per i sistemi all'equilibrio, ma non per quelli lontani dall'equilibrio termodinamico. Un sistema, se dotato di sufficienti riserve esterne di energia e
di materia, può restare in « un regime costante diverso da quello di equilibrio >>.
Mentre una struttura cristallina è un sistema Ìn equilibrio, incapace di evoluzione, i sistemi lontani dall'equilibrio termodinamico possono generare altri
tipi di strutture, « dissipati ve », « associate ad un principio d'ordine interamente
differente che si potrebbe chiamare ordine attraverso fluttuazioni».
Questo tipo d'ordine tra l'altro non è nuovo in biologia: la genetica delle
popolazioni, gli studi matematici di Vito Volterra, Alfred J. Lotka, John B.S.
Haldane sulle popolazioni e sulla selezione naturale si basavano proprio su sistemi «lontani dall'equilibrio» in cui si raggiunge una stabilità attraverso fluttuazioni (del patrimonio genetico).
In un sistema isolato la seconda legge della termodinamica dS jdt =o
esclude qualunque diminuzione di entropia e quindi qualunque formazione di
strutture ordinate. Ma i sistemi biologici sono sistemi aperti e per questi la
variazione dell'entropia può essere definita come dS = deS
dtS dove deS è
il flusso di entropia proveniente dall'esterno e dtS è la produzione di entropia
associata ai processi irreversibili che avvengono nel sistema. Ora, se nel sistema
vi deve essere una diminuzione di entropia, dato che dtS è sempre positivo o
nullo si deve avere deS < o, cioè il sistema deve ricevere un flusso di entropia
dall'esterno.
Un processo di auto-organizzazione può avvenire, quindi, solo in un sistema aperto, in interazione costante con l'ambiente, in condizioni di non equilibrio (altrimenti deS e dtS sarebbero nulli) e inoltre le subunità che costituiscono il sistema devono essere fortemente accoppiate termodinamicamente, in
quanto solo in questo modo uno dei sottosistemi può evolvere nella direzione
opposta àlla disorganizzazione.
Sulla base di queste caratteristiche Prigogine e P. Glansdorff hanno enun-
+
17
www.scribd.com/Baruhk
Esempio di struttura dissipativa in idrodinamica: l'instabilità di Bénard. Si scalda dal di sotto un
sottile strato liquido. A causa dell'applicazione di tale vincolo, il sistema si allontana dall'equilibrio
corrispondente al mantenimento di una temperatura uniforme nèllo strato. Per piccoli gradienti di
temperatura, il calore viene trasportato per conduzion.,, ma a partire da un gradiente critico, si osserva
anche un trasporto per convezione. La figura mostra le cellule di convezione fotografate verticalmente.
Si noti la sistemazione regolare delle cellule che hanno una forma esagonale.
dato un teorema termodinamico secondo il quale gli stati stazionari v1ctno all'equilibrio sono asintoticamente stabili, cioè dotati di meccanismi che riportano il sistema al suo stato normale mediante smorzamento dopo una perturbazione.
Tuttavia, al di là di una soglia critica lontana dall'equilibrio (in condizioni
non lineari), gli stati stazionari possono divenire instabili e il sistema può seguire diversi processi di tipo strutturale. In particolare vi può essere una rottura delle simmetrie esistenti con la comparsa di organizzazioni spaziali di ordine più elevato, una comparsa di un regime variabile nel tempo (ad esempio
oscillazioni chimiche) oppure un passaggio da uno stato stazionario ad un altro.
Al di là della instabilità, quindi, il sistema può raggiùngere una configurazione
ordinata. A queste strutture è stato dato il nome di « dissipative » per indicare
18
www.scribd.com/Baruhk
La nuova biologia
che la struttura viene mantenuta grazie ad una dissipazione di energia invece
che dalle forze molecolari (come nei cristalli). Tali strutture richiedono un livello minimo di dissipazione all'interno del sistema, livello che viene mantenuto costante grazie all'azione di opportuni vincoli di non equilibrio. Se tali
vincoli scompaiono il sistema perde la sua organizzazione, seguendo una evoluzione retta dal secondo principio della termodinamica.
L'organizzazione biologica può quindi essere spiegata in base a leggi termodinamiche precise (di una termodinamica generalizzata) e alla conoscenza
dei constraints (vincoli) esterni. L'esistenza di un ordine strutturale e funzionale
in biologia non può essere spiegata ammettendo l'esistenza di leggi fisiche irriducibili, ma associando le condizioni di formazione e di distruzione di strutture a diverse condizioni termodinamiche, rispettivamente lontano e vicino
all'equilibrio termodinamico. Come il principio d'ordine di Boltzmann permetteva di dedurre la struttura di un corpo inanimato, così le strutture dissipative, le successioni di instabilità « ci permettono di sperare che ciò che vi
è di essenziale nei fenomeni della vita sia deducibile da "primi principi" [...]
e non sembra affatto irragionevole pensare che il fenomeno vita sia altrettanto
prevedibile che lo stato cristallino e lo stato liquido» (Prigogine). È questa
una limpida enunciazione di un programma rigidamente monistico, di unificazione di tutta la natura all'interno di una teoria fisica.
Si tratta però di una « riduzione » fondata su di una solida base scientifica
e metodologica, sulla consapevolezza che gli assiomi di una teoria per poter
spiegare fenomeni qualitativamente differenti devono ampliarsi e trasformarsi in
profondità.
La teoria delle strutture dissipative ha trovato ampie conferme, anche
sperimentali, soprattutto nel campo del metabolismo, della « organizzazione
metabolica », per spiegare la quale sono stati elaborati modelli della organizzazione funzionale a livello molecolare. Ma restano ancora da chiarire i rapporti fra strutture dissipative e processi tipicamente biologici, come la differenziazione, la specificità biologica e soprattutto l'origine di quei vincoli che permettono di mantenere il sistema in condizioni termodinamiche adatte alla creazione è alla conservazione dell'ordine biologico, al tempo stesso funzionale
e strutturale.
2) Biochimica
Nello stesso periodo in cui avveniva la frattura fra fisica e biologia, si veniva definendo come scienza la biochimica, che acquistava, mediante autonomi
concetti e metodi specifici, un proprio oggetto: la descrizione dei complessi
cicli metabolici che avvengono all'interno delle cellule e del bilancio energetico
dello stesso metabolismo e di tutta la vita cellulare. In poco più di 30 anni,
dai primi studi sulla catena respiratoria iniziati verso il 1910 sino alla definì-
www.scribd.com/Baruhk
La nuova biologia
zione dei principali cicli metabolici, intorno agli anni quaranta, si compie una
delle più importanti innovazioni, spesso sottovalutata, preludio indispensabile
alla «rivoluzione molecolare ».
La situazione all'inizio del secolo non era delle più facili, la cellula era
considerata niente altro che un sacchetto di enzimi, senza alcuna organizzazione
interna, praticamente inaccessibile ad una analisi causale.l La stessa parola protoplasma (protos in greco significa primo) « era usata non solo per coprire la
nostra ignoranza degli eventi intracellulari, ma anche per suggerire che questi
non erano suscettibili di analisi ulteriore» (J.B.S. Haldane). Insistere sulla
necessità di una organizzazione anche a livello cellulare fu, tra l'altro, un merito
indiscutibile dell' organicismo.
a) La composizione e l'organizzazione. I metodi della biochimica sono sostanzialmente due, uno analitico ed uno analogico. Il primo, un metodo tipicamente
chimico, rompe, attraverso passi via via più drastici, le complicate strutture
cellulari per studiarne le proprietà ed i parametri chimici, classificando le molecole e le aggregazioni molecolari cosl ottenute.
Un primo risultato importante di questo metodo analitico è la dimostrazione della omogeneità chimica di tutta la biosfera. I risultati dell'analisi della
composizione chimica della biosfera mostrano come solo alcuni elementi chimici, situati nei primi periodi della tabella periodica di Mendeleev, si trovano
negli organismi. Su un totale di 92 elementi naturali, infatti, solo 16 sono presenti in tutta la biosfera ed altri 8 in tracce in alcune specie. Questa scelta è
molto ristretta, non è affatto casuale e non risponde alla frequenza relativa degli elementi chimici nell'ambiente in cui gli organismi vivono. Quindi, e questa è una prima conclusione. di notevole importanza, la vita seleziona solo, alcuni
elementi, evidentemente più « adatti » al complesso metabolismo dell' organismo. Tale selezione è probabilmente il risultato di una lunga evoluzione prebiotica, di scelte fatte all'inizio dell'evoluzione biologica. Questa selezione non
è stata però casuale in quanto, sulla base di calcoli stereochimici e quantomeccanici, è possibile mostrare che i quattro elementi fondamentali della vita,
C, H, N, O, che da soli costituiscono fino al 95,5% del peso di un organismo
vivente, formano un gruppo chimico per alcuni aspetti omogeneo. In particolare
si tratta dei quattro più leggeri elementi in grado di formare legami covalenti
stabili e sono i soli che formano legami doppi e tripli (legami 1t) sufficientemente
stabili. Se si accetta 'l'ipotesi della omogeneità fisica e chimica dell'universo,
non è azzardato affermare che qualunque forma di vita esista nell'universo
I « La vita, » scriveva C. Bernard, « contrariamente all'idea di Aristotele, è indipendente
da ogni forma specifica. Essa risiede in una sostanza definita dalla sua composizione, e non dalla
figura, il protoplasma » (Lefons sur /es phenomènes
de la vie, 1885). Ancora negli anni quaranta il
famoso modello di Delbriick e Szilard della regolazione enzimatica si basava su equilibri multipli fra le concentrazioni delle proteine e non sulla
loro struttura.
20
www.scribd.com/Baruhk
La nuova biologia
debba basarsi sui quattro elementi sopra visti, ed essere quindi, esclusival!lmft
dal punto di vista biochimico, in larga parte simile alla nostra.
Al livello superiore di organizzazione, l'analisi biochimica delle molecole
di interesse biologico ha portato a risultati grosso modo simili. Anche qui avviene una scelta, da parte dell'organismo, di un insieme molto ristretto di gruppi
chimici. Ogni specie sceglie all'interno di famiglie chimiche un particolare composto e sempre quello. Così ad esempio, fra l'enorme varietà di aminoacidi
possibili, nelle proteine se ne trovano solo venti ed essi, salvo piccole isolate
modificazioni, sono gli stessi in tutti gli organismi attualmente conosciuti.
Questa sorprendente capacità di selezione si rileva anche nella scelta particolarmente sottile che l'organismo è in grado di fare fra i diversi isomeri ottici (composti chimici identici ma aventi una struttura spaziale differente). Di fronte all'enorme diversità delle forme biologiche, il numero dei composti biochimici è
incredibilmente limitato e diffuso uniformemente. Si può trattare anche in questo caso di una « decisione » presa nei primi passi della evoluzione prebiotica, incorporata nel meccanismo di memoria dell'organismo e quindi perpetuata.
Si può affermare che ogni forma di vita attualmente esistente ha caratteristiche generali comuni, scelte in base ad una rigorosa selezione, e con ogni
probabilità derivate da una origine comune. Questa somiglianza non significa
identità, anzi, anche al livello biochimico, esiste una variabilità molto elevata
nella composizione chimica delle cellule, nella loro configurazione strutturale,
nella attività metabolica. La varianza totale è così elevata che non a torto si può
parlare di «individualità biochimica» (Roger Williams). È caratteristico della
vita che, nonostante questa indeterminazione nelle strutture molecolari e nei
processi metabolici, le cellule di un dato tipo siano molto simili tra loro e soprattutto siano in grado di mantenere la loro individualità invariata per un lungo
periodo di tempo (lungo naturalmente in confronto ai tempi del ricambio chimico).
Il secondo metod~ della biochimica è quello analogico, basato sulla costruzione di modelli dei cicli metabolici da ve:rificare poi in vivo o in vitro.
La critica che veniva rivolta al metodo analitico, cioè di distruggere l' organizzazione del vivente nel momento stesso in cui cominciava a studiarla -- il famoso principio tanatologico avanzato anche da Bohr per sostenere l'irriducibilità della vita alla fisica - , non era fuori luogo. Rompendo la « scatola >> si
può certo vedere « cosa c'è dentro » ma non si può dire niente sul « come é
fatta dentro», qual è la sua struttura e come questa struttura si modifica nel
tempo. La biochimica dovette quindi elaborare delle tecniche particolari con
cui studiare l'organizzazione cellulare e la sua funzione. (Si devono ricordare
la spettroscopia di assorbimento e il metodo isotopico.)
Sebbene tutti i metodi biochimici siano stati importanti, decisivi sono stati
21
www.scribd.com/Baruhk
La nuova biologia
soprattutto la utilizzazione degli enzimi purificati e un metodo dovuto alla
genetica, cioè l'uso di particolari ceppi mutanti di organismi che perdono la
capacità di sintetizzare un dato enzima (auxotrofi). La reazione metabolica si
blocca quindi ad un certo stadio e il prodotto relativo si accumula nell' organismo. In questo modo è stato possibile chiarire nelle grandi linee i principali
cicli metabolici della cellula, soprattutto quelli della catena respiratoria.
Anche qui osserviamo che tutti i processi chimici sono standardizzati e
diffusi in tutta la biosfera. In particolare tutte le principali classi di alimenti
sono catabolizzate formando i radicali acetilici dell'acetil-coenzima A, la cui
completa ossidazione, mediante il ciclo del citrato (ciclo di Krebs), produce anidride carbonica (convergenza catabolica). L'uniformità della biosfera si manifesta
quindi sia al livello della composizione che della cinetica chimica. ·
L'uso degli isotopi, associato con la diretta osservazione delle strutture
subcellulari mediante la microscopia elettronica, ha portato a chiarire definitivamente che la cellula non è un « sacchetto di enzimi » in quanto vi è una distribuzione differenziata e costante nel tempo dei diversi composti nelle strutture cellulari, una precisa disposizione che Marcel Florkin chiama topochimica
cellulare. Il citoplasma è ·la sede delle degradazioni anaerobiche, sui ribosomi
avvengono le sintesi proteiche, la catena respiratoria è localizzata nei mitocondri,
nel nucleo è condensata larghissima parte del materiale ereditario, i lisosomi
tengono ben chiusi e isolati pacchetti di enzimi che potrebbero scindere in
breve tutti gli altri costituenti cellulari. La cellula quindi non è omogenea ma
è spazialmente strutturata; non basta la specificità enzimatica a rendere conto
dell'attività cellulare e ciò dovrebbe portare a notevoli cautele nella conclusione
da più parti avanzata che sia possibile sintetizzare la cellula mescolando insieme i diversi componenti. Ancora una volta è l'organizzazione spazio-temporale
dei sistemi viventi che sembra svolgere un ruolo decisivo. Proprio per la
presenza di questa complessa organizzazione strutturale si è di nuovo e con
forza sviluppata la teoria cellulare, cioè la affermazione che l'unità biologica
minima funzionale è distinta e limitata da una membrana. In natura «tutti i
sistemi biologici funzionanti sono cellulari» (H.J. Morowitz).
Ma questa organizzazione strutturale è tutt'altro che statica. Le ricerche
con gli isotopi hanno confermato una tesi avanzata già dai primi biochimici
e cioè che i costituenti chimici della cellula sono sostituiti con una velocità
di molto superiore a quella con cui vengono distrutte le strutture stesse. Sono
le «forme», gli «schemi» (patterns) a rimanere stabili e non la loro base materiale. L'intera cellula si presenta come un sistema aperto in uno stato stazionario (steat(y state), nel quale vi è continuo scambio di materia e di energia fra
l'ambiente e il sistema.
Le relazioni chimiche sono intercollegate in patterns, in « reti metaboliche »
piuttosto complesse, con molte vie alternative per giungere ad un identico
2.2.
www.scribd.com/Baruhk
carboidrati
vari amminoacidi
1
anidride carbonica
Convergenza catabolica. Le principali vie secondo le quali avviene il catabolismo convergono a imbuto
sui radicali acetilici delle molecole dì acetilcoenzìma A, che sono quindi ossidati ad anidride carbonica
' '
mediante il ciclo del citrato.
risultato finale, dotate di una precisa sequenza non solo temporale ma probabilmente, come abbiamo visto, anche spaziale. In particolare, la cellula tende
a fissare alcuni cicli insostituibili (quello di Krebs, ad esempio) « prevedendo »
dive!sL. ingressi, meccanismi alternativi per giungervi partendo anche da .diversi prodotti. La ridondanza delle vie metaboliche è quindi un meccanismo
omeostatico per garantire i meccanismi fondamentali' della vita in ogni condizione ambientale.
·
In CC?nclusione sembra che le vecchie idee sulla necessità di un principio
regolatore della vita riprendano forza da questi dati. È l'attività del vivente che
assume comuni elementi chimici e li organizza in un modo funzionale ai propri
,bisogni fisiologici ed ecologici (J ohn Z . Y oung). Si affaccia cqsì l'idea di un
www.scribd.com/Baruhk
La nuova biologia
« programma », di un « piano di organizzazione » che viene trasmesso in ogni
replicazione cellulare.
b) Evoluzione chimica. Presumendo, come sembra prgbabile, una comune
origine degli organismi attuali, l'analisi delle differenze biochimiche può permettere di trovare delle relazioni filogenetiche fra i div~rsi gruppi di organismi.
Così il numero di aminoacidi differenti presenti in due molecole omologhe
presenti in specie diverse (ad es. emoglobina umana e di cavallo) ci dà, approssimativamente, il numero di mutazioni e ci permette quindi di valutare qualitativamente i rapporti evoluzionistici fra le due specie. Un numero scarso di
aminoacidi differenti e quindi un piccolo numero di mutazioni geniche stanno
a dimostrare che le due specie si sono separate in epoca relativamente recente.
Analizzando la struttura primaria di una particolare proteina in varie specie è
possibile costruire un albero filogenetico per mettere in evidenza i rapporti
evoluzionistici fra le diverse specie. Le proteine fungono cioè da « fossili viventi »
per determinare l'« evoluzione chimica».
La proteina maggiormente studiata da questo punto di vista è il citocromo c,
che si trova praticamente in tutte le cellule eucariotiche (dotate cioè di un nucleo
ben delimitato da una membrana), una proteina facilmente isolabile, di piccole
dimensioni, ma dalla storia molto antica. La comparsa del citrocromo (o meglio dei citocromi perché si tratta di un gruppo di enzimi accettori di elettroni)
avvenne infatti all'inizio della storia della vita, fu un passo evolutivo di estrema
importanza perché incrementò di molto le fonti di energia disponibili, permettendo di liberare l'energia ottenuta ossidando lo zucchero non tutta insieme
ma poco alla volta.
Se si prendono i due citocromi c più diversi, quello dell'uomo e quella della
muffa del pane (Neurospora crassa) che differiscono per il 40% dei siti relativi
degli aminoacidi, si vede che alcuni tratti della sequenza primaria sono assolutamente identici e dove si sono avute delle sostituzioni, la selezione naturale le ha permesse solo con aminoacidi molto simili tra loro.
Evidentemente la pressione selettiva sui meccanismi metabolici elementari non è così forte come per gli aspetti morfologici o comportamentali. È
questo un aspetto che ritroveremo parlando dell'evoluzione biologica: la velocità
evolutiva aumenta man mano che cresce il livello di organizzazione. L'evoluzione del citocromo sembra avvenire solo grazie a modificazioni casuali del
gene, indipendentemente dalla pressione selettiva che si esercita nell'intero organismo. È quindi uno strumento utilissimo per chiarire i rapporti fra mutazione, caratteri genotipici ed evoluzione della specie.
c) Endocrinologia. Fino alla fine del secolo xrx si credeva che l'apparato
di regolazione che permetteva all'organismo di mantenere nel tempo le pro-
www.scribd.com/Baruhk
Albero filogenetico, che mostra la derivazione .degli organismi attuali, costruito sulla. base di analisi
al calcolatore delle proteine omologhe del citocromo c, una sostanza complessa che si trova in versioni
similari in specie differeflti. La sequenza di aminoacidi che costituiscono le proteine omologhe è lievemente diversa in ognuno degli organismi indicati al punto terminale dei rami. L'analisi delle differenze mostra le relazioni ancestrali che determinano la topologia dell'albero. I programmi del calcolatore
· tabiliscono le sequenze degli aminoacidi presenti nei nodi dell'albero (numeri nei circo/etti) e calcolano
•ih:lumero di mutazioni che devono essersi verificate durante l'evoluzione (numero sui rami).
-prie funzioni altamente coerenti fosse solo il sistema nervoso, anche se vi erano
già solide evidenze sperimentali riguardo all'azione sulle funzioni del corpo e
sul metabolismo di specifiche sostanze chimiche secrete dalle ghiandole endocrine, che Ernest Starling aveva chiamato nel 1905 «ormoni» o «messaggeri
chimici». La biochimica fra il 1920 e il 1950 isolò in forma cristallina molte
di .queste sostanze, ne descrisse la struttura e i parametri chimici funzionali,
ne chiarì le derivazioni metaboliche e ne sintetizzò molte in laboratorio.
25
www.scribd.com/Baruhk
La nuova biologia
Il carattere omeostatico dell'organismo viene mantenuto da «due sistemi
di comunicazione: il lento sistema postale dei messaggi chimici e il rapido sistema
telegrafico dei nervi» (J.D. Bernal).
Il sistema endocrino esercita questo controllo con un tipico processo a
feed-back (controreazione) che ha come «calcolatore centrale» l'ipofisi. Questa
ghiandola secerne infatti specifici ormoni che agiscono su altre ghiandole endocrine, regolandone l'attività seèretiva. Gli ormoni prodotti da queste ultime
a loro volta, oltre a svolgere la loro funzione regolatrice su funzioni fisiologiche
e comportamentali (sviluppo e comportamento sessuale, equilibrio idrosalino, l'intero metabolismo ecc.), inibiscono la secrezione ormonale dell'ipofisi.
Si instaura così un delicato equilibrio omeostatico che regola la concentrazione
dei diversi ormoni nel sistema endocrino.
Inoltre, la stessa ipofisi è in interazione bidirezionale con l'ipotalamo grazie
allo scambio di informazioni e nervose e ormonali. L'ipotalamo, una struttura
del sistema nervoso la quale, come è stato dimostrato recentemente, produce
anch'essa degli ormoni, è in grado di disinibire la produzione delle gonadotropine da parte dell'ipofisi. I due meccanismi regolatori del metabolismo dell'organismo, quello nervoso e quello ormonale, vengono quindi ad incontrarsi,
costituendo un'unica rete intricata e coordinata. Esiste quindi un luogo dell'encefalo (incredibilmente vicino alla sede indicata da Cartesio per la ghiandola
pineale che avrebbe dovuto essere il posto di incontro fra l'anima e il corpo)
nel quale avviene l'interazione fra sistema nervoso e sistema endocrino.
d) Genetica chimica. Il successo raggiunto dalla biochimica nel chiarire i
processi metabolici fondamentali dell'organismo, poneva in termini ancora più
drastici un problema da tempo irrisolto, e cioè il modo in cui i geni controllano
il complesso schema di reazioni che è alla base delle principali funzioni biologiche: l'alimentazione, la crescita, la riproduzione.
Il grande risultato della genetica (con Thomas H. Morgan) era stato la dimostrazione che il controllo di larga parte dello sviluppo e del comportamento
attuale dell'organismo era localizzato in determinate porzioni del cromosoma.
Ma come questo controllo si esercitava era ancora molto oscuro. Dato che il
metodo di descrizione più adeguato era allora lo studio della cinetica chimica,
si elaborò un modello dell'azione del gene come una serie di passi di sintesi
chimica, ognuno dei quali catalizzato da un enzima specifico. Si trattava di collegare il gene, studiato dalla genetica, con il carattere fenotipico, sempre più
descrivibile in termini biochimici.
George W. Beadle e il biochimico Edward L. Tatum iniziarono a lavorare
sulla muffa del pane, Neurospora crassa, allo scopo di « determinare se e come i geni
controllano le reazioni biochimiche conosciute». Usando dei mutageni, Beadle
e Tatum provocarono la formazione di mutanti incapaci di sopravvivere in
z6
www.scribd.com/Baruhk
ipofisi
azione morfogenetic~ e differenziamento
regolazione metabolic~ metamorfosi
(aumento del metabolismo basale,
lotta contro il freddo)
l
i
anti-immunitaria
metabolismo organico
particolari terreni di coltura. Tali mutanti crescevano solo se veniva aggiunta
nel loro terreno ':lna particç>lare sostanza chimica. Dato' the la biochimica aveva
dimostrato che H 'metabolismo era sotto il controllo enzimatico, ne conclusero
che <<è Ìl).teramente valido supporre che i geni, che sono essi sfessi una , parte
ael sistema, controllano . ~ règolano le reazioni specifiche o agendo .direttamente
come enzimi (a quel tempp si pensava ancora ·che i geni· fossero di nàtura proteica) oppure detèrminando la specificità degli enzimi». Si formula così la famosa
equazione: un gene
= un .enzima.
.
c
e) Embriologia chimica. L'embriologia aveva avuto un grande sviluppo prima in forma descrittiva e comparata e poi come embriologia sperimentale (o
« cagsale »)alla fine dell'Ottocento e all'inizio del Novecento, acquisendo con-
www.scribd.com/Baruhk
La nuova biologia
cetti t~9rici importanti quali determinazione, regolazione, gradiente e campo
morfogenetico.
Nonostante il tentativo di collegare embriologia e genetica compiuto da
T. H. Morgan, questi due campi restavano separati e non comunicanti, anche
perché gli organismi studiati dal punto di vista genetico erano poco noti dal
punto di vista embriologico e viceversa. Non si poteva supporre nessun meccanismo per spiegare il passaggio dal gene al carattere durante la morfogenesi e i
concetti di regolazione e di determinazione restavano essenzialmente descrittivi.
Sulla base dei successi ottenuti nella caratterizzazione biochimica dei processi fisiologici, gli embriologi, a cominciare da Joseph Needham (Chemical
embriology, 1931 ), cominciarono a studiare chimicamente le varie fasi della morfogenesi. Rapidamente dalla fase puramente compilativa. delle sostanze presenti, l' embriologia chimica cominciò ad individuare processi, strutture sp~zio-temporali.
Si ricercarono in particolare, dopo la prova fornita nel 1932 da H. Bautzmann
che un « organizzatore » ucciso è ancora in grado di indurre la formazione di
un sistema neurale, le possibili sostanze «inducenti». Ma per tali ricerche tuttavia, come afferma Jean Brachet, uno dei protagonisti di questo periodo, << improvvisamente arrivò l'insuccesso e l'eccitazione cessò [... ]dato che l'ectoblasto
poteva reagire allo stesso modo (induzione neurale) a un "grande numet~. di
sostanze chimiche».
3) I modelli in biologia
Il ruolo dei modelli in biologia è stato sempre molto esteso. Anche la difficoltà di descrivere i fenomeni biologici in termini statici, di unificare la vasta
eterogeneità delle forme e delle funzioni, i pericoli del metodo analitico che,
come abbiamo visto nel caso della biochimica, sollevava non poche difficoltà
di ordine teorico e metodologico, hanno favorito in tutta la storia <ielle scienze
biologiche la costruzione di modelli, il cui scopo è stato quello di. ricostruire
analogicamente alcune proprietà o tutto l'insiem(:! dell'organismo, mediante strutture e relazioni note. Si indicano in genere con lo stesso termine « modello »
due procedimenti assai diversi fra loro. Il primo consiste nel ricercare delle corrispondenze analogiche fra un oggetto naturale e un .oggetto artificiale, del tipo
ad esempio degli automi settecenteschi di Vaucauson o dei moderni apparati
bionici che imitano alcune funzioni dell'organismo. Cioè <~ si raffrontano delle
forme analoghe e si inducono degli usi simili» (C. Bernard). Non si simulano
solo determinate funzioni, ma si cerca di ricostruire le relazioni esistenti tra
le strutture che sono legate alle funzioni. Anche se il modello e il sistema reale
sono costruiti con materiali totalmente differenti, il modello ha il compito di
,
stabilire una corrispondenza fra i due diversi insiemi di relazioni.
Il secondo tipo di modello si basa sulla costruzione di un insiemè di definizioni, stabilite in un particolare linguaggio. formale, in generale di tipo maz8
www.scribd.com/Baruhk
La nuova biologia
tematico, che descrive i r4pporti esistenti fra gli elementi costitutivi di un dato
oggetto empirico e la loro descrizione in ter-mini formali: Fra il modéllo formale, astratfo (costituito ad esempio da uri insieme di equazioni differenziali,
0 da una figura geometrica o topologica o da un insieme di relazioni sintattiche o semantiche in un qualsiasi linguaggio formale) e la realtà empirica si
viene quindi a stabilire una corrispondenza biunivoca, di modo che certe strutture
presenti nel modello e le loro modificazioni neftempo corrispondono alle strutture e alle modificazioni reali.
Il valore euristico di un modello consiste nella possibilità che offre di selezionare fra le funzioni e le strutture del reale alcune relazioni particolari che
si considerano caratterizzanti un dato fenomeno. Esso è quindi una versione
semplificata della complessità del reale che permette di isolare alcune relazioni
funZionali e strutturali. La validità di un modello si giudica sulla base della
sua att!tudine a far emergere relazioni e proprietà prima non conosciute.
L'u:l:ilità dei modelli cresce naturalmente con l'aumentare della complessità
del sistema in esame. Se un modello (ad esempio una equazione n".illtematica)
era utile per descrivere certi sistemi semplici, diventa necessario per i sistemi complessi ed in particolare per i sistemi biologici, per semplificarne i caratteri, isolando quelli ritenuti più importanti, in modo da non rischiare di restare aggrovigliati in una congerie di dati e di misure.
'
Nonostante il largo uso che in biologia si è fatto dei model.l(;" esistono
tuttora grossi equivoci di fondo sulla loro reale funzione. In fisica, un modello,
come l'analogia fra una corrente elettrica e un fluido o l'uso dei modelli meccanici macroscopici dell'atomo, svolge la funzione di mediatore fra una teoria
e le osservazioni sperimentali; il formalismo matematico di una teoria serve
da modello per un'altra teoria applicabile in un diverso campo fenomenico,
meno noto o meno soggetto ad una ana:lisi sperimentale. Ma ciò che garantisce
la possibilità di trasferire i risultati ottenuti con ir modello nella spiegazione
del fenomeno meno noto è la corrispondenza che è 'posSibile stabilire fra le leggi
generali, espresse in forma matematica, dei due campi féhomenici. Di qui, anche, l'importanza della matematica come strumento conoscitivo. Ma questo
non avviene in biologia. I modelli biologici, infatti, siano essi meccanici o logici, non si basano sulla possibilità di stabilire una relazione di corrispondenza
fra le leggi generali. Questi modelli stabiliscono delle corrispondenze esclusivamente analogiche fra. le strutture o fra le funzioni, cioè fra realtà concrete e non
sì pongono come un procedimento di astrazione teorica della realtà empirica.
La scarsa consistenza teori~a della più parte delle scienze biologiche fa
sì che rion si possa parlare di biologia matematica nello stesso senso in cui si
parla di fisica matematica. In biologia quindi è presente non solo il rischio di
considerare un modello come una rappresentazione intuitiva del reale, come
accac;leva nel caso dei modelli atomici meccanici, ma anche quello di « conferire
www.scribd.com/Baruhk
La nuova biologia
al modello un valore di rappresentazione» (G. Canguillhem) dimenticando che un
modello non è niente altro che la sua funzione. Si tende a credere che i meccanismi presenti nel modello siano non già una rappresentazione astratta di
quelli reali, ma ne siano una replica, sia concreta che logica.
Il modello diventa l'oggetto stesso, l'organismo è una macchina.
Un'altra riflessione di carattere generale sull'uso e l'abuso dei modelli si
sviluppa quando, « tenendo conto della dinamica storica di quelle mediazioni
fra le teorie (e le progettazioni di esperienze), si vede che la caratteristica più
prégevole di un modello consiste appunto nella possibilità di farne un uso provvisorio e cioè come costrutto flessibile. E si comprende altresì come un modello
possa facilmente trasformarsi in ostacolo per ulteriori sviluppi delle conoscenze,
qualora non se ne faccia quell'uso critico che trae appunto vigore dalla sua
flessibilità» (E. Bellone). Ciò è stato particolarmente evidente ad esempio nel
Settecento, quando il modello dell'animale-macchina cartesiano si tradusse in
un freno alla ricerca biologica, freno che venne superato solo dalla stuoia vitalistica francese la quale, rivendicando una autonomia o meglio una specificità
al vivente, permise di impostare un programma di ricerca sp-erimentale di estrema
importanza per la costituzione della biologia come. scienza·.
a) Modelli cibernetici. Da quando Norbert Wiener scrisse il suo famoso libro
Cybernetics, pubblicato nel 1948, questo termine ha avuto un'ampia fortuna
'ed è stato utilizzato ad indicare una varietà di discipline scientifiche e di tecniche fra loro molto diverse. Ci occuperemo in questo paragrafo s-olo di due aspetti
di questa multiforme varietà e cioè: 1) la cibernetica come strumento, matematico più che fisico, per la costruzione di modelli formali e di simulatori analogici; 2) l'uso di concetti e metodi della teoria matematica dell'informazione
nella spiegazione dei fenomeni biologici, in particolare dell'ereditarietà.
Un modello, si diceva, è una selezione di alcuni aspetti del reale che si considerano particolarmente importanti per la spiegazione della struttura e del
comportamento di un sistema complesso. In cibernetica, il concetto che si pone
alla base di questa costruzione di modelli è quello disistema organizzato, di organizzazione, intesa come l'insieme'' delle relazioni funzionali esistenti fra le diverse parti del sistema e che il sistema tende a mantenere stabili, anthe in pre·
·
senza di disturbi provenienti dall'esterno.
L'organizzazione è intesa in senso astratto, senza alcun riferimento al substrato
materiale di cui è costituita - e per questo si possono studiare in modo simile
sia le macchine che gli animali-, è una « forma ». Fra· diversi sistemi, anche
eterogenei, può esistere un isomorfismo e essi possono quindi essere descritti
con un identico modello cibernetico, in quanto « due modelli sono idèntici se il
rapporto dei loro ordinamenti pùò essere espresso come corrispo!]-deriza biunivoca» (Wiener).
--
www.scribd.com/Baruhk
La nuova biologia
I sistemi complessi sono considerati « scatole nere » (black boxes) di cui si
conosce solo l'ingresso e l'uscita, attraverso la cui modificazione è possibile
studiare il comportamento del sistema. Se sistemi .tra ·loro diversi mostrano
comportamenti simili se ne deduce una analogia di struttura interna. Compito
della cibernetica è quindi costruire dei modelli atti a «descrivere tutti i sistemi
dotati di un certo comportamento» (W. Ross Ashby).
La difficoltà da sempre incontrata dai biologi di collegare determinate organizzazioni a strutture presenti all'interno di esse, viene superata dalla cibernetica con un salto netto, abbandonando qualsiasì tentativo del genere, considerato inutile per una comprensione dell'organizzazione. La cibernetica si indirizza solo allo studio « della " complessità " come argomento a sé stante »
(Ross Ashby); l'organizzazione è un dato primario, irriducibile.
Si tratta quindi di una disciplina di tipo essenzialmente funzionalistico e
comportamentistico; suo oggetto sarà il comportamento di un sistema, indipendentemente dal sp.bstrato materiale o dalle leggi fisiche che lo reggono.
Il turbamento di uno stato iniziale stabile può portare il sistema lontano
dalle condizioni che possono permettere un ritorno all'equilibrio preesistente,
per cui avviene una « catastrofe » e si instaura un nuovo ordine, in genere ad
un livello di complessità, intesa come numero e qualità delle relazioni interne
al sistema, superiore.
.
.
In particolare se il sistema, come ad esempio i sistemi biologici, è dotato
di una proprietà autocatalitica - cioè tale che se ha luogo in qualche punto
del sistema aumenta la probabilità che si verifichi in un'altra parte-, tal~ sistema risulta instabile in assenza di tale proprietà e basta una singola deviazi~ne
dall'equilibrio per dare inizio ad una traiettoria che si allontana sempre più
dallo stato preesistente.
Nonostante la consapevolezza dimostrata dai più rigorosi studiosi di cibernetica del carattere formale, astratto dei mod,elli, anche di quelli fisici che
possono essere costruiti per verificare alcuni comportamenti, molto spesso si
presenta in cibernetica il pericolo di considerare i modelli non come costrutti
teorici, come strumenti euristici, ma come una ricostruzione effettiva della
realtà. Le macchine tecnologicamente avanzatissime costruite per trattare le
informazioni ·e funzionanti grosso modo come macchine cibernetiche hanno
in effetti mostrato di possedere tali funzioni così simili a quelle di un organismo
vivente da far parlare della possibilità di sostituire l'uomo stesso con un suo modello cibernetico (più in particolare il suo cervello con un« cervello elettronico»).
Se ciò ha avuto l'indubbio merito di rigettare fra le posizioni ideali~tiche tutti
i tentativi di stabilire una differenza fra l'uomo e le macchine sulla base di « funzioni irrepetibili » o cose del genere, tuttavia ha portato a grossi rischi di impoverimento dell'analisi sull'uomo, sulla sua natura biologica e culturale, ripristinando in·· forma modernissima i vecchi modelli meccanicistici.
www.scribd.com/Baruhk
La nuova biologia
Fin dalla sua nascita.: la biologia teorica ha oscillato fra due poli opposti.
Da una parte si è sforzata di descrivere riduzionisticamente un sistema sulla
base delle sue parti, avendo come modello la meccanica statistica, la teoria
cinetica dei gas. In questo caso, si potevano ricostruire le proprietà di un sistema
a partire dalla semplice interazione fra i costituenti elementari. Il secondo modello è stato appunto quello della macchina, in cui ogni parte del sistema svolgeva
un compito determinato con diversi livelli di organizzazione (i vari organi).
Come nota René Thom il primo modello è più adatto al calcolo, ma dimentica
l'organizzazione; vi è una enorme ridondanza morfologica e le proprietà del
sistema non mutano se si diminuisce o si aumenta di poco il numero di componenti. Al contrario nel modello meccanico, come ad esempio un orologio o un calcolatore, vi può essere una ripetizione di pezzi, ma non una ridondanza in quanto
anche la rottura di una ruota dentata o di un nucleo di ferrite può arrestare il
meccanismo. Entrambi i modelli rispecchiano alcuni aspetti della realtà biologica e possono quindi essere utili in quanto- tali ma non possono essere assolutizzati. Tra l;altro l'analogia fra organismo e macchina vale per gli animali, almeno al livello degli organi, dato che non vi è ridondanza morfologica,
ma non vale per i vegetali nei quali la ridondanza è regola (semi, frutti, rami
ecc.). « Cosl l'idea di vegetali-macchine è certo un po' bizzarra» (R. Thom).
Passiamo ora ad esaminare l'influenza della cibernetica in biologia, legata
alla utilizzazione generalizzata di alcuni nuovi concetti, in primo luogo, i concetti di inforlflazione e di messaggio che· hanno avuto un successo senza pari, anche in campi dove la loro applicazione non è sufficientemente fondata sul piano
scientifico, ma riveste più spess~ un ruolo sostanzialmente analogico.
La teoria matematica dell'informazione di C. Shannon e W. Weaver è in real- .
tà una teoria della comunicazione, in quanto studia il modo di trasmettere un messaggio entro un canale fisico minimizzando il rumore prodotto dal canale stesso.
Ogni simbolo dell'alfabeto con cui è scritto il messaggio ha la stessa proba' bilità di verificarsi, ogni messaggio ha un proprio « contenuto di informazione » specific;ato da un numero positivo. Quindi i due messaggi « aperto »
o «chiuso», avendo lo stesso numero di lettere, hanno per la teoria della comunicazione lo stesso contenuto di _informazione in quanto il concetto di informazione di Shannon-Weaver è quantitativo e completamente indipendente
dal signtficato del messaggio, dalla sua semantica. Questo tipo di concetto è
stato più Volte applicato in biologia, ad esempio per calcolare il « contenuto
di informazione » di una data catena di DNA. Tuttavia ciò che interessa nella
sequenza di nucleotidi del DNA è l'ordine in cui sono disposti i diversi simboli
. e il significato che si legge in una tripletta di nucleotidi. Per la teoria della comunicazione, che studia statisticamente il processo di propagazione di un messaggio, inteso come una serie di simboli equiprobabili all'intenio di un alfabeto dato, invertire un codone è indifferente. Ma questo è decisivo per l'orga-
www.scribd.com/Baruhk
La nuova biologia
nismo, in quanto può essere sintetizzata una proteina anziché un'altra necessaria.
La stessa evoluzione, se interpretata come evoluzione' del codice genetico, sarebbe
scarsamente significativa dal punto di vista della teoria della. comunicazione
in quanto non fa che scambiare di posto singole lettere all'interno del messaggio: il contenuto di informazione non cambia, ma il significato di tale informazione può cambiare moltissimo. Dunque nell'accezione biologica dell'informazione « il concetto di probabilità è scomparso e l'idea di qualità, di valore specifico fa parte del concetto biologico di informazione genetica» (André Lw:off).
Vediamo ora brevemente un altro concetto che ritroveremo spesso in q_uesta nostra trattazione, quello di programma, mutuato dalla scienza degli elaboratori elettronici ad indiCare il meccanismo interno di un sistema che ne regola il funzionamento, anche se la cibernetica utilizza raramente tale concet~o, in
quanto il suo campo di studio è l'insieme dei fenomeni di regolazione e di controllo, indipendentemente dalla struttura del meccanismo regolatore e della
sua origine; la fonte del controllo può essere sia interna sia esterna al. sistema
e la cibernetica ne prescinde assumendola come un dato di fatto.
Ogni macchina il cui comportamento implica delle discontinuità qualitative,
cioè diversi stati successivi nel tempo, oppure la messa in funzione di diverse
parti del sistema in successione regolare senza intervento dall'esterno, deve avere
un sistema regolatore, che « codifica » tali discontinuità, possiede una « rappresentazione >> della successione degli stati di questa, come un insieme di fori su
una banda di carta o un particolare ordinamento degli stati eccitati dei nuclei
di ferrite nella « memoria » di un elaboratore elettroPico o, latu sensu, la sequenza
di nucleotidi del DNA, che contiene in effetti una rappresentazione del futuro
svilup·po dell'individuo.
11 possesso di un « organo programma » è evidentemente tipico solo di
sistemi dt elevata complessità. Deve infatti esser possibile che una parte del
sistema si separi dal resto del sistema e si specializzi nella attività regolativa.
L'ambizioso tentativo della biologia molecolare è stato quello di attribuire una
base ftsica al concetto di programma, identificandolo con la sequenza nucleotidica del DNA.
Il più elementare meccanismo di interazione fra .il comportamento di un
sistèma e il suo K organo programma » è quello di feed-"back o controreazione,
mediante il quale il comportamento di un sistema viene confrontato con il risultato da conseguire, e se vi è uno scostamento dall'obiettivo da raggiungere
determinati meccanismi sono. in grado di modificare alcuni parametri in modo
da ridurre tale scostamento al minimo. Per i biologi, da sempre alla ricerca
di una teoria giustificativa del comportamento teleonomico degli organismi
viventi, non c'era niente di meglio di una teoria fisica che permettesse di determinare il compbrtamento attuale di un sistema ·sulla base dello « scopo » da
nggiungere. Il comportamento degli animali diviene una serie continua di
33
www.scribd.com/Baruhk
La nuova biologia
feed-back, « la selezione naturale è un processo ~ibernetico, un enorme feedback in grado di rispondere alle sollecitazioni ambientali trasmettendo l'informazione ai geni» (Dobzhansky), i «cicli di reazione organici sono processi di
regolazione e feed-back» (Krebs). Ma, come precisano anche gli stessi cibernetici, ad esempio Ross Ashby, il concetto di feed-back è poco utile al di fuori del
proprio particolare campo di applicabilità. Il criterio di stabilità mediante feedback è applicabile e trattabile scientificamente solo per sistemi semplici e dotati di una particolare struttura (ed è per questo che il concetto di jèed-back ha
poco spazio nella teoria formale della comunicazione). Nell'organismo esistono
certamente strutture e funzioni che possono essere interpretate mediante modelli a controreazione: i riflessi condizionati, determinate relazioni fra cervello
e muscoli, i meccanismi che regolano la temperatura del sangue o la concentrazione di zuccheri e di sali, determinati accoppiamenti di reazioni enzimatiche.
Ma questi sono innanzi tutto solo una piccola parte dell'insieme dei processi biologici, nei quali l'ordine viene realizzato mediante interazioni di tipo dinamico,
in genere grazie alla presenza di stati stazionari, che non possono essere descritti
mediante controreazioni.
Anche per il concetto di feed-back va quindi ripetuto quànto detto a proposito dei modelli; non si tratta di identificare un modello con una certa realtà
ma di descrivere a livello formale i comportamenti dei sistemi ancora non noti
per ottenere maggiori conoscenze l e questo significa la sconfitta del vecchio
sogno meccanicista di considerare gli organismi delle « macchine viventi ». La
cibernetica, infatti, fa uso di concetti (relazione, coordinazione, selezione, apprendimento, omeostasi, sopravvivenza) estranei alla scienza meccanicistica. «Il
vitalismo ha vinto a tal punto che anche i meccanismi corrispondono alla struttura temporale degli organismi» (Wiener). Ma, se si accetta l'impostazione
idealistica della cibernetica confondendo l'analogia formale con l'identità sostanziale, si giunge facilmente, come fa appunto Wiener, ad accomunare alla
sconfitta del meccanicismo metafisica quella del materialismo « diventato poco
più che un cattivo sinonimo di " meccanicismo" ».
b) Modelli matematici. In questi ultimi anni l'applicazione dei metodi matematici alla biologia, che per secoli era limitata all'aritmetica e ad un poco di
I Questo vale in particolare per i meccanismi di regolazione, il cui scopo è di mantenere
determinate variabili essenziali all'interno di un
insieme di valori. E questo può essere fatto a
livello formale. Per esempio i vari stati tra cui
può trovarsi un topo sono molti (può assumere
diverse posizioni, può essere affamato o meno
ecc.) ma solo un insieme di questi stati, T1, ... , Tk,
corrisponderanno alla espressione « topo vivente »
cioè alla stabilità. Se ora il topo viene assalito
da un gatto G il topo sopravviverà solo se il
risultato della operazione G(Ti) sarà uno stato
compreso fra T1 ... Tk, relativo al concetto di
« topo vivo ». Quindi due concetti appartenenti
a due teorie diverse, quello fisico-matematico di
stabilità e quello biologico di sopravvivenza,
« possono essere messi in una ben precisa relazione fra di loro; i fatti sperimentali e i teoremi
relativi ad uno dei due concetti possono essere
utilizzati per l'altro, purché la "traduzione " sia
corretta » (Ashby). È questo l'uso di mediazione
dei modelli di cui si parlava sopra.
www.scribd.com/Baruhk
La nuova biologia
algebra, si pone l'obiettivo di costruire modelli matemat1c1, geometnc1 o analitici, che permettano non solo di descrivere, ma anche di teorizzare e di predire
i fenomeni, di scoprire nuove relazioni nel reale.
La scarsa utilizzazione dei metodi matematici in biologia l può essere fatta
risalire, oltre che all'insufficiente spessore teorico e al carattere prevalentemente
descrittivo della maggior parte delle discipline biologiche, a due ragioni principali. Anzitutto al fatto che i metodi matematici classici sono stati elaborati
per semplici sistemi dinamici (la interazione fra gli elementi) oppure, grazie
ai metodi statistici, per descrivere il comportamento macroscopico di un sistema, rinunciando alla possibilità di una descrizione completa di tutte le interazioni all'interno del sistema. Non viene presa in considerazione una struttura
intermedia fra le singole molecole e il sistema nel suo complesso. Ma nei sistemi
biologici nessuna di queste trattazioni è applicabile, come abbiamo visto anche
per la termodinamica, perché si tratta di sistemi difficilmente riproducibili, nei
quali in molti casi è un singolo evento microscopico che, amplificato, cambia
totalmente la morfologia del sistema.
La seconda ragione, più profonda, deriva da un carattere tipico dei fenomeni biologici, cioè la stretta interazione fra funzione fisiologica e struttura.
Ma una struttura, una forma è rileva bile grazie alle discontinuità presenti nel mezzo
e tali discontinuità sono difficilmente esprimibili in termini matematici, per lo
meno in forma quantitativa. Una descrizione quantitativa di un fenomeno si
basa infatti su funzioni analitiche continue. Se una biologia matematica diviene
sempre più necessaria non solo per descrivere ma per spiegare teoricamente i
fenomeni biologici, ciò non significa che debba essere « necessariamente una biologia analitica, ma [dovrà essere] una biologia nella quale si utilizzano strutture
non quantitative, come quelle della topologia, per esempio » (G. Canguillhem).
A parte alcuni tentativi di costruire modelli matematici applicabili in sistematica, in anatomia comparata, in morfologia descrittiva, i principali contributi
matematici alla biologia sono da ricercarsi nei modelli ecologici elaborati da
A. ]. Lotka e V. Volterra negli anni venti- una vera e propria dinamica delle
popolazioni - nell'isolato tentativo del « grande visionario» (Thom) d' Arcy
'I'hompson e soprattutto nella genetica di popolazione, dove l'utilizzazione dei
metodi statistici ha permesso di costruire modelli dell'equilibrio genetico di una
popolazione e delle sue modificazioni nel corso delle successive generazioni.
Thompson, con la sua « teoria delle trasformazioni cartesiane », studiava
le relazioni geometriche fra forme affini, senza analizzarle carattere per carattere, procedimento tipico della . anatomia comparata, ma ricavando le « linee
definite ed ordinate» che durante l'evoluzione hanno trasformato «sotto l'in1 Ovviamente non ci riferiamo ai metodi
matematici utilizzati nella descrizione chimicofisica di alcuni fenomeni biologici. Si tratta in
questo caso di un uso indotto; intendiamo invece
riferirei alla costruzione di modelli matematici
volti alla spiegazione diretta dei fenomeni biologici.
35
www.scribd.com/Baruhk
(a)
,.. r
(b)
~
~
\
_1\.__l/
"
f.\
\
l
(e)
(c)
Un esempio del metodo di W. d'Arcy Thompson per trovare le affinità geometriche fra il carapace o
scudo dorsale di diversi granchi. (a) Geryon; (b) Corystes; (c) Scyramathia; (d) Paralomis; (e) Lupa;
(f) Chorinus.
sieme di sistemi di forze più o meno semplici e riconoscibili » una specie in
un'altra. Astraendo dal substrato materiale delle forme e dalle forze agenti,
Thompson ricercava una descrizione matematica della morfogenesi tramite semplici trasformazioni geometriche bidimensionali.
L'insufficiente struttura matematica e la carenza dell'analisi della dinamica
del sistema gli ha impedito di ottenere risultati concreti, confermabili dalla ricerca biologica moderna. Una descrizione su due dimensioni è davvero troppo
semplice per la complessità dei sistemi biologici. Ma tale programma, dei cui
limiti era d'altronde ben conscio Thompson, è stato ripreso con maggior potenza
matematica dal topologo René Thom, sulla base di un audace sviluppo della
topologia differenziale e della analisi qualitativa, introdotta da Poincaré alla
www.scribd.com/Baruhk
(a)
(c)
(a) Polyprion. (b) Pseudopriacanthus al/11.•.
(c) Scorpaena. (d) Antigonia cupros.
fine del secolo XIX. Dei modelli proposti da Thom indichiamo solo le possibili
implicazioni biologiche, senza addentrarci nella complessa trattazione matematica e tenendo conto, come dice lo stesso Thom, del carattere di tentativo che
essi hanno, in mancanza di prove sperimentali per la loro convalida.
Per superare i limiti all'approccio atomistico riduzionista e di quello strutturale, Thom si propone di studiare ciò che questi hanno in comune e cioè
la loro e.stensione spaziale, la loro morfologia. Riallacciandòsi alla « grande époque » della biologia, alla disputa fra Cuvier e Geoffroy de St. Hilaire sul « piano
di organizzazione » dell'organismo, Thom si schiera dalla parte del secqndo,
che pasava la identificazione della specie sulla disposizione topologica relativa
degii organi, privilegiando la forma rispetto alla funzione, contro l'atteggiamento
37
www.scribd.com/Baruhk
La nuova biologia
riduzionistico di Cuvier che privilegiava la descrizione funzionale, su cui si è
mossa tutta la biologia successiva fino alla biologia molecolare.
I modelli che Thom propone, come primo passo della edificazione di
una « teoria generale dei modelli » sono modelli dinamici, compatibili con una
morfologia empiricamente data. Come tutti i modelli matematici, questi evitano ogni ricorso «alle proprietà» del substrato delle forme oppure alla natura
delle forze agenti e possono essere utilizzati per descrivere ogni tipo di morfogenesi, da quella delle forme biologiche a quelle geologiche, linguistiche,
sociologiche. L'uso dei modelli viene giustificato con un argomento classico
e cioè l'ipotesi di semplicità, da Thom chiamata « ipotesi di genericità: in ogni
circostanza la natura realizza la morfologia locale meno complessa compatibile
con le condizioni iniziali locali ». Il ripetersi di particolari morfologie viene
spiegato come in ogni modello tramite l'isomorfismo fra le situazioni dinamiche
che lo generano.
Ogni tipo di fenomeno è descrivibile perché dietro l'infinita varietà dei
suoi aspetti è rintracciabile una qualche permanenza di forma. « Ogni scienza
è lo studio di una fenomenologia »; lo scienziato si pone di fronte alla realtà
isolando un certo insieme di fenomeni che lo interessano e li descrive come
una morfologia in uno spazio-tempo che chiamiamo « spazio substrato » di
questa morfologia. Ogni morfologia è dedotta dalla osservazione nello spaziotempo usuale, anche se non sempre lo spazio substrato della morfologia è lo
usuale··spazio-tempo euclideo della fisica classica.
La caratteristica principale di una forma è che essa si manifesta grazie ad
·una serie di discontinuità qualitative nello spazio substrato, che separano degli spazi «regolari» (tali cioè che in un certo intorno U(x) ogni punto y ha
-la stessa apparenza qualitativa di x).
L'insieme di queste discontinuità (che Thom chiama «catastrofi») descrive
la morfologia del sistemà e del processo dinamico. Scopo della « teoria delle
catastrofi » sarà quindi spiegare la morfogenesi, la dinamica delle forme e la loro
permanenza.
Se le discontinuità qualitative resistono a piccole perturbazioni delle condizioni iniziali esse sono strutturalmente stabili.l Tutti i sistemi sperimentali devono essere strutturalmente stabili in quanto deve essere possibile dopo un c~rto
intervallo di tempo ottenere di nuovo, e da un altro sperimentatore, la stéSsa
morfologia.
_ , ..
La stabilità strutturale non può per Thom essere spiegata attraversO,l'interazione fra gli oggetti più elementari nei quali la forma può essere dec;omposta, come nelle spiegazioni riduzionistiche o « atomiche », ma è · conpessa
r Se una funzione F(x) viene leggermente
perturbata e se la "funzione perturbata G = F
oF ha ancora: la stessa forma topologica della
+
+
funzione iniziale, la funzione F(x) è detta strutturalmente stabile. Un esempio è il classico oscillatore lineare.
www.scribd.com/Baruhk
I modelli di fenomeni morfogenetici, che presentano delle discontinuità qualitative, possono essere
rappresentati topologicamente in uno spazio-tempo a quattro dimensioni. Ogni tipo di morfologia
può essere descritta come la combinazione di catastrofi elementari che sono state classificate da R. Thom.
Ognuna di queste catastrofi elementari può rappresentare schematicamente semplici processi morfogenetici (m;lla figura sono rappresentate le catastrofi elementari più complessè, ottenute con l'ausilio
di un elaboratore elettronico).
alla struttura algebrico-topologica che viene chiamata, come in Eraclito, il « logos ,
delÌa forrna ». Successivamente, per designare lo stesso concftto; Thom adotta
la terminologia introdotta in embriologia da C. H. Waddingtort, rendendola
totalmente astr~tta, e .c;hiama « creodo » (dal greco xp~, òò6ç = cammino obbligato) 'e--più in generale ((campo . morfogenetico)} la struttura matematica: in . .
grado di descrivere !t= forme strutturalmente st~,bili.
..
·
. Un~ certa l;llorfologia può in g~nere essere decomposta in qeodi elemeq;;
ta.ri -.assoéiàti alle « ca,tastrofi elementari» _.che possono essere raggruppati ih
uri « :vocaba}ado » finito. In ge~erale si ha a che fare con un « insieme » di mor,fologie differenti; tuttavia alcune associazioni di ·creo di appaiono più facilmente
di altre. -Molto spesso si poss~no ~splicitare .Lvin coli (contraintes) che devonO essere imposti alle condizioni iniziali affinché qt;teste associazioni siano a ·loro volta
strutturalmente stabili. Si parla in questo caso di « creodi condizion~li >>: "« Per
esempio, la presenza di un essere vivente in un dominio dello spazio richiede la
pres·enza, nelle condizioni iniziali, di un altro essere vivente che ne è il genitore
(Omne vivum ex ovo). » La nozione di creodo condizionale permette quindi di
'descrivere s~l piano puramente morfologico l'ordine gerarchico; _il mod~llo
a_stratto· costituito dalla associazione dei creodi elementari costituisce la struttura del sistema, che in genere è invariartte entro un certo intervallo di tempo.
L'oggetto di studio delle discipline; tìiorfologiche è costituito proprio dai
creodi condizionali, cioè dalle condizioni che I?ermeÙono ad un sistema di fun.
.
zionare come una: struttura stabile e èoerente.
39
www.scribd.com/Baruhk
La nuova biologia
Ogni tipo di oggetto strutturalmente stabile è necessariamente un sistema
regolato, può esistere cioè solo per certi valori dei parametri che definiscono il
sistema stesso. Quando questi parametri escono dall'insieme dei valori normali
si mettono in moto dei meccanismi correttori.
L'insieme dei meccanismi di regolazione può venire descritto geometricamente dalla «figura di regolazione », cioè dal creodo del sistema. (Un esempio
tipico di un sistema regolato è dato da un punto materiale posto in un bacino
di potenziale.) Nel sistema vi è un attrattore della dinamica tale che per t-+ oo tutti
i punti del sistema hanno come limite l'attrattore. In generale questo attrattore
non è puntiforme ma può essere una figura più complicata (una traiettoria chiusa,
una superficie ecc.). Se vi sono più attrattori distinti, questi entrano in competizione,- e si può parlare di « lotta», di « conflitto » tra questi attrattori. Nerisulta che la figura di regolazione presenta dei « punti deboli » e cioè i punti
di separazione fra i bacini di due attrattori (come nel caso dell'asino di Buridano). Un sistema complesso verrà quindi diviso in domini associati ad attrattori diversi; questi domini sono separati da punti catastrofici, l'insieme dei
quali costituisce la morfologia del sistema.
Quando molti creodi, o attrattori, agiscono contemporaneamente il conflitto fra di essi spesso si organizza spazialmente mediante una configurazione
strutturalmente stabile, anch'essa retta da un creodo, gerarchicamente superiore. La stabilità di un oggetto deriva dalla competizione fra campi elementari la cui lotta· genera «la configurazione geometrica strutturalmente stabile
che assicura la regolazione ». La dinamica del sistema si conforma ad una « " figura di regolazione globale" che funziona come " centro organizzatore" rispetto ai differenti sotto-creodi che governano l'evoluzione dei sistemi elementari ». Abbiamo cosl contemporas1.eamente la presenza di sottosistemi, la cui
evoluzione è soggetta ad un determinismo locale in linea di principio riducibile
alle forze della chimica-fisica e l'esistenza di un «piano», di un modello dato
a priori.
In ogni processo naturale è così possibile determinare i creodi del processo
« isolotti di determinismo separati da zone dove il processo è instaqile ». Si
viene a determinare la presenza al tempo stesso di aspetti deterministici e indeterministici; così la relazione dei creo di fra loro è indeterminata ma la loro
azione complessiva può avere un risultato determinato, governato dal « centro
organizzatore » dell'intero processo, che lo riferisce ad un modello universale di cui qùel processo è una «copia».
I due punti di vista tradizionali della spiegazione del vivente, quello riduzionistico e qrtello strutturale, sono entrambi da prendere in considerazione,
superandone i limiti. Il primo, cercando di comprendere la produzione di una
certa morfologia, ricercandone le cause, si scontra nella difficoltà di precisare
la nozione di 'causa e difficilmente permette la descrizione dei fenomeni discon-
www.scribd.com/Baruhk
La nuova biologia
tinui; l'approccio strutturale assume la morfologia come una combinazione di
campi morfogenetici elementari, regolari, dalla cui associazione è possibile ottenere una certa forma ma questo approccio non riesce a spiegare la presenza
e la dinamica delle strutture.
Per superare i limiti dello strutturalismo che considera la strtlttura in se
stessa, occorrerà occuparsi della « spiegazione », reintroducendo il tempo, la
dinamica delle strutture.
La teoria delle catastrofi spiega la 'presenza delle strutture e « giustifica
dinamicamente la loro apparizione e la loro stabilità. Si trova così reintrodotta la nozione di causalità e la conseguente intellegibilità: il modello delle catastrofi, in effetti, riduce tutti i processi causativi ad uno solo, la cui giustificazione intuitiva non pone problemi, il conflitto, padre, secondo Eraclito, di
tutte le cose ». Può certo sembrare poco scientifico basare la spiegazione della
stabilità strutturale sull'idea di conflitto. Ma, nota Thom, in un periodo di «antropomorfismo delirante» (messaggio, informazione, programma ecc.) «nella
misura in cui si fa del " conflitto " un termine che esprime una situazione geometrica ben definita non c'è alcuna obiezione all'uso di questo termine per
descrivere rapidamente e qualitativamente una data situazione dinamica».
III · LA SPIEGAZIONE MOLECOLARE
r) Le ongznt
Non v'è dubbio che la vasta risonanza, non solo scientifica, avuta negli
ultimi anni dal dibattito biologico, le discussioni accese a livello filosofico e
culturale, le grandi attese anche pratiche per la « rivoluzione biologica >> siano
dovute agli ultimi sviluppi della teoria sintetica dell'evoluzione ma soprattutto
ai risultati della biologia molecolare, della spiegazione dei meccanismi fondamentali della vita in termini di interazioni fra molecole. 1
La migliore spiegazione del perché fu adottato il neologismo biologia molecolare l'ha data Frands H. C. Crick: «Sono stato costretto a definirmi un biologo
molecolare'perché mi era difficile continuare a rispondere che ero un misto di
cristallografo, biofisico, biochimico e genetista. » La biologia molecolare effettivamente non si presenta come l'ultima fase della discesa al sempre più piccolo, che aveva contrassegnato la biologia degli ultimi secoli, sino a raggiungere il livello minimo di organizzazione, quello molecolare; si tratterebbe in
~tlesto caso di niente altro che di una branca della morfologia o dell'anatomia.
La~biologia molecolare è invece, sin dall'inizio, un grande tentativo di unificare
.l'
I Per comprendere l'entità del salto concettuale operatosi si. ricordi quanto scriveva il
grande genetista W. Batesori nel 1916: «È inconcepibile che particelle di cromatina o di qualsiasi altra sostanza, per quanto complessa, siano
4otate di quella capacità che dobbiamo attribuire
ai fattori che stiamo considerando [i geni] [... ] supporre che le particelle di cromatina, indistinguibili
l'una dall'altra e quasi omogenee rispetto a tutte
le prove chimiche, siano portatrici nella loro
natura materiale di tutte le proprietà della vita
supera i limiti del più convinto materialismo. »
'•
41
www.scribd.com/Baruhk
La nuova biologia
in un quadro coerente e euristicamente fruttuoso un vasto insieme di conoscenze
sui « meccanismi della vita » che restava alquanto eterogeneo e dotato di scarso
potenziale esplicativo. Questo quadro coerente è però il frutto di contributi
tra loro del tutto differenti, come origini teoriche e come metodi, che solo dopo
molti anni troveranno una sintesi.
Grosso modo si potrebbe dire che all'origine della biologia molecolare
hanno contribuito due «scuole», la scuola inglese, che studiava la struttura
tridimensionale delle macromolecole di interesse biologico, e il cosiddetto « gruppo del fago », un eterogeneo e ristretto nucleo di scienziati, raggruppato attorno
al fisico Max Delbriick, che cercava nuovi metodi, più rigorosi a livello teorico,
per chiarire le basi della informazione genetica.
Le differenze sostanziali fra questi due indirizzi possono essere individuate
innanzitutto nel peso attribuito ai diversi metodi di spiegazione. Gli strutturisti
inglesi davano scarsa importanza alla genetica, studiavano la forma delle molecole e «l'evoluzione, utilizzazione e ramificazione di questa forma nella ascesa
a sempre più elevati livelli di organizzazione [...]. La biologia molecolare è
in modo predominante tridimensionale e strutturale» (William T. Astbury).
Conosciuta la forma delle molecole si tratta di collegare la struttura alla sua
genesi e alle funzioni che svolge. Il nuovo imperativo metodologico che viene
dalla biologia molecolare è: « se non capite una funzione studiate una struttura» (F. Crick).
Il gruppo del fago era invece interessato alla genetica molecolare, studiava
il DNA non riguardo alla sua struttura tridimensionale, bensì solo alla informazione (monodimensionale) immagazzinata nelle specifiche coppie di basi azotate e al suo ruolo nella replicazione. Vi erano perciò due indirizzi nettamente
diversi, l'uno strutturista e tridimensionale, l'altro informazionista e manodimensionale, i quali, «sebbene ognuno seguisse costantemente i seminari
organizzati dall'altro, avevano meno da dirsi in termini di reale comunicazione
intellettuale di quanto si possa credere» (John C. Kendrew).
Tuttavia la differenza di fondo fra i due indirizzi è da ricercarsi in un modo
radicalmente diverso di considerare i rapporti fra la biologia e la fisica e il ruolo
svolto dalla biochimica nella spiegazione dell'ereditarietà. La biologia molecolare, intesa in senso strutturale, è erede diretta degli studi di cristallografia
ai raggi X, iniziati sin dal 1912 da W. H. Bragg e continuati insieme al figlio
W. L. Bragg. Sono proprio due allievi dei Bragg, W. T. Atsbury e John D.
Bernal,l che iniziarono alla fine degli anni trenta l'analisi strutturistica delle pro:
teine e degli acidi nucleici, evidenziando in queste macromolecole una regoI John D. Berna!, fisico e cristallografo,
considerato l'iniziatore della strutturistica inglese
su materiali biologici, appartiene a quel gruppo
di grandi scienziati inglesi che aderirono al marxismo, del quale si è parlato nel capitolo Iv del
volume ottavo. Applicando, per la verità alquanto
schematicamente, i concetti esplicativi del materialismo dialettico, Berna! ha svolto un intenso
lavoro teorico ed anche storico (Science in history,
I955).
www.scribd.com/Baruhk
La nuova biologia
larità strutturale considerata allora tipica solo dei cristalli; si cominc10 così
ad intravedere la possibilità di spiegare le funzioni fisiologiche delle cellule
grazie alla configurazione tridimensionale delle molecole.
Il primo frutto decisivo dell'approccio strutturale fu opera però del chimico americano Linus Pauling, che nel 1951 propose la struttura ad a-elica
come struttura secondaria delle proteine, grazie alla utilizzazione di modelli
in scala.
Gunter S. Stent sostiene la tesi che, mentre il gruppo dei biologi molecolari
informazionisti era prevalentemente ostile alla biochimica, « la scuola tridimensionale o strutturale può essere considerata come una branca della biochimica,
della quale condivideva le ipotesi di lavoro riguardo alla biologia ». È certo
vero che gli strutturisti si muovono in una ottica tradizionale, presente già
da tempo. Tuttavia l'affermazione che alla base delle funzioni biologiche vi
sia la struttura tridimensionale delle molecole è totalmente nuova, in quanto i
biològi avevano sino ad allora cercato di individuare la specificità dell' organizzazione dinamica sulla base di eventi biochimici (particolari reazioni e particolari sostanze).
Il metabolismo era sostanzialmente governato dalla concentrazione degli enzimi, non dalla loro struttura. La stessa regola one gene-one enzyme, di Beadle e
Tatum, legava un gene ad una proteina come composto chimico e non specificamente alla struttura terziaria e quaternaria dell'enzima stesso. Lo scopo della
strutturistica era invece di studiare la struttura in sé, quasi indipendentemente
dalla composizione dettagliata della proteina. Era alla presenza di sacche idrofile e idrofobe, di siti particolarmente reattivi convenientemente disposti nello
spazio che si associava una data proprietà fisiologica. È questo che ha portato
Pauling a sostenere la teoria della complementarità tra la struttura del substrato
e quella del catalizzatore e Monod a enunciare la gratuità della composizione
chimica di un enzima allosterico nei confronti della sua funzione biologica.
Mentre i biochimici cercavano di derivare l'ordine biologico dal disordine
della cinetica enzimatica, uniformandosi così al procedimento tipico della termodinamica e della chimico-fisica, la biologia molecolare spiega l'ordine con
un ordine preesistente. Le strutture che i citologi e i morfologi studiavano e la
· presenza di sostanze chimiche dotate di funzionalità biologica sulla base di
specifiche strutture molecolari vengono riunite in una sintesi chiara: alla concezione colloidale del « fondamento fisico della vita » si sostituisce una concezione strutturale. Gli agenti chimici sono le strutture di determinate sostanze macromolecolari, la funzionalità di un enzima è direttamente associata solo
ad una fra le migliaia di strutture spaziali possibili. Quello che all'inizio del
secolo sembrava al genetista Bateson « superare il sogno del più convinto materialista», e cioè l'identificazione del gene con una struttura tridimensionale
microscopica, inizia a divenire una realtà ben concreta e scientificamente veri43
www.scribd.com/Baruhk
La nuova biologia
ficata. D'ora in poi « non esiste alcuna linea di demarcazione tra strutture in
senso molecolare e in senso anatomico, le macromolecole hanno strutture intelligibili all'anatomista e le piccole strutture anatomiche (tubuli, lamine ecc.)
sono molecolari in un senso intelligibile al ch1mico » (Peter Medawar). La sintesi
fra forma biologica e forma chimica è quindi una svolta determinante, che dà origine ad un nuovo tipo di spiegazione scientifica.
I risultati estremamente importanti della scuola strutturistica non avrebbero tuttavia svolto un ruolo rivoluzionario senza l'integrazione con un punto
di vista totalmente diverso. La strutturistica è infatti un approccio eminentemente descrittivo, non riesce a svolgere un ruolo euristico perché non si pone il
problema di come la struttura si forma, si mantiene stabile e viene trasmessa
ad ogni generazione. È il problema dell'« informazione genetica », affrontato
di petto dall'altra scuola, quella « informazionale », appunto, che aveva una origine intellettuale completamente diversa. Mentre i biologi molecolari strutturali
operavano guidati dall'assunto che la fisica potesse dare importanti contributi
alla biologia, alcuni dei primi biologi molecolari informazionali erano motivati
« dalla fantastica e non convenzionale idea che la biologia poteva dare significativi contributi alla fisica» (G. S. Stent).
Il grupp0 del fago si era infatti costituito intorno a Max Delbriick, allievo
di Niels Bohr. Bohr aveva cercato di « stabilire se all'analisi dei fenomeni naturali non manchi ancora qualche elemento fondamentale per la comprensione
della vita sulla base delle esperienze fisiche » concludendone che « la mera
esistenza della vita andrebbe considerata in biologia come un fatto elementare,
allo stesso modo come in fisica atomica l'esistenza del quanto di azione va accettata come un dato primario non derivabile dalla meccanica ordinaria». Ne
risultava che la sola via per conciliare le leggi fisiche coi cosiddetti aspetti finalistici dei fenomeni biologici era tenere conto delle differenze sostanziali tra
le condizioni di osservazione. Cosl il meccanicismo, il tentativo di ridurre i
fenomeni biologici alla chimico-fisica, e il finalismo, la rivendicazione del carattere autonomo di certi aspetti dei fenomeni biologici, sono descriziov.i complementari che « sottolineano il carattere di reciproca esclusione di condizioni
di osservazioni ugualmente indispensabili », allo stesso modo in cui sono complementari la trattazione ondulatoria e quella corpuscolare in meccanica quantistica.
Nonostante i suoi limiti teorici che discuteremo in seguito, l'impostazione
generale di Bohr, cioè la necessità di ricercare leggi più generali di quelle della
fisica di allora per poter spiegare i fenomeni biologici, la « funzione peculiare
della vita », segna in profondità tutti i fisici che negli anni successivi si dedicano alla ricerca biologica. Tale funzione peculiare della vita è l'ereditarietà ed è
a questa che l'allievo di Bohr, Max Delbriick, si rivolge, studiandone con concetti autonomi il substrato materiale, il gene.
44
www.scribd.com/Baruhk
La mappa genetica del batteriofago T4 mostra le posizioni relative dei più di 75 geni finora identificatj
in base alle mutazioni. I tratti in nero pieno nella circonferenza indicano la localizzazione dei geni
interessati allo sviluppo della normale forma del fago. I disegni nei riquadri mostrano quali componenti virali sono presenti nelle cellule infettate da mutanti che mancano dei geni indicati. Per esempio,
una deficienza del gene rr o 12 produce una particella completa ma debole. Una deficienza del gene 57
produce una particella mancante delle fibre della coda (William B.- Wood e R. S. Edgar, «Scientific
American », 1967).
Questo per alcuni versi doveva essere un cristallo, in quanto solo un cristallo, pensavano la maggior parte degli scienziati, può mantenere una morfologia perfettamente regolare e può servire da stampo per produrre altri cristalli
dello stesso genere e configurazione. Ma non può essere un cristallo perio"dico, comé quelli inorganici, che ripetono costantemente piccole « celle » semplici, perché in questo ·modo non si potrebbe spiegare la molteplicità delle
organizzazioni cui può dare origine. Il cromosoma deve essere, quindi, un
45
www.scribd.com/Baruhk
La nuova biologia
-
«cristallo aperiodico» (Erwin Schrodinger), capace di resistere «per lunghi
periodi alla influenza perturbatrice dell'agitazione termica cui la sostanza ereditaria è continuamente esposta ».
Delbriick, in collaborazione con il genetista N. Timofeef-Ressovsky, elabora un modello molecolare per il gene e per la mutazione: « Il gene non è
niente altro che un tipo particolare di molecola. » Con il modello molecolare
non è pii:t « inconcepibil_e » che il gene contenga un codice in miniatura del piano
di sviluppo e i mezzi per realizzarlo e si spiega anche il carattere discontinuo
delle mutazioni. Queste sono infatti solo dei cambiamenti di configurazione
irt una parte della molecola e, come ogni transizione di tipo chimico, non presentano forme intermedie.
Il modello di Delbriick e le tesi teoriche che vi sono dietro vengono popolarizzate da un breve libro scritto da Erwin Schrodinger nel 1945, What's
Life ?, nel quale il padre della meccanica ondulatoria, con passione e chiarezza
di vedute, indica ai giovani fisici, colpiti moralmente dall'uso distruttivo della
energia atomica, il nuovo affascinante campo. Significativamente Schrodinger
accetta solo la prima parte delle argomentazioni di Bohr e cioè « la ovvia incapacità della fisica e chimica di oggigiorno a dare una spiegazione » dei fenomeni vitali, ma crede nella possibilità che ciò sarà possibile in futuro quando
si scopriranno altre leggi della fisica «fino ad oggi sconosciute, le quali tuttavia,
una volta scoperte, formeranno parte integrante di questa scienza, esattamente
come le precedenti ».
Nel 1932. Delbriick lascia la Germania nazista e si trasferisce negli Stati
Uniti, dove inizia a studiare da tutti i possibili punti di vista un oggetto biologico
particolarmente interessante, il sistema costituito dal batterio Escherichia coli, un
ospite generalmente innocuo dell'intestino umano, e dal gruppo dei sette batteriofagi T che lo invadono. I microorganismi, che erano stati solo considerati dal
punto di vista medico, diventano un terreno di studio privilegiato per la biologia.
I batteri ed i virus permettono infatti di ottenere migliaia di generazioni in poco
tempo e poco spazio, sono struttù,ralmente semplici (anche se non lo sono affatto chimicamente e funzionalmente) e dotati di un metabolismo piuttosto
flessibile che permette di provocare « variazioni controllate e riproducibili »
nelle popolazioni batteriche e infine sono facilmente trattabili biochimicamente
per estrarne i componenti elementari. Il sistema fago-batterio diviene l'oggetto
ideale per lo studio dell'autoduplicazione e delle basi fisiche dell'ereditarietà.
Il programma di Delbriick è « studiare nel dettaglio il comportamento delle cellule viventi » formulando i concetti e le teorie « senza paura di contraddire la
fisica molecolare ». Si crea cosl un « nuovo approccio intellettuale alla biologia
che darà finalmente un significato al male impiegato termine biofisica».
Verso il 1940 Delbriick viene raggiunto da Alfred Hershey e Salvatore
E. Luria: nasce il gruppo del fago che dal 1945 organizza a Cold Spring Ha:rbor
www.scribd.com/Baruhk
La nuova biologia
una serie di scuole estive, la vera fucina della biologia molecolare. Inizia quella
che G. Stent chiama la «fase romantica» della nuova disciplina, caratterizzata
dall'introduzione in genetica dei microorganismi, di un rigore teorico e di una
logica sperimentale precedentemente sconosciuti. Si chiariscono i meccanismi
con cui il virus infetta il batterio e vi si moltiplica, le mutazioni dei batteri e
il meccanismo di replicazione genetica.
Già da qualche anno Martin Schlesinger aveva dimostrato che i batteriofagi erano costituiti solo da proteina ed acido nucleico e che le loro proprietà
biologiche erano dovute ad una molecola in grado di autoriprodursi. Ma si
trattava della proteina, come molti, compreso il gruppo del fago, allora pensavano, oppure dell'acido nucleico, questa molecola considerata di supporto, a prima
vista scarsamente adatta a trasportare l'informazione genetica cosl multiforme?
Nel 1944 I. Avery, C. M. MacLeod e M. McCarty avevano pubblicato su
di una rivista medica, il « J. of Experimental Medicine », le conclusioni della
ricerca di « una qualche sostanza chimica capace di provocare una variazione
ereditaria e predicibile chimicamente indotta e diretta specificamente da un composto chimico noto », in modo da spiegare lo strano fenomeno osservato da J.
F. Griffith nel 1928 e cioè la trasformazione di un tipo di pneumococco inattivo
in un altro attivo; un esempio, il primo osservato in laboratorio, di trasmutazione di una specie in un'altra. La conclusione del lavoro di Avery eta che «la
fondamentale unità del principio trasformante è un acido nucleico del tipo dessosiribosio ».
La pubblicazione di questo lavoro è attualmente considerata come la data
di nascita della biologia molecolare ma tale giudizio è dato a posteriori perché
in quegli anni pochissimi avevano afferrato l'importanza fondamentale .del lavoro di Avery. L'articolo si presentava come un classico lavoro di batteriologia
senza evidenti agganci con la genetica. Lo stesso autore, anche se pensa, e lo
dice privatamente, che l'« agente trasformante » « si comporta come un virus
ma può essere un gene», nell'articolo non parla mai di gene, mutazione ecc.
Solo nelle conclusioni prende in esame asetticamente tale possibilità insieme ad
altre e non tenta alcuna generalizzazione.
Ma nel ristretto ambiente dei primi biologi molecolari, la scoperta di A very
scoppia come una bomba. Erwin Chargaff inizia a studiare la struttura degli
aciqi nucleici, giungendo a dimostrare che ogni specie ha un DNA caratteristico, con una diversissima composizione in basi, ma sempre rispondente alle
eguaglianze G = C e A = T. Successivamente Alfred Hershey e Martha Chase
dimostrano che il risultato sperimentale ottenuto da Thomas Anderson, facendo
« esplodere » le teste dei fagi e osservandole al microscopio elettronico, sulla base
della quale era stata avanzata l'ipotesi «estremamente comica che solo il DNA
virale riesca a trovare il modo di entrare nella cellula ospite, agendo in essa
come un principio trasformante per alterare i processi di sintesi», era tutt'altro
47
www.scribd.com/Baruhk
La nuova biologia
che comica. Marcando con isotopi radioattivi la' componente proteica si dimostrava che questa non entra nella cellula.
La situazione era ormai matura per il passo decisivo e questo avviene per
l'interazione, anche fisica, fra la scuola informazionale e quella strutturistica. Un
allievo di Luria, James O. Watson, dopo l'incontro con il fisico inglese M. H.
F. Wilkins, che aveva ottenuto ottime figure di diffrazione del DNA, inizia a
studiare la struttura degli acidi nucleici. Nel 1951 si trasferisce a Cambridge
nel laboratorio di J. Kendrew dove incontra Francis Crick col quale inizia lo
studio di un modello tridimensionale del DNA, seguendo la tecnica che aveva
proprio allora portato Pauling a chiarire la struttura ad a-elica delle proteine.
Si trattava di «imitare Linus Pauling e batterlo al suo stesso gioco» (Watson).
Ma, in realtà, non era una corsa contro il tempo; nonostante quanto si sia scritto
sull'argomento, Pauling non sarebbe giunto, o almeno non così presto, alla
conclusione che il DNA era una doppia elica. Watson e Crick partono infatti
non da una semplice analisi strutturistica, ma introducono dei principi genetici
nella determinazione della struttura. Si trattava cioè di trovare un modello
strutturale che non solo fosse sovrapponibile alle figure sperimentali di diffrazione, ma spiegasse come il DNA poteva portare l'informazione genetica e
come, quando una cellula si divide, ogni nuova cellula contiene una copia identica del DNA. Tale informazione deve essere contenuta nelle basi dato che, come
aveva mostrato Chargaff, sono queste le sole variabili presenti. L'idea più credibile era assegnare alle sequenze delle basi il ruolo di codice. Ma come sono
disposte le sequenze? Scartato un modello con tre eliche, che sarà elaborato
anche da Pauling, si giunge ad un modello a due filamenti e infine alla sua natura «complementare», cioè l'appaiamento mediante legami idrogeno fra coppie di basi A, T e C, C. Una base funziona come il negativo dell'altra. Se la
doppia elica si scioglie ogni singola catena può agire come stampo di una nuova
catena complementare.
Il modello di Watson e Crick viene pubblicato su« Nature» nel 1953. Contrariamente al modello dell'a-elica, il modello del DNA è estremamente euristic-o, apre nuove possibilità in quanto contiene in sé le indicazioni principali
per -capire come funziona il materiale genetico.
Inizia una nuova fase della biologia molecolare dedicata a chiarire i principi fondamentali della genetica molecolare.
2) La genetica molecolare
Il modello a doppia elica del DNA è di per sé una sintesi di un insieme
di conoscenze prima eterogeneo, suggerisce possibili soluzioni ad una vasta
quantità di problemi e fa intravedere nuove possibilità di ricerca. « La situazione, » scrive Niels Bohr a questo proposito, « era molto simile a quella in
cui vennero a trovarsi i fisici con la scoperta del nucleo atomico che completò
www.scribd.com/Baruhk
La fotografia mostra la diffrazione dei raggi X provocata da un cristallo di DNA. La struttura elicoidale
del DNA è suggerita dal disegno incrociato dei raggi X diffratti.
(Dott. Robert Langridge).
la conoscenza dell'atomo in misura inaspettata, spingendoli a trovare come poteva venire impiegata per ordinare le informazioni accumulate sulle proprietà
chimiche e fisiche della materia. >>
Molti fenomeni genetici sembrano trovare còn il modello a doppia elica
del DNA la propria base mo!eco!are. È infatti semplice postulare. un meccanismo
per il crossing-over, cioè il processo di scambio di materiale genetico fra cromosomi
omologhi. Questo può avvenire mediante la rottura e la riunione di molecole
di DNA, anche se la spiegazione di questo processo a livello molecolare è tuttora molto poco chiaro. Le catene di DNA sono infatti considerate strutture
chiuse e, in termini di interazioni molecolari, nori si vede perché « due molecole .di DNA omologhe dovrebbero attrarsi reciprocamente» (Watson).
Anche le mutazioni puntiformi, interessanti cioè un singolo gene, possono
essere attribuite alla sostituzione di una base, un semplice processo chimico.
Una volta accettata l'idea che il contenuto genetico di una cellula è localizzato
nel suo DNA nucleare anche le mappe cromosomiche, che erano state il grande
risultato della genetica classica o formale, trovano il corrispondente molecolare.
Ogni singolo focus genico sarà associato ad un pezzo della catena del DNA.
Dato che i biochimici da tempo sostenevano che la cellula non fosse altro
49
www.scribd.com/Baruhk
-..,-
/
/
/
gene /
/
/
cromosoma
/
/
/
/
/
/
H
-cH
-t-
/
_c_
/
/
...
/
D('lA
RNAm
Polipeptìde
Il « dogma » della genetica molecolare.
che la somma delle strutture proteiche e delle attività catalitiche degli enzimi,
capire come il gene, la molecola di DNA, guida la sintesi delle proteine significa avere a portata di mano «il segreto della vita». L'obiettivo della biologia
molecolare diviene esplicito: « comprendere tutte le caratteristiche degli esseri
viventi come interazione coordinata di piccole e grandi molecole» (Watson).
L'interazione era stata grosso modo chiarita dalla biochimica, in particolare da..,
gli studi sul metabolismo. Con il modello a doppia elica sembra ora disponibile
un meccanismo per spiegare l'origine della coordinazione.
Tale meccanismo viene proposto, ancora, da Watson e Crick sotto la forma
di « dogma centrale della biologia molecolare »:
DNA ----:r RNA --+ catena polipeptidica
L'« informazione» va dall'acido nucleico alla proteina e non viceversa.
Con la proposta del dogma centrale ha inizio la fase «dogmatica» (Stent) della
biologia molecolare.
A differenza della prima fase che aveva richiesto una ricerca « a tastoni »
di una sintesi non prevedibile, anche se era chiaro in quale direzione tale sintesi sarebbe stata trovata, la nuova fase è soprattutto di applicazione, di chiarificazione dei singoli aspetti del meccanismo di sintesi proteica, di individuazione di tutte le specie molecolari in esso implicate e della loro struttura tema-
www.scribd.com/Baruhk
La nuova biologia
ria e quaternaria. Alle ardite generalizzazioni, succede una serie di ricerche prettamente sperimentali, che mettono a punto una serie di tecniche estremamente
sofisticate, basate essenzialmente su uno sviluppo dei metodi biochimici. Se
i risultati spettacolari non mancano, tuttavia questo tipo di attività di ricerca
segna anche il limite della biologia molecolare e in un certo senso una sua involuzione. Diviene infatti spesso privilegiato il momento tecnologico, di analisi strumentale di singoli aspetti a scapito della riflessione e delle generalizzazioni teoriche, limitando in questo modo anche il campo esplicativo della teoria
stessa.
Il DNA può svolgere funzioni sia autocatalitiche che eterocatalitiche, dirigere cioè la propria duplicazione e la polimerizzazione delle proteine tramite
un intermedio, o meglio una serie di intermedi, costituita da diversi tipi molecolari di un altro acido nucleico a filamento singolo, l'RNA, contenente uracile al posto della timina. Il DNA agisce come stampo (template) per la sintesi di una coppia delle proprie catene polinucleotidiche, grazie ad un meccanismo << semiconservativo », basato sulla formazione di legami idrogeno complementari, e di catene polinucleotidiche di RNA che a loro volta dirigono
la sintesi delle proteine. Se è chiaro dal modello di Watson e Crick come può
avvenire la specificazione della sequenza fra i nucleotidi (tramite la complementarità dei legami idrogeno), più difficile è capire come dalla sequenza di nucleotidi si passa alla sequenza ·di aminoacidi. L'accoppiamento non può essere
una base - un aminoacido-, perché le basi sono solo 4 e gli aminoacidi 20.
Ogni aminoacido dovrà quindi essere specificato da ; nucleotidi (una« tripletta »
o <<codone»). Si presenta di fronte ai ricercatori un problema affascinante: la
decifrazione del codice genetico che lega una singola tripletta ad un aminoacido.
Tale decifrazione è dovuta alla possibilità di ottenere in vitro, mediante
tecniche enzimatiche e di sintesi çhimica, dei poli-nucleotidi sintetici regolari,
ripetizione di una sequenza nota (ad esempio CUCUCU ... ).
Il primo che fu otfenuto, poli - U, era capace di dirigere in vitro la sintesi di una catena polipeptidica formata solo da fenilalinina. Il primo codone
è decifrato: UUU = fenilalinina. Estendendo questa tecnica, con l'uso di copolimeri misti e regolari, fu presto possibile decifrare quasi l'intero codice genetico. Ne deriva un'altra potente conferma delle tesi di una comune discendenza
di tutte le forme di vita attualmente esistenti sul nostro pianeta: il codice è
universale, è lo stesso per tutti gli organismi, dai virus all'uomo.
Ma come viene letto il codice, qual è il meccanismo molecolare che permette il passaggio dalla sequenza lineare dei nucleotidi del DNA a quella degli aminoacidi nelle proteine? Qual è in altre parole il meccanismo della sintesi proteica? È questa la seconda domanda di fondo che ha occupato i biologi
mo!ecolari nella fase << dogmatica ».
I risultati della biochimica topologica, grazie all'uso sempre più vasto de-
www.scribd.com/Baruhk
Il codice genetico
Secondo nucleotide
Primo
nucleotide
Terzo
nucleotide
Lys
Asn
Lys
Asn
Thr
Thr
Thr
Thr
Arg
Ser
Arg
Ser
Ile
Ile
Gin
His
Gin
His
Pro
Pro
Pro
Pro
Arg
Arg
Arg
Arg
Leu
Leu
Leu
Leu
Glu
Asp
Glu
Asp
Ala
Ala
Ala
Ala
Gly
Gly
Gly
Gly
Val
Val
Val
Val
ter
Tyr
ter
Tyr
Ser
Ser
Ser
Ser
ter (?)
Cys
Trp
Cys
Leu
Phe
Leu
Phe
M et
Ile
A
c
-G
u
I simboli A, C, G, U indicano le basi (adenina, citosina, guanina e uracile) che si trovano nella catena
di RNA e di DNA (dove l'uracile è sostituito dalla base analoga timina, T) . Queste basi costituiscono
le «lettere» dell'alfabeto in cui è scritto il «messaggio» genetico. Poiché le proteine contengono venti
aminoacidi (indicati nella tabella con il nome abbreviato, Ser = serina, Phe = fenilalanina ecc.), due
basi non sarebbero state sufficienti, in quanto avrebbero permesso solo r6 combinazioni possibili.
Se un gruppo di tre basi codifica un aminoacido, le possibilità sono 64, largamente sufficienti. Quindi
ogni « tripletta » di basi codifica uno specifico aminoacido; è la « parola » (in linguaggio scientifico
còdone) che indica un aminoacido; p. es.: AAG = lisina. La sequenza dei codoni lungo l'elica del DNA
specifica esattamente la sequenza degli aminoacidi lungo la catena proteica. Come si può notare il codice
è degenere, "cioè la maggior parte degli aminoacidi ha più di una tripletta che lo codifica. I simboli ter
(UAA, UGA, UAG) significano chain termina! signa!, cioè segnale di fine catena, che indica quando
quella specifica proteina è stata interamente trascritta. Inoltre i codoni AUG (Met) e GUG (Val) sono
segnali di inizio catena, indicano il sito dove ha inizio la trascrizione di una catena proteica. Il codice
genetico è universale, ogni aminoacido è specificato dalla stessa tripletta in tutti gli organismi.
52·
www.scribd.com/Baruhk
La nuova biologia
-
gli isotopi, aveva dimostrato che la sintesi proteica avveniva non nel nucleo,
ma nel citoplasma, su minuscoli corpuscoli, i ribosomi, formati da proteine
strutturali e da un tipo particolare di RNA (l'r-RNA). Già nella prima formulazione del «dogma» era previsto l'intervento dell'RNA come stampo intermedio per la sintesi delle proteine. L'RNA doveva quindi essere in grado di
passare dal nucleo al citoplasma, attraversando la membrana nucleare e giungendo sino ai ribosomi dove poteva guidare la sintesi delle proteine. Questo
tipo di RNA, chiamato RNA messaggero (m-RNA) per la sua funzione di «trasferire un messaggio» e isolato da François Jacob e Jacques Monod, è composto
di catene polinucleotidiche relativamente corte, capaci di specificare una o più
proteine.
Semplici considerazioni stereochimiche avevano portato ad escludere che
le proteine potessero sintetizzarsi direttamente sull'm-RNA, in quanto non esiste una complementarità di tipo chimico fra le catene laterali degli aminoacidi
e le basi azotate. Occorreva quindi supporre l'esistenza di un « adattatore »
fra l'RNA messaggero e le proteine. Per superare queste difficoltà fu avanzata
l'ipotesi che un terzo tipo di RNA, trovato nelle cellule e chiamato transfer,
t-RNA, ancora più piccolo della m-RNA, fosse dotato di una struttura tridimensionale capace di interagire stereochimicamente, grazie ad una «cavità»
specifica, con un singolo aminoacido. Il t-RNA è dotato alla estremità opposta rispetto a quella che interagisce con l'aminoacido di un anticodone (cioè
una tripletta di nucleotidi esattamente complementare alla tripletta che codifica l'aminoacido trasportato da quel t-RNA) che permette il suo appaiamento
con il codone dell'm-RNA che si trova sui ribosomi e che, legando le singole
molecole di t-RNA, pone a contatto i singoli aminoacidi permettendo la formazione dellegame peptidico. L'm-RNA scorre sui ribosomi come un nastro sulle
testine di un registratore e a mano a mano si forma l'intera catena polipeptidica.
Chiarito il meccanismo della sintesi proteica si profila un problema che
i biochimici avevano cercato invano di risolvere e cioè il controllo della velocità di sintesi delle varie molecole proteiche. Come abbiamo visto, infatti, esiste nella cellula una grande varietà di molecole diverse, le cui relative concentrazioni possono variare a seconda del particolare substrato su cui la cellula
cresce, della presenza di particolari enzimi, dello stadio a cui si trova il ciclo
cellulare; inoltre il fabbisogno di proteine varia moltissimo durante il differenziamento. Quali sono i meccanismi capaci di assicurare la sintesi selettiva
delle proteine nelle diverse condizioni ed in tempi diversi? Dato che, come è
ovvio dopo il dogma centrale, la produzione di proteine è sotto il controllo
genico, come viene regolato il funzionamento dei geni stessi?
L'ipotesi introdotta per chiarire i meccanismi fondamentali della regolazione cellulare da parte di Jacob e Monod costituisce una nuova, importante
svolta teorica, che in un certo senso è una estensione, un completamento del
www.scribd.com/Baruhk
La nuova biologia
dogma centrale. Tale ipotesi si basa sulla esistenza di un particolare gruppo
di molecole, chiamate repressori, in grado di combinarsi con siti specifici del
DNA (geni strutturali o « cistroni »), bloccando in questo modo la trascrizione
dei corrispondenti m-RNA. Anche queste molecole, isolate poi come proteine,
sono codificate dal DNA cromosomico e i geni che le codificano sono chiamati
geni operatori (o regolatori). All'insieme del gene operatore e dei geni strutturali
da esso controllati si dà il nome di operone che è una specie di « paragrafo » del
« messaggio » del DNA.
Per spiegare l'estrema specificità dell'interazione fra substrato e repressore,
e fra questo e il corrispondente gene operatore, Jean Pierre Changeux, Monod e
Jeffries Wyman hanno proposto il cosiddetto« meccanismo allosterico ».Esistono
come abbiamo visto degli enzimi che svolgono contemporaneamente funzioni di
catalizzatore e di regolazione nei confronti di un metabolita essenziale. Quindi
tali enzimi devono essere in grado di « riconoscere » due classi differenti di
molecole: il segnale regolatore e il substrato della reazione catalizzata, e inoltre devono essere altamente sensibili anche a piccole variazioni della concentrazione di questi. Il problema principale da risolvere è sapere come la proteina
riesce a modificare la propria funzionalità biologica sulla base dei segnali regolatori. Dato che questi processi sono osservabili anche in vitro, al di fuori cioè
dei meccanismi cellulari, la biologia molecolare fa l'assunzione, conformemente alla sua ipotesi di fondo, che tutte le proprietà degli enzimi siano collegate alla loro struttura tridimensionale. « Il riconoscimento e l'integrazione
di singoli regolatori devono essere semplici proprietà meccaniche degli enzimi »
(Changeux). Basterà quindi conoscere la struttura della proteina, la natura dei
siti implicati nei legami, le modificazioni" strutturali conseguenti all'interazione
con il segnale regolatore o il su bstrato per spiegare il meccanismo della regolazione. Alla base del modello di Monod, Wyman e Changeux c'è un meccanismo di amplificazione mediante il quale un primo legame in una parte della
molecola produce un aumento della velocità di formazione di altri legami sulla
stessa molecola (cinetica sigmoide).l
Tutte le proteine allosteriche sono costituite dall'aggregazione di sottunità distinte, in grado di stabili1 e una cooperatività fra loro. Un legame in
una parte dell' oligomero provoca un cambiamento di conformazione nel resto
della struttura quaternaria. La proteina allosterica dispone quindi di siti di legame diversi per il substrato e per i segnali regolatori, tra i quali si stabiliscono
delle reazioni indirette tramite leggere modificazioni conformazionali. È l'equiI Questo effetto era stato osservato da
Christian Bohr, padre del fisico Niels, fin dal
1903 nell'emoglobina; Bohr, osservando che la
curva che descriveva la cinetica di reazione dell'assorbimento di ossigeno aveva una forma partico-
!are che dimostrava un incremento della velocità
di reazione man mano che la reazione avveniva,
suppose correttamente che l'ossigeno fosse capace di autoregolare la propria fissazione sull'emoglobina.
www.scribd.com/Baruhk
DNA
xxx:x:xxxxxxxx
DNA
X:XXXXXXXXXX::X
fattore
~ di controllo
DNA-Polimerasi
XXX:X:XXXXXXXX
~~i
RNA-Polimerasi
-,:: ~\-ç 1
A - - - --
---
RNA-t
aminoacidi
enzima attivante
(am 1noac11S1ntetas1)
-~ ~~a~~~a~ll
Schema riassuntivo del ciclo di autoriproduzione biosintetica della cellula.
librio tra questi stati conformazionali, differenti per l'affinità ai ligandi specifici,
che permette all'enzima di svolgere il suo ruolo regolatore.
A conclusioni analoghe è giunto Daniel E. Koshland che ha proposto un
modello, diverso da quello di Monod, per spiegare il controllo biologico, chiamato della« complementarità indotta». L'ipotesi da lui avanzata suppone che la
specificità enzimatica non sia insita di per sé nella struttura tridimensionale
della molecola, ma che la forma complementare dell'enzima nei confronti del
substrato venga indotta « così come una mano produce un cambiamento nella
forma di un guanto». L'enzima è quindi flessibile ed un ruolo importante è svolto
dal substrato.
Una proteina con effetti cooperativi positivi è molto più sensibile a piccole fluttuazioni dell'ambiente rispetto ad una proteina non allosterica. Così l'emoglobina, un tetramero con effetto cooperativo positivo, è un trasportatore di
ossigeno molto più attivo ed efficiente della mioglobina che invèce è monomerica e di conseguenza non presenta effetto cooperativo. Quindi la cooperazione positiva è uno «strumento di amplificazione » che permette un'ampia
regolazione da parte di piccoli segnali. Esistono anche effetti di cooperazione
55
www.scribd.com/Baruhk
La nuova biologia
negativa, nei quali il primo legame induce delle modificazioni conformazionali
che rendono più difficili i successivi legami. Ciò ha un ruolo importante per
diminuire la sensibilità di alcuni enzimi alle fluttuazioni ambientali, stabilizzando quei processi biochimici che devono rimanere costanti.
Lo stesso repressore genetico può quindi essere considerato come una
proteina regolatrice di tipo allosterico, la cui interazione con il substrato provocherebbe una modificazione allosterica di configurazione tale da rendere la
proteina incapace di bloccare il gene operatore.
In conclusione, dall'insieme dei meccanismi di sintesi proteica e della sua
regolazione emerge una impostazione di fondo abbastanza chiara. Tutte le funzioni e le strutture cellulari sono descrivibili tramite l'interazione fra molecole.
Il progetto di Delbruck di trovare «altre leggi della fisica» sarebbe stato quindi
battuto. Tutte le reazioni all'interno della cellula sono descritte nei termini
usuali della chimica e della fisica. La sostanza ereditaria sembra operare solo
rompendo e ristabilendo legami idrogeno. Per i biologi molecolari più rigidi
il DNA é il centro unico di tutta l'attività cellulare, una struttura chiusa, cui ogni
singolo passo della vita deve in ultima istanza collegarsi. La vita è, come si dice
in gergo, «DNA-centrica». Tuttavia questo programma si traduce presto in
un paradigma che orienta l'attività di ricerca, talvolta !imitandola, divenendo
un ostacolo allo sviluppo delle conoscenze. Esamineremo nel seguito alcune
obiezioni di fondo alla «spiegazione molecolare » e i tentativi di trovare una
sintesi più generale dei concetti fondamentali della biologia. Vogliamo invece
brevemente far notare qui che anche per i meccanismi fondamentali illustrati
sopra per la regolazione sono state avanzate soluzioni alternative che si basano
su una impostazione teorica e metodologica alquanto differente e sollecitano
un atteggiamento teorico più critico. In particolare gli studi sugli eucarioti
(cioè organismi veramente cellulari, con nucleo circondato da una membrana
il cui ruolo è tra l'altro quasi completamente sconosciuto) non si sono dimostrati una semplice generalizzazione dei risultati ottenuti sui batteri. L'affermazione ricorrente che « quello che vale per l'Escherichia coli vale anche per
l'elefante>> non sembra più soddisfare molti ricercatori. Così, mentre la regolazione genica mediante l'eliminazione del repressore viene considerata dimostrata
nei batteri, non altrettanto lo è per gli eucarioti. Si tende a superare l'assolutezza del controllo genico per mettere in rilievo il ruolo del citoplasma. Gli
esperimenti mediante trapianti cellulari mostrano che quando il nucleo di una
cellula con scarsa attività di sintesi viene trapiantato in una cellula attiva, molti
geni entrano in funzione. Le relazioni fra nucleo e citoplasma sembrano quindi
più complesse della semplice uni direzionalità nucleo-+ citoplasma.
I cromosomi degli eucarioti sono nucleoproteine, cioè complessi di acidi
nucleici e di proteine. Le proteine della cromatina sono di due tipi, istoni e
proteine non istoniche. Gli istoni sono proteine basiche contenute in un rap-
www.scribd.com/Baruhk
La nuova biologia
porto I : I con il DNA. Diversi esperimenti indipendenti hanno portato alla conclusione che gli istoni normalmente funzionano inibendo la capacità dei geni di
essere trascritti in RNA e inoltre aumentando la stabilità della doppia elica
del DNA. Ciò sarebbe confermato dal fatto che quando la cellula sintetizza il
DNA (durante la fase S del ciclo cellulare) sintetizza contemporaneamente gli
istoni che ne assicurano la stabilità e bloccano immediatamente i segmenti di
DNA appena replicati. In questo modo gli istoni non sembrerebbero altro che i
repressori individuati nelle cellule batteriche e spiegati con il modello di interaziòne allosterica. Tuttavia gli istoni dimostrano una totale uniformità chimica
anche per diverse specie e quindi una mancanza di specificità, che impedisce
il riconoscimento e la possibilità di influenzare particolari geni.
Vi sono poi le proteine non istoniche, anch'esse sintetizzate, come tutti i
prodotti cellulari, nel citoplasma. Tuttavia, a differenza degli istoni, queste proteine non si associano subito al DNA nucleare ma si mantengono in uno stato
di flusso fra cromatina e ambiente citoplasmatico. Contrariamente agli istoni,
le proteine non istoniche mostrano una enorme eterogeneità sia dal punto di
vista della composizione in aminoacidi che del loro peso molecolare e del rapporto con gli altri componenti della cromatina. In particolare le proteine non
istoniche sono specie-specifiche e all'interno dello stesso organismo tessuti diversi contengono differenti proteine non istoniche. La presenza di proteine non
istoniche sembra caratteristica di uno stato attivo del DNA, che sintetizza RNA.
Sarebbero quindi queste proteine a svolgere il ruolo di molecole regolatrici in
grado di riconoscere specifici segmenti del DNA. È la presenza di proteine non
istoniche a determinare quali geni saranno trascritti nelle varie parti dell'organismo e ugualmente ad assicurare la modulazione nel tempo della trascrizione
genica. Secondo un modello recentemente proposto, una proteina non istonica
specifica per un gene reagirebbe con l'istone che lo blocca, liberando il relativo segmento di DNA che può così iniziare la sintesi di RNA messaggero.
Questa visione della regolazione genica differisce in un punto sostanziale
dal modello « DNA-centrico » nel quale un gene è controllato da un altro
gene, e così via. Le proteine non istoniche, certo sotto controllo genico, come
ogni prodotto cellulare, sono però anche soggetti ad altri tipi di controllo.
Così è stato dimostrato che gli ormoni steroidei, provocando cambiamenti di
composizione e di metabolismo delle proteine, alterano il quadro della trascrizione genica. Lo stato di flusso dinamico di queste proteine non istoniche fra
cromatina e citoplasma assicura inoltre una maggiore flessibilità ai meccanismi
di regolazione ed aumenta notevolmente il ruolo dell'ambiente cellulare ed extracellulare nella trascrizione dei geni e quindi nella vita della cellula. Sono quindi
gli scambi fra organismo e ambiente che determinano quali parti del DNA vanno
trascritte e la loro velocità di trascrizione. Il DNA è il « magazzino » dell'informazione ereditaria ma da solo non è la vita.
www.scribd.com/Baruhk
La nuova biologia
3) Il differenziamento cellulare e la morfogenesi
La comprensione dei meccanismi della regolazione genica è l'obiettivo principale di ricerca della terza fase della biologia molecolare, chiamata da Stent
« accademi~a », perché intorno al 1963 la disciplina si istituzionalizza, trova
un posto preciso all'interno dei corsi universitari e una autonomia riconosciuta
nei confronti delle altre discipline biologiche.
Si diffonde la convinzione che « tutti i paradossi siano stati superati e
non rimanga che esaminare i dettagli» (Stent) ancora aperti nello studio della
ereditarietà.
È questo un procedimento metodologico tipico; non appena sia stato
chiarito un fenomeno fondamentale, proposto un modello esplicativo rivelatosi valido ed euristicamente fruttuoso non resterebbe altro da fare che applicarlo estensivamente; chiarito il primo passo il resto non sarebbe che una meccanica generalizzazione dei principi esplicativi, della tecnica per ottenere nuove
conoscenze, nuove evidenze sperimentali.
Resta il fatto che tali « dettagli » sono in realtà problemi di grande rilievo
la cui soluzione può portare a stravolgere gli stessi concetti di base della biologia.
Si tratta in primo luogo di capire lo sviluppo embrionale, i processi responsabili
della morfogenesi degli organismi differenziati; c'è poi il problema di chiarire
i meccanismi che assicurano la coordinazione dell'organismo, la sua attività
omeostatica (il sistema nervoso e il sistema endocrino) e la difesa della unicità
di questa omeostasi grazie alle risposte immunitarie; c'è infine il problema dell'origine della vita e della sua evoluzione. Si tratta di «dettagli» che impegnano
a fondo i presupposti teorici e metodologici della spiegazione molecolare, ma
dei quali, almeno nella loro attuale espressione, questi non riescono a rendere
conto.
La morfogenesi viene spiegata come un caso particolare di regolazione
genica che, bloccando la trascrizione in tempi diversi di diversi siti del DNA,
dà origine alla differenziazione cellulare, alla organizzazione dei tessuti e infine dell'organismo nella sua interezza.
Alcuni esperimenti giustamente celebri compiuti da John Gurdon mediante
trapianti nucleari hanno confermato una ipotesi avanzata già dal gruppo del fago,
e cioè che tutte le cellule di un organismo multicellulare, anche le più lontane
nella forma e nelle funzioni, hanno lo stesso contenuto in geni. Il differenziamento avviene perché soltanto una piccola parte, variabile fra lo o, 1 e il 10%
del totale, della informazione genetica viene espressa. Il resto è bloccato, si
pensa tramite represso ti specifici, o in forma reversibile- per cui una cellula
se variano le sue condizioni ambientali può perdere la specificità e tornare a
funzionare come una cellula non differenziata- oppure in forma irreversibile.
Si presentano a questo punto due problemi di fondo: da cosa viene stabilita la serie srazio-temporale con cui i diversi geni iniziano e terminano la
www.scribd.com/Baruhk
La nuova biologia
loro trascrizione? È totalmente sotto il controllo genico, di modo che i diversi passi sono tutti « programmati » nel « messaggio » contenuto nell'uovo fecondato, oppure svolge un ruolo determinante l'ambiente nel quale questo« messaggio » viene a trovarsi? La s~conda questione: ammettiamo che i geni siano
in grado, nel momento e nel luogo adatto, a dare il via alla sintesi delle proteine
necessarie. Ma i geni specificano la sequenza primaria della proteina; come si
passa da questa alla struttura terziaria e alla quaternaria? E çome, soprattutto,
ha luogo la morfogenesi, cioè la creazione di strutture sempre più organizzate
e complesse?
La biologia molecolare risponde a queste domande con una generalizzazione dei risultati ottenuti sui meccanismi più semplici e considera il differenziamento e la morfogenesi differenti solo dal punto di vista quantitativo e
quindi facilmente riducibili agli stessi principi fondamentali.
Così, dato che i risultati sperimentali mostrano che la conformazione attiva fra le migliaia possibili di un enzima sembra prodursi spontaneamente,
in quanto è la più favorita dal punto di vista energetico, e che, in opportune
condizioni, è possibile ricostruire in provetta un virus a partire dai suoi componenti, se ne conclude che gli organelli cellulari, la cellula stessa ed i tessuti
sono il risultato della « spontanea aggregazione » (J. Monod) delle parti prodotte
dal gene. L'organizzazione della cellula sarebbe quindi completamente determinata
dalla struttura intrinseca delle molecole costituenti. Diventa in questo caso possibile porsi_ l'obiettivo di ricostruire l'intera cellula a partire dal «mucchio»
di tutti i suoi componenti, sotto l'azione di forze puramente chimico-fisiche.
La morfogenesi diviene autonoma, spontanea e poggia solo « sulle proprietà di
riconoscimento stereospecifico di cui sono dotate le proteine [ ... ] . La formazione di un tessuto e il differenziamento di un organo si devono considerare come
la risultante integrata di interazioni microscopiche multiple, dovute ad alcune
proteine e basate sulle loro proprietà stereospecifiche di riconoscimento mediante
la formazione spontanea di complessi non covalenti » (Monod). Si tratta dell'enunciazione di un rigido programma meccanicistico, estremamente ambizioso,
di una« meccanica dello sviluppo » che riduce tutte le multiformi strutture e funzioni degli organismi alle « istruzioni » inscritte nei geni. Anche l' ontogenesi
diviene « molecolare ».
Questo programma incontra tuttavia solide resistenze sia a livello sperimentale, a causa di una serie di risultati che difficilmente possono essere inquadrati in questa ipotesi, sia a livello teorico che metodologico. Se è abbastanza
facile, infatti, accettare una spiegazione· meccanicistica di una invarianza (il perpetuarsi sempre uguale del gene) non lo è altrettanto per un processo dinamico
nel tempo e così estremamente sottil~ come il differenziamento e lo sviluppo
embriologico.
Un punto di vista opposto al riduzionismo suggerisce che il 111odello del59
www.scribd.com/Baruhk
Il controllo che il nucleo esercita sulla struttura delle cellule è stato dimostrato alcuni anni fa in una
esperienza compiuta con l'alga unicellulare Acetabularia. Ne furono impiegate due specie, l'Acetabularia mediterranea (in alto a sinistra) e l'Acetabularia crenulata (in alto a destra), che differiscono per la
struttura del cappello. In ambedue le specie, come mostra la parte superiore del disegno, se il cappello
viene rimosso la cellula ne rigenera un altro uguale a quello originario. Se il cappello e il nucleo sono
rimossi dalla Acetabularia mediterranea e un nucleo dalla Acetabularia crenulata viene innestato nella
cellula, come mostrato in basso, il nuovo cappello che si formerà somiglierà alquanto a quello della
specie Acetabularia crenulata. Se questo secondo cappello è rimosso, si rigenererà un altro cappello
identico a quello della Acetabularia crenulata.
l'organizzazione sia autonomo rispetto alle interazioni chimico-fisiche. Si dovrebbe
supporre l'esistenza di un piano al quale i successivi passi dell'autogenesi dovrebbero conformarsi, un piano certamente non metafisica ma determinato dalla
organizzazione preesistente della cellula. In questo caso, una volta perduta l'organizzazione cellulare non la si potrebbe ricostruire mettendo nello stesso recipiente tutte le molecole. Il « dogma » fondamentale della teoria cellulare « ogni
cellula deriva da una cellula » sembra di nuovo svolgere un ruolo determinante
nella spiegazione biologica e la cellula torna ad essere l'« atomo della biologia».
Il processo di organizzazione della struttura viene guidato da strutture analoghe
preesistenti.
6o
www.scribd.com/Baruhk
La nuova biologia
La risposta più attendibile alle questioni prima enunciate sembra essere
meno rigida del programma meccanicistico: nessuno nega infatti che « l'impressionante precisione di funzionamento con la quale i geni rispondono alle necessità della cellula e dell'organismo è insita nei geni stessi, nella loro struttura
e nella struttura delle sostanze che essi producono» (Luria), ma i meccanismi
di regolazione che dirigono tale potenzialità dipendono in larga misura dalle
condizioni in cui la cellula si viene a trovare, soprattutto dalla preesistenza di
una « entità organizzante ».
« I geni dicono alla cellula quali materiali produrre, ma il modello esistente
sulla superficie cellulare dice a questi materiali come organizzarsi in ciascun
sito, agendo come guida o " istruttore" per perpetuare il modello esistente »
(Luria). Accanto alla continuità chimica del DNA, esiste anche la continuità
della forma.
'-Una situazione analoga si può ritrovare in un altro campo in cui la biologia molecolare ha saggiato le proprie capacità esplicative, quello del sistema
immunitario. Anche qui si cònfrontano due atteggiamenti. Il primo direttamente derivato dall'approccio biochimico, e per questo chiamato immunologia
strutturale, afferma che gli anticorpi riconoscono l'antigene tramite una complementarità di tipo chimico. Sino agli anni quaranta, prima della scoperta dei
meccanismi della sintesi proteica, era stata avanzata, soprattutto per opera,di Pauling, la teoria« istruttiva» della formazione dell'anticorpo secondo_ la, quale l'interazione fra antigene e anticorpo selezionava fra le molte çonforinazioni proteiche termodinamicamente possibili quella complementare _all'antigene.
Il dogma centrale toglieva spazio a questa teoria istruttiva perché la struttura di una proteina è determinata geneticamente e non può «.modellarsi » a
contatto con l'antigene. Sono state così avanzate le teorie selettive, in particolare la teoria della selezione clonale proposta da Frank M. Burnet e da Joshua
Lederberg, che privilegia il ruolo delle cellule linfoidi. Esisterebbero fra queste
dei cloni cellulari, cioè linee di cellule derivanti dalle divisioni successive di una
singola cellula, ognuna delle quali sarebbe in grado di« riconoscere» un solo antigene esistente in natura. Normalmente le cellule di un clone sono poche ma non
appena una di queste reagisce con un anticorpo corrispondente, riconosciuto tramite « recettori » specifici disposti sulla superficie cellulare, inizia a moltiplicarsi
con incredibile velocità (dopo 4 giorni di un fattore 4ooo). Queste cellule sintetizzeranno e metteranno nel sangue gli anticorpi necessari. Il ru_olo dell'antigene è dunque limitato allo « scàtenamento » di un meccanismo la cui informazione è preesistente nella cellula competente. Un antigene ha quindi il ruolo
di agente selettivo di un dato clone. Alla evoluzione dei cloni si può applicare
una teoria della « selezione naturale », simile a quell~ darwiniana che si applica
agli individui. In questo caso, la selezione avverrebbe sulle cellule dello stesso
individuo per selezionare i cloni immunologicamente competenti. L'insieme dei
www.scribd.com/Baruhk
La nuova biologia
cloni esistenti e quindi il totale delle reazioni immunitarie può essere o determinato dalla storia evolutiva della specie e quindi già esistente nell'uomo oppure, come per Burnet, le cellule acquisterebbero la competenza a reagire ad
un antigene per mutazione somatica. Questa seconda ipotesi introduce nozioni estranee alla genetica classica, e cioè la comparsa di informazione nuova
per mezzo di mutazioni soìnatiche.
Si pensa che l'aggregazione delle cellule sia ottenuta tramite un sistema
di comunicazione (basato probabilmente su segnali chimici, come gli ormoni
e l' AMP-ciclico) che rende disponibile una «informazione di posizione ». Ogni
cellula riceverebbe dalle cellule vicine anche non in contatto diretto dei segnali sulla propria collocazione all'interno del tessuto; questi segnali potrebbero inibire o liberare specifici siti ge~ici, facendo acquisire alle cellule stesse
il differenziamento necessario' in qi.u:lla data posizione. Se, come nel caso della
rigenerazione di un arto amputato in certe specie, alle cellule viene a mancare
una parte dell'informazione di posizio~e, esse possono di nuovo perdere il
proprio differenziamento e tornare a riprodursi, rigenerando il tessuto asportato.
Fatta una prima osservazione e cioè che la natura chimica del segnale non
è indispensabile alla teoria (esso potrebbe essere, come sostengono alcuni fisici,
di natura elettromagnetica o termodinamica), anche l'ipotesi di molecole-segnali
è difficilmente inquadrabile in un contesto di interazioni microfisiche fra le
strutture delle molecole. Dovrebbe essere immaginato - cosa che per la verità
alcuni biologi molecolari, come Monod, tendono a fare - un meccanismo alquanto complesso fatto di piccoli passi s~ccessivi costituiti da interazioni chimiche di tipo allosterico.
.
Più probabile, anche sulla base dei risultati sperimentali, sembra -essere
una regolazione dello sviluppo ontogenetico ad opera di « campi morfogenetici », il più semplice dei quali è un gradiente di concentrazione di una particolare specie chimica. I gradienti hanno il grande vantaggio di permettere una
regolazione estremamente fine (piccole variazioni possono dare origine a grandi
cambiamenti morfogenetici) e soprattutto permettono di postulare un riconoscimento dinamico, mentre sia l'interazione enzima-substrato che quella anticorpoantigene sono essenzialmente statiche.
Si tende ad estrapolare queste considerazioni derivandone indicazioni di
carattere generale sullo sviluppo degli organismi superiori. Di fatto l'embriologia moderna ha utilizzato in modo estremamente fruttuoso i risultati della
biologia molecolare, divenendo da embriologia chimica embriologia molecolare,
integrando però queste conoscenze all'interno di un discorso autonomo presente da tempo,l che riv~ndica l'importanza di concetti estranei alla semplice
1 Risale infatti addirittura ad Aristotele il
concetto di gradiente morfogenetico per cui la
capacità di sviluppo (« potenzialità») decresce
andando dalla testa verso la coda dell'animale.
6z
www.scribd.com/Baruhk
---~
spore
·.·
aggregazione
\\
;i~
\
·····
, 1-!t,:~(Jli;lt•
differenziamento
e morfogenesi
maluro
·~ o' ~b·:
~
........~
·····
'"~.:
.
'""t.c.,..
'4Z'
•"
-·-l
l
o
Le acrasiali, durante il loro ciclo vitale, passano dalla fase unicellulare ad un livello superiore di organizzazione mediante la formazione di colonie mobili nelle quali le cellule individuali subiscono una
primitiva differenziazione. Dato che le singole cellule hanno un diametro di 15 micron mentre la distanza
media fra le cellule nella fase disaggregata è di 200 micron, l'aggregazione non è dovuta alle forze di
superficie provenienti dal contatto diretto fra le membrane cellulari. Si è supposto quindi l'esistenza di
un gradiente chimico di una certa sostanza chiamata acrasina e che si è rivelata essere niente altro che
il « solito » AMP ciclico che svolge un ruolo importante nella circolazione ormonale che orienta le
cellule verso un centro di aggregazione. Questo processo è stato interpretato come la formazione di
una struttura dissipativa spaziale (nel senso di Prigogine) basata sulla rottura delle simmetrie di distribuzione uniforme delle cellule e sulla produzione di acrasina lontano dall'equilibrio termodinamico.
a) formazione di un centro di aggregazione; b) condensazione radiale delle amebe verso il centro;
c, d) tappe finali e formazione di uno pseudo-plasmodio.
trattazione molecolare, come quelli di campo morfogenetico, di sostanza inducente, di gradienti di polarità ecc.
Il processo di morfogenesi richiede innanzitutto la presenza ad un certo
stadio del processo di sviluppo di una polarità, cioè una direzione preferen-
www.scribd.com/Baruhk
Sin dal 1744 A. Trembley aveva osservato che piccole sezioni di un piccolo polipo d'acqua dolce,
l' Hydra, erano in grado di sviluppare un animale intero. R. Gierer ha recentemente ottenuto animali
completi a partire da cellule isolate. La polarità determina la posizione delle regioni della nuova testa
nelle idre rigenerate da preparati di cellule singole. In un esperimento tipico si ottengono le cellule da
due regioni gastriche, delle quali una (C) è più vicina alla testa. Gli aggregati cellulari delle due regioni
vengono poi disposti in diverse sequenze e o sservati. Si trova che le teste (indicate dai tentacoli) si
sviluppano preferibilmente dalle regioni C.
ziale lungo il campo r.:qorfogenetico, che serve da « sistema di riferimento » per
le differenziazioni. Un certo insieme di sostanze inducenti (morfogenetiche),
quasi sicuramente molecole di m-RNA, si disporr~, quindi in uno schema stabile,
precostituendo in questo modo la ·. struttura finale delle cellule differenziate.
Già nelEoocita, la cellula che poi formerà l'uovo, avviene la sintesi di una
grande quantità di ribosomi e di molti tipi diversi di RNA messaggero che si
distribuiscono asimmetricamente. Prima della fecondazione esiste già un piano
di organizzazione che determina lo sviluppo embrionale. Nelle prime fasi dello
sviluppo, la sintesi delle proteine è codificata dai messaggeri preesistenti, di
origine materna e sono queste proteine a svolgere il ruolo di regolatore della
successiva attività genica del nucleo, che inizia dopo la fine della gastrulazione.
Da questo punto in poi «la morfogenesi è l'opera dei geni nucleari che
agiscono attraverso messaggeri stabili» (Jean Brachet). Si deve inoltre considerare
che la differenziazione cellulare segue l'organo genesi con un ritardo di qual-
www.scribd.com/Baruhk
a
c
La polarità che determina la posizione delle di'verse parti delle idre. çhe si rigenerano, può essere basata sulla distribuzione graduale dei tipi cellulari o di qualche componente cellulare. Il gradiente, ma
non la sua concentrazione, determina quale estremità della sezione di una idra sarà.jlttivata '(~dangoli
neri). Si pensa che l'attivatore prodotto agisca come una preconfigurazione per ·la ·formazione della
testa. Questa ipotesi spiega come due sezioni adiacenti (b, c) possano sviluppare Ciascuna una testa
proprio all'estremità più vicina a quella originaria.
che giorno. Quello che sarà il sistema nervoso si forma, grazie ad una induzione
morfo,genetica da parte di un «organizzatore» (Spemann), in una precisa regione della gastrula che dà origine ad un campo morfogenetico, prima della
comparsa delle cellule nervose d~fferenziate. La forma precede quindi la funzione
ed è tale forma che organizza il· differenziamento e la 'costituzione · dei tessuti.
L9 sviluppo dell'embrione è determinato da campi morfogenetici distribuiti e specifici: così se si trapianta l'abbozzo di un arto nella regione caudale,
questo si differenzierà in una coda. Anche se, come sembra, si potrà attribuire
un campo morfogenetico ad una distribuzione ordinata di molecole e trovare
così le basi biochimiche della induzione, non di meno l'origine del campo stesso
va rinviata ad una organizzazione preesistente. Come scrive·Brachet, che sostiene
di essere stato un embriologo molecolare « senza saperlo » già dai primi anni quaranta, « l'intero meccanismo chimico che presiede agli stadi iniziali dello sviluppo
è già stato preparato durante l'oogenesi [...] durante gli stadi iniziali di sviluppo
65
www.scribd.com/Baruhk
La nuova biologia
l'importanza del citoplasma è di gran lunga superiore a quella del nucleo ».
Si ripropone così di nuovo un dilemma tradizionale: preformismo o epigenesi? Per la biologia molecolare tutto lo sviluppo embrionale è contenuto nella sequenza delle basi azotate del DNA e la struttura compiuta « può dunque realizzarsi in modo autonomo e spontaneo senza intervento dell'esterno. La sua
costruzione epigenetica non è dunque una creazione ma una rivelazione». A parte
l'opinione di Monod che questo processo sia epigenetico (se niente viene aggiunto in seguito tale costruzione è preformistica e n_on epigenetica, dato che
la forma futura è ugualmente visibile nella sua «rappresentazione» e non solo
nella sua realizzazione), a questa concezione meccanicistica se ne co_ntrappone
un'altra, che valorizza invece il ruolo dell'ambiente nella costruzione dell'individuo e ribalta il punto di vista della biologia molecolare: gli aspetti preformistici dell'ontogenesi vengono attribuiti ad una organizzazione precedente,
l'organismo chè produce l'uovo, mentre ai geni viene attribuito il compito,
non predeterminato ma epigenetico, di sintetizzare le proteine richieste dalla
dinamica di sviluppo della cellula. Man mano che tale sviluppo procede, diviene determinante l'attivazione selettiva di determinati geni o gruppi di geni.
Ma tale attivazione sembra essere dovuta all'effetto del citoplasma: è di nuovo
all'organizzazione ed al piano ad essa sottostante che si deve risalire per spiegare l'ordine spazio-temporale con cui si svolgono i processi ontogenetici.
Alcuni modelli dinamici della morfogenesi che partono dalla accentuazione
del ruolo di tale piano o « progetto » di sviluppo, e si muovono quindi in una
prospettiva esattamente opposta a quella della biologia molecolare, sono stati
proposti dal genetista e embriologo Conrad H. Waddington, nella loro forma
propriamente biologica, e dal matematico René Thom, del quale abbiamo a
lungo parlato in precedenza, nella loro forma generale, astratta, valida per ogni
tipo di processo morfogenetico, alla quale ci riferiamo nella nostra trattazione.
Per Thom la regolazione genetica si svolge attraverso un « programma » di
« catastrofi » (cioè di discontinuità qualitative) co .erettrici che dirigono lo sviluppo
embriologico, impedendo a questo di uscire dai limiti della norma.
Corrispondentemente alle sue posizioni teoriche generali, Thom pensa che
« la stabilità dell'individuo o della specie si basa su una competizione fra" campi"
la cui lotta genera la configurazione geometrica strutturalmente stabile che assicura la regolazione, l' omeostasi del metabolismo e la stabilità della riproduzione ». Per Thom il problema dello sviluppo ontogenetico non può essere risolto tramite il passaggio « automatico » dal codice -lineare alla str~ttura tridimensionale delle macromolecole, con sottintesa « aggregazione spontanea » di
queste, ma va visto nel quadro generale della corrispondenza fra morfologie, della
trasmissione della stabilità strutturale fra morfologie. In ogni gamete (cellula
germinale) si-ricostituisce il «centro organizzatore della dinamica globale della
specie [ ... ] la figura di regolazione specifica ».
66
www.scribd.com/Baruhk
La nuova biologia
La figura di iegolazione fornisce le « norme di comportamento » nelle
diverse situazioni possibili. Non stupisce quindi che esista « un grossolano isomorfismo tra le figure di regolazione di specie animali anche lontane filogeneticamente, perché i vincoli impost'i dalla regolazione dell' omeostasi degli animali sono grosso modo gli stessi per tutti e compensati dalle stesse funzioni;
questi campi genereranno ·strutture variabili e differenti secondo la specie solo
nel dettaglio della organogenesi ». L'unità del vivente è dovuta alla comune
discendenza ma anche dalla uniformità dei vincoli che . assicurano la stabilità
strutturale dell'organismo. «Dimenticare i vincoli spaziali, energetici, chimicofisici che devono essere risp~ttati affinché una analogia di forma possa realizzarsi>> e attribuire tutto alla «informazione genetica» «significa cadere nel
pensiero magico (o delirante)».
In questo modo si evita di considerare il « gene » chiuso in se stesso, autosufficiente, dotato di una unica proprietà, l'« invarianza riproduttiva» (Monod).
«Dire che l'eredità biologica è una comunicazione di informazione significa,
in un certo senso, tornare ad Aristotele, significa ammettere che vi è nel vivente
un logos inscritto, conservato e trasmesso [... ] definire la vita come un senso
inscritto nella materia, significa ammettere tesistenza di un a priori oggettivo,
di un a priori propriamente materiale e non più soltanto formale» (G. Canguillhem).
In conclusione, quindi, dei tre aspetti dei sistemi biologici, e cioè
la « invarianza riproduttiva>), la presenza di un «progetto» (Jacob) e la morfogenesi autonoma, solo il primo ha trovato una spiegazione coerente e rigorosa nei termini della biologia molecolare,. mentre il differenziamento e la morfogenesi sembrano implicare concetti diversi ed altri tipi di spiegazione, legati al riconoscimento di un « modello », di un ((piano )) nello sviluppo morfogenetico; restano ancora un problema tutto·da risolvere, soprattutto a livello
teorico.
4) L'istanza sistetnica
Sin da quando J. H. Woodger per primo ed isolato aveva tentato negli anni
trenta di costruire una assiomatica della biologia, è costantemente presente nel
dibattito teorico una posizione che tende a presentare l'organismo come un
«tutto » dinamicamente inteso, come uno « schema » (pattern) di reazioni, come
una « forma » piuttosto che, staticamente, come una struttura costante sulla
base delle semplici interazioni fra gli elementi costituenti, come una « attività »
(Young) tipica di un organismo che assume materia dall'ambiente e la organizza
in un modo caratteristico.
Si mette in particolare l'accento sulla capacità dell'organismo di mantenere
costante l'organizzazione vivente e le sue caratteristiche principali indipendentemente dalle variazio;ni dell'ambiente, mediante una serie di attività (alimenta-
www.scribd.com/Baruhk
La nuova biologia
zione, respirazione, movimento, riproduzione) determinate ereditariamente, adatte
a mantenere la continuità della vita.
Per quanto si dia certamente per possibile una descrizione, ma non una
spiegazione, in termini chimico-fisici di particolari caratteristiche di una cellula,
come la replicazione genetica, l'azione degli enzimi, la formazione ed il funzionamento di una membrana ecc., si mette invece fortemente in dubbio che sia
possibile spiegare « la indispensabile coesistenza cooperativa di tutte queste caratteristiche» (Paul Weiss). Non è possibile costruire pezzo a pezzo uri organismo
come una macchina perché le molecole biologiche sono scelte, evolutivamente,
proprio in base alla loro partecipazione ad un . insieme di reazioni organizzate.
Esiste certamente un. «controllo molecolare dell'attività cellulare» ma anche
un <<controllo cellulare dell'attività molecolare >>. E per questo è impossibile
sintetizzare ex novo una cellula senza l'intervento attivo di un'altra cellula, che
apporta la necessaria organizzazione « controllante ». Perciò si può affermare
« omnis organisatio ex organisatione » (Weiss).
Una sorprendente affermazione del fisico Michael Polanyi sull'identità fra
organismi e macchine e sulla loro comune · distinzione dai processi puramente
chimico-fisici, che conclude in malo modo una sottile analisi critica dei sistemi
viventi, si basa sul concetto di condizioni limitanti (boundary conditions) che « costringono » le leggi chimico..:fisiche a svolgere particolari funzioni. Le condizioni limitanti sono estranee al processo che limitano e quindi «.trascendono
le leggi della chimica e della fisica », e non interferiscono con esse.
Nella morfogenesi le condizioni limitanti sono fornite dal « programma genetico », dalla molecola di DNA, la cui composizione in basi è indipendente dalle
forze chimiche presenti nella molecola (se fosse dipendente, nota giustamente
Polanyi, una sequenza particolare sarebbe termodinamicamente favorita e quindi
si formerebbe con maggiore probabilità delle altre sequenze, diminuendo di
molto e al limite annullando il contenuto di informazione). La morfogenesi
è quindi una struttura a controllo duale, uno chimico-fisico, l'altro fornito dalle
condizioni limitanti.
Le condizioni limitanti sono disposte in una gerarchia di complessità e
generalità via via crescente fino alla coscienza e alla responsabilità, in cui il livello superiore « limita » la funzione del livello inferiore ed è ad esso irriducibile.
Al tradizionale principio organismico viene dato un contenuto che è possibile descrivere fenomenologicamente. Il grave limite di Polanyi, che ne fa
davvero un« criptovitalista » (Crick), sta nel non poter spiegare l'origine delle
condizioni limitanti, da un punto di vista materialistico, basandosi sulle sole
proprietà dei livelli inferiori di organizzazione della materia. Egli è perciò costretto a presùmere che i livelli più elevati della vita siano da sempre presenti in
tracce prima di divenire evidenti.
Da una medesima istanza sistemica hanno origine le riflessioni sviluppatesi
68
www.scribd.com/Baruhk
La nuova biologia
nei paesi socialisti e in particolare nell'uRSS sui caratteri del vivente. Basandosi soprattutto su concetti mutuati dalla cibernetica - che dopo una prima
condanna ideologica ha avuto un grande sviluppo, non solo come terreno di
ricerca, ma anche .come modello esplicativo dei sistemi biologici e come supporto scientifico alla interpretazione sovietica del materialismò dialettico - gli
scienziati (e filosofi) sovietici cercano di conciliare il determinismo con la teleologia
nella spiegazione delle relazioni complesse, statiche e dinamiche, che si svolgono nell'organismo. I sistemi viventi, che vengono collocati all'interno della
più generale categoria dei sistemi capaci di autoregolazione, svolgono delle
azioni che possono essere codificate (programmate) sia nelle strutture genetiche ereditarie che nei sistemi fisidlogici dotati di dispositivi per verificare il
risultato di un'azione particolare (Petr K. Anohin).
Questo « programma » è, quindi, un « modello previsionale » del fine dell'azione (lvan Frolov); in questo modo il concetto di finalità verrebbe a perdere il
suo carattere idealistico, essendo basato su una struttura materiale. Ma questa
concezione chiamata « determinismo organico » rimane alquanto oscura e somiglia troppo. ad una conciliante soluzione ad hoc. La combinazione fra aspetti
deterministici e aspetti, tel~ologici se può descrivere alcune particolari caratteristiche fisiologiche, non riesce a render conto delle proprietà generali dei sistemi
viventi e soprattutto del passaggio fra i diversi livelli gerarchici e dell'origine
dei « programmi » e dei « codici » che « prefigurano il fine ».
Il problema di fondo resta dunque quello della spiegazione dell'emergenza
di livelli di organizzazione superiori, del loro funzionamento attuale e della
loro storia evolutiva.
IV • L'EVOLUZIONISMO
Al termine del precedente paragrafo, osservavamo che il criterio metodologico usualmente posto alla base della spiegazione molecolare,- e cioè la possibilità di ridurre tutti i fenomeni biologici a particolari manifestazioni di leggi
chimiche e fisiche, si scontra con la difficoltà di dare una spiegazione alla presenza di un « modello », di « un piano di organizzazione » cui sembrano sotto-:
stare gli stessi fenomefl4 molecolari.
L'organizzazione del-. v~yente, e cioè « il modo in cui i componenti sono
organizzati in schemi (patterrts) ordinati che sono più permanenti delle stesse
sostanze che li compongono» (Georg L. Stebhins) intesa non in senso statico ma
dinamico, come attività omeostatica, richiede quindi un altro tipo di spiegaziqne
scientifica, che «differisce profondamente dal riduzionismo » (Jacob).
Compito della teotia dell'evoluzione, sin da Darwin, è stato spiegare, senza
ricorrere ad entità sovrannaturali o non fisiche, l'origine dell'organizzazione biologica e la sua evoluzione, cioè il suo graduale modificarsi con il tempo, i modi
di tale evoluzione e le sue cause. Essa cerca di rispondere alla domanda « come
www.scribd.com/Baruhk
La nuova biologia
è successo? » per trovare una risposta esauriente alla difficile domanda « a quale
scopo? ». Da questo punto di vista è vero che l'evoluzione, lo studio della continuità e diversità della vita attraverso l'eredità e l'evoluzione è «la più grande
teoria unificatrice della biologia» (Ernst Mayr).
Nel seguito esamineremo in dettaglio il significato di questa contrapposizione fra due tipi così diversi e così egualmente fondamentali di spiegazione
scientifica in biologia, quella riduzionista e quella composizionista o, meglio,
storica. In questo paragrafo dovremo invece analizzare le posizioni più recenti
dell'evoluzionismo, individuarne i presupposti teorici e metodologici e le conseguenze scientifiche e culturali.
I) La teoria sintetica
La moderna teoria dell'evoluzione, come è stato già accennato nel capitolo
del volume ottavo, è il risultato della sintesi fra diverse discipline biologiche, in
particolare la genetica, l'ecologia, la paleontologia e la sistematica. Grosso modo
possiamo dire che la teoria considera l'evoluzione come un processo con due componenti: la produzione delle variazioni durante il processo di trasmissione dei
caratteri e l'emergenza delle varianti ad opera della selezione naturale. n primo
aspetto è il campo della genetica, che studia la natura della sostanza ereditaria,
il modo in cui questa viene trasferita durante la riproduzione e-quali sono i rapporti fra questo materiale ereditario (genotipo) con i caratteri che risultano dallo
sviluppo dell'individuo (fenotipo). Di fronte a questi problemi i genetisti si
pongono in due modi diversi anche se spesso presenti contemporaneamente;
alcuni studiano i meccanismi molecolari della trasmissione dei caratteri ereditari, cercando di rispondere al quesito « come si produce questa variazione? »
(genetica molecolare, tendenzialmente riduzionistica). Per altri invece l'analisi delle
variazioni genetiche deve spiegare l'adattamento evolutivo. La variazione genetica è vista, storicamente, come base dell'evoluzione adattativa (genetica evoluzionistica).
Non basta quindi studiare la variazione genetica in sé, occorre prendere
in considerazione come scrive Dick Lewontin le «potenzialità per l'evoluzione adattativa delle variazioni genetiche »; occorre conoscere le relazioni fra gene e organismo viste nel loro rapporto con l'ambiente, con una data situazione ecologica, studiare quali sono « i nessi fra proprietà ecologiche e sistemi genetici specifici». Su questo punto avviene la «moderna sintesi» (Julian
Huxley) fra la genetica, che studia il gene e la sua interazione con gli altri geni
e con l'ambiente, la paleontologia, lo studio dei fenomeni evolutivi a lungo termine, l'unica scienza « in grado di studiare in modo appropriato la dimensione
temporale» (Mayr), l'ecologia, come studio delle reciproche relazioni fra gli
organismi e di questi con l'ambiente in cui vivono, e la sistematica comparata,
che, occupandosi del difficile compito di definire una classificazione per il mondo
IV
www.scribd.com/Baruhk
La nuova biologia
vivente, studia la specie, l'unità della classificazione, uno dei più importanti livelli di organizzazione, le cui modificazioni successive e le ramificazioni in
specie distinte (« origine delle specie ») costituiscono il parametro di fondo dell' evoluzione.
La rigida contrapposizione esistente nei primi trent'anni del nostro secolo
fra i neodarwinisti, che consideravano la selezione naturale come l'unico fattore dell'evoluzione, e i mutazionisti (i primi genetisti), che rimproveravano alla
teoria della selezione naturale l'incapacità di spiegare l'origine delle variazioni
evolutive e consideravano la comparsa casuale e improvvisa, per salti bruschi,
di queste variazioni, l'unica vera forza motrice dell'evoluzione, viene superata
mediante la unificazione delle due teorie con una « sintesi moderna » opera
soprattutto di Julian Huxley, del genetista Theodosius Dobzhansky, del paleontologo George Gaylord Simpson e del tassonomista Ernst Mayr. «Il mutazionismo non è un'alternativa al neodarwinismo, ma un suo complemento»
(Simpson). La teoria sintetica non cerca un fattore unico dell'evoluzione, ma
considera numerosi fattori interagenti come responsabili della evoluzione, dei quali
fattori occorre valutare le rispettive funzioni e il peso relativo. Tali fattori possono essere raggruppati in due gruppi, uno responsabile della produzione di
variazioni, l'altro degli effetti selettivi dell'ambiente. Si tratta realmente di una
sintesi çhe unifica i singoli fattori, senza annullarne la specificità e la relativa
indipendenza, in un quadro coerente, in una spiegazione unitaria.
Come effetto di questa sintesi cambiano molti dei tradizionali concetti, in
particolare le concezioni sul rapporto fra gene e carattere. Il fenotipo non è
più· considerato come un mosaico risultante dalla combinazione di caratteri
individuali singolarmente controllati in modo deterministico dai geni, ma come
il risultato di un complesso di elementi in relazione tra loro.
L'« epigenotipo » (Waddington) è il risultato del conflitto fra forze diverse, genetiche e ambientali. A un punto di vista sostanzialmente statico, preformista in cui il fenotipo è il risultante dello sviluppo meccanico del genotipo,
se ne sostituisce uno dinamico, epigenetico.
«La plasticità fenotipica» (Mayr), le differenze che si notano fra i diversi
fenotipi sono in parte genetiche ed in parte ambientali. Il genotipo ·si limita a
determinare la norma di reazione di un organismo e cioè il modo in cui questo
è in grado di rispondere ai diversi ambienti nei quali viene a trovarsi, mantenendo entro limiti più ·o· meno larghi di variazione i caratteri fondamentali
della specie.
Il settore della genetica evoluzionistica che più contributi ha dato alla
teoria· sintetica dell'evoluzione è la genetica di popolazione, lo studio dell'origine
e della dinamica della variazione genetica nella popolazione. È la popolazione,
il livello di integrazione intermedio fra l'individuo e la specie, il vero substrato
dell'evoluzione. L'evoluzione« è un mutamento nella composizione genetica delle
www.scribd.com/Baruhk
La nuova biologia
popolazioni [... ] l'individuo si sviluppa, la popolazione evolve» (Dobzhansky).
I risultati più importanti di questo approccio alla teoria dell'evoluzione
riguardano la possibilità di descrivere e spiegare la stabilità delle frequenze
geniche nella popolazione e la velocità. di differenziazione (divergenza) di tali
frequenze in popolazioni parzialmente o interamente separate.
Attraverso sofisticati modelli matematici, che non contemplano la possibilità di una diretta verifica sperimentale dei risultati da essi dedotti, e lo studio
sperimentale della variazione genotipica all'interno di una popolazione, la genetica di popolaziom; compie un passo necessario per la descrizione di un processo evolutivo: la conoscenza della .distribuzione statistica delle frequenze genotipiche (pool genico di una popolazione).
La legge fondamentale della genetica di popolazione, quella di HardyWeinberg, afferma la costanza della frequenza dei geni di una popolazione infinitamente grande e interfeconda, con accoppiamenti casuali e in assenza di selezione, migrazione o mutazioni. Le ricombinazioni cromosomiche quindi non
spiegano il mutamento evolutivo ma assicurano solo una enorme variabilità all'interno della popolazione. Il meccanismo della ricombinazione mendeliana
assicura ad· ogni specie la capacità di produrre una quantità incredibile di patrimoni genetici diversi. Se i genitori sono eterozigoti rispetto a n geni non omologhi, il numero di individui con patrimo,nio genetico diverso che essi possono
procreare è uguale a 4n. Se n è uguale a 50, una stima limitativa, il totale sarà
450, un numero di molto superiore a quello di tutti gli organismi viventi presi
insieme. «È quindi assai improbabile che due persone qualsiasi (tranne il caso
dei gemelli identici), parenti fra loro o no, abbiano mai avuto o possano mai avere la stessa costellazione di geni » (Dobzhansky). Alla variabilità genotipica si assomma poi la variabilità fenotipica, ancora maggiore, perché ogni genotipo sviluppandosi epigeneticamente incontra un ambiente diverso da quello di tutti gli altri. .
I vantaggi evolutivi di un'alta variabilità genetica all'interno di una popolazione sono evidenti. Un grande numero di genotipi diversi aumenta infatti
la probabilità che qualcuno di questi sia in grado di sopravvivere a drastici
mutamenti ambientali. È quest6 il significato biologico della riproduzione sessuata. Durante la meiosi, cioè il processo che porta alla formazione dei gameti,
i cromosomi omologhi tendono ad appaiarsi, a rompersi in più punti ed a scambiarsi frammenti cromosomici (crossing over). Questo fenomeno di incrocio ricombinativo porta ad una alta variabilità genetica e anzi fa sì che la ricambinazione dovuta alla riproduzione sessuata sia « la causa principale della variabilità » (Giuseppe Montalenti).. L'importanza della riproduzione sessuata è anche provata dal fatto che essa comparve molto presto nell'evoluzione, circa
1 500 milioni di anni fa, prima della divergenza evolutiva fra piante e animali.
Analoghe considerazioni sono alla base del significato di un'altra innovazione evolutiva, la morte, non accidentale ma imposta dallo stesso programma
7Z
www.scribd.com/Baruhk
La nuova biologia
genetico. La variabilità esig~ la comparsa di sempre nuovi individui, la morte
fa parte integrante di. ogni organismo evolutivamente selezionato.
Oltre alla ricombinazione, i principali fattori responsabili della variabilità
genetica in una popolazione sono individuati in genere: 1) nelle mutazioni;
z) nelle deviazioni standard; 3) nella migrazione genica; 4) nella selezione naturale. Vi è tuttavia una grande differenziazione di posizioni riguardo al peso
da attribuire ad ognuno dei singoli fattori.
z) Le cause e il significato della variabilità genetica
La teoria sintetica ha di molto diminuito il ruolo delle mutazioni come
«motore>> dell'evoluzione, !imitandolo alla predisposizione del materiale grezzo
sul quale opera la selezione, grazie alla introduzione di nuovi fattori genetici nel
pool della popolazione. Le mutazioni, nonostante la loro rarità come eventi singoli
(la loro frequenza è in media ro- 5 nell'uomo), si verificano in realtà spesso.
Se si considera che lo zigote (uovo fecondato) umano contiene non meno di
ventimila geni, si ha (z X ro 4 X ro- 5 = o,zo) che almeno il zo% dei nati porta
uno o più geni mutanti (per non parlare della mutazione somatica, che si verifica
cioè nelle cellule non germinali). Quindi la mutazione è tutt'altro che rara.
Certo sono rare le mutazioni che producono trasformazioni radicali del genotipo
in quanto la maggior parte delle mutazioni produce effetti di lievi entità, in
genere interessanti solo manifestazioni fisiologiche (ad esempio singole sostituzioni di aminoacidi nelle catene proteiche).
Le mutazioni sono considerate casuali non perché « sprovviste di causa »
ma nel senso che non sono finalizzate all'adattamento evolutivo. Non è possibile trovare alcuna relazione fra una determinata mutazione e un particolare
insieme di condizioni ambientali. Di qui, se si tiene conto che l'assetto di un
organismo è determinato dal complesso del suo corredo cromosomico e che quindi
l'evoluzione richiederà non una singola v.ariazione ma una nuova sistemazione
generalizzata di tale complesso, deriva l'impossibilità di spiegare con le sole
mutazioni la comparsa di combinazioni genetiche più adatte delle precedenti.
Un altro processo che non è evolutivamente attivo ma fornisce materiali per
l'azione della selezione naturale incrementando la variabilità genetica è costituito
dall'insieme delle flut!uazioni casuali che avvengono nel pool genico di una popolazione ad ogni generazione. Le frequenze nella discendenza presentano infatti
delle differenze rispetto alle frequenze del pool dei genitori. In popolazioni molto
grandi l'effetto di queste fluttuazioni è molto piccolo (è nullo per popolazioni
infinitamente grandi, come quelle postulate nella legge di Hardy-Weinberg, per
cui la popolazione è stabile) ma può assumere una grande importanza per
popolazioni piccole. Le fluttuazioni sono cioè una nuova fonte di variabilità
genetica che viene sottoposta al vaglio della selezione naturale. Come le mutazioni, anche le fluttuazioni sono casuali nei riguardi dell'adattamento.
73
www.scribd.com/Baruhk
La nuova biologia
La terza fonte di variabilità sono le migrazioni (flusso genico). Tutte le
popolazioni sono infatti aperte e ad ogni generazione individui provenienti dal
di fuori inseriscono i propri geni nel pool della popolazione. Gli studi ecologici
fanno ritenere che «l'immigrazione contribuisca almeno per il 9o% all'ingresso
di" nuovi" geni in ogni popolazione locale» (Mayr). In sé il flusso genico tende
a diminuire l'adattamento della popolazione al suo ambiente ecologico; tuttavia esso è un fatto evolutivo estremamente importante a lungo termine, specialmente nel processo della speciazione.
Il solo studio della base genetica della evoluzione di una popolazione non è
sufficiente per caratterizzare pienamente il fenomeno evolutivo. La genetica di
popolazione non riesce a spiegare la comparsa o l'estinzione di una specie, perché
non affronta il nodo centrale, teorico e metodologico, dell'adattamento. La famosa frase di Dobzhansky, «l'evoluzione è la variazione della composizione genetica di una popolazione», non definisce l'evoluzione, ma solo la sua base dinamica, in quanto la variazione evolutiva può essere spiegata solo collegando la
variazione genetica alla diversità nel tempo e nello spazio degli organismi,
diversità che comporta aspetti fisiologici, morfologici e comportamentali.
3) Selezione naturale
La differenza sostanziale fra le teorie neodarwiniste dell'inizio del secolo
e la teoria sintetica moderna riguarda la caratterizzazione del principale fattore
evolutivo darwiniano, la selezione naturale. Il neodarwinismo, esasperando
l'importanza di questo aspetto, molto al di là di quanto aveva fatto Darwin, aveva
un concetto puramente negativo di selezione, intesa come un processo che distrugge - ma non completamente perché alcuni geni mutanti dannosi possono
« filtrare » fra le maglie della selezione andando a costituire il cosiddetto « carico
genetico»-le variazioni che diminuiscono l'adattamento (fitness) dell'individuo.
Questo concetto di selezione corrisponde certo ad un aspetto importante dell'evoluzione ed è stato in effetti incorporato nella teoria sintetica, dove tale
selezione viene chiamata« stabilizzante» (Schmalhausen), «normalizzante» (Waddington) o «pulente», clearning (Lewontin). Si tratta tuttavia di un processo
conservativo più che evolutivo. Anche quando al concetto di selezione come
sopravvivenza del più adatto si sostituisce quello di selezione come riproduzione
differenziale (l'individuo più adattato avrà più discendenti e di conseguenza la
frequenza dei geni di cui è portatore aumenterà nel pool genetico della popolazione) la selezione resta uri processo negativo che non spiega il processo positivo che porta all'evoluzione.
La teoria sintetica allarga il significato di selezione naturale individuandone forme diverse. Una di tali forme è quella chiamata «differenziante» che ha
luogo quando una popolazione affronta contemporaneamente diversi ambienti
che favoriscono patrimoni genetici distinti. Ciò aumenta la fitness di quelle po-
74
www.scribd.com/Baruhk
La nuova biologia
polazioni dotate di una elevata variabilità genetica. In effetti una mutazione di·
per sé non è né benefica né dannosa, lo diventa quando il fenotipo mutante
viene collocato in un particolare ambiente. Inoltre, come abbiamo detto, lo
~viluppo ontogenetico è il risultato dell'interazione fra geni e fra questi e l'ambiente e un gene che in combinazione con certi geni è dannoso può essere utile
quando viene ricombinato con altri geni. È vantaggioso quindi per una popolazione che può trovarsi di fronte ad una varietà di ambienti mantenere tali
geni « adattativamente ambivalenti» (Dobzhansky).
Un tipo particolare di tale ambivalenza si ha nei geni che accrescono l'adattamento degli individui quando sono in forma eterozigote (forma allelica differente nello stesso locus) ma sono dannosi negli omozigoti (che portano cioè
la stessa forma allelica). L'esempio più celebre e più studiato è quello del gene
S dell'anemia falciforme che quando è omozigote provoca un forma di anemia
quasi sempre letale - dovuta alla sostituzione di acido glutammico con valina
nella catena beta dell'emoglobina, sostituzione che provoca una drastica riduzione dell'affinità per l'ossigeno (Perutz e Lehmann). Tuttavia in forma eterozigote
questo gene sembra dare una relativa immunità alla malaria di modo che nelle
regioni dove la malaria falciparum è endemica, gli eterozigoti per il gene S
hanno un vantaggio selettivo ed è per questo che nelle zone malariche la
talassemia è presente in forma endemica. « Quindi la riserva di variabilità
costituita da tutti i geni recessivi che esistono in una popolazione e si perpetuano è un bagaglio estremamente importante, che solo può consentire
alla specie di far fronte a mutate condizioni di ambiente» (Montalenti).
Calcoli matematici mostrano che l'adattamento medio della popolazione è massimo quando i due geni (normale e mutante talassemico) raggiungono un equilibrio, funzione della pressione selettiva. Dato che il genotipo eterozigote è
il più adatto, la popolazione conterrà due o più tipi di individui geneticamente
distinti (polimorfismo). La selezione naturale mantiene i geni normali e falciformi in un polimorfismo equilibrato (negli ambienti malarici): è la forma « equilibrante » della selezione naturale.
Un'ultima forma di selezione è quella « direzionale » da Darwin considerata la più importante, che opera ricostituendo il pool genetico di una popolazione in accordo con le variazioni ambientali. La comparsa di nuovi parametri ambientali (più caldo o più freddo, un nuovo predatore ecc.) favorirà
alcuni genotipi, sfavorendone altri. Dato che gli ambienti sono in realtà sempre
mutevoli questa forma di selezione naturale è continuamente in azione.
Riassumendo, l'analisi delle diverse accezioni del concetto di «selezione
naturale» sembrerebbe dimostrare più una confusione che una capacità di spiegazione unitaria. Si tratta, al contrario, di un risultato teorico di estrema rilevanza: la teoria sintetica, come abbiamo già visto, abbandona tentativi di isolare
delle cause uniche, ma considera nella loro reale complessità i fenomeni biologici.
75
www.scribd.com/Baruhk
La nuova biologia
Le differenze che possono ritrovarsi fra i diversi studiosi dell'evoluzione
riguardano esclusivamente il maggiore o minor peso da attribuire ad una forma
o all'altra di selezione oppure una loro più precisa definizione, ma tutti accettano
come un dato di fatto la multiformità degli agenti evolutivi, in« lotta» fra di loro.
4) Adattamento
Un altro aspetto della teoria dell'evoluzione sul quale esistono ampie divergenze di interpretazione riguarda le Yie di adattamento e il significato stesso
del termine « adatto ». Anche qui, tuttavia, al di là delle divergenze sulle
applicazioni a problemi specifici e a singoli aspetti, esiste una diffusa uniformità nella valutazione del ruolo dell'adattamento e delle sue modalità principali.
Innanzitutto si è passati dalla valutazione in assoluto dell'adattamento come
quella data da Spencer «sopravvivenza del più adatto», Survival of the ftttest,
dopo molti dubbi accettata, in mancanza di una chiarezza sui modi reali di adattamento, dallo stesso Darwin) ad una valutazione relativa: « nessun organismo è
adatto in assoluto, p\lÒ solo essere adattato ad un certo ambiente» (Dobzhansky).
L'uso del superlativo implica infatti l'esistenza di un genotipo più adatto di tutti
gli altri (e Spencer pensava a quello dell'uomo o forse a quello di una razza o di
una classe sociale) mentre c'è «una grande schiera di genotipi che costituiscono
la norma adattativa della specie» (Dobzhansky). L'uso del superlativo inoltre
porta ad una tautologia nella definizione del « più adatto ». Chi è the ftttest sopravvive, ma viene definito il più adatto proprio chi sopravvive. Questa tautologia viene eliminata se si considera la relatività dell'adattamento.
Tale relatività è anche uria esigenza evolutiva. Un perfetto adattamento ad
un certo ambiente porta alla sovraspecializzazione che può assicurare un successo a breve termine ma rischia di provocare l'estinzione anche con piccole
modificazioni ambientali. Di qui l'importanza non solo dell'adattamento ma
anche della adattabilità, cioè la possibilità di cambiare i propri tratti adattativi
al mutare dell'ambiente.
Vi sono due meccanismi che assicurano l'adattabilità, uno a breve, l'altro
a lungo termine. Il primo, adattabilità fisiologica, è individuale e può modificare il fenotipo dell'individuo. Come abbiamo visto infatti, ogni genotipo ha
una propria norma di reazione che delimita il numero dei possibili fenotipi che
possono prodursi in date condizioni arp?iertali. ,pgni tratto di un individuo
è quindi il risultato del prodotto fra la norma clfreazio~e e la «biografia» (Dobzhansky) di quel dato individuo. Le modificazioni ambientali possono produrre
profonde modificazioni fenotipiche nelle funzioni che tali fenotipi svolgono. Ciò
è stato osservato soprattutto per i yeg(:!t!lli che hanno delle norme di reazione
piuttosto flessibili e possono produrre fenotipi molto differenziati, ma è un meccanismo fondamentale anche per gli animali.
www.scribd.com/Baruhk
La nuova biologia
Il meccanismo a lungo termine che assicura l'adattabilità è quello genetico,
che si produce mediante il cambiamento della norma di reazione (ovviamente
prodotto non direttamente dalle condizioni ambientali ma dall'azione congiunta della variabilità genetica e della selezione naturale) e vale per le popolazioni e le specie.
Esistono quindi due tipi di omeostasi, quella fisiologica che mantiene costanti i fondamentali processi fisiologici indipendentemente dalle variazioni ambientali-, c-reando· dei meccanismi che adattano tali processi alle mutate condizioni,
e quella evolutiva che assicura «la continua correzione delle istruzioni dei sistemi viventi» (Y oung).
L'adattabilità genetica è per questo anche chiamata plasticità evolutiva.
Esistono quindi aspetti contraddittori tra loro che costituiscono la base
stessa della vita. L'adattabilità a breve e soprattutto a lungo termine richiede
la possibilità di modificazioni adattative. Esiste un conflitto dinamico fra la
tendenza del patrimonio genetico a conservare rigidamente un determinato tipo
di organizzazione (e ciò spiega sostanziale unità dei caratteri fondamentali della
vita) mediante efficienti meccanismi di replicazione e riparazione genetica, di
isolamento e di selezione (omeostasi genetica) e la necessità di una continua
viariabilità, ottenuta attraverso le mutazioni, i flussi genetici, il polimorfismo,
che assicuri la possibilità di adattamento (adattabilità) a diversi ambienti.
5) Il progresso nell'evoluzione
L'adattamento e la fitness darwiniana sono quindi relativi e si riferiscono ad
individui, popolazioni o specie in un dato tempo e in un dato ambiente. « La selezione naturale tende a massimizzare la fitness darwiniana rispetto agli ambienti
che esistono qui e ora. Non ha informazioni sul futuro e non può pianificare
"strategie" evolutive» (Dobzhansky). L'evoluzione organica è quindi, come si
dice, « opportunistica >'>, raggiunge il vantaggio immediato, anche a scapito di
svantaggi adattativi futuri, con possibile rischio di estinzione.
In questo modo la teoria dell'evolHzione ha definitivamente fatto piazza
pulita di tutte le concezioni più o meno antropomorfiche che vedevano nella
natura una linea evolutiva, un « asse privilegiato » (Theilhard de Chardin) conducente direttamente all'uomo,_« lo- scopo finale da raggiungere» (Lecomte
du Nouy). L'uomo non è necessariamentè più adatto al suo ambiente di una
mosca, di un pesce, di un pino o di una ameba. Tuttavia, anche a livello intuitivo, l'evoluzione del mondo vivente mostra nel suo complesso un progresso,
un avanzamento, individuabile nel sempre più elevato livello di brganizzazione
e in una impressionante diversificazione del mçndo organico, frutto di un « irradiamento » della vita in una enorme varietà di nicchie ecologiche.
L'apparente para,dosso può essere risolto se si distingue l'adattamento dalla
adattabilità. I camblatp.enti evolutivi possono portare ad una diminuzione della
77
www.scribd.com/Baruhk
La nuova biologia
flessibilità. evolutiva. Così si pensa che i virus non siano le forme più elementari
di vita ma piuttosto siano derivati da antenati più complessi e organizzati per
mezzo di un processo di superspecializzazione che ha portato ad una evoluzione
regressiva.
Il progresso nell'evoluzione può essere misurato sulla base della probabilità che una specie ha di lasciare discendenti dopo un :lungo periodo di tempo;
questo comporta l'adattamento all'ambiente attuale ma anche una plasticità evolutiva che renda possibile il suo adattamento ad ambienti futuri. I più progrediti
saranno quegli organismi « che sono idonei (who ftt) al loro attuale ambiente e i
cui discendenti saranno idonei (wi/1 ftt) agli ambienti futuri» (J.M. Thoday).
Un progresso nella adattabilità coincide con un più alto grado di indipendenza
del sistema dal suo ambiente, di individualizzazione, con un aumento della capacità
omeostatica dell'organismo. Ciò comporta un incremento della capacità del
sistema di raccogliere e conservare-informazioni provenienti dall'ambiente, formandosi una« rappresentazione» dell'ambiente capace di modificarsi con l'« esperienza », man mano che cambiano gli ambienti. Ciò porrà l'organismo in grado
di « prevedere » il suo cotpportamento per raggiungere i propri fini biologici
(e nell'uomo anche culturali, sociali, etici). Il progresso nell'evoluzione può
quindi essere misurato dall'incremento del livello di organizzazione dei sistemi che isolano l'organismo dall'ambiente e che assicurano uria più precisa
« rappresentazione » ambientale, in primo· luogo grazie ad un sistema nervoso,
agli organi di senso e ai meccanismi di coordinamento delle. attività fisiologiche. L'uomo, da questo punto di vista, è certamente il prodo~to più alto del-.
l'evoluzione biologica.
Ci siamo un po' dilungati nella desct:izione dei principa)i criteri esplicativi
della teoria dell'evoluzione perché dal peso relativo che si attribuisce ad ognuno
di essi derivano diverse impostazioni teoriche, culturali, e, per quanto riguarda
l'evoluzione umana, anche politiche.
Una prima differenziazione si ha riguardo all'origine della variabilità genetica e al suo peso nell'evoluzione. Per la teoria «classica» le modificazioni
evolutive sono essenzialmente dovute alle mutazioni, che si verificano casualmente e raramente e interessano solo una scarsa percentuale dei loci genetici
mentre gli altri restano omozigoti·per il gene «selvatico» (cioè non mutato).
La teoria sintetica considera invece di piccola importanza le variazioni ottenute/
tramite sostituzione genica e privilegia invece, la ricombinazione, la deriva genetica e i flussi tra popolazioni. Una popolaz~one che si riproduca sessualmente
ha una &rande quantità · di geni eterozigoti e quindi. iL ~umeto di alleli che si
segregano ad ogni generazione è molto grande.
~e- fosse valida la teoria classica, la diversità genetica all'interno··della popolazlone .~arebbe 'molto limitata, ma sarebbe elevata tra le popolazioni. Nell'uofl1p in particolare acquisterebbero una rilevanza biologica le razze dato che
0
www.scribd.com/Baruhk
La nuova biologia
le 'differenze tra le razze sarebbero maggiori delle differenze nelle razze. Ciò
. nQn i.i verifiç'à"per la teoria sintetièa ~ anzi alcuni evoluzionisti, spinti da questa polemi~a, tendono anche tro"ppo a « modellare >> le teorie ~.i concetti sul quadro di una societ4 .democratica, con distinzioni fra classi purché nQn chiuse per la quale la m~ggior parte delle variazioni in una specie si hanno al!'inter:~o_, di una popblaziòne. Lé. differenze genetiche tra le razze sarebbero perciò
minori delle differenze che possono trovarsi all'interno di una stessa razza.
Inoltre se la variabilità è scarsamente •significativa riguardo all'evoluzione
si può pensare ad una eugenetica, cioè alla costruzione di un « genotipo superiore » tramite selezione, puramente negativa, dei mutanti non adatti. Per la
teoria sintetica invece la variabilità genetica è una condizione necessaria per.
l'adattamento e soprattutto per l'adattabilità. È falso l'obiettivo di creare una
umanità fatta di milioni di Einstein, di Freud, di Lenin, di Beethoven (o magari
di Rodolfo Valentino): « La standardizzazione biologica e sociale annienta la
umanità» (N. P. Dubinin). È la diversità, genotipica e fenotipica, che ha dato
all'uomo il successo evolutivo e anche la possibilità di dare origine agli Einstein,
ai Freud ecc, « Se si desiderasse trasformare gli uomini in angeli attraverso la
selezione, sarebbe più agevole selezionare una disposizione angelica che un
paio di ali>> (Dobzhansky).
Chi privilegia la concezione classica della selezione naturale in genere è
pessimista sulle possibilità evolutive della specie Homo sapiens. L'evoluzione
sociale ed economica, ed anche etica, ha portato ad un drastico allentamento
della pressione selettiva normalizzante, mentre, con l'aumento delle radiazioni
(raggi X, radiazioni nucleari ecc.) e delle sostanze mutagene nell'ambiente, il
ritmo di mutazione tende ad aumentare. Il carico genetico della specie umana
aumenterebbe sempre più perché la « morte genetica.» diminuisce notevolmente.
Sembra profilarsi così il rischio di un « crepuscolo biologico » dell'umanità,
come già proclamava Francis Galton agli inizi del secolo. Di qui le proposte di
« operare una selezione deliberata e rigorosa » (M,onod) in attesa dell'ipotesi
fantascientifica di poter intervenire, con la cosidd~tta «ingegneria genetica», direttamente sul genotipo.
, Tuttavia secondo la teoria dell'equilibrio della struttura della popolazione,
come ha mostrato I. M. Lerner basandosi sulle esperienze degli allevatori, spesso
la migliore produzione si ottiene con gçnotipi eterozigoti rispetto a più geni (cioè
con un'maggiore :earico genetico).
La selezionè differenziante e quella equilibrante danno luogo ad una varietà
di geni coadattati l'un l'altro. Come abbiamo detto, infatti, ciò che conta per
la selezione non è l'adattamento di questo o quel singolo gene, ma del fenotipo
nel suo complesso. Delle mutazioni che, se eterozigote, aumentano le probabilità di sopravvivenza in un certo ambiente, come nel caso del gene dell'anemia
falciforme, aumenteranno l'adattamento.
79
www.scribd.com/Baruhk
La nuova biologia
D'altronde molti organismi che mostrano un alto adattamento hanno anche delk «imperfezioni» che dovrebbero essere svantaggiose per il progresso
evolutivo. Questo si può -dire ad esempio per il parto nella specie umana, doloroso e rischioso. Ma, si diceva, la selezione è opportunista, ed opera con l'in~
tero genotipo. Le difficoltà della nascita sono probàbilmente una conseguenza
della posizion~ eretta, èhe rende l'uomo molto più idoneo all'uso degli utensili.
Il difetto è quindi mantenuto perché è correlato con un vantaggio adattativo
molto più importante. È quindi pensabile, anche se onestamente si ammette
la non completezza degli studi sul significato biologico e sociale dei carichi genetici, che l'allentamento della selezione normalizzante certo non elimina le malattie genetiche, che possono anche essere curate e risolte in altro modo, soprattutto intervenendo sull'ambiente per diminuire i rischi di mutazione, ma
non impedisce tuttavia il mantenimento dell'adattamento e della adattabilità
della specie umana.
Recentemente la teoria classica è stata ripresa sulla base dello studio della
evoluzione a livello molecolare, analizzando il DNA e i suoi prodotti in RNA
e proteine in differenti specie. Ciò permette di ottenere valutazioni quantitative
sulle variazioni evolutive e sulla stabilità dei sistemi genetici che confermano a
livello genetico i risultati ottenuti mediante l'analisi biochimica.
La teoria sintetica si occupa essenzialmente dei caratteri morfologici e fisiologici degli organismi le cui modificazioni per mutazione sono in genere svantaggiose per l'adattamento della specie. Tuttavia, sostengono alcuni genetisti
molecolari moderni ed in particolare M. Kimnra e T. Ohta, molte mutazioni non
cambiano drasticamente la struttura o le funzioni di un organismo e possono
quindi essere ugualmente incorporate nel genoma. Si tratterebbe quindi di mutazioni « neutre o press'a poco neutre». Si conoscono 59 varianti della emoglobina
umana (dovute a sostituzioni di uno o più aminoacidi), 43 delle quali sembrano
non avere effetti fisiologici rilevanti. Se la sostituzione di un aminoacido in un
enzima prodotto da una mutazione avviene in un sito non attivo l'enzima può
funzionare lo stesso egualmente bene. La mutazione sarebbe in questo caso
indifferente all'azione della selezione naturale.
Que~te mutazioni neutrali o quasi neutrali possono poi diffondersi e fissarsi nella popolazione tramite una deriva genetica casuale (random genetic drift),
cioè una variazione nella frequenza genica che si verifica in una popolazione
ristretta (rispetto al numero totale di ricombinazioni possibili). Il ruolo principale della selezione naturale in questo caso è conservare le funzioni di una
molecola già stabilite; essa svolge quindi un ruolo negativo e non costruttivo.
La velocità dell'evoluzione è determinata dalla velocità con cui avvengono le
mutazioni e con cui queste si fissano nella popolazione per mezzo della deriva
genetica (evoluzione non darwiniana o non-adattativa).
In effetti, lo studio dell'evoluzione molecolare, compiuto mediante l'arraSo
www.scribd.com/Baruhk
La nuova biologia
lisi comparata delle sequenze di aminoacidi di diverse proteine appartenenti a
specie anche lontane filogeneticamente, mostra che la velocità evolutiva misurata in termine di sostituzioni di aminoacidi (o nucleotidi) è costante per anno
nelle diverse linee evolutive (se la funzione non cambia) come se la sostituzione
avvenisse per fissazione casuale di mutazioni neutre, anziché per generazioni,
come dovrebbe essere secondo la teoria sintetica.
Generalizzando questo ragionamento ai caratteri morfologici, si può affermare che anche le vatiazioni nella statura, nel peso ecc., « possono essere
soggette a variazioni dovute alla deriva genetica » (Masatoshi Nei). Il messaggio genetico sarebbe quindi derivato totalmente dall'interno del DNA. «La
variazione evolutiva non è imposta dall'esterno, essa deriva dall'interno. La
selezione naturale è l'editore, piuttosto che il compositore, del messaggio genetico». (]. L. King e T. H. Jukes).
Il motore principale dell'evoluzione per i non-darwinisti non è più la selezione naturale, ma il caso che presiede alle mutazioni e alla deriva genetica.
Benché le mutazioni non siano più considerate come salti bruschi che danno
origine all'improvviso a modificazioni macroscopiche, ma come variazioni minute e spesso insignificanti, esse «sembrano essere il fattore primario dell'evoluzione sia a livello molecolare che a livello morfologico » (M. Nei).
6) Caso e necessità nell'evoluzione
Il ruolo dei fenomeni casuali non è affatto sottovalutato dalla teoria sintetica. Abbiamo già detto del significato « casuale » attribuito alla mutazione
e alla ricombinazione genetica e la deriva genetica è spesso considerata, ad
esempio da Mayr, come il primo p~sso della speciazione. Esiste tuttavia una
reale contraddizione fra il punto di vista estremo della teoria sintetica, per cui
ogni variazione genetica anche a livello molecolare ha un significato adattativo,
e l'altrettanto estrema teoria della assoluta casualità delle mutazioni e quindi
dell'evoluzione. Si è verificato un curioso rovesciamento teorico fra i sostenitori
del determini~mo e dell'indeterminismo nella teoria dell'evoluzione. Nel passato
il m~ccanicismo riduzionistico era stato legato ad un rigido determinismo per
cui un fenomeno biologico poteva essere completamente descritto una volta note
le leggi fisiche e le condizioni iniziali (e la giustificazione portata dai biologi
per un atteggiamento meccanicista si basava appunto sull'esigenza di eliminare
l'« arbitrarietà »).
Viceversa l'organicismo, con il principio di equifinalità, di omeostasi, accettava l'indeterminatezza riguardo al futuro comportamento del sistema (che
sarebbe stato infatti determinato dagli eventi esterni all'ambiente interno). La
situazione si è ora completamente capovolta, non solo perché anche la fisica
ha abbandonato il determinismo meccanicistico e non considera poco scientifico attribuire un ruolo importante nella spiegazione scientifica a leggi probabi81
www.scribd.com/Baruhk
La nuova biologia
listiche, ma perché sono cambiati i presupposti teorici nell'interpretazione dei
fenomeni biologici. La moderna forma di meccanicismo che prende a modello
di spiegazione quella molecolare intende interpretare ogni fenomeno sulla base
di cause attuali dovute all'interazione chimica fra le macromolecole biologiche,
che aggregandosi « spontaneamente », « automaticamente » danno origine alle
diverse strutture dalle quali dipendono le funzioni. L'organismo è una macchina
chiusa, un sistema « assolutamente incapace di ricevere un'istruzione qualsiasi
dal mondo esterno », un sistema « interamente e profondamente conservatore »
(Monod). Ma alla base dell'evoluzione vi sono proprio le «modifiche al programma )) che, in quanto il meccanismo di replicazione (( non prevede )) variazioni, sono da attribuire al caso.
Le mutazioni sono quindi accidentali e poiché esse rappresentano la sola
fonte possibile di modificazioni dirette o indirette del testo genetico ne consegue che soltanto il caso è all'origine di ogni novità: « il caso puro, il solo caso,
libertà assoluta ma cieca, alla radice del prodigioso edificio dell'evoluzione»
(Monod).
All'indeterminismo assoluto nell'origine del substrato materiale dell'evoluzione si associa una concezione rigidamente deterministica della selezione naturale che determina inesorabilmente il destino delle singole mutazioni quando
queste si manifestano al livello dell'organismo. «Usciti dall'ambito del puro
caso, si entra in quello della necessità, delle più inesorabili determinazioni »
(Monod). Nell'un caso e nell'altro, negandòne i presupposti, si nega l'evoluzione.
E, conseguentemente, Monod afferma che «per la teoria del giorno d'oggi
l'evoluzione non è affatto una proprietà degli esseri viventi, in quanto ha le sue radici nelle imperfezioni stesse del meccanismo conservatore che, invece, rappresenta il loro unico privilegio ». È evidente in queste posizioni l'influsso dello
strutturalismo, cosi vasto nella culturà francese.· Monod infatti separa nettamente
la struttura attuale (il sincronico) dalla sua storia (il diacronico) considerando
il primo logicamente prioritario rispetto al secon~o, conformemente alle tesi
strutturaliste. « L'invarianza precede di necessità la teleonomia. »
Questo intreccio fra assoluto determinismo e indeterminismo altrettanto assoluto è il frutto di una concezione rigidamente meccanicistica: tutto ciò che
può essere spiegato sulla base di interazioni «meccaniche» (cioè chimico-fisiche)
è rigidamente determinato; il resto, in particolare quei fenomeni in cui è determinante il parametro « storia », viene invece attribuito al caso assoluto, che diviene un modo per mascherare una incapacità esplicativa. Parafrasando il programma meccanicistico di Laplace si potrebbe dire che, per un biologo molecolare, se un demone conoscesse la disposizione di tutti i geni nei cromosomi
(e conoscesse il codice genetico) potrebbe con esattezza determinare il destino
di ogni singola particella dell'individuo portatore di quei geni. L'unica fonte
di pertu:i:bamento di questo perfetto meccanismo sarebbe il caso « assolutamente
82
www.scribd.com/Baruhk
T,
spazio fenotipico
Rappresentazione schematica dei percorsi di trasformazione del genotipo di una popolazione da una
generazione alla successiva. G e P sono gli spazi delle descrizioni genotipiche e fenotipiche. Gt, Gt',
G2 e G2' sono descrizioni genotipiche a vari intervalli di tempo in generazioni successive. Pt, Pt',
P 2 e P 2 ' sono descrizioni fenotipiche. T1 , T2·, T a e T4 sono leggi di trasformazione.-
imprevedibile». L'evoluzione diviene in questo modo la lotta fra due demoni:
quello dell'invarianza riproduttiva perfetta e quello del caso assoluto.
Per gli evoluzionisti l'adattamento così accurato fra gli organismi e il loro
ambiente non può essere il frutto del puro caso. Certo non si può andare alla
vana ricerca di leggi evolutive assolute e deterministiche, né cercare una spiegazione in cui l'ambiente sia direttamente la causa e le modifìcazioni evolutive
l'effetto.
Tuttavia «il procedere dell'evoluzione è diretto dalla selezione naturale,
non dall'indirizzo delle mutazioni» (Dobzhansky), e, data una struttura di una
popolazione in una data situazione ecologica, se vi è una variabilità genetica
della popolazione, l'azione della selezione naturale «appare del tutto deterministica».
Secondo un modello recentemente proposto da Richard Lewontin, che rias-
www.scribd.com/Baruhk
La nuova biologia
sume grosso modo lo stato attuale della genetica evoluzionistica, si potrebbe
dare una descrizione completa della dinamica di una popolazione, descrivendo
lo stato genetico delle popolazioni e « le leggi di trasformazione dello stato
che siano dinamicamente ed empiricamente sufficienti ».
L'intero processo evolutivo potrebbe così essere descritto dinamicamente
mediante tra~formazioni vettoriali all'interno e tra gli spazi genotipico e fenotipico. Tuttavia questa descrizione non è completamente deterministica, perché
in ognuna delle trasformazioni intervengono fattori tipicamente casuali o non
prevedibili. Inoltre essa non spiega, ma prende per dati i parametri dell'evoluzione: la selezione e l'adattamento.
Anche la frequenza ed il tipo delle mutazioni sono controllate geneticamente e determinate dalla selezione naturale. Il processo di mutazione favorisce
infatti la variabilità genetica e sarà quindi selezionato in quelle specie che vivono in ambienti mutevoli. L'evoluzione di un certo organismo si presenta come
«il più probabile risultato netto dell'azione di tutte le numerose forze selettive
che hanno agito sui suoi antenati» (P. Medawar).
Il determinismo della teoria sintetica ha un carattere non meccanico, ma
storico. L'evoluzione è un fenomeno sostanzialmente storico e, come per tutti i
fenomeni storici, il suo sviluppo futuro non può essere previsto. La teoria dell' evoluzione spiega ma non fa .previsioni. È questo un risultato importante: una
descrizione della vita in termini di cause attuali, chimico-fisiche, può fornirci
previsioni sul futuro comportamento del sistema, ma deve presupporre alcuni
parametri a priori (il «piano»). Al contrario una spiegazione storica ci permette
di 'dire come un sistema è giunto ad essere come ci si presenta all'analisi ma
non ci permette di fare previsioni deterministiche sul suo futuro. Si è in una
contraddizione epistemologica fra due spiegazioni tra loro contrapposte.
Le diversità di atteggiamento a proposito del caso e della necessità nell'evoluzione sembrano dovute ad un tentativo di privilegiare o l'uno o l'altro dei
due aspetti, oppure di considerarli in tempi e su livelli diversi, come in Monod.
È possibile però avanzare una terza soluzione, nella quale il caso e la necessità
cooperino anziché opporsi, giungendo ad affermare, con Epicuro, che «tutto ciò
che esiste nell'universo è frutto del caso e della necessità». Il caso allivello delle
mutazioni o delle ricombinazioni genetiche non contraddice l'esistenza di un
coordinamento a livello gerarchico superiore di questa casualità, grazie all'esistenza di vincoli (constraints) di natura essenzialmente storica. La variabilità nei
sottosistemi (i geni per la cellula, la cellula per l'organismo, l'individuo per la
popolazione ecc.) è necessaria per saggiare tutte le possibilità esistenti in un dato
ambiente fisico e biologico. Tale variabilità permette infatti di selezionare la
configurazione più adatta all'insieme dei vincoli (interni, determinati cioè dalla
storia evolutiva della specie, e esterni, determinati dalle condizioni ecologiche).
Esiste quindi un legame dialettico, diremmo, fra la molteplicità indeterminata
www.scribd.com/Baruhk
La nuova biologia
locale dei sottosistemi (che possono anche essere ognuno diretto da un rigido
determinismo, come nel caso della trascrizione genica) e la univocità non deterministica (o meglio determinata storicamente) del comportamento globale della
struttura di livello superiore. Da questo punto di vista sia la teoria sintetica,
sia le diverse spiegazioni molecolari appaiono ancora insufficienti e unilaterali.
La contrapposizione fra la concezione deterministica e quella indeterministica dell'evoluzione si riflette nel dibattito sul significato e sulle modalità dei
tre « passi » decisivi dell'evoluzione organica: l'origine della vita, la formazione
della specie, la comparsa dell'uomo.
7) Il problema delle origini
La quasi totalità degli scienziati oggi ammette, materialisticamente, che la
vita si sia originata dalla non-vita come « conseguenza di una qualche legge
generale» (Charles Darwin), valida cioè per tutta la materia. L'evoluzione si
presenta come « un processo storico, continuo, che esclude ogni fattore creativo
che operi completamente de novo [... ]. Ogni configurazione nasce da una configurazione precedente» (Simpson). Su questa base la spiegazione dei « salti»
evolutivi va ricercata nelle proprietà, nelle strutture e nelle funzioni degli stati
preesistenti e nelle leggi che li governano. Diviene così possibile porsi il problema di costruire dei modelli, da riprodurre sperimentalmente, di tali « salti »
allo scopo non di ticreare il cammino effettivo percorso dall'evoluzione organica
sulla terra, in quanto essendo un prodotto storico questo è unico e non può
essere ricostruito identicamente in laboratorio, ma di stabilire la possibilità di
derivare questo tipo di processi da leggi generali, descriventi un insieme molto
vasto e sostanzialmente stocastico di comportamenti, uno dei quali potrebbe
essere stato il percorso effettivo della vita sulla terra.
Spiegare l'origine della vita richiede innanzi tutto dimostrare la possibilità
che in particolari condizioni ambientali si possano formare tutti i composti elementari tipici dei sistemi biologici. Sulla base dei dati astronomici, geochimici,
geofisici e paleontologici, si presume che l'ambiente esistente sulla superficie
della terra 4 miliardi di ,anni fa fosse una atmosfera riducente contenente larghe quantità di idrogeno, ammoniaca, metano, acqua, ossido di carbonio e anidride carbonica. Miller nel 19 53, mediante scariche elettriche in questa atmosfera riprodotta artificialmente, ottenne molti composti organici, dimostrando
la possibilità di una evoluzione chimica sulla terra primordiale, cioè un moltiplicarsi delle specie chimiche presenti ed un loro differenziarsi che può aver prodotto tutte le molecole chimiche che la vita utilizza per il suo mantenimento.
D'altro canto successive ricerche astrofisiche e radioastronomiche hanno dimostrato - rendendo inutili ulteriori esperimenti di sintesi in laboratori dei
biomonomeri- che anche nello spazio interstellare si trovano i possibili precursori di ogni tipo di molecole organiche.
www.scribd.com/Baruhk
La nuova biologia
La polimerizzazione di questi biomonomeri, probabilmente in soluzione
acquosa che garantisce le condizioni fisiche necessarie alle reazioni di polimerizzazione, può avere dato origine, ed anche questo è stato ottenuto in laboratorio, ai
polimeri fondamentali della vita: polisaccaridi, lipidi, polipeptidi e polinucleotidi.
Ma la disponibilità degli elementi chimici che costituiscono il « vivente »
non spiega la vita e la sua comparsa. Innanzitutto è necessario un processo di
individualizzazione dei sistemi prebiotici, cioè la separazione fra il sistema vivente e l'ambiente.
I modelli biochimici proposti, sin dal 1929, da A. L Oparin hanno dimostrato
che dei sistemi chimici isolati (« coacervati ») possono «evolvere», cioè semplicemente favorire la polimerizzazione al proprio interno, ma tuttavia siamo ancora lontani dall'affrontare il problema principale dei sistemi viventi descritti
a livello molecolare e cioè l'autoconservazione e l'autoriproduzione. La «rivoluzione
molecolare », dando un più preciso significato a questi tetmini, li lega alla capacità
del sistema di dotarsi di meccanismi in grado di conservare e trasmettere l'informazione genetica.
Si potrebbe dire che esistono larghe evidenze sperimentali e valide teorie
che spiegano le due fasi estreme dell'evoluzione organica e cioè da una parte
l'evoluzione « prebiotica », chimica, e dall'altra, l'evoluzione propriamente darwiniana, cioè l'evoluzione delle singole specie e la comparsa di nuove specie.
Manca tuttavia l'anello intermedio fra questi due aspetti, la fase di autoorganizzazione degli « individui », connessa con la capacità di replicare tale autoorganizzazione. Tale difficoltà rispecchia una contraddizione esistente a livello
epistemologico.
Abbiamo visto infatti che nessuna delle due principali spiegazioni scientifiche usate nella biologia contemporanea, quella funzionale e quella evoluzionistica, riesce a dare una spiegazione unitaria del complesso dei fenomeni biologici. La spiegazione funzionale, causale, infatti, può descrivere il funzionamento
dettagliato in termini chimico-fisici di singoli sistemi molecolari o anche cellulari ma deve assumere come dati alcuni parametri tipicamente biologici. Tali
parametri vengono allora attribuiti ad una teoria non fisica, la teoria dell'evoluzione, che rischia però di divenire, facendo continuamente ricorso al caso,
un deus ex machina.
D'altro canto, la spiegazione evoluzionistica dimostra come una certa organizzazione biologica è giunta ad essere come è oggi, ma non può spiegare
i processi che hanno portato alla sua comparsa originaria. Manca cioè una teoria generale che spieghi le origini e il modo di operare attuale delle funzioni biologiche principali e dei meccanismi che ne assicurano la coerenza, la persistenza
e l'affidabilità. La teoria dell'evoluzione biologica attualmente è applicabile, a
meno di generalizzazioni la Ct.'i validità è messa in dubbio dagli stessi evoluzionisti, solo a sistemi già dotati di alcune proprietà tipicamente biologiche, come
86
www.scribd.com/Baruhk
La nuova biologia
la capacità di autoduplicazione e la presenza di una memoria, a sistemi cioè
che mostrano già un certo grado di organizzazione gerarchica.
La caratteristica dei sistemi viventi non è una determinata struttura, ma
la complementarità fra struttura e funzione che presuppone la variabilità nel tempo,
incompatibile con il concetto di permanenza. « Ciò che appare qualitativamente
eccezionale nella materia vivente [è] l'evoluzione temporale dei vincoli che mettono il sistema in grado di eseguire attraverso i suoi moti semplici funzioni
collettive. In altre parole, partendo da un sistema comune di leggi dinamiche
per i moti a livello microscopico, si osserva che la materia vivente evolve verso
" gerarchie " di ordine collettivo mentre la materia vivente verso un disordine
collettivo>> (Piero Caldirola).
Si tratta quindi di esaminare, come ha fatto il fisico H. H. Pattee, la possibilità di una spiegazione fisica del controllo gerarchico e della sua evoluzione
nel tempo, dando una caratterizzazione al concetto di constraint, cioè di « costrizione >> o regola che si presenta in un insieme di elementi e che limita i gradi
di libertà dei moti delle singole parti che costituiscono l'insieme (ad es. nello
sviluppo dell'organismo «le interazioni collettive delle cellule vicinali contro"llano la crescita e l'espressione genetica di una cellula singola»). Ma come è possibile che un sistema di atomi soggetti a leggi deterministiche possa sovrimporre ai
complicati moti singoli una regola funzionale addizionale (constraint) che produce una « semplice funzione collettiva »? In fisica ciò si ottiene (ad esempio
nel caso di una particella in una scatola) limitando dall'esterno i gradi di libertà senza incidere nelle equazioni del moto. Si ottengono cosl delle gerarchie
strutturali, come i cristalli e le molecole, in cui la regolarità è dovuta alla perdita selettiva di gradi di libertà.
Ma in biologia tale limitazione deve avvenire all'interno di un sistema gerarchico autonomo: deve esserci quindi una qualche memoria, separata dal resto
del sistema, che è Forigine dei constraints dinamici.
Ma qual è l'origine spontanea dei sistemi gerarchici? Come è possibile spiegare in termini fisici la comparsa nei sistemi di materia di descrizioni interne,
di sistemi di memoria?
L'evoluzione chimica prebiotica è divergente, tende cioè a moltiplicare le
specie chimiche, a differenziarle. L'evoluzione biologica è invece un processo
convergente che riduce l'arbitrarietà nel sistema, giungendo ad una organizzazione
funzionale coerente che riproduce se stessa. Come si passa dalla divergenza alla
convergenza? Vi devono essere evidentemente dei vincoli nel sistema stesso,
che a livello molecolare possono essere individuati dalla presenza delle tipiche
molecole informazionali.
Si scontrano a questo proposito due posizioni nettamente contrapposte.
La prima sostanzialmente indeterministica attribuisce l'origine di tali sistemi
autoorganizzantisi al caso. La probabilità di ottenere una benché semplice mole-
www.scribd.com/Baruhk
La nuova biologia
cola proteica da una distribuzione casuale è praticamente nulla. Se si prende
una catena polipeptidica di 100 aminoacidi '(cioè molto piccola) per ogni aminoacido di tale catena si ha una scelta fra zo possibilità, tanti sono infatti gli
aminoacidi naturali. Avremmo un numero di possibili catene chiuse pari a zo100
cioè 101ao. Se si considera che l'età della terra è «solo» 1ol? secondi è evidente
che se anche la terra fosse costituita solo di .aminoacidi non basterebbe neanche
supporre 10 tentativi al secondo per esaurire tutte le possibilità. Questo calcolo,
basato sulla teoria matematica dell'informazione, ha portato molti biologi ad
affermare che l'origine della vita sia stato un evento talmente raro da poter
essere considerato unico e irripetibile. Tutti i successivi passi evolutivi sarebbero anch'essi il frutto di un caso «completamente cieco».
Queste conclusioni si basano sull'ipotesi, tipica della teoria della comunicaziòne, che ogni singola « cifra » del messaggio abbia la stessa probabilità a
. prÙ)"ri. Come abbiamo>visto, ciÒ non è vero per il << messaggio » biologico che
ha un significato, un valore qualitativo e non soltanto quantitativo, dato che non
è possibile valutare la probabilità della vita dal calcolo delle sue forme attuali,
prescindendo dall'ambiente e dalla storia di un dato oggetto biologico. L'informazione risultante dall'evoluzione ha un significato definito e il suo contenuto
in bits non ci permette di caratterizzare il grado di autoorganizzazione di un
sistema funzionale.
Manfred Eigen ha elaborato un modello matematico per spiegare l'origine
dell'autoorganizzazione della materia, introducendo il concetto di «selezione»
nella dinamica molecolare e mostrando che, al livello molecolare, « le regole di
selezione possono essere basate su proprietà chimiche [ ... ] su precisi termini
molecolari che possono essere descritti dalla teoria quanto-meccanica ». Introducendo particolari « criteri di selezione » è possibile descrivere matematicamente
il processo convergente che isola determinate combinazioni di composti chimici in grado di autoorganizzarsi.
La semplice presenza di catalizzatori nel sistema prebiotico non spiega la
crescita autocatalitica perché il catalizzatore in una reazione chimica all'equi.librio agisce allo stesso modo sia sulla reazione diretta che su quella inversa.
Occorre quindi, attraverso l'introduzione di vincoli, portare e mantenere il sistema lontano dall'equilibrio termodinamico, dove le reazioni autocatalitiche diventano instabili (in quanto la velocità della reazione inversa può essere trascurata). Tali instabilità danno origine, come dimo:.;tra la trattazione termodinamica
di Prigogine, a fluttuazioni che possono sub1re una amplificazione che rompe
le simmetrie preesistenti e fa passare il sistema in un nuovo stato stazionario
con creazione di ordine (strutture dissipative). Sono queste fluttuazioni nella
fase divergente dell'evoluzione chimica che rappresentano la base per un comportamento evolutivo.
Il valore selettivo rappresenta quindi la variabile decisiva dell'evoluzione,
88
www.scribd.com/Baruhk
La nuova biologia
come avevano già proposto R. A. Fischer, J. B. S. Haldane e S. Wright formulando la genetica di popolazione. Anche a livello dell'evoluzione molecolare
si introducono così le conclusioni della teoria sintetica. Rispetto a questa tuttavia
vi è una differenza importante. La teoria sintetica infatti identifica grosso modo
l'evoluzione con la selezione naturale. L'evoluzione avviene nel momento stesso
in cui avviene la selezione. È proprio questo però che rende probabilmente insufficiente, come già detto, la teoria sintetica nella sua formulazione attuale.
Almeno a livello dell'evoluzione prebiotica occorre infatti distinguere fra
la selezione di stati alternativi e l'evoluzione degli stati selezionati. Il primo passo
costituisce il processo convergente che sceglie fra tutti gli stati possibili alternativi quelli dotati di più elevato « valore selettivo ». Il secondo passo è di
nuovo un processo divergente dovuto alle modificazioni evolutive degli stati
selezionati.
Tra le condizioni per la selezione e per l'evoluzione può esistere una competizione in quanto « la stessa selettività è in equilibrio tra la precisione e la flessibilità dinamica[ ...]. L'evoluzione rappresenta una procedura di ottimizzazione
sotto certi vincoli imposti dai criteri evolutivi » (Eigen). Di fronte alle continue
modificazioni ambientali il « progresso » evolutivo consisterà nella aumentata
capacità del sistema di utilizzare una maggiore informazione che fornisce un più
elevato valore selettivo. A pari contenuto di informazione saranno selezionati
quei sistemi che avranno una maggiore velocità di formazione, una più lunga
durata di vita (stabilità) o una più accurata precisione nella replicazione.
Tutti questi parametri, alla base dell'evoluzione dei sistemi molecolari dotati di capacità di autoregolazione, sono descrivibili in termini fisici e chimici.
Sembra cosl trovare una bèm fisica il problema della comparsa di sistemi autoorganizzantisi e dotati di memoria che costituiscono come abbiamo visto l'elemento di saldatura, anche teorica, fra la spiegazione riduzionistica della vita e
quella storica, evoluzionistica. Sembra così possibile dare « una fondazione
fisica e una formulazione quantitativa al principio darwiniano. In questa forma
il principio non si riferisce semplicemente ad un percorso storico, ma piuttosto
ad una legge fisicamente deducibile che governa il processo generale di autoorganizzazione della materia » (Eigen).
Nonostante il carattere indeterminato della strada percorsa, il processo evolutivo è nondimeno inevitabile in quanto è basato su un principio fisico deducibile.
Il modello di Eigen mostra che «ciò è non solo inevitabile "in linea di principio"
ma anche sufficientemente probabile in un realistico lasso di tempo » purché
in presenza « di appropriate condizioni ambientali e del loro mantenimento »
grazie ad un continuo flusso di energia libera, condizioni che « sono esistite
sulla terra e devono ancora esistere su molti pianeti dell'universo ».
Il caso e la necessità ancora una volta cooperano anziché opporsi. Le fluttuazioni rappresentano l'elemento aleatorio, in deterministico,. ma la crescita di
www.scribd.com/Baruhk
La nuova biologia
tali fluttuazioni, la loro stabilizzazione e selezione, grazie al « valore selettivo »,
rappresentano la necessità.
Come scrive Monod, «se si considera solo il caso, l'origine della vita appare un fenomeno essenzialmente imprevedibile [...] né più né meno della
particolare configurazione di atomi che costituiscono il sasso che tengo in mano».
È vero che non possiamo calcolare l'esatta posizione degli atomi ad un dato
istante, ma tale calcolo non avrebbe alcun senso dato che ciò che vi è di essenziale nel sasso, le sue proprietà macroscopiche termodinamiche e meccaniche,
possono essere calcolate dal principio d'ordine di Boltzmann; allo stesso
modo un «principio d'ordine interamente differente» (Prigogine) l'ordine attraverso fluttuazioni può rendere conto del fenomeno della vita.
8) L'origine delle specie
Sin dalla sua origine il darwinismo si è soprattutto occupato della modificazione evolutiva della specie. A dispetto del titolo, nel capolavoro di Darwin
il problema dell'origine delle nuove specie era rimasto abbastanza in ombra e
lo stesso era avvenuto nella riflessione dei neodarwinisti. La ragione principale
di ciò è che lo studio scientifico della speciazione è divenuto possibile solo con
la comprensione della natura del materiale genetico e delle relazioni fra genotipo e fenotipo.
La modificazione evolutiva del mondo vivente avviene attraverso due meccanismi: 1) la modificazione adattativa di ogni singola specie attraverso il cambiamento del pool genico delle popolazioni mendeliane (anagenesi o evoluzione
per phyla) e 2) la divergenza fra specie diverse con la creazione di unità evolutive indipendenti (cladogenesi o evoluzione per ramificazione).
Come abbiamo visto parlando della genetica di popolazione la selezione
naturali.! non può operare una differenziazione all'interno della stessa popolazione. È tutta la popolazione nel suo complesso che si adatta in quanto la selezione equilibrante tenderà ad impedire un eccessivo discostamento nella variazione genetica (regressione verso la media; è questo che fa sì che da genitori molto
più alti del normale in genere nascano figli più bassi, cioè più « in media », o
viceversa per i genitori di bassa statura). Quindi, a meno che non intervengano
dei meccanismi che impediscano l'accoppiamento fra varianti e il resto della
popolazione, questa evolverà complessivamente e potrà originare nuove
specie solo per anagenesi. Tale è probabilmente la storia evolutiva dell'uomo,
in quanto si pensa che dopo gli australopitechi sia esistita una sola specie che
si è evoluta da Homo erectus a Homo sapiens.
Nuove specie possono formarsi solo grazie all'instaurazione di meccanismi
di isolamento che impediscono la ricombinazione genetica (la separazione geo-:"
grafica, lo sfasamento nel tempo dei periodi riproduttivi, l'instaurarsi di norme
comportamentali diverse nel corteggiamento ecc.). Se questi meccanismi sfa-
www.scribd.com/Baruhk
La nuova biologia
voriscono la ricombinazione genetica, i genotipi diventano così differenti da
essere incapaci di generare una progenie normale.
Altrettanto complessa, e molto meno chiara, è la spiegazione dell'origine
dei grandi phyla, cioè della formazione di generi, famiglie, classi (chiamata macraevoluzione in contrapposto allo studio della variazione evolutiva al livello più
basso, la specie, o microevoluzione).
Sia per la micro· che per la macroevoluzione si confrontano ancora due
teorie, l'una deterministica e l'altra indeterministica. Da una parte si sostiene
che la differenziazione delle specie è completamente determinata dalla selezione,
per cui ciascuna specie sarebbe idonea ad un habitat leggermente diverso. Altri
invece sostengono che l'origine delle specie è determinata soprattutto da mutazioni casuali, per cui anche all'interno dello stesso habitat possono coesistere
specie diverse in concorrenza fra loro (per il territorio, il cibo ecc.).
In effetti riesce difficile spiegare l'estrema varietà delle specie esistenti (e
quella presumibilmente molto maggiore delle specie estinte o trasformatesi in
altre specie) solo grazie aJla differenziazione degli habitat. Soprattutto fra gli
insetti si trovano all'interno di uno stesso habitat, spesso limitato nello spazio,
ad esempio uno stagno, moltissime specie filogeneticamente poco distinte.
Nello stesso ambiente o in ambienti simili è favorita non la differenziazione,
ma quel complesso processo che viene denominato « convergenza genetica »
che tende a produrre cambiamenti adattivi identici da parte di specie anche molto
diverse filogeneticamente (così, per fare un esempio un po' grossolano, il delfino assume la forma di un pesce, pur essendo un mammifero, perché si è adattato allo stesso ambiente dei pesci). È quindi probabilmente decisiva anche qui
la coesistenza di aspetti casuali e di aspetti deterministici. I. meccanismi di selezione
e di isolamento tendono a conservare deterministicamente un genotipo che produce organismi «bene adattati» (omeostasi genetica), ma d'altronde sono possibili variazioni casuali che modificano gli aspetti non essenziali dell' organizzazione, dando tuttavia origine a nuove specie.
Molto studiato negli ultimi anni è stato il processo di speciazione dovuto
a riarrangiamenti cromosomici. Si pensa infatti che nuove specie possano essere
derivate non dalla somma di piccole mutazioni geniche, che non possono costituire delle barriere riproduttive, ma da importanti riarrangiamenti cromosomici,
anch'essi casuali ma per molti aspetti determinati evolutivamente. In effetti
l'esame dettagliato del corredo cromosomico di specie affini mostra che pochissime e talvolta una sola differenza cromosomica possono spiegare la formazione di una nuova specie. Un gatto e un puma hanno -esattamente gli stessi
cromosomi ma differiscono per una inversione cromosomica peri centrica (cioè
il rovesciamento di un pezzo di cromosoma rispetto al centromero) su uno dei
38 cromosomi. Lo scimpanzé e l'uomo posseggono praticamente gli stessi cromosomi e solo circa il 2% della totalità del materiale genico sembra differire
www.scribd.com/Baruhk
La nuova biologia
grazie a riarrangiamenti cromosomici, insieme a molte probabili mutazioni a
livello delle singole basi nucleotidiche.
. Se queste idee saranno confermate potrebbero fornire un supporto sperimentale a due teorie che abbiamo già incontrato. In primo luogo l'affermazione che il genoma va considerato nel suo insieme, come un tutto; esso non
sarebbe costituito dalla somma (come le perle in una collana) di geni, in quanto i
riarrangiamenti sembrano non implicare singoli geni; determinante sarebbe invece
l'organizzazione del materiale cromosomico, i rapporti fra i diversi geni.
L'altra conseguenza teorica di una evoluzione per riarrangiamenti cromosomici è un nuovo modo di vedere i salti bruschi nell'evoluzione, sui quali avevano insistito, contro la selezione naturale, i primi genetisti e che erano stati
troppo trascurati dalle teorie neo darwiniane dell'evoluzione.
Dei salti bruschi, casuali, nel solito senso di «non finalizzati all'adattamento», possono aver svolto un ruolo certo decisivo nell'evoluzione e spiegherebbero le grandi trasformazioni morfogenetiche che non possono essere spiegate
sommando piccoli cambiamenti mutazionali. Se il fenotipo di un individuo è
determinato dalla « norma di reazione » della specie, una trasformazione di questa produrrà un diverso « campo morfogenetico » che guiderà la formazione
di un fenotipo nuovo ma tuttavia armonico e funzionale. La vecchia ipotesi
del « visionario » d' Arcy Thompson delle trasformazioni complessive di un
organismo, prodotte da una unica trasformazione genetica e spiegabili tramite
semplici operazioni topologiche, avrebbe così una conferma insperata.
9) Evoluzione biologica ed evoluzione culturale
Come abbiamo detto, la documentazione fossile, che si è molto arricchita
negli ultimi anni, sembra dimostrare che l'evoluzione dell'uomo ~ia avvenuta
gradualmente, per accumulo di modificazioni successive, non necessariamente
collegate fra loro («evoluzione a mosaico») come nel caso della stazione eretta
che sembra aver preceduto l'aumento del volume cerebrale. Fra l' Australopithecus, la specie che dovrebbe aver preceduto la specie Homo da essa derivata
anageneticamente, e la specie attuale Homo sapiens sapiens vi sarebbe stata una
trasformazione ininterrotta e costante, tesi confermata anche dall'analisi degli
utensili rinvenuti presso i fossili. Su una cosa, tuttavia, gli evoluzionisti affermano « la possibilità di un qualche cambiamento brusco » in quanto « l'uomo
moderno è davvero diverso » (Young) da tutti gli altri animali. Tale cambiamento
brusco consiste nella comparsa, come prodotto più elevato dell'evoluzione organica, di un altro tipo di evoluzione, quella culturale.
L'evoluzione culturale si presenta come la conseguenza ultima di un processo adattivo biologico: la conquista di un'attività autonoma da parte dell'individuo e della popolazione che si manifesta in questo caso come comportamento
e quindi molto più flessibile e idoneo a rispondere ad anche minime variazioni
www.scribd.com/Baruhk
La nuova biologia
ambientali ed ecologiche oppure, nelle sue manifestazioni superiori, a cambiare
l'ambiente per adattarlo alle proprie esigenze.
Il massimo dell'adattamento si otterrà attraverso l'apprendimento e la trasmissione non genetica di tali comportamenti. Ciò fornisce la capacità di trarre
profitto dall'esperienza propria, da quella dell'intera popolazione e delle popolazioni passate, per regolare il proprio comportamento secondo le richieste e
le esigenze dell'ambiente non solo naturale ma «sociale)>, costituito cioè anche dall'insieme degli individui con cui si entra in una relazione comportamentale.
La qualità più favorita da questo punto di vista è una elevata educabilità. Difatti
«la cultura è il mezzo più potente che l'uomo ha di adattamento all'ambiente; e
a sua volta l'educabilità geneticamente condizionata è il più potente mezzo di adattamento biologico dell'uomo alla cultura » (Dobzhansky). La notevole plasticità
di sviluppo culturale dell'uomo gli è evidentemente conferita dal suo genotipo:
è quindi un tratto della specie dovuto alla selezione naturale. Detto in parole
povere, determinato evolutivamente sarebbe solo tale estrema plasticità e flessibilità degli strumenti conoscitivi dell'uomo, mentre cosa verrà appreso e tramandato esula dall'evoluzione biologica.
Per questo « la cultura è parte della biologia dell'uomo anche se viene
tramandata socialmente e non per mezzo dei geni, è una caratteristica della
nostra specie come il collo lungo è una caratteristica della giraffa » (Soul Tax).
L'uomo quindi ha una evoluzione a due componenti: la biologica e la culturale. Ma qual è il rapporto fra queste due « evoluzioni »?
Le posizioni estreme che si confrontano a questo proposito hanno in comune una rigida separazione fra i due aspetti. La prima, ectogenetica, sostiene
che tutti i cambiamenti che avvengono nell'uomo siano indipendenti dal suo patrimonio genetico. Gli uomini sarebbero non solo uguali, ma anche geneticamente simili. Dato che l'uomo (presumibilmente) non è cambiato molto in milioni di anni perché mantiene le stesse caratteristiche morfologiche e le dimensioni del suo cervello sono pressappoco le stesse, se ne conclude che l'evoluzione
biologica dell'uomo è compiuta ed egli si evolve solo socialmente e culturalmente. «Da un punto di vista biologico,» scrive l'antropologo L. White, «l~
differenze fra gli uomini sembrano davvero insignificanti, in confronto alle
loro somiglianze. Anche dal punto di vista del comportamento umano tutto
tende ad indicare l'assoluta insignificanza dei fattori biologici di fronte all'importanza della cultura[ ... ]. Nei riguardi delle differenze di comportamento, perciò, possiamo considerare l'uomo una costante, la cultura una variabile. »
La seconda posizione, autogenetica, sostiene l'opinione esattamente contraria; la cultura può «limare i dettagli» ma in fondo tutto è determinato dal
genotipo, per cui« alcuni sono nati per comandare, altri per ubbidire [•.. ]. I materiali ereditari contenuti nei cromosomi sono la sostanza solida che in ultima
analisi determina il corso della storia» (C. D. Darlington).
93
www.scribd.com/Baruhk
La nuova biologia
Queste due poslztoni così contrapposte sono strettamente accomunate da
una visione riduttiva e meccanica del rapporto genotipo-fenotipo, che porta
o a negare l'influenza del genotipo perché questo non riuscirebbe a spiegare la
flessibilità comportamentistica dell'uomo o a negare tale flessibilità non riuscendo a collegarla meccanicamente al patrimonio genetico. In primo luogo si deve
notare che il fenotipo non comprende solo le caratteristiche anatomiche o fisiologiche ma anche quelle comportamentali, ed è l'insieme di queste caratteristiche che costituisce la capacità adattiva di una specie, modificata dall'evoluzione. Ora non c'è dubbio che i tratti comportamentali possono variare con
una velocità enormemente superiore a quella con cui si modificano i tratti fisiologici o anatomici.
Un altro punto di vista, analogo con il primo dei due sopra considerati,
seppure non identificabile con esso, afferma che l'uomo è solo un portato storico, sulle cui capacità non incide in nessun modo la componente genetica. Si
è spesso fatto l'errore, anche in campo marxista, di considerare l'uomo solo
in quanto «essere sociale» che entra in contatto con la natura dall'esterno, mediante il lavoro, dimenticando che tale contatto avviene «anche attraverso
l'ereditarietà e, più ancora, gli innumerevoli altri influssi dell'ambiente naturale
sul suo corpo e quindi sulla sua personalità intellettuale, morale, psicologica »
(S. Timpanaro), cioè attraverso l'insieme delle attività dell'uomo.
Si accetta, come è indispensabile, la capacità determinante del livello socioeconomico sugli aspetti sovrastrutturali (etici, politici ecc.) che mantengono
tuttavia una relativa autonomia, ma ci si rifiuta di ammettere il carattere determinante della struttura biologica nel comportamento culturale e sociale dell'uomo, comportamento che, peraltro, mantiene una relativa autonomia. Se ancora occorresse, si potrà ribadire qui che tale determinazione non è rigida e
univoca, in quanto, anche solo rimanendo nell'ambito dei caratteri morfologici
e fisiologici, e a maggiore ragione per quelli comportamentali, ivi compresi
quelli culturali, non esiste una rigida subordinazione del fenotipo al genotipo.
Ciò che il genoma determina è solo la norma di reazione che regola le attività
dell'organismo; cosa esso sarà realmente è il frutto della interazione fra l'ereditarietà e la storia individuale dell'organismo stesso.
Non c'è contraddizione fra diversità genetica ed uguaglianza umana, non
esiste un'unica natura umana ma tante nature umane che per realizzarsi completamente - e nella uguale possibilità di questa realizzazione sta l'uguaglianza
degli uomini - hanno bisogno di condizioni naturali, sociali e culturali diverse. Assicurare l'uguaglianza fra le persone richiede la consapevolezza della
diversità degli individui. La specie umana ha acquisito la sua posizione nella natura proprio grazie a tale estesa variabilità genetica - che non comporta anzi
rifiuta giudizi di merito sulla « validità » dei singoli genotipi.
L'evoluzione culturale innesta nella evoluzione biologica un altro tipo di
94
www.scribd.com/Baruhk
La nuova biologia
evoluzione che ne è la conseguenza ma che la trascende. La maggior parte dei
mutamenti è avvenuta non perché le popolazioni umane sono cambiate dal
punto di vista genetico ma perché sono cambiate da quello sociale e culturale,
in quanto « l'uomo adatta il suo ambiente ai suoi geni molto più che i suoi geni
all'ambiente» (Dobzhansky). È questa capacità di adattamento attivo che si trasmette con la cultura. La potenzialità dell'evoluzione culturale si è sviluppata
grazie all'evoluzione del pool genico dell'uomo, che ne ha formato le premesse
biologiche, ma non è deducibile da tali premesse. I due tipi di evoluzione
sono in rapporto di relativa indipendenza in quanto l'evoluzione biologica è
alla base di quella culturale, e a sua volta l'evoluzione culturale modifica quella
biologica (si pensi all'influsso che ha il comportamento sulla ricombinazione
genetica in quanto può favorire certe unioni, sfavorirne altre ecc. agendo così
sull'equilibrio genico della popolazione).
L'evoluzione umana non può essere concepita come un processo puramente
biologico né esclusivamente come storia della cultura e della socializzazione
dell'uomo. Il futuro dell'uomo sarà quindi determinato dalla interazione, con diverso
peso relativo, fra questi due momenti, entrambi caratteristici della realtà umana.
Con la comparsa della cultura e della coscienza si ha quindi un nuovo
« salto » evolutivo. È sui caratteri di tale salto e sulle sue· modalità che occorre
soffermarsi. Si tratta di un salto brusco, di una rottura totale che separa l'uomo
dal resto della natura oppure si tratta di una svolta evolutiva che produce un
nuovo livello di organizzazione che tuttavia mantiene legami inscindibili (ma
non rigidi) con i livelli sottostanti? L'esasperato insistere sulla unicità dell'uomo,
sul suo distacco netto dagli altri animali, sembra nascondere una precisa venatura antropocentrica. Se l'uomo non è più il beniamino degli dei, il centro
dell'universo « può esserne il centro spirituale. L'uomo e l'uomo soltanto sa
che il mondo si evolve e che lui stesso si evolve insieme al mondo » cosicché « in un certo modo Darwin ha sanato la ferita inflitta da Copernico e da
Galileo» (Dobzhansky). Anche per Monod, come Dobzhansky influenzato
dalla « teologia evolutiva » di Theilhard de Chardin, l'uomo è un « avvenimento
unico», «il nostro numero è uscito alla roulette; perché dunque non dovremmo
avvertire l'eccezionalità della nostra condizione?>>. Siamo di nuovo nell'ambito
del « caso assoluto », assolutamente imprevedibile. « L'uomo, » afferma Monod,
riecheggiando posizioni esistenziali così diffuse nella cultura francese, « finalmente sa di essere solo nell'immensità indifferente dell'universo da cui è emerso
per caso.»
Occorrerà però valutare nel concreto e scientificamente l'entità del salto
evolutivo prodotto dalla comparsa dell'uomo. L'unicità dell'uomo deriva da
certi aspetti peculiari che singolarmente possono essere ritrovati in altre specie
ma che solo in lui si trovano combinate in maniera tanto significativa da far
emergere nuove proprietà, da innestare un processo, che resta naturale, qualita95
www.scribd.com/Baruhk
La nuova biologia
tivamente diverso. «Probabilmente è l'organismo più cosciente di sé e con assoluta sicurezza il solo che sia consapevole delle sue origini, della sua propria natura biologica » ma tuttavia « è una specie diversa di animale, non proprio un
animale diverso » (Simpson).
Per valutare quindi l'entità del «salto evolutivo>> occorrerà studiare comparativamente il comportamento dell'uomo rispetto agli altri animali (etologia)
e individuarne il substrato materiale con lo studio fisico, biologico e logico del
cervello, l'organo di più elevata integrazione delle attività dell'organismo.
V.~·
LE BASI BIOLOGICHE DEL COMPORTAMENTO
Nonostante che Darwin vi avesse dedicato buona parte del suo The descent
of man (L'origine dell'uomo) e un'opera specifica The expression of the emotions
in man and animals (L'espressione dei sentimenti negli animali e nell'uomo), lo
studio del comportamento animale, senza essere abbandonato del tutto, era rimasto molto in ombra per parecchi decenni. Le ragioni sono molteplici; innanzitutto vi è la difficoltà intrinseca che lo studio del comportamento animale
difficilmente può essere analitico ma richiede una impostazione globale; inoltre
uno studio evoluzionistico del comportamento richiede un'analisi comparata e
storica, la prima di difficile esecuzione, in quanto occorrono molto tempo e
metodi che permettano di studiare gli animali in libertà; la seconda ovviamente
di estrema difficoltà in quanto va portata avanti indirettamente dato che i fossili conservano gli aspetti morfologici ma certo non quelli comportamentali.
D'altro canto lo studio del comportamento umano era isolato da quello animale perché, da parte degli psicologi, si reputava enorme la distanza in questo campo fra l'uomo e gli animali. Lo studio del comportamento umano, la
psicologia, trascurava completamente le basi biologiche, le considerava insignificanti rispetto ai fattori ambientali, in primo luogo quelli culturali.
La zoopsicologia, soprattutto quella americana (comportamentismo), risolve il comportamento animale in una serie di circuiti stimolo-risposta, dovuti
agli effetti ambientali immediati, riproducibili quindi in laboratorio. Il comportamento diviene esclusivamente apprendimento mediante condizionamento ad alcuni
stimoli ambientali «qualificanti» o «frustranti», un indirizzo di ricerca questo
che parte da Pavlov e giunge, perdendo per strada il carattere materialistico,
a J. B. Watson e soprattutto a B. F. Skinner. Questo tipo di metodo, se permette di ottenere risultati sperimentali, grazie al classico metodo analitico,
perde di vista la realtà dei fenomeni studiati, in quanto le condizioni di studio
sono completamente artificiali, lontane dall'ambiente naturale e soprattutto, trascurando i fattori biologici, perdono di vista un parametro esplicativo fondamentale, la storia evolutiva della specie, che ne determina in buona parte il
comportamento.
www.scribd.com/Baruhk
La nuova biologia
Occorre quindi studiare scientificamente il comportamento dell'animale
nel suo ambiente naturale e tenendo conto delle basi biologiche ereditarie. È
questo il compito che si pone l'etologia, la scienza comparata del comportamento
animale, di diretta derivazione darwiniana. Il suo metodo è osservativo e comparativo: si tratta di osservare il comportamento degli animali allo stato naturale, o in ambienti modello, interferendo il meno possibile con le normali condizioni ambientali. Si tratta di una scienza essenzialmente descrittiva, che non si
impegna, almeno nella fase attuale, nella teorizzazione del comportamento. Essa
ricerca analogie parziali e circoscritte fra diverse specie animali, evitando ingiustificate estrapolazioni. La titubanza a formulare leggi generali deriva anche dal
fallimento del tentativo compiuto dal comportamentismo di costruire una « teoria
generale del comportamento » basata sull'esame sperimentale di un ristretto
insieme di condizioni osservative, molto meno complesse di quelle reali.
Il concetto unificante dell'etologia è quello di omologia comportamentale, cioè
l'uguaglianza di tratti comportamentali in specie aventi una comune evoluzione
filogenetica. Tali omologie « vengono impiegate come prova per la costruzione di tassonomie orientate filogeneticamente e per la ricostruzione dello
sviluppo evolutivo delle specie» (A. R. Diebold). Ma ciò richiede il superamento
del pregiudizio secondo il quale il comportamento è determinato solo dall'ambiente e non anche trasmesso geneticamente. È il valore adattivo del comportamento che lo stabilizza e ne permette la trasmissione ereditaria. L'etologia privilegia quindi la spiegazione storica, evoluzionistica rispetto a quella causale.
Nella sua fase più teorica, l'etologia elabora modelli comportamentali, basandoli non sul supporto materiale, causale dei singoli gesti, ma utilizzando concetti esplicativi autonomi o comunque non riconducibili ai caratteri fisiologici
e morfologici dell'animale. Si tratta quindi di modelli astratti che studiano il
comportamento di un sistema indipendentemente dai meccanismi che dirigono
ed effettuano tale comportamento.
Buona parte del dibattito teorico in etologia riguarda l'esistenza o meno
di una dicotomia fra innato e appreso, fra istinto e apprendimento. Konrad
Lorenz, specialmente nella prima fase della sua riflessione teorica, tende a mettere l'accento sul carattere innato, « determinato geneticamente>>, della più
parte dei tratti comportamentali. L'istinto è un'azione fissa, « completamente»
indipendente da stimoli esterni, programmata dal patrimonio genetico e controllata dal sistema nervoso centrale. Nell'animale esistono dei meccanismi
costruiti ereditariamente per rispondere ad una combinazione specifica di stimoli in vista del soddisfacimento di un istinto che costituisce il « fine » del
comportamento. L'innato (l'istinto) è quindi totalmente separato dall'appreso (il comportamento variabile, plastico, funzionale ad un certo ambiente).
Come alcune volte sottolinea lo stesso Lorenz, ma soprattutto come aveva
mostrato la genetica evoluzionistica, l'affermazione« determinato geneticamente»
97
www.scribd.com/Baruhk
La nuova biologia
non comporta l'assoluta indipendenza del carattere fenotipico dall'ambiente.
Anche per i tratti di cui è stata dimostrata una larga parte di determinazione
genetica non si può prescindere dall'ambiente. Occorre respingere - scrive
Dobzhansky - il « vecchio errore secondo cui un carattere o una funzione deve
essere o ambientale o genetico mentre in verità di solito è l'uno e l'altro».
Fra innato e appreso non esiste quindi una separazione ma neanche una unificazione o una subordinazione di un aspetto rispetto all'artro. Sono due aspetti
distinti dello sviluppo dell'individuo strettamente interagenti: nessun tratto comportamentale è completamente innato né completamente appreso.
Questo tipo di ~elazione fra istinto e apprendimento diviene evidente in
quella particolare forma di apprendimento, chiamato dagli etologi imprinting,
cioè « impressività » o « impronta ». Si tratta di un condizionamento istantaneo
che si verifica solo in un ben detertninato periodo della vita dell'individuo. Nell'esempio più noto gli anatroccoli che tra le I 3 e le I 5 ore (ttà critica) di vita
hanno sentito la voce umana anziché quella dell'anitra, seguiranno sempre un
modello di anitra maschio con voce umana anziché la femmina «vera». Si
tratta di un apprendimento irreversibile che provoca reazioni rigide ed automatiche, e quindi simili a quelle considerate innate e molto diverse da quelle
provocate da altri tipi di apprendimento.
Tuttavia l'apprendimento per imprinting è più rigido degli stessi comportamenti innati. Nel comportamento istintivo l'animale preferisce sempre l'oggetto naturale che deve soddisfare un istinto e si adatta ad uno artificiale solo
in mancanza del primo mentre dopo l'imprinting l'animale segue sempre l'oggetto dal quale ha ricevuto l'impronta. Delle oche allevate artificialmente
si rifiutano di aggregarsi agli altri gruppi familiari ma seguiranno lo stesso allevatore, che considerano loro «mamma» (0. Heinroth e Lorenz).
L'imprinting si basa quindi su un particolare miscuglio di elementi innati
e appresi e consiglia particolare prudenza nel considerare innati dei comportamenti, quando potrebbero invece essere solo dei condizionamenti velocissimi
e irreversibili. Anche qui sembra determinata geneticamente solo la diJponibilità
a subire l'imprinting. Come affermano gli evoluzionisti «ciò che i geni deterrÌÌinano non sono gli aspetti bensì il processo stesso» (Dobzhansky). L'apprencÙmento per imprinting è quindi unà··fo;mazione individuale di una canitteristica
tipica della specie.
La dicotomia fra istinto e apprendimento, affermata spesso rigidamente da
Lorenz, ma da lui stesso contraddetta, viene superata nella cosiddetta etologia
di lingua inglese, in genere considerata contrapposta alla scuola creata da Lorenz
e da Karl von Frisch. Così per Robert H. Hinde questa dicotomia è solo una
« astrazione », una classificazione operata dallo sperimentatore ma non corrispondente alla realtà, in quanto tutti i processi sono processi di apprendimento
che avvengono in interazione con l'ambiente. Il comportamento implica un
www.scribd.com/Baruhk
La nuova biologia
« nesso complesso di eventi nel tempo », « un intricato mosaico di fattori » e
l'analisi sperimentale seleziona arbitrariamente in segmenti del tempo i singoli
eventi che si verificano in esso.
L'apprendimento durante lo sviluppo ontogenetico non è una continua
e ininterrotta interazione fra genotipo e ambiente, ma è discontinua perché si
realizza in alcuni periodi (sensitive periods) che si alternano a periodi di« sviluppo
prevalentemente interno» (Nikko Tinbergen). Inoltre l'apprendimento avviene selettivamente, mediante i modelli tipici della specie. E molte delle diversità
di comportamento fra le specie derivano dalla diversità del programma di apprendimento, determinato geneticamente.
Questo criterio esplicativo può rendere conto delle differenze fra specie
nella acquisizione dei tratti comportamentali. Ogni specie infatti « non può
apprendere n'imporle quoi, n'imporle comment, n'imporle quand [qualunque cosa,
in un qualunque modo e in qualsiasi tempo])) (R. Chauvin). L'apprendimento
è selettivo e specie-specifico: ogni animale è filogeneticamente adatto ad apprendere alcune cose piuttosto che altre, in determinati periodi e in circostanze ambientali che variano da specie a specie.
Questa variabilità nelle risposte comportamentali rafforza ulteriormente la
tesi di una determinazione genetica, e quindi «innata)), dell'apprendimento. Ma
si tratta di una determinazione non rigida, come in alcuni periodi Lorenz, riprendendo l'atteggiamento meccanicistico di Monod, sembra suggerire, ma flessibile perché si basa sulla interazione fra due meccanismi adattativi entrambi
importanti l'« adattamento filogenetico e la modificazione adattativa» (Lorenz),
il primo dovuto all'interazione (indiretta) fra specie e ambiente nel corso dell'evoluzione, la seconda dovuta alla interazionè individuo-ambiente che si svolge
soprattutto durante l'ontogenesi. La differenza fra istinto e apprendimento, afferma W.H. Thorpe, si riferisce solo al grado di rigidità e plasticità dei diversi tratti
comportamentali. Alcuni meccanismi comportamentali saranno « refrattari ad
ogni alterazione modificativa per la semplice ragione che effettivamente contengono la programmazione filogenetica dei processi di apprendimento)) (Lorenz).
Questo tipo di riflessione interviene direttamente nell'analisi del rapporto
genotipo-fenotipo. L'etologia rappresenta un completamento della teoria sintetica dell'evoluzione, non solo perché valorizza il ruolo dei tratti comportamentali del fenotipo rispetto a quelli morfologici e fisiologici, da sempre privilegiati dagli eToluzionisti, ma anche perché ne mette in discussione criticamente .e positivamente uno dei presupposti teorici, di particolare importanza
nello studio delle basi biologiche dell'uomo. (Non è un caso che i maggiori
evoluzionisti abbiano intensamente partecipato a convegni dedicati al comportamento, apportando e ricevendo notevoli spunti critici.) Gli evoluzionisti, in
particolare Julian Huxley ma anche Dobzhansky, tendono a separare l'evoluzione
culturale dall'evoluzione biologica considerandole parallele e dotate di velocità
99
www.scribd.com/Baruhk
MaschiO
Femmina
si espone
fa ,,da guida verso il nido
. f
::
t>egue
mostra l'ingresso del nidò
entra nel nido
: ~
stimola con il muso
feconda le uova
depone le uova
Parata nuziale di una coppia di spinarelli. Ricostruzione schematica delle azioni scatenanti del maschie
e della femmina.
molto diverse. Nel comportamento degli animali superiori i caratteri biologie
vengono ridotti a fare da sfondo a quelli comportamentali che li sovrastano
li regolano: l'evoluzione culturale si sovrappone a quella biologica.
L'etologia rimette in discussione lo stesso concetto di «cultura», consi
derato « trascendente » rispetto alla « natura », e la considera come una parft
certo la più importante, dei comportamenti appresi e trasmessi non genetica
mente ma direttamente tra gli inçlividui della specie, anche a prescindere da
contatto specifico col particolare ambiente a cui quel comportamento dev1
adattarsi. Il legame tra natJ.Ira e cultura diviene più stretto; la componente bio
logica nell'animale e nell'uomo non viene limitata ai fattori fisiologici ma in
terviene nel complesso delle attività dell'organismo in quanto è il complesso d
tale attività a determinare il successo evolutivo di una specie. Buona parte de
comportamento affettuoso verso i piccoli è anche determinato geneticamente e
viceversa, determina il futuro genetico della popolazione (permettendo ai gio
vani di giungere all'età della riproduzione, mantenendo cosl o aumentando l:
100
www.scribd.com/Baruhk
La nuova biologia
frequenza dei loro geni all'interno del pool della popolazione). Questo intreccio
lo si può anche ritrovare nel carattere innato dei riti del corteggiamento; in
questo caso la determinazione genetica è prevedibile in quanto minimi spostamenti del rituale possono impedire l'accoppiamento e quindi favorire l'isolamento riproduttivo, che può dare origine, come abbiamo visto, a nuove specie.
La maggior parte dei comportamenti della specie riguardano la vita sociale;
è questa infatti che moltiplica i rapporti fra gli individui che per le specie non
sociali si riduce all'accoppiamento o. allo scontro per la difesa del territorio.
D'altronde il carattere prevalentemente descrittivo della etologia, che non si
cura di una spiegazione causale dei singoli comportamenti, deve limitarsi alle
manifestazioni esterne di capacità comportamentali, osservando appunto gli
animali nella loro vita sociale. Lo studio del comportamento sociale è un oggetto
privilegiato della etologia, perché in questo caso il metodo comparativo fra le
diverse specie dà risultati attendibili, essendo l'analogia garantita dalla identità
del fine del comportamento sociale (l'accoppiamento per la riproduzione, l'aggressione per la difesa del territorio ecc).
Mettendo in rilievo il comportamento sociale negli animali e la sua « determinazione» genetica, l'etologia toglie spazi(f.a due pregiudizi sin troppo dif~
fusi e cioè che un comportamento sociale sia tipico solo dell'uomo e che esso
sia totalmente appreso e indipendente dalle sue basi genetiche.
I vari tipi di comportamento sociale degli animali (territorialismo, comunicazione, gioco, comportamento sessuale, aggressività ecc.) vengono ricondotti
ad alcuni concetti esplicativi fondamentali, dai quali è possibile derivare « causaimente » gli altri.
Il più semplice comportamento sociale è quello dell'accoppiamento, in
quanto interazione e cooperazione di due individui di sesso opposto per un
fine primario: la riproduzione. Alcune specie richiedono ai piccoli un periodo
di tempo più o meno lungo prima che questi possano autonomamente provvedere alla propria esistenza. In questo caso la coppia si stabilizza oltre il semplice accoppiamento per prendersi cura dei picc<Jli. È questo un secondo tipo di
comportamento sociale. Nel terzo tipo la vita sociale supera le dimensioni della
famiglia per costituire un gruppo, che in molte specie è solo una estensione
della famiglia e ne conserva i fini, ampliando e rendendo più sensibili i mezzi
per soddisfarli.
All'interno del gruppo - se è tale e non è solo una somma di individui
simili, come in uno sciame di moscerini - si stabilisce una gerarchia ordinata
basata su regole di subordinazione che possono essere più o meno precise e
rigide. In alcune specie inferiori tale gerarchia è determinata direttamente dallo
sviluppo fenotipico a livello morfologico in quanto ad un certo punto dello sviluppo embrionale vi è una differenziazione, i cui meccanismi sono oscuri, fra
linee diverse che portano a fenotipi completamente diversi anche ad una osIO l
www.scribd.com/Baruhk
La nuova biologia
servazione superficiale (ad es. individui « soldato » o « operaio » nelle formiche
e nelle termiti). Nelle specie superiori invece la gerarchizzazione è comportamentale e si determina sulla base della competizione fra i diversi individui del
gruppo, in genere basata sulla forza, ma spesso anche su altri caratteri, come
l'aspetto estetico, la taglia fisica, la capacità di eseguire con particolare abilità
i « riti » che determinano la posizione gerarchica. Anche questa gerarchizzazione
ha un significato evolutivo in quanto l'individuo che è al vertice della gerarchia,
oltre ad avere il compito di proteggere l'intero gruppo, si riproduce molto più
degli altri. In questo modo i suoi geni, che si sono dimostrati particolarmente
«adatti», aumentano di molto la loro frequenza nella popolazione.
Ancora una volta nel passaggio evolutivo dal comportamento solitario al
comportamento sociale vi è un aumento netto del grado di variabilità nella risposta adattativa della specie. Gli individui solitari hanno comportamenti molto
stereotipati, mentre gli animali sociali mostrano una grande flessibilità di comportamento. Ciò è evidente ad esempio nella attività costruttiva degli insetti
o degli uccelli studiata da Karl von Frisch e dalla cosiddetta etologia francese.
Nella costruzione dei nidi o delle tele le specie non sociali dimostrano una estrema rigidezza. Al contrario le specie sociali (api, termiti) sono capaci di una ampia
flessibilità nella scelta del materiale (basata su una capacità di riconoscere le furme
adatte) e nella manipolazione del materiale. La forma complessiva del nido è
tuttavia specie-specifica ed è possibile riconoscere una specii dalla forma del
nido e dal materiale utilizzato per costruirlo.
Per raggiungere il risultato (la costruzione del nido) si ha una cooperazione
fra gli individui basata non su compiti rigidi innati ma su una coordinazione
esterna. Il comportamento di un individuo viene determinato da quello degli
altri nel loro complesso. Così nelle termiti, all'inizio della costruzione, ogni individuo inizia a costruire un nido per conto suo; vi sono quindi delle rido ndanze, delle fluttuazioni aleatorie nel comportamento. Quando però un nido
ha raggiunto una dimensione critica mano a mano tutti gli individui si assoderanno nella costruzione di questo nido (che costituisce, potremmo dire, un « attrattore» nel senso di Thom). Ciò diminuisce i gradi di variabilità, la ridondanza del sistema. Nella costruzione quindi «non c'è un piano di cui gli operai
sarebbero a conoscenza e la mancanza di coordinazione è pressoché perfetta;
ma esiste una sorta di "coordinazione esterna", un insieme di reazioni molto
semplici il cui effetto va quasi sempre nel senso del compimento dell'opera comune » (Remy Chauvin).
Rientra fra i tipi di comportamento sociale, anche se ne è a prima vista
l'esatto contrario, l'aggressività, la« pulsione alla lotta», a cui è dedicato uno dei
libri più belli e più dibattuti di Lorenz (Das soj!,enannte Base. Zur Naturj!,eschichte
der Aggression [Il cosiddetto male. Per una teoria natttrale dell'aggressività, 1963]).
Lorenz colloca l'aggressione, insieme col suo opposto, la fuga. tra gli istinti
102
www.scribd.com/Baruhk
La nuova biologia
« fondamentali » (gli altri sono la nutrizione e la procreazione) « geneticamente
determinati » che vengono « scatenati » da appositi stimoli. Per gli etologi di
lingua inglese, l'aggressione non è un istinto fondamentale ma solo una manifestazione dell'istinto riproduttivo. Tuttavia anche in questo caso l'aggressività, se non è innata in senso lorenziano, è però « programmata internamente »
(Tinbergen) ed è determinata sia da variabili interne che esterne (Hinde). L'aggressione può essere sia interspecifica (e riguarda soprattutto, ma non solo, la
predazione e la concorrenza per una stessa fonte alimentare) sia intraspecifica,
tra individui della stessa specie che vivono « in società » cioè interagiscono fra
loro. L'aggressività permette la distribuzione territoriale degli individui- che
oltre ad assicurare ad ogni nucleo familiare una quantità di cibo sufficiente, impedisce il caos nelle relazioni nella famiglia e fra questa e il resto del gruppo - ,
la selezione dei migliori soggetti riproduttivi, stabilendo o rovesciando l'organizzazione gerarchica del gruppo, la difesa della prole (propria e talvolta anche di
quella altrui). Proprio per sottolinearne l'aspetto positivo, in genere gli etologi
distinguono fra aggressività, di per sé non distruttiva, e istinto di distruzione, che
può essere anche isolato cioè indipendente dalla motivazione dell'aggressione.
L'aggressione non è distruttiva, ma costruttiva, essendo volta alla salvaguardia e alla evoluzione della specie; i suoi effetti dannosi sono limitati da
«meccanismi frenanti», anch'essi innati e specifici, come la subordinazione gerarchica o i meccanismi di « pacificazione » che possono deviare l'aggressività
su oggetti « sostitutivi » o spesso trasformarla in « ritualizzazioni filogenetiche» (Lorenz) in cui l'aggressione è per così dire solo « mimata ». Inoltre gli
etologi associano all'istinto aggressivo anche gli istinti di gruppo (l'« amicizia»,
l'« amore») come manifestazioni in direzione diversa dello stesso tipo di comportamento sociale. Ciò sarebbe dimostrato dal fatto che il primo passo del
corteggiamento nuziale consiste proprio in riti di pacificazione fra i due individui.
Ogni tipo di interazione sociale comporta meccanismi di comunicazione
talvolta molto elaborati. Ogni specie dispone di diverse attività capaci di emettere segnali, la cui flessibilità è molto variabile, sino a raggiungere lo ~tatus
di un vero e proprio linguaggio simbolico. La famosa « danza delle api » è
una rappresentazione simbolica della strada da seguire per giungere sino al cibo.
Sono comunicazioni simboliche anche l~ varie « parate » fatte per il corteggiamento o per ottenere un posto di rilievo all'interno della gerarchia del gruppo.
Sia i segnali che la tendenza a reagire a determinati segnali sono specie specifiche in quanto «ogni animale ha l'istinto innato ad eseguire solo i segnali caratteristici della sua specie e a reagire solo ad· essi» (Tinbergen).
Un tipo di rappresentazione che possiamo ugualmente definire simbolica
la si può ritrovare nelle espressioni facciali negli animali superiori e nell'uomo,
già studiate da Darwin, che P. Leyhausen associa a stàti specifici della combinazione fra atteggiamenti di minaccia, di inquietudine, di timore.
www.scribd.com/Baruhk
~--
,.~·
..-F.~...•
•
(b~
La danza dell'addome, eseguita dall'ape nera, comunica alle altre operaie la posizione della fonte di
cibo recentemente scoperta, prendendo come riferimento la posizione del sole. Se la danza è compiuta al di fuori dell'alveare (a), il tratto in linea retta è rivolto direttamente verso la fonte di cibo.
Se la danza viene invece compiuta all'interno dell'alveare (b), l'ape si orienta in base alla gravità: la
direzione opposta a quella della forza di gravità indica la posizione del sole. L'angolo x è uguale in
entrambe le danze. La distanza della fonte di cibo dall'alveare è indicata dalla velocità con la quale
viene compiuta la danza.
L'esistenza di così complicati meccanismi di comunicazione, anche in specie inferiori, che possono sempre essere collegati al raggiungimento di un fit;~.e
preciso in genere non «cosciente» (la riproduzione, l'alimentazione, ma anche fini più immediati come la minaccia, la coordinazione nel lavoro ecc.)
ripropone, ad un livello diverso, il tradizionale problema . della finalità nella
natura, senza che ad esso, data l'impostazione biologica dell'etologia, si possa
sfuggire attribuendo il comportamento dotato di fine alla presenza di una « co104
www.scribd.com/Baruhk
La nuova biologia
scienza » (che sarebbe in questo caso generalizzata a tutti gli animali) e considerando « meccanico » tutto il resto. È in effetti difficile evitare di parlare di « scopo » esaminando ad esempio la costruzione dei nidi, durante la quale sembra
che l'animale confronti continuamente il già costruito e i mezzi da costruzione
di cui dispone con una « immagine mentale » del nido stesso.
Anche in questo caso potremmo risolvere la falsa dicotomia ripetendo
quanto detto a proposito dell'evoluzione: gli «scopi» sono programmati filogeneticamente, sono un frutto della storia delle specie. Il progresso nella evoluzione consiste nella progressiva autonomizzazione dell'individuo, che sviluppa
un comportamento, e un sistema nervoso in grado di dirigerlo, per raggiungere
tali scopi fondamentali in modo da dipendere sempre meno dalle condizioni
ambientali. Lungo la scala evolutiva i comportamenti dotati di fine acquistano
sempre maggiore rilevanza.
Gli stessi problemi si pongono, ad un più elevato livello di difficoltà, sia
intrinseca sia dovuta a posizioni pregiudiziali extrascientifiche, nello studio etologico di quella specie diversa di animale che è l'uomo.
I rischi di estrapolare arbitrariamente all'uomo i risultati ottenuti con altre
specie sono senz'altro presenti. D'altronde il linguaggio usato dagli etologi è
notevolmente antropomorfico ed è quindi abbastanza facile, dopo aver attribuito agli animali comportamenti umani, assumere un atteggiamento zoomorfico nei confronti dell'uomo. La difficoltà maggiore però non sta in questo rischio, che può essere evitato, quanto piuttosto nel fatto che studiando l'uomo
viene meno il requisito metodologico fondamentale della etologia e cioè la
necessità di studiare l'animale nel suo ambiente naturale oppure in modelli
che riproducono tale ambiente. È ora evidente che per l'uomo non si può neanche parlare di ambiente naturale in quanto sin dall'origine la specie umana ha
modificato il proprio ambiente ed ora vive nella stragrande maggioranza dei casi in
ambienti più o meno artificiali. L'evoluzione culturale ha poi modificato l'insieme delle relazioni interumane, rendendo così difficile separare il comportamento «naturale» da quelli dovuti alla cultura e all'apprendimento. Anche nei
casi patologici (sordità o cecità ecc. sin dalla nascita) che impediscono l'apprendimento e quindi dovrebbero permettere di isolare i caratteri realmente innati,
la situazione è non sempre chiara.
Queste ragioni spiegano il relativo ritardo della etologia umana che si può
dire sia solo agli inizi. Alle stesse ragioni si deve far risalire il ruolo straordinario
svolto dall'antropologia nello studio del comportamento umano. Questo influsso è d'altronde bidirezionale e la stessa antropologia, per lungo tempo
considerata una « scienza umana », sottintendendo con ciò la sua estraneità
alla biologia, ha ricominciato a dare la giusta importanza ai fattori biologici
nello studio del comportamento e della storia dell'uomo.
Anche ammettendo l'unicità dell'uomo, lo studio delle basi biologiche del
www.scribd.com/Baruhk
La nuova biologia
suo comportamento può basarsi sulla etologia comparata in quanto « certi aspetti
del comportamento, che sono nascosti nella complessità della realtà umana,
possono essere studiati più agevolmente nelle loro forme più semplici» (Binde).
L'etologia umana è sostanzialmente un ritrovare l'animale nell'uomo grazie
ad una analisi comparata delle sue proprietà comunemente considerate tipiche.
Come afferma Irenaus Eibl-Eibesfeldt, riproponendo la vecchia distinzione operata dagli anatomisti ottocenteschi, l'etologia umana si basa non sulla analisi
delle omologie, cioè delle somiglianze fenotipiche determinate geneticamente,
ma su quella delle analogie funzionali, cioè la somiglianza dei caratteri anche in
specie molto lontane filogeneticamente dovuta al fatto che quei caratteri sono
stati sottoposti alle stesse pressioni selettive. In parole povere, cerca non o non
solo le somiglianze con le scimmie ma le affinità comportamentali con tutte
le specie animali.
Per caratterizzare la specificità dell'uomo si deve partire, piuttosto che dal
suo carattere sociale, dalla cultura, che costituisce lo strumento principale di
acquisizione e trasmissione della socialità stessa.
All'interno dell'etologia e talvolta, come in Lorenz, all'interno della stessa
evoluzione teorica di un autore, vi è una oscillazione fra i due poli opposti di
interpretazione del passaggio evolutivo costituito dalla comparsa della cultura
umana. Da una parte vi è il culturalismo, diffuso nell'ambito dell'antropologia,
che esalta il ruolo della cultura annullando quasi totalmente quello della base
biologica. Dall'altra vi è un pericolo di zoomorfismo riduzionistico che annulla ogni
differenza fra l'uomo e il resto del mondo animale, attribuendo alla cultura umana
solo una variazione quantitativa rispetto alla «cultura animale». Si tratta quindi
dell'alternativa fra continuismo e discontinuismo, fra l'affermazione di un «salto
brusco » e la sottolineatura di una evoluzione graduale.
Questa alternativa ne presuppone anche una metodologica e teorica. Se si
accetta infatti l'ipotesi culturalistica l'uomo diviene oggetto esclusivo delle
«scienze sociali» o «scienze umane»; nell'ipotesi riduzionistica queste ultime
si dimostrano inutili in quanto tutto il comportamento dell'uomo potrebbe
essere ridotto ad una descrizione biologica.
Una dicotomia dello stesso genere la si può trovare nella interpretazione
di quel carattere innato che maggiormente ha fatto discutere: la « pulsione alla
lotta», l'aggressività. Se si accetta la tesi che l'aggressività fa parte dell'ambito
appreso (culturale) essa può essere annullata, eliminando le condizioni ambientali
che la provocano (M. F. A. Montagu), in particolare le frustrazioni, cioè gli
impedimenti al raggiungimento di uno scopo. Se al contrario si accetta l'innatezza, l'istintività dell'aggressione (come è in Lorenz e come era anche in Freud),
questa non può essere annullata ma solo frenata e dev~ata.
Gli etologi tuttavia, ammettendo l'innatezza della aggressività umana, non
accettano il pessimismo etico « frutto di semplicismo intellettuale e di negli106
www.scribd.com/Baruhk
La nuova biologia
genza osservativa » (Lorenz) di certi etologi (come Robert Ardrey) che attribuiscono un ruolo intrinsecamente malvagio e distruttivo all'aggressione.
Solo con l'uomo l'aggressione diviene distruttiva perché viene meno« l'equilibrio fra capacità di uccidere ed inibizione istintiva a farlo» (Lorenz) a causa
della eliminazione delle relazioni con l'ambiente extraspecifico, della introduzione nell'ambiente umano di fenomeni (sovraffollamento urbano, ritmi lavorativi
eccessivi ecc.) che esasperano la pulsione aggressiva e dell'introduzione di strumenti di distruzione a distanza che non permettono lo « scatenamento » di quei
meccanismi (sottomissione, paura del sangue, grida di dolore ecc.) che quasi
sempre impediscono agli animali di portare l'aggressione al limite estremo.
Non v'è dubbio che uno dei grandi meriti della etologia è di aver dimostrato l'inconsistenza ùel culturalismo, anche se ciò le è costato talvolta la ricaduta in uno zoomorfismo non giustificato. L'etologia non solo ha messo in
evidenza la base biologica nel comportamento umano che rimane relativamente
indipendente anche nella evoluzione culturale ma ha dimostrato che fra l'uomo e il resto del mondo animale vi è una distinzione ma non una separazione.
Ognuno dei caratteri che tradizionalmente si considerano tipici dell'uomo
si può ritrovare, in forme certo meno sviluppate e non interrelate, anche in
specie lontane filogeneticamente. Così ad esempio « la capacit]t di usare degli
strumenti è presente nel repertorio di comportamenti dell'animale e viene utilizzata nella alimentazione solo quando la situazione ecologica lo richiede »
(W. H. Thorpe).
Un altro carattere importante nell'uomo è il gioco, che è stato a lungo considerato fine a se stesso ma che ha invece una importanza biologica, in quanto
facilita l'apprendimento e l'acquisizione di abilità manuale. Il gioco .è« il risultato
dell'irrequieta curiosità, estensibilmente senza scopo, che si esprime nella spinta
a esplorare e scrutare la natura delle cose e a godere di forme, suoni, colori,
pensieri e idee » (Dobzhansky). Ma il gioco è diffuso fra tutti i vertebrati, in
particolare uccelli e mammiferi, e risponde esattamente allo stesso scopo che
ha nell'uomo, pur se con gradi diversi in quanto la sua importanza via via maggiore è certo connessa con il prolungamento dell'età infantile, dovuta al prolungamento del periodo di apprendimento, massimo nell'uomo.
Se il tratto tipico dell'uomo è la possibilità di trasmettere cultura attraverso
il linguaggio verbale e la « integrazione superindividuale » delle esperienze e
delle conoscenze acquisite individualmente, occorre dire che sia l'uno che l'altra
sono presenti in molti animali superiori.
La trasmissione di cultura, per imitazione, avviene ad esempio negli scimpanzé presso cui i giovani apprendono ad usare i bastoni osservando gli altri e
sperimentando direttamente.
Ma anche tale capacità d'apprendimento è «programmata filogeneticamente», in quanto i babbuini che osservano gli scimpanzé utilizzare i bastoncini
107
www.scribd.com/Baruhk
La nuova biologia
per « pescare » le termiti non imparano mai queste tecniche, anche se sono altrettanto ghiotti di termiti. Abbiamo quindi ancora uno stretto intreccio fra innato e appreso, fra ereditato geneticamente e trasmesso culturalmente.
Un discorso molto simile si può fare per il linguaggio. Non vi è dubbio
che « il linguaggio umano è il prodotto di capacità generali, intellettuali e cognitive esclusivamente umane» (Hinde). La comunicazione non verbale e non
simbolica già mette in dubbio la tesi culturalistica della« unicità» del linguaggio
umano, ma anche per il linguaggio simbolico sono state avanzate negli ultimi
anni delle ipotesi sulla capacità di simbolizzazione negli animali superiori. Delle
vestigia di comunicazione simbolica si possono trovare nella danza delle api
e fanno riflettere i risultati suggestivi ottenuti da B. R. e R. A. Gardner e D. P.
Premack i quali hanno insegnato a degli scimpanzé a comprendere e usare un
linguaggio verbale, utilizzando delle rappresentazioni visive delle parole in quanto
gli scimpanzé non sono nemmeno fisiologicamente in grado di produrre espressioni vocali differenziate.
Questi esperimenti sono stati criticati, anche dagli etologi, perché manca
la condizione metodologica di fondo dell'etologia, l'ambiente naturale, e si
sostiene che l'acquisizione di quel particolare comportamento può essere dovuta ad una « convergenza adattativa» dell'animale al nuovo ambiente. Tuttavia i risultati ottenuti pongono molto in difficoltà la tesi della separazione dell'uomo dagli animali superiori sulla base del linguaggio verbale.
Infine, alcuni etologi, ed in particolare Thorpe, sottolineano la presenza
nel mondo animale di comportamenti che possono essere comparati (analogicamente e non omologicamente) a quelli « superiori » dell'uomo: il senso estetico, il senso morale, la coscienza.
«Gli uccelli presentano un senso artistico che porta a soddisfazione sia
visiva che acustica» (Thorpe). Alcune specie di uccelli sono in grado di scegliere colori fra loro « omogenei » per adornare il rifugio e alcuni esemplari di
queste specie, posti di fronte a oggetti di varie forme, sceglieranno i disegni
simmetrici e ritmici; altre specie sono in grado di combinare e variare il canto,
utilizzando tra l'altro gli stessi intervalli musicali che utilizza l'uomo (e questo
ha fatto suggerire, dato che non vi è alcuna ragione anatomica nell'uomo per la
preferenza di tali intervalli, che questi siano stati appresi dall'ambiente proprio
ascoltando il canto degli uccelli).
Del comportamento « etico » abbiamo parlato a lungo; con un eccesso di
antropomorfismo, criticato giustamente dagli evoluzionisti, ci si può riferire
ad esso in molti casi di comportamento altamente cooperativo all'interno di
un gruppo. Per Lorenz e Tinbergen molti comportamenti considerati morali
(come le cure parentali) sono solo comportamenti sociali istintivi, simili a quelli
degli animali superiori.
Anche per la coscienza sono stati fatti tentativi analoghi, caratterizzando
108
www.scribd.com/Baruhk
La nuova biologia
la coscienza come « percezione interna », come autoconsapevolezza e come idea
della unità, della «totalità» (Thorpe) cercando di far vedere come ognuno di
questi aspetti sia presente negli animali superiori. La coscienza sarebbe un proc::sso essenziale della regolazione dei sistemi nervosi da un certo grado di eompìessità in poi e se ne conclude che essa « sia una tappa evolutiva necessaria che
la selezjone naturale deve superare prima che gli animali complessi possano essere adattabili al loro ambiente [... ] la coscienza è presente solo al di sopra di
un certo livello di organizzazione» (Thorpe). È questo, nonostante il suo carattere ancora enunciativo, un risultato importante. Il dibattito sulla coscienza
era stato sempre basato sulla scelta fra l'unicità della coscienza dell'uomo o
la estensione della coscienza a tutta la natura (panpsichismo). Il nuovo indirizzo lega materialisticamente la comparsa della coscienza al grado di organizzazione della materia e alla sua storia evolutiva.
Ci addentriamo così in un terreno che manifesta i limiti, le carenze metodologiche dell'etologia, in quanto trascura l'esame delle basi materiali del comportamento e della coscienza, il sistema nervoso, e privilegia il comportamento
sociale a scapito di quello cognitivo (percezione, memoria, attenzione, anticipazione ecc.). Solo integrando i due approcci e legandoli alla sociologia e alla
psicologia si potrà giungere ad una comprensione complessiva del comportamento.
Concludendo potremmo dire che la più coerente etologia umana, escludendo sia il culturalismo che il riduzionismo zoomorfico, « riconosce la " differenza" fondamentale che intercorre fra l'uomo e gli stessi animali superiori,
ma non la converte in una " separazione" » (Giovanni De Crescenza). Il comportamento umano non è riducibile alla società animale ma da questa deriva
per via evolutiva. Molti dei caratteri « umani » sono presenti nelle società animali ma solo nell'uomo raggiungono un livello adeguato e soprattutto una
presenza contemporanea e una interazione che li portano ad un livello realmente superiore. Non si tratta né di un mutamento solamente quantitativo né
di salti bruschi, « assolutamente imprevedibili», ma di un processo di continuitàdiscontinuità che non arbitrariamente possiamo chiamare dialettico.
VI . IL CERVELLO ED IL PENSIERO
Lo studio dei rapporti fra il comportamento dell'uomo, la sua attività
cosciente e intelligente e il substrato materiale di tale attività è al tempo stesso
antico e nuovo. Si può dire infatti che esso sia iniziato con il sorgere della riflessione filosofica e a questa sia rimasto sempre strettamente legato, ma che
solo recentemente, dalla fine del secolo scorso, abbia acquisito una sua caratteristica posizione all'interno della scienza, anche a costo all'inizio di una
separazione dalla filosofia. Lo studio dei processi cerebrali ha sempre mantenuto
www.scribd.com/Baruhk
La nuova biologia
però uno spessore teorico insolito nelle scienze biologiche, dovuto in particolare al legame che si manteneva fra descrizione anatomica e interpretazione
fisiologica, funzionale. Nata infatti per esigenze cliniche, la neurobiologia conservava lo scopo tipico dell'esame patologico del cervello, quello di legare
malformazioni o deformazioni del sistema nervoso a compo~amenti anormali.
Ciò ha facilitato il rafforzamento del legame fra scienze neu~bbiologiche e filosofia che in questi ultimi anni si è trasformato da un confronto fra « primi principi » e risultati sperimentali in una ampia riflessione anche di tipo metodologico
e gnoseologico sui fondamenti della conoscenza.
Fino alla metà del secolo le ricerche neurobiologiche, nonostante progressi
teorici e sperimentali notevoli -si pensi alle ricerche di I. Pavlov e di C. Sherrington - rimanevano schiacciate da due atteggiamenti metodologici che le isolavano. Da una parte il diffuso riduzionismo delle scienze analitiche (fisica, chimica, fisiologia) considerava il passaggio allo studio dei processi cerebrali solo
un aumento di complessità rispetto a quello degli altri aspetti dell'organismo ma
tanto grande da far ritenere che tentare tale studio fosse quasi una « perdita di
tempo».
D'altro canto la ricerca psicologica si era trasformata all'inizio del secolo
- come abbiamo visto nel capitolo vm del volume ottavo - in scienza del comportamento e non delle sue basi materiali e ereditarie. La base biologica del comportamento veniva considerata come una black box della quale occorreva studiare
solo le entrate e le uscite.
Il punto di svolta si ha a partire dagli anni trenta e quaranta grazie all'intro-..
duzione di nuovi concetti e di nuove metodologie e tecniche di ricerca. Esamineremo più avanti i mutamenti teorici che ne sono risultati, vediamo adesso
brevemente i metodi della ricerca neurobiologica.
Vi sono innanzitutto i due metodi analitici, tipicamente riduzionistici:
quello biochimico e quello anatomo-fisiologico. Dire biochimica fra i neurobiologi significa oggi essenzialmente dire biologia molecolare. Il metodo biochimico classico aveva sì isolato i componenti chimici delle cellule del sistema
nervoso, i neuroni, ma non era stato in grado di andare più in là. Con la biologia molecolare è possibile porsi un obiettivo ambizioso, la « maggiore frontiera della ricerca biologica» (G. Stent), la spiegazione in termini molecolari
del funzionamento del sistema che presiede al comportamento teleonomico
dell'organismo, cioè il sistema nervoso centrale dell'uomo.
Si ricercano in particolare quali potrebbero essere le basi molecolari dell'apprendimento e della memoria. Conformemente al metodo generale della
biologia molecolare, si _pensa che delle modiftcazioni conformazionali di determinate macromolecole possano essere il substrato della memoria. Di fatto, i neuroni producono quantità di RNA largamente superiori a quelle medie delle
altre cellule somatiche e risultati sperimentali, ottenuti soprattutto da H. Hydén,
IlO
www.scribd.com/Baruhk
La nuova biologia
mostrano che dal lato della corteccia che apprende si verifica un aumento significativo dell'RNA per cellula. L'analisi della composizione in basi di queste
molecole ne dimostrava la complementarità con il DNA nucleare e se ne poteva concludere che, «nelle fasi precoci di una situazione di apprendimento mai
incontrata prima dell'animale, si abbia una stimolazione del genoma» con produzione di RNA il quale a sua volta dirige la sintesi di proteine «insolite e altamente specifiche» la cui «funzione è ignota» (Hydén).
In ogni caso nei processi di apprendimento è la intera cellula neurale che
viene implicata e non singole modificazioni molecolari. Ci colleghiamo così
al secondo metodo analitico, quello anatomo-fisiologico. Già da tempo era
stata accettata l'ipotesi, basata anche su prove cliniche e psicologiche,_ dell'esistenza di due tipi di memoria, una a breve e l'altra a lungo termine, con
un intervallo di tempo fra di esse (periodo di fissazione). La memoria a breve
termine sarebbe associata a fenomeni di natura elettromagnetica provocati da
modificazioni temporanee della permeabilità delle sinapsi (le giunzioni fra neurone
e neurone). I risultati sperimentali ottenuti collocando in situ dei microelettrodi
mostrano che dopo la fissazione dell'apprendimento (da I o secondi a qualche
minuto) l'informazione immagazzinata si dimostra insensibile a interferenze elettriche, a modificazioni di temperatura o dell'ambiente chimico. Se ne è quindi
concluso che « la memoria a lungo termine sia basata su modificazioni anatomiche o biochimiche di lunga durata» (Hydén). La sintesi fra l'aspetto biochimico e quello elettrico viene suggerita dallo stesso Hydén: la frequenza degli
impulsi elettrici potrebbe stimolare in modo specifico determinate parti del genoma, con produzione di RNA in grado di dirigere la sintesi di proteine specifiche.
Se confermata, quest'ipotesi costituirebbe un nuovo punto di riferimento nello
studio dei meccanismi di riproduzione cromosomica e di regolazione cellulare.
L'impegno maggiore degli anatomisti del sistema nervoso si è avuto nella
descrizione della fitta rete di fibre, di sinapsi, di ammassi cellulari, di giunzioni
fra nervi ed organi periferici. I risultati ottenuti impressionano per la complessità di questo «labirinto elettrico» e la_ ridondanza che sembra caratterizzare
tutte le funzioni: una singola cellula piramidale può avere più di ventimila giunzioni sinaptiche; esistono nel cervello una quantità di ammassi cellulari differenziati le cui funzioni solo raramente, e da poco tempo, possono essere individuate; è quasi impossibile individuare singoli « circuiti » a causa delle intercomunicazioni e degli scambi di fibre fra tutte le parti del sistema nervoso. Gli
stessi nomi che sono stati dati alle diverse parti del sistema nervoso centrale
sono nomi descrittivi e non funzionali (corno, corteccia, tetto ecc.) a indicare le
difficoltà di collegare il quadro anatomico a quello fisiologico.
L'unità di tale sistema, il suo « atomo », è la cellula neuronica, anch'essa
a diffusione universale, nel senso che tutti gli organismi dotati di sistema nervoso,
anche elementare, utilizzano il neurone come unità anatomica e funzionale. La
III
www.scribd.com/Baruhk
La nuova biologia
cellula neuronica, la più specializzata fra tutte le cellule somatiche, e per questo
praticamente insostituibile, non rigenerabile, ha la funzione di trasmettere « informazione » cioè segnali di natura elettrica lungo i suoi assoni. La trasmissione sinaptica è invece un processo chimico, un effetto a soglia (tutto o niente),
dovuto alla concentrazione di ioni positivi che alterano il potenziale a riposo
della membrana cellulare. Il messaggio nervoso segue quindi una logica binaria
(presenza o assenza di segnale). Il totale delle attività cerebrali deve quindi essere una somma certo non aritmetica di tali eventi binari.
Il « segreto » del funzionamento del cervello non è nei neuroni, ma nel
modo in cui questi sono collegati fra loro, a formare una fitta rete a prima vista
senza un ordine particolare. Incontriamo qui un'altra di quelle dicotomie che caratterizzano tanta parte del pensiero biologico moderno. Queste connessioni
fra i neuroni sono rigidamente determinate oppure sono sostanzialmente equiprobabili? Nel cervello vi è una specificità o una plasticità? Ad un esame anatomico e fisiologico anche non superficiale tutte le cellule cerebrali dei diversi
tipi sembrano identiche fra loro. Si dovrebbe quindi pensare che esse siano equivalenti e disponibili ad essere unite dall'esterno in un modo qualsiasi, assolutamente
plastico. Tuttavia, le ricerche embriologiche e quelle sulla rigenerazione dei
nery-i dimostrano che non è così. Ogni nervo « sa trovare » la propria precisa
collocazione anche se la cellula con cui deve collegarsi è relativamente lontanissima. Se si recide il fitto intreccio di fibre del nervo ottico, che porta i segnali
visivi dall'occhio al cervello, fibre che sono mescolate a caso rispetto alla posizione nella retina, e si procurano le condizioni adatte, si riformeranno le stesse
connessioni in maniera altamente specifica. Le diverse fibre aumentano di numero e di dimensione ma ricrescono raggiungendo le stesse posizioni dove
terminavano originariamente senza errori e sovrapposizioni, ricostituendo la
mappa della retina.
Da parte di alcuni biologi molecolari è stata avanzata l'ipotesi che tale processo di riconoscimento possa essere dovuto a molecole specifiche, che potrebbero riconoscersi come un enzima riconosce il suo substrato. Rita Levi Montalcini ha in effetti isolato una proteina (NGF, nervo growth factor) che è responsabile dell'aumento di numero e di dimensione delle fibre nervose sensoriali
e simpatiche, fornendo così una prova dell'esistenza di specifici composti chimici
in grado di stimolare (o sopprimere) la crescita di particolari tipi di tessuto.
Tuttavia, ancora una volta, deve essere scartata l'ipotesi di una corrispondenza fra processi morfologici e proprietà chimiche, sia quella banale di una
corrispondenza uno a uno fra una fibra nervosa e un composto chimico (accorrerebbero 1010 composti solo per codificare i neuroni della corteccia) sia quella
più sottile, ma altrettanto poco flessibile e scarsamente credibile, di un riconoscimento stereochimico. Più utile sembra una descrizione in termini di gradienti
chimici o termodinamici, di campi morfogenetici, con una trattazione sostan112
www.scribd.com/Baruhk
La nuova biologia
zialmente analoga a quella vista a proposito dello sviluppo embrionale. Lo
stesso NGF, èhe sembra essere a-specifico, agisce come regolatore della trascrizione genica condizionando la morfogenesi.
E anche qui, per tornare al punto di dibattito teorico, come nel caso della
morfogenesi, la dicotomia fra specificità e plasticità può venire superata considerando i diversi livelli a cui si svolgono i fenomeni: da una parte la indeterminazione dei processi microscopici, dall'altra la presenza di un campo, di un
creodo, che limita tale indeterminazione subordinandola ad un « piano », ad
un programma.
Incontriamo così una seconda coppia di metodi e di criteri largamente utilizzati in neurobiologia. Il primo è quello evoluzionistico e comparativo che spiega
il funzionamento del cervello sulla base della sua storia evolutiva. L'apprendimento,
e quindi il sistema che lo rende possibile, è infatti considerato una forma di
adattamento e soprattutto di adattabilità, in quanto permette, grazie alla creazione di un sistema separato di registrazione delle attività dell'intero organismo
in tutta la sua storia individuale, di evitare ripetizione di movimenti e di comportamenti erronei, tanto più dannosi, sia per l'individuo che per la specie,
quando si tratta di organismi di grandi dimensioni, dal metabolismo particolarmente dispendioso e necessariamente limitati nel numero.
La direzione dell'evoluzione sembra essere quella di una progres-siva complessiftcazione nella organizzazione e nelle funzioni svolte, collegata ad un incremento della ridondanza del sistema cioè alla presenza di un gran numero di
canali che svolgono la stessa funzione. C'è quindi un complessificazione della
« geometria » (Y oung) - noi diremmo più precisamente della topologia - del
sistema nervoso.
L'analisi comparativa dei sistemi nervosi in specie diverse mostra, oltre
alla già ricordata universalità del neurone, somiglianze talvolta anche sorprendenti. Ciò dimostra certo una origine comune ma anche una « evoluzione parallela »: i diversi organismi hanno sviluppato strutture simili perché simili sono
gli stimoli ambientali ai quali essi devono rispondere.
I maggiori risultati dell'applicazione del metodo evoluzionistico si hanno
studiando etologicamente le differenze comportamentali collegandole a variazioni strutturali. Le discussioni sul peso relativo dell'« istinto» e dell'« intelligenza » cioè del comportamento innato e appreso, che abbiamo già esaminato,
si dimostra infatti importante per chiarire la natura del « salto evolutivo » rappresentato dalla comparsa della mente umana. Il quarto e più importante metodo
nello studio del cervello, la cosiddetta ftsiopsicologia sperimentale, si basa proprio
sullo studio delle sue variazioni nel comportamento dell'animale dovute a modificazioni del sistema nervoso provocate con impulsi elettrici e con droghe
oppure chirurgicamente. Anche se questo metodo non è esente da critiche
(come quelle mosse dagli etologi che ritengono le condizioni sperimentali in
www.scribd.com/Baruhk
La nuova biologia
cui viene studiato il comportamento talmente lontane da quelle naturali da rendere molto problematici gli esperimenti), i risultati ottenuti con questo metodo,
in particolare dopo il 19~0, sono estremamente importanti dal punto di vista
scientifico, ma anche dal più generale punto di vista teorico e culturale.
Questi metodi vengono applicati ai due gruppi in cui è possibile schematicamente suddividere il complesso delle attività nervose e che vengono chiamate
da John C. Eccles « outer sense » (senso esterno) e « inner sense » (senso interno).
Il primo comprende i fenomeni percettivi del mondo esterno (luce, colore, suono
ecc.) e i dati sullo stato fisiologico dell'organismo, il secondo è costituito dalle attività psichiche, non direttamente collegate ai dati percettivi, ma provenienti
dall'attività autonoma del cervello: il pensiero, la memoria, i sogni, l'immaginazione ecc.
Lo studio delle attività percettive mostra come queste costituiscono già
un livello altamente integrato di attività psichica. Vecchie analogie come quella
dell'occhio paragonato ad un obiettivo che manda al cervello l'immagine rovesciata del reale - che faceva chiedere a molti dove avvenisse il « raddrizzamento» - vengono rapidamente abbandonate. In realtà «l'occhio parla al cervello
in un linguaggio già altamente organizzato e interpretato, anziché limitarsi a
trasmettere una copia più o meno accurata della distribuzione di luce sui recettori » (J. V. Lettvin). Inoltre il cervello non svolge una azione passiva nei
confronti del flusso di informazioni percettive. Esistono infatti numerose vie
centrifughe che portano segnali dal cervello agli organi di senso, probabilmente
per creare uno stato di «sensibilità» più o meno elevata. L'intero sistema nervoso si mostra quindi come un tutto integrato, che « seleziona » attivamente dall'ambiente ciò di cui l'organismo ha bisogno.
Il complesso delle attività percettive è svolto da un insieme di cellule diversificate, ognuna delle quali è in grado di percepire una scelta binaria: l'assenza
o la presenza di un determinato segnale per il quale tale cellula è specificà. Sono
possibili dunque misure relative e non assolute; è possibile rilevare la presenza
di una curvatura, ma non misurarne la dimensione. Nell'occhio di rana sono
stati isolati dei recettori di contrasto, di convessità, di margine in movimento,'
di oscuramento del campo visivo. Ognuna delle cellule trasduttrici segn~la
la presenza di uno stimolo specifico presente nelle sue immediate viciJ;i.anze.
Si verifica poi un processo di integrazione che permette di definire la j(Jrma dell'oggetto o meglio quelle caratteristiche dell'oggetto che interessano quel' dato
animale. Così uno dei percettori della mosca « risponde in modo massimo quando un oggetto scuro più piccolo di un campo recettivo entra in quel campo,
vi si ferma e poi si muove intermittentemente [... ]. Si potrebbe descrivere un
sistema migliore per segnalare la comparsa di un moscerino»? (Lettvin). Quindi
la percezione è selettiva e specie-specifica, « è un processo di scelta in un repertorio di messaggi possibili, determinati dalla storia precedente (normalII4
www.scribd.com/Baruhk
La nuova biologia
mente l'eredità) per fornire informazioni importanti per Fanimale » (Young).
Esiste quindi nel cervello un « a priori sintetico » (Kenneth Craick), determinato filogeneticamente, una attiva capacità selettiva, via via crescente lungo
la scala evolutiva, che permette al sistema di determinare la linea -d'.azione più
valida in un certo ambiente.
Il ruolo svolto dalla determinazione genetica nell'organizzazione del sistema nervoso sembra quindi molto importante. Ma la forma attuale del cervello non è completamente determinata dai geni; la sua costruzione è epigenetica, deriva dall'interazione fra i geni e l'ambiente. Dei gattini allevati sin dalla
nascita in ambienti contenenti solo linee verticali diverranno inc.apaci di rispondere a stimoli orizzontali probabilmente per atrofia dei recettori per le linee
e gli spostamenti orizzontali.
La capacità di apprendimento deve basarsi sull'esistenza di «vie» alternative e «non è improbabile che l'apprendimento consista -nel bloccare le vie
nervose non necessarie » (Y oung). Si avrebbe in questo modo una base reale
per la flessibilità del comportamento degli animali dotati di sistema nervoso.
Determinata geneticamente sarebbe solo la disponibilità ad apprendere certe categorie di cose, basata sulla presenza di apposite organizzazioni cerebrali, quali
cose saranno effettivamente apprese dipenderà dalla costruzione epigenetica dell'organismo maturo. In questa direzione si muovono alcune moderne linee
di ricerca che cercano di legare la neurobiologia molecolare allo studio delle
attività innate, cioè programmate geneticamente (S. Benzer).
Fra i fenomeni percettivi e gli schemi dei circuiti cerebrali si instaura
una correlazione. L'insieme degli schemi determinati geneticamente e sviluppatosi in adatte condizioni ambientali costruisce un «modello nel cervello»
(Craick) che riproduce le caratteristiche ambientali utili alla sopravvivenza
della specie.
L'esistenza di un modello nel cervello permette, per così dire, di saggiare
l'ambiente nella propria testa. «A questo livello vi è una esplorazione sostitutiva
di una rappresentazione sostitutiva dell'ambiente e la " soluzione" è scelta tra
le varietà di prove esplorative di pensiero secondo un criterio che sostituisce
una disposizione esterna di cose» (D. T. Campbell). Ciò ha fornito un enorme
vantaggio evolutivo, svincolando l'individuo dallo sperimentare direttamente e
passivamente le diverse soluzioni possibili. Solo una rappresentazione della realtà
interna al cervello « ci permette di prevedere eventi che non si sono ancora verificati nel mondo fisico e questo processo ci fa risparmiare tempo, spese e talvolta anche la vita» (Craick). L'animale ha così acquisito per così dire la possibilità di far morire il « modello » al proprio posto.
La coscienza, nelle sue forme più elementari, può in effetti essere fatta
coincidere con tale modello dell'ambiente esterno e quindi di sé entro questo
ambiente.
www.scribd.com/Baruhk
cuspide
l
1
l
.perqezione: il predatore
ritorna predatore
1 sistema nervoso centrale
predazione : la preda divent
predatore
predatore
apparato
digerente
modello to olo ico della "catastrofe·· predazione
L'esistenza di un modello, di una rappresentazione ambientale permette
un « allarme anticipatorio », una « specifica immagine di ricerca » (Tinbergen)
che rende possibile l'individuazione d'un evento che interessa un individuo
non appena questo entra nel suo campo percettivo. Il cervello è in grado di
prevedere il risultato futuro di una certa azione, formandosi «una rappresentazione delle situazioni che non sono ancora realizzate e che i bisogni biologici dell'organismo lo spingono a realizzare» (N. A. Berstein). In .un gustoso
modello topologico proposto da Thom .un predatore che caccia una preda
« diventa la preda » sino a che questa non entra effettivamente nel campo percettivo del predatore, facendolo ritornare tale.
Ma questo modello nel cervello come si costruisce? Qual è la sua organizzazione? Come si collegano fra loro gli stati funzionali agli stati strutturali?
Incontriamo anche qui una contrapposizione teorica di grande importanza. A .
partire da Cartesio, che fu il primo studioso del sistema nervoso nel senso moderno del termine, gli stati del cervello erano stati collegati a precise strutture anatomiche. Nell'Ottocento si era cercato di localizzare ogni funzione in
parti speciali del sistema nervoso centrale. Una disposizione per certe attività
intelkttive veniva associata con un maggior sviluppo di una determinata parte
del cervello («bernoccolo»). La teoria del riflesso, sia quella di Pavlov, che si
basava su l).no stretto legame fra funzioni psicologiche e fisiologiche generali,
sia quella coinportamentistica, che abbandonando il materialismo pavloviano
studiava solo le funzioni, ammetteva l'esistenza di ben individuabili ((archi
riflessi » nel sistema nervoso.
Era stato a lungo proposto di localizzare singole idee o ricordi in singole
II6
www.scribd.com/Baruhk
La nuova biologia
cellule, ma c10, data la ridondanza e la relativa plasticità del cervello, non era
più sostenibile. La forma moderna di questa ipotesi localizzatrice ricerca l'equivalente molecolare dell'apprendimento e della memoria in sequenze specifiche
di RNA. A ridare vigore all'ipotesi della localizzazione chimica dell'apprendimento o almeno della memoria sono giunti i famosi e discussi esperimenti di
J. McConnell sulle planarie. In questi esperimenti si verifica un trasferimento del
condizionamento ad animali non addestrati ai quali vengono dati in pasto animali addestrati. La precarietà delle condizioni sperimentali ed una certa approssimazione nella definizione del « condizionamento », che in animali così semplici è tutt'altro che facile, impongono molta prudenza nell'accettazione di tali risultati. Tuttavia il r'tolo svolto da eventi di modificazione chimica nei processi
di apprendimento e di memoria è certo elevato, anche se va inquadrato, come
già detto, nel quadro del complesso metabolismo cellulare dei neuroni.
Negli anni fra il 1930 e il 1950 si verifica una svolta profonda, che rovescia
l'impostazione localizzatrice, soprattutto per opera di Karl Lashley. Questo
neurobiologo, partendo da posizioni teoriche largamente influenzate dall'olismo
biologico e dalla teoria della Gesta/t in psicologia, sottopone ad una critica metodologica e sperimentale la teoria della localizzazione, mettendo in rilievo al
contrario la generale delocalizzazione delle funzioni cerebrali.
Lashley andava « alla ricerca dell' engramma » cioè della modificazione che
dovrebbe aversi in particolari strutture anatomiche del sistema nervoso dopo
un singolo processo di apprendimento.
Le maggiori critiche di Lashley si rivolgono soprattutto contro la teoria
del riflesso. Ridurre tutta l'attività psicologica a semplici catene ed associazioni
di riflessi condizionati è «astratto e fuorviante», conseguenza di un « atomismo »
non sorretto né da prove sperimentali né da una valida teoria. Gli archi riflessi
« o non esistono o sono diffusi attraverso a tutte le parti della corteccia o li
collegano passando per centri più bassi ».
Anche nei più originali continuatori sovietici del lavoro iniziato da Pavlov,
questa istanza critica è presente e permette il superamento della concezione
passiva del cervello, grazie alla considerazione che « il sistema nervoso riflette
il mondo esterno creando un modello interno del suo ambiente [... ]. L'idea
del riflesso come modo in cui le immagini dell'ambiente sono derivate dal modello del sistema nervoso ci porta a concludere che il riflesso è, per natura,
un processo attivo » (E. N. Sokolov).
Particolarmente dura è la critica al comportamentismo di B.F. Skinner,
secondo il quale la ricerca degli schemi stimolo-risposta-rinforzo porterebbe
alla spiegazione completa non solo del còmportamento animale, ma anche di
quello umano. Ma tale impostazione « risolve il problema cervello-mente ignorando sia il cervello èhe la mente; il primo è chiuso sicuramente e inviolabilmente
nella scatola nera e la seconda è considerata una fantasia inefficace» (Eccles).
II7
www.scribd.com/Baruhk
La nuova biologia
Gli esperimenti di Lashley mostravano che la trasmissione di impulsi lungo
vie isolate e ben definite non è essenziale per l'esecuzione di compiti complessi.
Il programma di Ramon y Cayol e di Sherrington di comprendere il sistema in
termini di percorsi e di unità esattamente definite, trova quindi difficoltà notevoli.
Il processo cerebrale a prima vista più facilmente localizzabile, la memoria, viene
anch'esso delocalizzato perché« non vi sono indicazioni dell'esistenza di speciali
aree per la memoria al di fuori dei campi sensitivi primari [... ]. Le tracce di
memoria non vengono impresse e depositate nelle aree associative» (Lashley).
L'asportazione chirurgica delle aree motorie non produce perdita della memoria
dei movimenti; i disturbi motori sopravvengono solo dopo distruzioni molto
estese anche della corteccia associativa. Lashley ne concluse che « ogni ricordo
diventa parte di una organizzazione più o meno estesa », il suo richiamo « dipende da una parziale attivazione dell'interno complesso di associazioni [... ].
L'engramma di una nuova associazione è probabilmente una riorganizzazione
di un esteso sistema di associazioni che implica le interrelazioni di centi~ia di
migliaia o di milioni di neuroni ».
·
.
In questo modo però si tende a considerare il cervello come una « zuppa »
di processi chimici o campi elettrici. Sono solo le funzioni a svolgere un ruolo
determinante e si viene così a ripresentare a livello scientifico la teoria di Locke
del cervello come fabula rasa mano a mano riempit;l, tradizionalmente contrapposta a quella platonica di un semplice sviluppo di potenzialità presenti sin
dalla nascita. Ma se solo le funzioni hanno importanza, la ricerca embriologica
e anatomica diviene quasi inutile: se tutta la struttura è equipotenziale è inutile
andare a ricercare sperimentalmente le specifiche funzioni in diverse strutture.
In questo tipo di impostazione antilocalizzazionistica il cervello viene considerato come un sistema funzionale, come una « macchina logica » che può
essere descritta adeguatamente con modelli cibernetici. Tali modelli sono talvolta meccanici ricercando «una descrizione esatta dei ·processi biologici» da
confrontare con le « definizioni esatte dei fisici e degli ingegneri » (Y oung) riproponendo così una forma diversa di riduzionismo; più spesso e più correttamente sono di carattere logico, come i modelli di Ashby e come alla fine si ·
rivela lo stesso modello proposto da Y oung. L'utilizzazione del linguaggio e
dei metodi cibernetici in neurobiologia è stata compiuta anche dai ricercatori
sovietici col vantaggio duplice di dare una base meno schematica alla tradizione
pavloviana e di non dimenticare il carattere astratto dei modelli, che occorre
sempre ricondurre alla verifica pratica della sua funzionalità. È proprio sulla
base della cibernetica che Anohin e Sokolov abbandonano la concezione rigida dell'arco riflesso e dell'associazione stimolo-risposta introducendo nuovi
concetti generali (come l'accettore d'azione, la sintesi afferente ecc.) per collegare i dati neurobiologici ai modelli deduttivi.
Sembra esistere una corrispondenza biunivoca fra i neuroni del cervello
118
www.scribd.com/Baruhk
La nuova biologia
e gli elementi. di campi percettivi. Si verrebbe così a costituire una omologia
fra la forma percepita e la forma che si instaura nel cervello. Il « modello » non
è soltanto uno schema interpreparativo, sembra corrispondere ad una effettiva
organizzazione della materia cerebrale, corrispondenza non elemento per elemento, ma topologica, qualitativa.
Esistono quindi nel cervello aree differenziali che non sono tuttavia separate. Abbiamo, ancora, una continuità-discontinuità che permette una integrazione senza che si abbia interferenza fra le diverse funzioni.
La diffusione dei fenomeni mnemonici è garantita dalle connessioni intracorticali, prima fra tutte il corpo calloso composto da un numero incredibile
di fibre che collegano le cortecce dei due emisferi nei quali è diviso il cervello.
Per lungo tempo la funzione del corpo calloso fu un vero e proprio enigma.
Gli esperimenti di Roger Sperry mediante interruzione chirurgica del corpo calloso (split brain, cervello diviso) mostravano che gli animali operati in questo
modo si comportavano in maniera del tutto normale. Tuttavia successive ricerche
compiute in speciali condizioni di addestramento mostravano che il corpo calloso possiede precise funzioni integrative ad alto livello, permettendo lo scambio delle esperienze e delle tracce mnemoniche fra i due emisferi. Se si controlla
l'afflusso di informazione nel cervello separatamente per i due emisferi si trova "'
che « ciascuno di questi ha in tali condizioni una sua propria sfera mentale· tt '
sistema cognitivo, cioè processi percettivi, di apprendimento, di memoria e
altri processi mentali propri e indipendenti [... ] è come se gli animali a~essero
due cervelli separati » (Sperry).
In genere uno dei due emisferi è fortemente dominante e controlla le attività
di livello più elevato mentre l'altro emisfero contribuisce ad una funzione generalizzata di base. La vita vegetativa richiede, per permettere l'integrità dello
organismo, una ttnità dei centri inferiori, mentre i centri superiori possono agire
anche in aperto contrasto (come nel caso dello split brain) o, più spesso, costituire una unità di livello superiore che mantiene la specificità delle relative competenze e della « storia » di ognun(). Si potrebbe dire, utilizzando il linguaggio
topologico di Thom, che i due mezzi cervelli costituiscono due attrattori distinti di dimensione diversa. Nel cervello quindi non esiste solo una divisione
del lavoro (che tra l'altro è tutt'altro che rigida in quanto le funzioni sono generalizzate o generalizzabili) ma una precisa organizzazione gerarchica, all'interno
di ogni emisfero e tra i due emisferi. Cosi i centri inferiori e quelli psico-motori
sono subordinati, mantenendo una relativa autonomia, ai centri associativi, che
costituiscono un livello di integrazione superiore e che non a caso compaiono
solo ad un certo punto della storia evolutiva. Lo sviluppo filogenetico infatti
consiste nell'aumento delle strutture del cervello che permettono lo svolgimento della « funzione integrativa ».
In anni recenti Sperry ha sviluppato ricerche su soggetti umani che erano
www.scribd.com/Baruhk
La nuova biologia
stati sottoposti alla separazione chirurgica dei due emisferi per ragioni terapeutiche. I risultati sperimentali sembrano dimostrare che solo l'emisfero dominante - che nel 98% dei casi è il sinistro, contenente i codddetti centri del
linguaggio- mostra una attività autocosciente, mentre «l'emisfero minore ha
lo status di un cervello animale superiore. Esso svolge reazioni intelligenti e
primitive, risposte di apprendimento e può svolgere una grande quantità di
compiti, specialmente nei campi spaziali e auditivi, ma non dà una esperienza
conscia al soggetto» (J. Eccles). Risultati di' questo genere erano evidentemente
destinati a suscitare ampi dibattiti filosofici oltre che scientifici. Secondo Eccles,
che sègue le posizioni epistemologiche di Karl Popper, i risultati di Sperry
« falsificano l'ipotesi di identità psiconeurale » e rafforzano invece la posizione
cartesiana di un dualismo irriducibile fra il pensiero e il cervello, fra le mente
e il corpo.
Su questo problema si confrontano tre posizioni teoriche nettamente distinte. La prima sostiene appunto l'« ipotesi di identità » fra gli eventi psichici
e quelli neurali. Si tratta di una posizione chiaramente riduzionistica e anzi
meccanicistica. Scopo· della ricerca neurobiolog.ica è in questo caso costruire una
biologia della mente- anche se non «una fisica della mente» (V. Somenzi)in quanto « non sembra che esista una ragione plausibile, a parte la complessità di realizzare ciò in pratica piuttosto che in un " esperimento immaginario "
che spieghi perché il sistema nervoso non dovrebbe essere completamente specificabile, suscettibile cioè di una descrizione completa, almeno in teoria» (S. Rose). Respingendo « l'illusione dualistica » (Monod) si cerca di ridurre la mente
alla struttura del cervello. Tuttavia sorge su questa base una contraddizione
epistemologica che non può essere superata e cioè « l'impossibilità della struttura di dare una spiegazione di se stessa » (Stent). Questo diventa un limite
della conoscenza della natura, una « frontiera assoluta » in quanto « nessun sistema logico può descrivere integralmente la proptia struttura» e quindi gli
sforzi della biologia « per capire il funzionamento del cervello umano sono
destinati al fallimento » (Monod).
Per superare questa contraddizione euristicamente dannosa, si è ripresa
la tesi del parallelismo fra gli eventi psichici e quelli neurali, come avevano già
sostenuto filosoficamente Spinoza; Malebranche e Leibniz. Secondo questa ipotesi gli eventi psicologici scorrono paralleli con quelli neurali con una corrispondenza uno a uno con essi, senza però nessun tipo di interazione. Il « libero
arbitrio», cioè la possibilità di intervenire consciamente su un'azione nervosa,
è considerato solo una pietosa illusione.
Una variante dell'ipotesi parallelistica sostiene che la differenziazione fra
eventi psichici ed eventi neurali deriva dalla utilizzazione di due diversi linguaggi, uno biologico e uno psicologico, tra loro intraducibili, per parlare della
stessa cosa vista. da due punti di vista diversi, quando si guarda agli eventi neurali
120
www.scribd.com/Baruhk
La nuova biologia
come osservatore esterno, e quando si riflette sulla propna esperienza conscia.
Questa posizione viene però rifiutata non solo perché è falsificata« dalla scoperta
che dopo la commissurotomia nessuno degli eventi che avvengono nell'emisfero minore è riconosciuto dal soggetto conscio » ma anche e· soprattutto perché se i linguaggi « non sono traducibili tra loro, allora devono riferirsi a differenti specie di fatti. È la relazione fra questi ultimi a costituire il nostro problema che può pertanto venire formulato solo mediante la costruzione di un
unico linguaggio in cui possiamo parlare di entrambe le specie di fatti » (Popper).
Su questo monismo teorico, che però conserva la specificità dei fatti descritti,
si basa la terza posizione, che riprende le posizioni di Cartesio, una forma di
« interazionismo psicofisico >> secondo il quale gli stati mentali possono agire
causa/mente sugli stati fisici del cervello.
Accanto all'inner seme e all'outer sense occorre quindi considerare il« puro io»
(pure ego) che «trascende l'esperienza immediata e dà ad ognuno di noi il senso
della continuità e identità durante la vita» (Ecclef).
In generale il pattern spazio-temporale delle attività cerebrali sarà determinato non solo (I) dalla microstruttura della rete neurale e dalle sue proprietà
funzionali e (z) dalle modificazioni indotte dall'input afferente che costituisce
la memoria a breve termine, ma anche (3) dal postulato, «campo dell'influenza
mentale» cioè dell'azione esercitata dalla mente sui pro~essi fisiologici cerebrali.
Gli esperimenti di Sperry avevano portato questo autore a concludere che «i
fenomeni consci dell'esperienza soggettiva interagiscono sui processi cerebrali
esercitando un'attiva influenza causale. Da questo punto di vista viene attribuito alla coscienza un ruolo direttivo nella determinazione degli schemi di
Russo della eccitazione cerebrale ». In effetti, nota Popper, non vi è alcun motivo (se non sulla base di un erroneo determinismo fisico) perché gli stati mentali e quelli fisici non possano interagire. Il vecchio argomento secondo cui
lo impedirebbe la radicale differenza fra gli oggetti in questione, si basava su
una teoria della causalità da tempo abbandonata.
La mente si comporta come un campo morfogenetico, un creodo che canalizza i processi nervosi. Il fatto che tale regolazione mentale avvenga solo
quando vi è un alto livello di attività neurale rafforza tale analogia. Si è infatti
in presenza di condizioni strutturalmente instabili che permettono l'amplificazione di eventi microscopici e che quindi hanno una elevata flessibilità rispetto
ai constraints imposti «dall'esterno».
Si ripresenta di nuovo il problema dell'origine di tali constraints, che non
possono essere idealisticamente presupposti a priori, e la risposta è ancora che
la comparsa della mente è un nuovo passo evolutivo. La necessità evolutiva
richiede che ci sia una separazione (non ::tssoluta) fra una entità che controlla
e un'altra che è controllata, grazie alla emergenza di proprietà nuove, lo sviluppo
121
www.scribd.com/Baruhk
La nuova biologia
della coscienza, appunto, qualcosa di diverso dall'azione del cervello, un livello
gerarchico superiore che tuttavia deriva dalle proprietà e dalle interazioni dei
livelli inferiori.
È quindi la storia evolutiva che permette di spiegare perché « la sensibilità
è connessa, in una forma chiaramente espressa unicamente alle forme superiori
della materia[ ... ] soltanto a determinati processi che si svolgono nella materia
organizzata in un determinato modo » (Lenin).
Le forme superiori della coscienza, che compaiono nell'evoluzione solo
con l'uomo, e cioè la « coscienza di sé », si basano sulla coscienza della continuità
del proprio corpo, sulla coscienza della « connessione tra la propria memoria
conscia e il singolo, unico corpo che è il proprio» (Popper). Anche gli ani~ali
hanno coscienza del tempo, specie durante le-attività « anticipative » e fenomeni
di memoria possono essere attribuiti anche a ~orpi inorganici come una molla
o una magnete. Ma nell'uomo tale memoria ha. un alto contenuto teorico. È una
ipotesi teorica che, durante il periodo di sonno, quando viene meno la continuità
della coscienza, noi - il nostro corpo - rimaniamo essenzialmente gli stessi;
è sulla base di questa ipotesi che possiamo consciamente richiamare gli eventi
passati. Gli studi di Jean Piaget di psicologia evolutiva nel bambino rafforzano
questa tesi, in quanto il bambino acquista coscienza del proprio io solo ad un
certo grado di sviluppo e impara ad usare la parola « io » quando acquista la
coscienza della continuità del pròprio corpo. Solo l'uomo ha la coscienza di avere
una storia come individuo e come specie e quindi anche di avere un futuro.
Di qui la coscienza della morte, all'origine di quella angoscia esistenziale così
intrinsecamente legata alla natura umana. Anehe gli animali sono consci della
, morte ma non hanno la capacità di prevedere la propria morte. Solo l'uomo acquista la consapevolezza di dover madre.
È significativo che la loca~izzazione delle più alte attività coscienti dell'uomo
le associ alle aree linguistiche che sono anche strutturalmente e funzionalmente
isolabili solo nell'emisfero dominante. Il pensiero e la parola si sono probabilmente evoluti non solo parallelamente ma in maniera collegata. Solo il.passaggio
dalle primitive forme di grida espressive al linguaggio non. verhale, . ~to
sulla rappresenta.zione sensoriale della realtà esterna, al lingua,ggio ·desctiltriyo
e poi a quello argomentativo, teorico, ha potuto permettere la comparsa evolutiva della mente umana, come coscienza teorica della propria continpità. La
coscienza infatti utilizza sostanzialmente una descrizione linguist~ça,_;.· per: descrivere la nostra attività cerebrale usiamo un linguaggio personalizz4to. basato sugli
stessi termini usati per descrivere il comportamento degli altri individui postulando la presenza di un individuo, «l'io», all'interno dell'organismo. Tale
linguaggio fa essenzialmente ricorso per rapprésentare eventi interiori al linguaggio usato per descrivere la realtà sociale. Questo eq per molti aspetti prevedibile in quanto lo stesso linguaggio è un fenomeno essenzialmente -sociale.
12.2.
www.scribd.com/Baruhk
La nuova biologia
Ciò mette fuori causa, da un punto di vista scientifico, _l'obiezione del solipsisi'ho,
i dubbi sull'esistenza delle altre menti. Se parliamo con gli altri, ragionando,
assumiamo l'esistenza di analoghi stati mentali in essi.
In conclusione cons~vando una organizzazione gerarç!lica e la specificità,
la relativa autonomia di ogni livello di organizzazione, che compç>rta la «rinuncia
ad una descrizione fisicalista ?> (Popper) del linguaggio e _delle attività superiori dell'uomo, la riq~rca neurobiologica e la riflessione tçorica a cui essa
dà origine superano l'impostazione idealistica e delineano un quadro unificato
ma al tempo stesso differenziatò: La comprensione del pensiero resta una « frontiera», che ha perso però ogni carattere di assolutezza.
VII· IL DIBATTITO METODOLOGICO
Giunti al termine dell'analisi dei maggiori sviluppi delle ricerche biologiche,
sarà bene esaminare i problemi metodologici e filosofici che tali sviluppi hanno
sollevato. Questo ci permetterà di unificare i diversi aspetti toccati e di collocarli,
per quanto possibile, in un quadro unitario del pensiero scientifico in campo
biologico.
La riflessione filosofica sulla biologia non ha (o non ha ancora) raggiunto
il livello a cui si era svolta nella prima metà del secolo quella sui fondamenti
della fisica. Le ragioni di ciò sono molteplici e vanno dal relativamente scarso
spessore teorico della maggior parte della biologia, alla sua insufficiente unificazione assiomatica sino, forse, anche ad un riflesso di quell'« imperialismo» della
fisica che, come dice Simpson, continua ·ad essere considerata la « filosofia naturale », tesi questa avvalorata « da quella semiverità che è il riduzionismo per cui di
tutti i fenomeni si può in ultima analisi dare ragione in termini strettamente
fisici ». La rivoluzione della fisica contemporanea, continua, « era tale solo per
coloro che si erano ostinati a pretendere che tutto in definitiva dovesse essere
spiegato nei termini della fisica classica » dimenticafldo che parecchio tempo
prima della « rivoluzione » gli studiosi dei fenomeni della vita con la teoria
cellulare, la teoria dell'evoluzione e quella fisiologica dell'ambiente interno avevano già messo fortemente in dubbio tale impostazione.
Questo tipo di affermazioni, al di là della loro validità specifica, è indicativo
di un atteggiamento costante fra i biologi più impegnati sul piano teorico, teso
a non limitare la riflessione sui fondamenti della biologia solo all'esame della
riducibilità o meno di questi ·agli assiomi della fisica, ma rivendicandone l'autonomia, sottolineando la necessità del pensiero biologico di svilupparsi su
proprie particolari problematiche.
La biologia non si presenta come una scienza unificata né tanto meno può
essere considerata solo una parte della fisica. In essa coesistono diversi livelli
di analisi, diversi concetti e criteri esplicativi, particolari metodologie ed anche
www.scribd.com/Baruhk
La nuova biologia
specifici linguaggi. Grosso modo si potrebbe dividere la biologia moderna in
due grossi campi che si richiamano a diversi tipi di spiegazione scientifica. Il
primo, che Ernst Mayr chiama biologia funzionale, «si occupa delle operazioni
e delle interazioni degli elementi strutturali, dalle molecole sino agli organi e
agli interi individui ». Si tratta di un approccio sostanzialment~ analitico e sperimentale, che isola determinati eventi e strutture per chiarirne il « funzionamento » in termini attuali. Per usare la terminologia strutturalistica si tratterebbe di una scienza del sincronico, che utilizza come modello esplicativo quello
della chimica e della fisica. Un biologo «funzionalista» si chiede «cosa» produce un certo evento e « come » lo produce.
La seconda spiegazione si pone altri tipi di domande, pur non trascurando
le precede_nti; in particolare si chiede «a quale scopo» serve una certa struttura, una determinata funzione, « perché » l'organismo svolge proprio quella
funzione e non un'altra, rispondendo a queste domande in termini essenzialmente storici, evoluzionistici. Le cause delle caratteristiche attuali vanno ricercate nel fatto che'« ogni organismo, sia èsso un individuo o una specie, è il
prodotto di una lunga storia» (Mayr). Si tratterebbe quindi di una tipica scienza
del diacronico. Il semplicismo di questo secondo tipo di spiegazione è solo
apparente ed anzi ad una analisi appena approfondita risulta molto più semplicistica la spiegazione funzionale. Qualunque descrizione del vivente in termini
attuali presuppone infatti un « fine », ogni funzione presuppone uno scopo per
cui avviene. Anche eliminando via via gli scopi particolari, interpretandoli sulla
base dj semplici interazioni fisiche e chimiche, resta il fatto che le cellule utilizzano le leggi della fisica, afferma il riduzionista Monod, « per attuare il progetto
con la massima efficacia, per realizzare il "sogno" (F. Jacob) di ogni cellula:
quello di diventare due cellule ». L'organismo trascende « effettivamente pur
non trasgredendovi le leggi della fisica, per essere solo promozione e realizzazione del proprio progetto» (corsivi nostri). Notiamo per inciso come in queste
posizioni si abbia una curiosa riproposta delle posizioni aristoteliche sui rapporti
fra fine e necessità, fra causa finale e causa materiale. La cellula è dotata di un
fine, il suo « sogno », riprodurre se stessa in modo in variante; le cause materiali
producono dei disturbi casuali che solo per puro accidente possono dare origine
a variazioni nel progetto teleologico.
Le critiche al tradizionale uso del termine « scopo » erano certamente giustificate e la proposta di sostituire il termine teleonomico a quello teleologico era
dovuta appunto all'esigenza di eliminare dalla spiegazione scientifica ogni causa
immateriale, trascendente, ogni «disegno» imposto dall'esterno alla natura, al
quale l'evoluzione e i singoli organismi dovevano necessariamente tendere,
grazie alla presenza di un élan vita! simile, nota causticamente J. Huxley, ad
, un presunto élan !ucomotij, « quella forza che spinge un treno a viaggiare senza
deviazioni da una stazione ad un'altra che rappresenta la sua meta». Il termine
12.4
www.scribd.com/Baruhk
La nuova biologia
teleonomico, introdotto da G. S. Pittendrich, viene usato in biologia per descrivere « il comportamento apparentemente diretto ad uno scopo degli orgànismi
e delle loro caratteristiche» (]. Huxley) facendolo risalire al fatto che tali sistemi
operano sulla base di un « programma », di un « piano ». La teleonomia, che ha
una base analizzabile chimico-fisica, si distingue così dalla teleologia, che le vecchie concezioni ortogenetiche considerano caratteristica del processo adattativo
dell'evoluzione.
L'idea di un té!oJ, inteso appunto nel senso di conformità ad un programma
da parte degli organismi viventi, è resa estremamente forte dagli sviluppi dell'etologia e della neurobiologia. L'innatezza degli schemi comportamentali, delle
reti nervose del cervello si pone rispetto alla vita dell'individuo come un a
priori che delimita chiaramente il « fine » delle funzioni vitali (la sopravvivenza
di quel particolare individuo) e dell'individuo stesso (la ;;;pravvivenza e l'evoluzione della specie). Anche per la fisiologia l'uso potremmo dire sfrenato da
parte di Claude Bernard di una terminologia chiaramente teleologica (consigne, idée directrice, pian vita!, preordonnance, dessein vita/ ecc.) per poter descrivere
il comportamento fisiologico degli individui teso a mantenere !;ambiente interno
indispensabile alla vita, viene ripreso anche dalla moderna biologia che Vl aggiunge un maggior senso fisico, una solida base esplicativa. «Non è possibile,»
scrive Jacob, «fare della biologia senza riferirsi continuamente al" progetto"
dell'organismo vivente, al "senso" che l'esistenza stessa dell'organismo con'ferisce alle funzioni e alle strutture che_ lo caratterizzano [... ]. Non si può dissociare la struttura dal suo significato )) e (( questo a.tteggiamento differisce profondamente dal riduzionismo. »
A questo punto la temibile domanda « a che scopo? » non solo è utile
per riassumere in poche parole complesse catene causali, ma ha una sua validità
autonoma, una sua legittimità che si pone come nucleo generatore di un tipo
diverso di spiegazione scientifica. Per Simpson « in biologia si deve aggiungere
un altro tipo di spiegazione a quella riduzionista [... ] che possiamo chiamare
composizionista in contrapposto con quella riduzionista ». In altre parole diviene scientificamente significativo dire, per esempio, che il leone è pienamente
adattato ad essere predatore perché questo assicura la vita al leone, la continuità
della sua specie e l'economia del sistema ecologico di cui è parte.
Di questa spiegazione composizionista esistono due varianti che in tempi
diversi sono state assunte come prioritarie. La prima è quella organicista o ùitegrista che considera elemento primario della spiegazione scientifica l'esistenza
e la continuità nel tempo dell'organizzazione dei sistemi viventi. La seconda è
invece quella storica, che riconosce l'importanza dell'organizzazione biologica e
la diversità di questa organizzazione da quella dei sistemi fisici, ma la riduce ad
essere una conseguenza di una lunga storia evolutiva che ha differenziato sistemi prima simili e rispondenti alle stesse leggi fondamentali.
12.5
www.scribd.com/Baruhk
La nuova biologia
La vecchia tradizione o listi ca assegnava alla. orgànizzazi~ne di per sé il ruolo
di supporto del comportamento teleonomico, ma in questo modo l' organizzazione diveniva un criterio esplicativo e non una cosa da spiegare, rovesciando
i termini del discorso. È questo «rovesciamento» che ha reso l'approccio olistico estremamente vulnerabile agli attacchi scientifici e filosofici. In particolare la tesi fondamentale dell'olismo secondo la quale il tutto è più della somma delle parti è banale e vaga perché « persino tre mele in un piatto sono più
di una " semplice somma" » (Popper) in quanto è possibile individuare alcune relazioni tra di esse (di peso, forma, posizione ecc.) che non possono essere dedotte dall'osservazione delle singole mele. Quindi « una proposizione
come " gli organismi sono degli interi" si riduce alla banale affermazione
che in un organismo si può discernere un certo ordine» (Popper).l
È evidente che la banalità di cui parla Popper è tale solo se si comprende
il valore della svolta metodologica prodotta dalla moderna riflessione filosofica
nella scienza, un passo questo decisivo e tipico della scienza del Novecento ma
non molto diffuso in biologia. I vecchi olisti ricercavano infatti delle relazioni
effettive, nel reale, supponendo che la scienza non fosse che un « rispecchiamento »
del reale, che bastasse cioè « scoprire » tali relazioni. Ma una spiegazione scientifica è sempre una descrizione del reale e le relazioni possono essere individuate
non solo effettivamente ma anche nell'ambito di tale descrizione. Fra le tre mele
dell'esempio precedente non si instaura nessuna relazione effettiva (se non eventualmente quella di contatto) ma tali relazioni si instaurano nella descrizione
scientifica che diamo di tale sistema.
L'altro concetto olistico fondamentale, la necessità di studiare solo il
tutto rifiutando l'analisi, è, alla luce di quanto detto ora, autocontraddittorio.
Costruire una teoria scientifica significa sempre selezionare dei fatti o delle relazioni ed è facile in ogni caso trovare degli aspetti del reale necessari al « tutto» che sono stati trascurati. Portare all'estremo questa posizione significherebbe in sostanza rinunciare alla possibilità di una spiegazione scientifica del
mondo.
Con lo stesso ragionamento, rovesciato, possiamo eliminare le obiezioni
al metodo analitico dovute ai famoso principio tanatologico, sostenuto anche
da Niels Bohr, secondo il quale distruggendo l'organismo ne rendiamo impossibile lo studio. In realtà ogni tipo di osservazione, anche se fatta sull'organismo
intero, comporta sempre il trascurare alcuni elementi (ad esempio quelli ambientali, altrettanto importanti per l'organismo di quelli interni) e presuppone
un intervento attivo sul sistema in esame. L'affermazione della non esplicabilità
della vita si basa sull'assunto che l'analisi sia l'unico metodo scientificamente
r La prima critica metodologica e teorica
ai concetti olistici, molto simile a quella svolta
da Popper e Nagel, fu fatta da M. Schlick già
al loro primo apparire nell'articolo Ueber den
Begriff der Ganzheit (Sul concetto di totalità), pubblicato nel I934·
12.6
www.scribd.com/Baruhk
La nuova biologia
valido, e c10 non è vero specialmente in biologia, dove trovano ampio e giustificato uso le spiegazioni teleonomiche e soprattutto quelle storiche.
In ogni caso, l'analisi biologica mostra che tutte le funzioni della cellula,
di un organismo sono tra loro coordinate e causalmente subordinate alla organizzazione nel suo complesso. Tuttavia « il mero fatto che le parti di un sistema
risultino causalmente correlate non esdude. comunque una possibilità di analisi
additiva del problema» (Nagely. Il riconoscimento del carattere «totale» di
un sistema non implica la rinuncia ad una descrizione analitica dello stesso fenomeno: la causalità e la teleonomia non si escludono a vicenda. Riconoscere,
come scriveva Comte all'inizio del secolo scorso e come pensano tuttora molti
biologi, che « un qualsiasi organismo costituisce per sua natura un tutto necessariamente indivisibile che scomponiamo, con un semplice artificio intellettuale,
al fine di meglio conoscerlo e avendo sempre di mira una ulteriore ricomposizione », non è ancora sufficiente; occorre legare i due livelli dando una spiegazione fisica e causale della stessa formazione del piano, del programma. Nel
corso dei paragrafi precedenti abbiamo visto che proprio in questa direzione si
muovono gli sforzi per la costr';lzione di una teoria della biologia e in particolare
dell'evoluzione biologica. È solo in questo modo che l'affermazione di Nagel,
secondo la quale la spiegazione teleonomica può essere ·sempre ricondotta a
quella causale, trova il suo vero significato.
La formazione dei « programmi » risulta essere il frutto della storia evolutiva del mondo organico. Delle tre spiegazioni di cui parlavamo, quella riduzionista, quella integrista e quella storica o evoluzionista, solo la prima e l'ultima hanno una validità autonoma; la spiegazione integrista può essere ricondotta come detto alla spiegazione storica. Le due logiche di cui parla Jacob, «la
logica dell'organizzazione e la logica della evoluzione» sono in realtà unificabili
perché la prima è subordinata alla seconda. È la dimensione storico-evolutiva
che caratterizza pienamente il mondo organico: ogni spiegazione biologica
implica in definitiva sempre un fattore storico-evolutivo irriducibile. « Ogni cellula,
raccogliendo la registrazione di un bilione di anni di evoluzione, rappresenta
un evento più storico che fisico» (Delbriick).
La storia è quindi tipica della vita (si ricordi l'analisi di Prigogine a questo
proposito), nei fenomeni biologici si ha una differente natura del tempo. Certamente anche i corpi inorganici hanno una « storia » nel senso che recano traccia di eventi accaduti o recenti (come nel caso dei corpi magnetizzaii) o anche
lontani nel tempo (come nei fenomeni corrosivi), ma si tratta solo di una sovrap··
posizione di eventi che il sistema subisce e che non entrano fra loro in relazione.
La vera storia, l'evoluzione, inizia con la capacità del sistema di svolgere un
ruolo attivo, di selezione autonoma rispetto agli eventi esterni, un processo
quindi di individualizzazione, connesso con l'acquisizione della capacità di saper
registrare al proprio interno le selezioni operate.
127
www.scribd.com/Baruhk
La nuova biologia
Il «paradosso della teleonomia » (Monod), la contraddizione epistemologica
fra teleonomia e rifiuto delle cause finali immanenti, potrà essere risolta nel quadro di una teoria generale, necessariamente evoluzionistica, che le spieghi, materialisticamente ma non meccanicisticamente, come un portato storico.
Ora, il problema che si pone è il seguente: se le strutture biologiche sono
es~enzialmente storiche, mentre non lo sono, non nello stesso senso, i fenomeni
chimico-fisici per mezzo dei quali tali strutture operano e si mantengono, è
possibile trovare delle leggi scientifiche valide per i processi storici oppure si
deve rinunciare alla individuazione di leggi storiche per spiegare il carattere prioritario del mondo biologico e cioè la determinazione storica della sua organizzazione?
Simpson non ha dubbi: « la ricerca di leggi storiche è sbagliata nel principio » in quanto « le leggi sono intrinseche, cioè a dire immanenti, nella natura
delle cose e astraggono completamente dalle strutture contingenti, benché agiscano sempre su tali strutture [... ] . Quindi se le leggi escludono i fattori implicati
in eventi concreti in modo inscindibile e significativo, esse non possono appartenere alla scienza storica ».
Ma è proprio quest'ultimo « se » che rivela una concezione di « legge scientifica » sostanzialmente ottocentesca, deterministica e immanentistica, una ricerca di leggi semplici e assolute che potessero permettere conclusioni inequivocabili, « certe ». Ma queEta ricerca dell'assoluto era stata già salutarmente
frustrata dalla crisi del meccanicismo fisico ottocentesco e dalla riflessione filoso~ca che ha accompagnato la nascita 'della fisica contemporanea. Le leggi che
la scienza ricerca non sono né «assolute» né «deterministiche» (non nel senso
laplaciano del termine), ma si continua a pensare che sia possibile dare una spiegazione «semplice» della natura o, meglio, di costruire una lineare immagine
fisica della realtà obiettiva.
D'altroPde, come scrive lo stesso Simpson, «la scienza storica può essere
definita come la determinazione di sequenze strutturali, la loro spiegazione e
la prova di tali sequenze e spiegazioni » dato che « la storia può essere definita
come una trasformazione strutturale nel tempo, una sequenza di eventi reali,
individuali, ma in relazione fra loro ». Ma è proprio la ricerca di tali relazioni che
costituisce il compito della ricerca scientifica e tali relazioni sono le leggi dei
processi storici.
Abbiamo già analizzato, nel paragrafo dedicato all'evoluzionismo, il dibattito fra determinismo (nel senso di ricerca di leggi assolute) e indeterminismo
(inteso come attribuzione al caso assoluto del manifest~rsi dei fenomeni biologici). Qui occorrerà solo ricordare come la riflessione teorica e filosofica moderna
«riconosce l'esistenza di una legalità anche nel caso» in quanto « l)na legge statistica è innanzitutto una legge, cioè uno strumento di previsione scientifica »
(Sandra Petruccioli). Si può quindi, anche in presenza di parametri storici e
128
www.scribd.com/Baruhk
La nuova biologia
statistici(nei quali svolgono un ruolo decisivo gli individui), parlare di determinismo.
Tale determinismo è tuttavia non rigido, non assoluto, mantiene dei caratteri indeterministici, che possono essere individuati in molti fenomeni biologici. Vi è innanzitutto la casu~lità di un evento rispetto al significato evolutivo di tale evento (le mutazioni, la deriva genetica, la segregazione sessuale ecc.).
Un altro elemento di indeterminazione è la «unicità di tutti gli enti agli alti
livelli di integrazione biologica » nella quale risiede « la maggiore differenza
fra la biologia e le scienze fisiche [...] . L'unicità è particolarmente caratteristica
della biologia evoluzionistica. È quasi impossibile avere per .i fenomeni unici
leggi generali come quelle che esistono nella meccanica classica» (Mayr). Come
scriveva auto biograficamente Max Delbriick, «un fisico maturo, confrontandosi
per la prima volta con i problemi della biologia, rimane sconvolto dalla circostanza che non ci sono "fenomeni assoluti" in biologia. Ogni cosa è limitata
nel tempo e nello spazio ».
A questo termine « unicità » vengono però dati due significati diversi,
come d'altronde si nota con una lettura più approfondita delle frasi sopra riportate. Il primo consiste nella affermazione della non ripetibilità dei fenomeni
biologici, ma questo non è un fenomeno tipico della biologia. Molti fenomeni
naturali sono infatti unici, cioè non ripetibili, ad esempio il big bang che secondo
la teoria cosmologica omonima avrebbe dato origine all'universo, e possono
produrre forme uniche, come nei fenomeni corrosivi o di costruzione delle
forme delle rocce calcaree per i quali si può a ragione parlare di processi di
morfogenesi. A questo significato di unicità si deve preferire, come suggerisce
giustamente Giuseppe Montalenti, il termine di individuo e individualità. È difatti l'individualizzazione, la separazione fra selj e not-selj, che costituisce il
passo decisivo dell'evoluzione prebiotica, la vera origine della vita. L'unicità
degli individui e la variabilità che vi è connessa sono inoltre il presupposto dell'evoluzione per selezione naturale.
Di nuovo incontriamo una differenza profonda fra i due tipi di spiegazione:
mentre la spiegazione funzionalistica ricerca la identità fra fenomeni diversi,
per scoprire, come diceva Schlick, « l'identico nel diverso », la spiegazione storico-evolutiva si basa proprio sulle differenze fra i sistemi e fra i fenomeni. Da
questa impostazione è tra l'altro derivato l'abbandono da parte della teoria
dell'evoluzione a cominciare da Darwin dell'idea di tipo platonico nel concetto
di specie.
Un'altra ragione per rifiutare in biologia il determinismo assoluto è la
estrema complessità del vivente, la sua « illimitata complessità strutturale e
dinamica» (W. Elsasser). L'equipotenzialità del comportamento omeostatico dell' organismo, la grande varietà di vie metaboliche potenzialmente utilizzabili,
la variabilità delle forme, la grande varietà delle relazioni interindividuali nei
gruppi ecc. rendono difficile l'opera di selezione di parametri costanti e ripetibili
www.scribd.com/Baruhk
La nuova biologia
negli esseri viventi, introducono altri elementi non eliminabili di indeterminazione. (Alle stesse conclusioni era d'altronde giunta la riflessione in cibernetica
sui sistemi autoregolantisi complessi.)
Infine, l'ultima ragione per l'indeterminazione è la comparsa di nuove qualità
ai più alti livelli di integrazione, che ripropone una vexata quaestio: l'emergenza
delle novità evolutive.
Non può essere negato che nel vivente esistono attualmente differenti livelli di organizzazione e che durante l'evoluzione si sia avuto un aumento graduale del livello di integrazione fra i diversi livelli. Ma come si sono verificati
i « passaggi »? Erano prevedi bili sulla base dei parametri preesistenti oppure
erano delle novità assolutamente imprevedibili? Siamo in sostanza di fronte
ad una nuova dicotomia, ad una contraddizione simile a quella fra determinismo
e indeterminismo. Si passa da affermazioni sulla assoluta imprevedibilità dei
salti evolutivi per cui « ogni passo, ogni livello di integrazione implica la comparsa
di nuove qualità, nuove relazioni che impongono la necessità di nuovi criteri di
spiegazione» (Montalenti) a posizioni, opposte, che affermano che « sarebbe forse
opportuno enunciare un " quarto principio " [della termodinamica] in base al quale, dati un lungo margine di tempo, i costituenti atomici necessari, la giusta temperatura, e un apporto costante di energia libera (preferibilmente variabile in un
ciclo diurno) si produrrà necessariamente un " bios " sempre più complesso.
Non possiamo più considerare l'evoluzione come una "colossale coincidenza"
ma come una legge naturale pienamente affermata» (A. G. Loewy-P. Siekevitz).
Questa contraddizione è «vissuta» apertamente da F. Jacob, il quale dopo aver
affermato che « gli esseri viventi si formano per associazione spontanea dei loro
elementi costitutivi » e che << la capacità di associarsi, di generare strutture sempre
più complesse e di riprodursi è intrinseca agli stessi elementi costitutivi della
materia » conclude che « ad ogni livello di organizzazione appaiono nuove caratteristiche e nuove proprietà logiche » senza riuscire a collegare, dialetticamente, i due aspetti.
L'errore di entrambe le posizioni estreme è che presuppongono una separazione fra le leggi che regolano i diversi livelli. Così si afferma che al livello
molecolare solo le leggi della chimica e della fisica svolgerebbero un ruolo,
ma questo, come abbiamo visto più volte, non è vero per gli organismi, nei quali
i processi chimico-fisici sono vincolati dai constraints imposti dal programma
genetico e quindi dalla storia evolutiva. Inoltre la spiegazione dell'emergenza
secondo la quale nei sistemi biologici valgono le leggi della fisica più altre leggi
emergenti è una pseudospiegazione. Se queste nuove leggi emergenti sono leggi
più generali di quelle fisiche, allora deve essere possibile ricavare queste ultime
dalle prime (come affermavano conseguentemente gli olisti). Se invece sono
anch'esse leggi di tipo fisico ma con diversi parametri e diversi campi di applicazione, si tratta allora di leggi fisiche a tutti gli effetti. Siamo in questo modo
www.scribd.com/Baruhk
La nuova biologia
ricondotti alla necessità di trovare una spiegazione unitaria della realtà, spiegando l'emergenza con le stesse leggi che spiegano l'assenza di fenomeni emergenti.
La posizione opposta limita le possibilità esplicative, finendo con l'ignorare
l'effettiva emergenza di nuove qualità e soprattutto le modalità con cui ciò avviene, ricadendo in una forma di determinismo assoluto che non è giustificato.
Il complesso e attraente schema proposto da François Jacob di una serie
di« integroni » infilati l'uno nell'altro, come in un gioco di scatole cinesi, resta
puramente descrittivo se non si riesce ad individuare la logica che guida il passaggio da un livello ad un altro. Crediamo che tale logica debba essere necessariamente di natura dialettica, per mantenere una relativa autonomia di un livellQ. rispetto agli altri, impedendo unà rigida separazione fra i livelli e salvaguardando il
carattere materialistica dell'imm'agine'Asica della natura. La separazione fra livelli è difatti concettualmente difficile in quanto innanzitutto non si è in grado
di definire cos'è un livello di integrazÌone. Come in effetti può venire misurato
l'aumento del grado di organizzazione? Quale parametro occorre isolare per
definirne la direzione? La tradizionale affermazione che l'evoluzione « va dal
semplice al complesso » è banale ed autoc~nttaddittoria al punto da essere priva
di significato. Nel passaggio da un insieme di cellule singole ad un organismo
multicellulare c'è certamente un aumento di complessità, nel senso che aumenta
il numero delle relazioni fra le cellule (anche se diminuisce il numero dei gradi
di libertà del sistema), ma ciò è accompagnato dall'instaurarsi di un comportamento coerente ed unitario e il sistema in quanto tale è più semplice. Allo stesso
modo una popolazione è più complessa di un semplice insieme di individui
(in quanto in una popolazione esistono delle relazioni tra individui, se non
altro quelle riproduttive), ma al tempo stesso, considerata dal punto di vista
evolutivo, è l'unità dell'evoluzione.
Se si rappresenta, molto schematicamente, l'evoluzione come una serie di
processi di divergenza e convergenza, cioè di acquisizione di molteplicità e
successiva selezione all'interno di tale molteplicità, la complessificazione avviene
in effetti, ma all'interno di una sola fase convergenza-divergenza: all'inizio e
alla fine vi è un comportamento unitario e coerente, frutto della selezione operata. Dalla molteplicità dei comportamenti individuali risulta la semplicità collettiva (si ricordino le analisi di Thom sulla morfogenesi, di Pattee sui constraints
gerarchici, di Lewontin sulla genetica evoluzionistica). Passando da un livello di descrizione ad un altro bisogna abbandonare l'analisi dettagliata dei
comportamenti individuali, costruendo una descrizione macroscopica più
utile nell'ambiente osservazionale in cui il sistema nel suo complesso è immerso.
Come avviene nel passaggio dalla descrizione del comportamento delle singole
molecole alla equazione generale dei gas PV = nRT, una maggiore semplicità
www.scribd.com/Baruhk
La nuova biologia
della descrizione si paga con la rinuncia di una trattazione deterministica a
favore di una trattazione probabilistica. Solo risolvendo tali difficoltà metodologiche si potrà giungere ad una teoria che spieghi materialisticamente l'esistenza dei diversi livelli di organizzazione mantenendo e giustificando la specificità dei singoli livelli, però solo relativa, frutto di un processo storico.
Un sistema biologico è determinato da diverse cause legate ai diversi livelli
di integrazione. In biologia, e specialmente, come abbiamo visto, nella teoria
dell'evoluzione, non è quasi mai possibile isolare una relazione uno-a-uno fra
causa ed effetto, ma piuttosto relazioni molti-uno. Se ci chiediamo, come fa
ad. esempio Mayr, qual è la causa della migrazione degli uccelli possiamo indicare: 1) una causa ecologica, la morte degli insetti per il sopraggiungere dell' inverno; 2) una causa genetica, la determinazione ereditaria di una risposta
innata a determinati stimoli ambientali; 3) una causa .fisiologica intrinseca, legata
ad esempio alla fotoperiodicità; 4) una causa .fisiologica estrinseca, come un improvviso sbalzo di temperatura. Ma ciò che è più importante,. tutte queste
cause non si escludono a vicenda e ognuna deve essere presa in ~o~siderazione
nella spiegazione di un dato fenomeno biologico. Ciò rende estremamente problematico dare una spiegazione completamente causale dei fenomeni biologici.
«Non sarebbe in effetti molto illuminante una spiegazione che affermasse: il
fenomeno A è causato da un complesso insieme di fattori interagenti uno dei
quali è B » (Mayr). Dalla molteplicità delle cause deriva anche la accentuazione
del carattere storico dei processi vitali; se infatti sono molte le cause l'unificazione fra di esse avviene grazie alla capacità del sistema di saper registrare ogni
singolo effetto, riproducendone l'« immagine » insieme al proprio patrimonio
genetico o, nelle fasi superiori dell'evoluzione, tramite la trasmissione culturale.
La causalità ha quindi in biologia un significato molto diverso da quello
che aveva nella meccanica classica, essenzialmente è non preditiva e solo in alcuni casi statisticamente preditiva. D'altronde la moderna riflessione metodologica ha mostrato che la causalità della meccanica classica è solo una forma
particolare di causalità e non necessariamente la pre.dicibilità deve essere una componente della causalità. Tale incapacità preditiva è evidente nella teoria della
evoluzione: salvo forse in casi assolutamente eccezionali (come ad esempio in una
colonia batterica che cresce in un terreno di cultura le cui condizioni sono strettamente controllate) non si è in grado di fare previsioni complete sul corso
futuro dell'evoluzione. «L'evoluzione,» scrive Simpson, «potrebbe essere
determinata - cioè completamente causata in modo materialistico - senza essere predeterminata fin dal principio riguardo al corso che doveva seguire. Una
equazione può avere molteplici soluzioni, e tuttavia ogni soluzione è determinata dall'equazione stessa. Allora qualsiasi legge o piuttosto principio determinante dell'evoluzione non riuscirebbe ad ottenere un pieno valore di previsione.»
www.scribd.com/Baruhk
La nuova biologia
Vi sono in effetti diversi tipi di previsione possibili in biologia, a dimostrarne ancora una volta il carattere non univoco, ma non per questo meno
scientificamente valido. Possiamo fare previsioni sullo svolgersi dei fenomeni
chimico-fisici che saranno - entro certi limiti, data la costante presenza di
un « piano » - sostanzialmente deterministici, nel senso che questo ha nella
fisica. È possibile fare previsioni sul futuro di una data nicchia ecologica, con
un alto grado di indeterminazione; ma è impossibile farne sul corso futuro
dell'evoluzione dato che «linee parallele indipendenti esposte alle stesse pressioni selettive risponderanno con differ.enti velocità e con differenti effetti correlati, nessuno dei quali predicibile » (Mayr).
Il determinismo assoluto è quindi non soltanto un obiettivo irraggiungibile,
ma un obiettivo falso e si può ripetere con Epicuro che « il dare di questi fatti
una sola univoca spiegazione è agire da folli; il dare una e una sola spiegazione .
è degno di coloro che vogliono stupire il volgo ».
Ciò di cui abbiamo bisogno per comprendere i fenomeni biologici e quelli
comportamentali (compreso il comportamento razionale dell'uomo) è qualcosa
di natura intermedia tra il caso perfetto ed il determinismo assoluto~ « qualcosa
di intermedio tra le nuvole perfette ed i perfetti orologi» (Popper). Ma, ancora,
questo qualcosa di intermedio non può essere una spiegazione ad hoc che stia
realmente « a metà strada » fra i due estremi. È necessario invece integrare in
una concezione unitaria ma dialettica entrambi gli aspetti, il caso e la necessità,
considerandoli entrambi essenziali alla comprensione del mondo.
Siamo così ricondotti alla problematica iniziale; si deve notare la presenza
di due spiegazioni alternative del vivente e ciò dà origine ad una contraddizione
epistemologica. Tale contraddizione veniva risolta dalle opposte tendenze dell'integrismo e del riduzionismo, eliminando la validità di una delle spiegazioni o
considerandola derivata dall'altra e quindi ad essa riconducibile. Si potrebbe
facilmente mostrare che tale problematica è il rinnovarsi in forma moderna della
vecchia contrapposizione fra meccanicismo e vitalismo, fra riduzionismo e antiriduzionismo.
Come ha mostrato Nagel, vi sono due tipi di riduzione, uno fisico o sostanziale e l'altro logico. La prima forma di riduzionismo cerca di analizzare un
sistema nelle sue parti costituenti e di descriverne il comportamento mediante
le leggi valide per le parti, per i livelli inferiori di organizzazione. La riduzione
logica consiste invece nel derivare gli assiomi più generali della teoria da quelli
di un'altra teoria, rispettando precise regole metodologiche (condizioni di derivabilità e condizioni di connettibilità). Ora, i tentativi di riduzione operati
in biologia, che abbiamo descritto più volte, sono sostanziali e non logici. Ma
una riduzione sostanziale non è in grado di render conto della spiegazione evoluzionistica ed anzi la presuppone. 1 Di qui l'impossibilità anche teorica e non
1
Si deve comunque notare che nella stessa biologia molecolare, spesso considerata il pro-
www.scribd.com/Baruhk
La nuova biologia
soltanto « per ignoranza » di una riduzione sostanziale della biologia alla chimicofisica, mentre resta tuttora aperto, e potrà essere affrontato solo quando le scienze
biologiche avranno raggiunto un grado adeguato di assiomatizzazione, il problema
della riduzione logica della biologia alla fisica, o, meglio, della loro unificazione
in una teoria più generale della fisica attuale.
« È un errore, » scrive Nagel, « supporre che l'unica alternativa al meccanicismo sia il vitalismo: c'è una genuina alternativa in biologia sia al vitalismo
[ ... ] che al meccanicismo e cioè lo sviluppo di un sistema di spiegazione che
utilizzi concetti e relazioni né definite nelle né derivate dalle scienze fisiche. »
Il riduzionismo rappresenta un valido metodo di ricerca, euristicamente fruttuoso, in quanto permette di saggiare la validità di proposizioni generali e la
capacità esplicativa di una teoria in un campo più vasto di quello in cui inizialmente la teoria si era sviluppata. Il metodo dei modelli analogici si basa appunto
su tale riduzionismo metodologico ed ha permesso progressi importanti sia
in fisica che in biologia. Tuttavia occorre distinguere tra riduzionismo metodologico e riduzionismo filosofico. Quest'ultimo, nota Popper, « è dovuto al
desiderio di ridurre tutto ad una spiegazione definitiva (ultimate) in termini di
essenza e di sostanza, cioè ad una spiegazione che non è capace né ha la necessità di ulteriori spiegazioni [... ] . Ma può facilmente essere mostrato che la conoscenza dell'universo, se questa .conoscenza stessa è p.l}t:te dell'universo, come
in effetti è, deve essere incompletabile. » L'esistenza·<li"un modello nel cervello,
che non riflette passivamente la realtà « obiettiva » ma costruisce un isomorfismo fra il modello e la realtà,~ la prova dell'esistenza di una« materia» esterna
ed indipendente dal soggetto pensante, ma suggerisce anche che il modello
stesso è parte di questa realtà e si modifica con la conoscenza stessa del mondo
esterno. La conoscenza scientifica, e la conoscenza in genere, è incompleta perché per essere completa dovrebbe essere in grado di spiegare se stessa. Si tratta
dello stesso tipo di paradosso in cui cadono quanti non riconoscono la relativa
autonomia della mente dal cervello, l'esistenza fra di essi di un legame dialettico, essenzialmente dinamico e storico. Quindi, conclude Popper, « pensare che
il metodo riduzionistico possa raggiungere una riduzione completa è, mi sembra,
un grave errore».
Una teoria della conoscenza, come già suggerito da Lenin quando la .ricerca neurobiologica era agli inizi, dovrà basarsi sulla conoscenza scientifica dei
processi mentali, delle basi biologiche del pensiero: « l'analisi del processo conoscitivo nella sua completezza è la vera base del realismo e ci fornisce argomenti inconfutabili contro il soggettivismo e il relativismo ».
Crediamo tuttavia indispensabile abbandonare la categoria popperiana di incompletezza, che ricade in un ambito idealistico delineando una concezione della
gramma di ricerca sostanziale riduzionistico per
eccellenza, il riduzionismo rappresenta un aspetto
secondario, come si è già visto in precedenza,
ad esempio in F. Jacob.
134
www.scribd.com/Baruhk
La nuova biologia
scienza che cresce su se stessa, ed assumere invece la categoria leniniana chiaramente materialistica dell'approfondimento, in quanto tale categoria impliéa che
l'incompletezza della teoria non è solo formale, ma viene riferita alla inesauribilità
della materia il cui carattere dinamico e storico non permette una spiegazione
completa, una riduzione assoluta. Lo stesso Popper, d'altronde, ha introdotto
da diversi anni la categoria di verisimilitudine che, anche se meno ricca e meno
problematica di quella di approfondimento, ne condivide molte delle premesse
e delle conseguenze euristiche.
Di fronte alla reale esistenza in biologia di due tipi completamente diversi
di spiegazione scientifica, da parte di molti scienziati e filosofi è stata suggerita,
sulla scia della problematica a prima vista simile della fisica atomica, l'ipotesi
di una complementarità fra le due spiegazioni, ipotesi d'altronde apertamente sostenuta da Bohr e dal suo allievo Max Delbriick. « I fenomeni biologici, « scrive
ad esempio Dobzhansky, «hanno aspetti cartesiani o riduzionistici e aspetti
darwinìani o composizionistici. » Le due spiegazioni « non sono solo compatibili, ma egualmente necessarie, per la buona ragione che sono complementari».
Secondo Simpson, « è altrettanto esplicativo ed essenziale agli effetti del sapere
dire che gli enzimi digeriscono la carne perché questo processo permette al leone
di sopravvivere e di perpetuare la popolazione di cui fa parte, quanto dire che
il processo digestivo avviene a causa di reazioni chimiche specifiche fra gli enzimi del leone e i grassi e le proteine della zebra, e così via. Una direzione della
spiegazione scende lungo la scala [... ] l'altra invece sale».
Si deve notare, ancora una volta, la confusione fra aspetti sostanziali ed
aspetti logici. Da una parte si sostiene l'effettiva presenza nella realtà di fenomeni
cartesiani e darwiniani, dall'altra che i due tipi di spiegazioni sono due descrizioni
diverse degli stessi fenomeni, visti dall'«alto» e dal« basso», un argomento questo
ultimo che abbiamo già incontrato e criticato a proposito dei rapporti fra il
biologico e lo psicologico.
A meno che non lo si usi in senso generale, per indicare situazioni di presenza contemporanea di aspetti fra loro opposti ma che concorrono alla stabilità del 'sistema- come quando si parla di complementarità fra le due catene
polinucleotidiche della doppia elica del DNA - l'uso del termine complementarità in analogia con il principio omonimo di Bohr è fuorviante in quanto
limita fortemente la capacità esplicativa o il contenuto empirico della teoria ed è
euristicamente dannoso, dato che si presenta come una tipica spiegazione ad hoc
e sottintende l'impossibilità di giungere ad una spiegazione unitaria del reale.
La complementarità in fisica indica « la relazione logica, di un tipo completamente nuovo, tra concetti che sono reciprocamente escludentesi e che perciò
non possono essere considerati contemporaneamente perché ciò porterebbe ad
errori logici, ma che nondimeno devono essere usati entrambi per dare una
descrizione completa della situazione» (L. Rosenfeld). Si tratta in sostanza, e
135
www.scribd.com/Baruhk
La nuova biologia
molto schematicamente, di inserire all'interno di una stessa teoria, di uno stesso
linguaggio, di uno stesso « programma di ricerca » nel senso lakatosiano, concetti che non possono essere definiti contemporaneamente e che quindi impongono delle limitazioni alla definibilità di alcune variabili coniugate, in conseguenza della necessità di fissare le condizioni entro cui il fenomeno viene osservato e del fatto che continuiamo ad usare il linguaggio della fisica ordinaria
anche per la microfisica.
Al contrario, in biologia la complementarità si dovrebbe avere fra due sistemi
teorici autonomi, che presuppongono due concetti di causa totalmente differenti,
fra una spiegazione fisica e una spiegazione biologica, fra due « programmi di ricerca »
divergenti. Tra l'altro, per riprendere l'analisi di Rosenfeld, come è possibile
individuare gli eventuali « errori logici » . se i concetti « complementari » appartengono a due teorie diverse? Affermare la complementarità fra la biologia
funzionale e la biologia evoluzionistica significa in sostanza risolvere il problema
della loro unificazione dichiarandolo già risolto.l
Il compito di una sempre più necessaria biologia teorica sarà quello di
superare questa falsa soluzione, impegnandosi nella costruzione di una spiegazione unitaria, monistica, del mondo vivente. Ciò potrà essere fatto, e nel
corso della esposizione abbiamo cercato di individuare alcune linee di ricerca
che si muovono in questa direzione, collegando in chiave storica le due spiegazioni.
Tale teoria unitaria dovrà essere una teoria fisica, nel senso più volt~ indicato;
non esiste una « materia vivente » per la quale dovrebbero valere delle leggi
non fisiche, ma solo dei « sistemi viventi» (Monod). La ragione dell'attuale
contraddizione teorica e sostanziale è da ricercarsi nei processi storici, ma non
per questo non fisici e non materiali, che hanno permesso ad alcuni sistemi di
evolvere verso una sempre maggiore organizzazione e ad altri sistemi simili
ai precedenti e soggetti alle stesse leggi di evolvere verso una scomparsa dell' organizzazione.
r Nonostante quanto detto, crediamo che
un corretto uso analogico della complementarità
possa essere euristicamente fruttuoso per le scienze
biologiche. Si può infatti interpretare in termini
complementari il rapporto fra struttura e funzione a livello molecolare. Fra struttura (organizzazione spaziale) e funzione (modificazione nel
tempo della struttura) si instaura un dualismo
simile a quello onda-corpuscolo in fisica. Anche qui tale dualismo è dovuto ad una impossibilità di determinare contemporaneamente entrambi gli aspetti del fenomeno. L'analisi delle
funzioni non può mai essere separata da quella
delle strutture in quanto la logica interna di un
sistema biologico nasce dalla dialettica fra struttura e funzione. A livello delle più piccole strutture morfologiche della cellula (lamine, tubuli
ecc.) si osserva una variazione collegata delle
proprietà fisiologiche e di quelle strutturali. Fissando adatte condizioni sperimentali si può ottenere l'una o l'altra descrizione, ma probabilmente non entrambe allo stesso tempo. Per studiare una struttura infatti occorre cristallizzarla,
rendendola quindi inefficace e gli studi di cinetica
non possono dare alcuna informazione sulle morfologie implicate nel processo. Anche a questo
proposito tuttavia, come in fisica, la necessità
di fissare le condizioni in cui viene osservato il
fenomeno implica l'uso di concetti come struttura, funzione, forma, ma, come scrive S. Petruccioli a proposito della complementarità in
meccanica quantistica, « non è possibile assegnare
ad essi un significato coerente con l'esigenza di
salvaguardare ad ogni costo una immagine immediata e intuitiva della realtà».
www.scribd.com/Baruhk
La nuova biologia
Lo sforzo dell'integrismo e del riduzionismo è stato ed è quello di utilizzare principi fisici o biologici. Ma una teoria della biologia dovrà reggere alla
« tensione della dialettica » e saper utilizzare principi fisici e biologici. Ciò potrà
comportare una visione nuova della logica che regola i rapporti fra assiomi
generali e proposizioni particolari, soprattutto gli enunciati osservativi. Finora
tali rapporti sono stati sempre considerati come una semplice e meccanica applicazione dei principi generali ai diversi settori inquadrati dalla teoria. Ma nel
passaggio dal generale al particolare vi è al tempo stesso una perdita di generalità
e un acquisto di specificità che non possono non modificare lo stesso processo
di applicazione. La flessibilità delle categorie, sinora utilizzata solo per spiegare
il passaggio storico fra una teoria ed un'altra, può essere utilizzata, a nostro
parere, all'interno di una stessa teoria per permettere a questa di spiegare la ricchezza e l'inesauribile profondità del reale, salvaguardando l'unità dell'immagine
fisica del mondo.
Nella costruzione di tale teoria si potranno avere anche profonde trasformazioni dei principi generali della scienza. Ma d'altronde, se è stato necessario
rifondare le basi teoriche della scienza, trovare relazioni logiche di tipo completamente nuovo, elaborare concetti « inauditi », un nuovo principio di causalità
(più generale del precedente) per poter conoscere lo straordinariamente grande
e lo straordinariamente piccolo, perché non potrebbe essere lo stesso per lo
straordinariamente « complesso »?
VIII· OSSERVAZIONI CONCLUSIVE
Con la biologia contemporanea si completa la trasformazione dell'immagine
dell'uomo e del suo posto nella natura iniziata da Darwin e giustamente considerata una nuova rivoluzione copernicana. Come Copernico e Galileo avevano
tolto la terra dal centro dell'universo, così il darwinismo ha tolto l'uomo dal
culmine della natura, ricollocandolo nella natura, rifiutando materialisticamente,
qualsiasi « disegno sovrannaturale » che secondo le vecchie teorie ortogenetiche
avrebbe dovuto condurre l'evoluzione necessariamente all'uomo, suo fine.
Le differenze fra l'uomo e il resto del mondo organico non sono assolute, ma
relative, sono differenze di grado (ma quanto importanti!) frutto di un processo
dialettico di continuità-discontinuità. La biochimica e soprattutto la biologia molecolare hanno completato la dissoluzione delle « differenze assolute » dimostrando
che l'uomo è del tutto simile, nei suoi processi fondamentali, al resto del mondo
organico, dal quale è venuto differenziandosi come un prodotto storico, frutto
del caso e della necessità, che supera ma· non rinnega la propria base materiale.
La forte critica all'antropocentrismo che è sottesa a queste posizioni è una
componente essenziale di un atteggiamento razionale e materialistico. Come
scrive Sebastiano Timpanaro, i risultati della ricerca scientifica ci insegnano
www.scribd.com/Baruhk
La nuova biologia
« che l'uomo occupa un posto marginale nell'universo, che per lunghissimo tempo
la vita non c'è stata sulla terra [... ] che il pensiero umano è condizionato da
determinate strutture anatomico-fisiologiche ». Da ciò discende che la felicità
dell'uomo non può consistere nella liberazione dell'uomo dalla natura, ma nella
liberazione della natura umana, al tempo stesso biologica e culturale.
Si è scritto (Canguillhem) che la biolog& moderna costituisce una nuova
« filosofia della vita » ed in effetti le riflessioni che ci provengono dall'evoluzionismo, dalla biologia molecolare, dall'etologia e dalla neurobiologia, e da altre
discipline biologiche, si pongono come risposte di tipo anche filosofico oltre
che scientifico alle tradizionali domande sulla natura umana, sui fondamenti
del pensiero e della conoscenza, sulla dimensione etica ed estetica. Possiamo
accettare questa tesi, ma solo nella misura in cui sollecita la costruzione di una
filosofia come visione del mondo basata sui risultati della conoscenza scientifica.
Le scienze dell'evoluzione, che vanno sempre più intrecciandosi con le
cosiddette scienze umane, esaltano il carattere storico della natura e dell'uomo.
Il mutamento e lo sviluppo sono diveut'"ati caratteristiche dell'intera natura organica e i suggerimenti che provengono dalla biologia, oltreché dalla cosmologia, allargano tale storicità a tutta la materia. Con Condorcet la storia era
entrata nella società, con Darwin definitivamente nella biologia, la scienza moderna giunge a considerare storico tutto il reale.
www.scribd.com/Baruhk
CAPITOLO TERZO
La logica nel ventesimo secolo (II)
DI CORRADO MANGIONE
La logica era una volta l'arte di trarre conclusioni:
oggi è diventata invece l'arte di astenersi dalle conclusioni, perché si è visto che le conseguenze che
noi ci sentiamo naturalmente portati a trarrè non
sono quasi mai valide. Concludo perciò che la logica dovrebbe essere insegnata nelle scuole allo
scopo di insegnare agli uomini a non ragionare:
giacché, se ragionano, ragionano quasi certamente
in maniera sbagliata.
(B. Russell, Saggi scettici)
Il presente capitolo viene scritto a quattro anni circa dal quinto del volume precedente. Malgrado la ricerca logica abbia mantenuto, e se possibile
accentuato, la già allora riconosciuta tendenza ad ampliare ed approfondire massicciamente i suoi campi di applicazione e di analisi, non riteniamo si possa sostenere che in questo breve periodo si siano avuti innovazioni o sviluppi tali
da costituire « nuovi » poli di indagine significativa. Ovviamente progressi, risultati e proposte interessanti non sono mancati; ma ciò che quasi certamente ha
subito il mutamento più sensibile è stato proprio il mod<,> di vedere dell'autore,
la sua valutazione rispetto a tutta una serie di argomenti e di problematiche che
sono passati in primo piano, o comunque hanno acquisito ai suoi occhi un'importanza che allora non veniva loro attribuita. Inoltre, alcuni problemi e approcci, ben presenti già all'inizio del 1972., non avevano ancora in quell'epoca
(e questa volta non solo secondo la valutazione dell'autore) quella portata che
sono via via venuti assumendo in questi ultimi anni.
Ne consegue che, a rigore, lo scopo e il senso di questo capitolo è più quello di
«integrare» che non quello di« aggiornare» il quinto del volume precedente: accanto cioè alla presentazione di eventuali nuovi risultati rilevanti per campi già.toccati
in quel capitolo si tratterà di colmarne eventuali lacune -di informazione o di valutazione - sì da costituire un disegno abbastanza completo della ricerca logica
odierna, che ci consenta di indicarne con riferimenti concreti alcune linee di
tendenza generali. Sono state così inserite brevi considerazioni relative all' entai!ment, alla quantum logic, alla logica libera, alla logica combinatoria, alla teoria
della decisione, ecc.; la parte più cospicua del capitolo sarà anzi dedicata alla
139
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
trattazione categoriale della logica che, pur iniziata attorno alla metà degli anni
sessanta, ha registrato proprio in questi ultimi anni una cospicua concentrazione
della ricerca e l'ottenimento di risultati assai notevoli.
La struttura del capitolo sarà la seguente. Dedicheremo la prima parte a una
rassegna degli sviluppi più recenti delle logiche « non classiche » con l'intento
preminente di mettere in luce la complessa rete di connessioni che esse stabiliscono con discipline particolari quali la fisica, la linguistica, la teoria del diritto,
o con alcune questioni tradizionali dell'indagine filosofica, ecc. Quali che siano
le opinioni sulla rilevanza generale degli studi su queste logiche, è innegabile
che essi costituiscano una parte non piccola delle ricerche più recenti. Il nostro
obiettivo è stato sostanzialmente quello di fornire elementi per un orientamento
in, ed una valutazione di,_ questa problematica. È opportuno avvertire esplicitamente che il diverso «peso » dato agli argomenti trattati in questa prima parte
non va interpretato come indice della maggior o minor importanza attribuita
agli argomenti stessi, talora solo accennati: l'interesse è rivolto verso l'indicazione di possibili sviluppi, piuttosto che verso la trattazione esauriente di campi
già acquisiti alla ricerca.
Se la prima parte dà un'idea dell'ampliarsi del raggio di applicazione della
ricerca logica verso nuove direzioni, è certamente uno scopo della seconda, dedicata agli sviluppi della problematica « classica » dei fondamenti, quello di aggiornare sui risultati più recenti ottenuti nel solco delle indagini trattate nel capitolo v
del volume ottavo. Ma forse più che di questo si tratta qui di riprendere quei temi
mettendone in luce il significato complessivo e le motivazioni di fondo. Ci è sembrato utile porre l'accento su questo secondo aspetto sostanzialmente per due ragioni concomitanti: da una parte infatti le ricerche oggi in corso in questa direzione presuppongono sempre più nozioni e risultati estremamente particolari e
specialistici; dall'altra tuttavia ci sembra di poter individuare un grosso tentativo
di ripensamento delle idee fondamentali e dei collegamenti fra di esse. Pensiamo
ad esempio in particolare al risorgere dell'interesse per assiomatizzazioni alternative della teoria degli insiemi, allo sviluppo della teoria dei combinatori, alla
proposta di una teoria dei modelli per le scienze empiriche, ecc. In questa direzione un posto particolare ci sembra occupino le indagini sulla logica astratta
iniziate da Per Lindstrom sul finire degli anni sessanta: a nostro parere non si
tratta infatti di generalizzazioni fini a se stesse, ma di problemi che hanno un
significato filosofico generale. Al fondo di queste ricerche sta il tentativo di enucleare gli aspetti caratteristici della logica elementare tenendo conto di una lunga,
ormai quasi centenaria, sperimentazione concreta. Come ampiamente sottolineato
nel capitolo v del succitato volume, l'elaborazione della semantica e della sintassi della logica elementare è stata la vera chiave di volta per lo sviluppo dell'intera problematica logica. Questo tentativo di domandarsi che cosa c'è di così
specifico nella logica elementare che la rende specialmente atta a porre in luce
140
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
aspetti profondi della pratica matematica (e non solo di essa) porta allora ad un
interrogativo più generale che riguarda il ruolo stesso che l'enucleazione di
linguaggi formali ha nell'analisi della articolazione delle teorie. Ricerche di questo tipo, come quelle analoghe sulla generalizzazione della ricorsività, sui nuovi
sviluppi della teoria della dimostrazione, ecc. testimoniano una nuova e diversa
consapevolezza - da parte della logica contemporanea - della necessità di un
contatto più diretto con la pratica scientifica concreta, e non è un caso che ciò
si manifesti proprio nel tentativo di generalizzare i concetti classici: questa ricerca di generalità è in ultima istanza una valutazione di ciò che- nel bagaglio
dei concetti logici via via enucleati - è fondamentale o meno e quindi eventualmente estendibile a nuovi campi della pratica.
C'è un altro aspetto di questa «conversione alla pratica» che non va dimenticato ed è il progressivo allontanamento - che proprio la ricerca logica
concreta ha determinato - da una tradizionale concezione a priori della logica
stessa e dei suoi compiti. Anzi, a nostro parere è proprio questo l'aspetto più
vistoso e anche filosoficamente più rilevante della ricerca logica di questi ultimi
anni; questo, ben inteso, anche se si possono avere riserve su particolari sviluppi
in questa direzione. Il riproporre con sempre maggior insistenza da parte di
alcuni, filosofi e no, della necessità di una « logica filosofica » verrebbe allora
quasi ad essere un epifenomeno del precedente, quasi cioè si volesse restaurare
un'unità« filosofica» che si basa su assunzioni a priori, esterne alla reale tensione
filosofica che la pratica scientifica presenta nel suo operare quotidiano. Ma avremo
occasione di tornare sull'argomento.
Il filone di ricerca che per certi aspetti manifesta più di ogni altro questo
carattere di non apriorismo e di contatto più diretto con la pratica scientifica è
dato dall'approccio alla logica e ai fondamenti della matematica iniziato con i
lavori di F. William Lawvere attorno alla metà degli anni sessanta. Il «programma» di Lawvere -cui è dedicata la terza parte del capitolo -prende le
mosse dalla teoria delle categorie e dagli sviluppi recenti della geometria algebrica per giungere a u,na ristrutturazione globale dell'analisi logica dei fondamenti
della matematica. Va notato subito in modo esplicito che questo programma si
muove, nella concezione di Lawvere, all'interno di un contesto di portata filosofica più generale, all'insegna cioè della possibilità di una fondazione materialista della matematica (e non solo di essa)._ Il discorso di Lawvere non è cioè
una pura e semplice applicazione dei concetti della teoria delle categorie alla pro·
blematica logica, ma costituisce un vero e proprio programma che utilizza questi
strumenti a partire da un'analisi diretta della pratica matematica. 1
I Con ciò vogliamo ribadire la sostanziale
differenza che a nostro parere esiste fra la teoria
delle categorie in quanto teoria matematica e la
considerazione della stessa nel suo ruolo fonda-
zionale. Ci sembra opportuno sottolineare questo
punto in quanto spesso, nei testi ormai numerosi
dedicati alla teoria delle categorie, vengono presentati aspetti del lavoro di Lawvere senza met-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Il lettore noterà certamente lo «squilibrio» fra questa parte e le altre. Le ragioni di questa diversa rilevanza data ai vari argomenti con la decisa preminenza
della trattazione categoriale sono molteplici, ma possono essere cosl riassunte:
1) per i motivi che, ci auguriamo, risulteranno chiari in seguito, riteniamo
di poter sostenere che la presentazione categoriale della logica costituisca il fenomeno di gran lupga più interessante e significativo di questi ultimi anni, anche per le implicazioni filosofiche generali sopra accennate;
z) a differenza di quanto avviene per gli altri argomenti discussi nelle pagine seguenti - e per i quali il capitolo v del volume precedente costituisce il
naturale presupposto - la trattazione della logica nella teoria delle categorie
non aveva per così dire precedenti. Il problema era allora quello di mettere il
lettore in condizione di seguire, almeno in linea di principio, questo nuovo discorso,
e ciò ha comportato una preventiva presentazione dello « spazio ambiente »,
ossia appunto di alcuni elementi indispensabili della stessa teoria delle categorie.
È opportuno sottolineare - per questa terza parte soprattutto, ma il discorso vale anche per le precedenti - che l'intento di dare un panorama il più
completo possibile, almeno nei suoi tratti essenziali, di quelle che sono le linee
di tendenza della ricerca logica attuale, ci ha costretto a semplificazioni, eliminazioni e approssimazioni non di rado drastiche, delle quali siamo ben consci e di
cui ci sembra doveroso avvertire il lettore. Specialmente per quanto riguarda
la terza parte la nostra trattazione dà solo un'idea della ricchezza concettuale
di queste ricerche e vuole avere fra i suoi scopi dichiarati proprio quello di invitare il lettore a consultare la ormai vasta letteratura sull'argomento.
Si presenta qui in modo naturale un problema di carattere generale che riguarda l'ormai cronica questione della lettura, da parte del non specialista, del
generico «uomo di cultura», di un capitolo di questo genere (o comunque di
un qualunque scritto che tratti di problematiche genericamente definite di storia
e Jo filosofia della logica o della matematica). Non abbiamo alcuna difficoltà ad
ammettere che la lettura di uno scritto del genere - e quindi anche del nostro non sia fra le più agevoli. Ma da una parte- ci sia consentito- questo si verifica per qualunque discorso che voglia seriamente toccare punti salienti e profondi di ogni disciplina; dall'altra, la difficoltà «aggiuntiva» che sorge quando
si ha a che fare con queste specifiche discipline non è tanto a nostro parere una
carenza personale del singolo lettore, quanto la testimonianza di una più generale deficienza culturale, particolarmente acuta nel nostro ambiente sociale. Ma
non è questa purtroppo la sede per affrontare tale questione.
Chiuderanno il capitolo alcune osservazioni nelle quali esporremo qualche
considerazione di carattere generale che i temi trattati ci sembrano suggerire e
giustificare.
terne in evidenza il ruolo che essi hanno nel
contesto di un programma fondazionale, con-
fondendoli quindi con pure e semplici applicazioni.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Per finire, due avvertenze «tipografiche». Per quanto riguarda il simbolismo ci siamo in generale attenuti alle convenzioni del capitolo v del volume ottavo con un'unica eccezione sistematica costituita dall'impiego, in generale, del simbolo « :::> » per l'implicazione in luogo della freccia «---+ » ivi usata.
Ciò è dovuto al fatto che, come si vedrà, la freccia viene ormai universalmente
impiegata per indicare funzioni o comunque morfismi e ciò avrebbe potuto procurare grosse confusioni nella terza parte. Inoltre, per non spezzare troppo frequentemente il corso dell'esposizione, abbiamo qui preferito non citare direttamente i lavori cui ci si riferisce, richiamandoli eventualmente solo con la data, e
rimandando per la loro elencazione alla bibliografia posta al fondo del volume.
I • LOGICHE NON CLASSICHE: ALTERNATIVE, GENERALIZZAZIONI
E NUOVE APPLICAZIONI
Le ricerche nell'ambito della logica dell'intensione non hanno perduto lo
slancio inizialmente ricevuto dalle scoperte di Saul Kripke e di quanti hanno
contribuito, intorno al 196o, a elaborare la semantica modale. Si è assistito anzi
al proliferare di applicazioni nuove - e fino a poco tempo fa impensabili delle tecniche di Kripke a settori della logica finora esplorati in via informale o
intuitiva; come pure si sono moltiplicate le applicazioni ad altre scienze.
Questa tendenza si accompagna all'altra, altrettanto viva, a non disperdersi
nella ricerca di risultati parziali e relativi a singoli sistemi, per tentare uno studio
organico e generale della pluralità (sempre più difficile da dominare) dei vari
sistemi modali. Questa esigenza compare non solo in ricerche di ampio respiro
come i tre volumi di Krister Segerberg del 1971, ma anche in -contributi più
limitati come quello di Bengt Hansson e Peter Gardenfors del 1973. In questo
ultimo lavoro gli autori cercano di mettere ordine nello spettro dei sistemi modali
imparentati ai sistemi di Lewis analizzando la potenza della semantica di Kripke
in relazione alla cosiddetta « semantica di intorni » (neighbourhood semantics) elaborata da Dana Scott e Richard Merritt Montague e alla semantica booleana.
I due autori tentano un'analisi dei sistemi modali utilizzando le nozioni di ampiezza e di profondità di un determinato tipo di struttura intensionale (cioè di
una coppia < G, R > dove G è un insieme di mondi possibili e R una relazione di
accessibilità): ampiezza viene detta la misura dell'intervallo tra la logica più debole e la logica più forte tra quelle che possono essere determinate 1 da almeno
una struttura del tipo in questione; profondità è detta invece la misura del numero
delle logiche tra i due estremi che possono essere determinate <la tali strutture.
I Si dice che una logica è determinata da
un tipo di strutture quando i suoi teoremi coincidono con l'insieme delle formule valide rispetto
alle interpretazioni che hanno come supporto
strutture del tipo dato. Ad esempio il sistema S4
di Lewis è determinato dalle strutture di K,i:ipke
< X, R > dove R è riflessiva e transitiva.
143
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
La nozione di misura che qui interviene non va tuttavia intesa in senso metrico
e quantitativo: si tratta pertanto, come gli stessi autori ammettono, più di un
programma di lavoro che di una ricerca ·sistematica, anche se in questi limiti vengono dimostrati risultati molto interessanti, per esempio che la formulazione
abituale della semantica di intorni è equivalente a una trattazione estensionale
degli operatori modali.
Risultati particolari di estremo interesse non sono tuttavia mancati. I più
importanti sono probabilmente i teoremi di incompletezza dimostrati indipendentemente da Kit Fine e Steve K. Thomason nel I974· Si è così provato, sia
pure con un certo artificio, che la semantica kripkiana non è tale da convalidare
banalmente tutte le logiche cosiddette « normali » (cioè dotate della regola
1-- d-+ 1-- L d non ristretta, dove L è l'operatore di necessità) come invece
potevano far pensare risultati come quello ottenuto nel I966 da R.A. Bull, in
virtù del quale tutte le estensioni normali di S4.3 (interpretabile temporalmente)
sono decidibili.
Nel campo delle modalità logiche è stata raggiunta per la prima volta da
Alasdair Urquhart e Richard Routley indipendentemente, nel I972, una tratta~
zione semantica adeguata della logica dell'implicitazione (entailment) mediante
l'impiego di una relazione di accessibilità ternaria. Come è noto il problema dell'entailment è quello di fornire un'analisi semantica e sintattica della relazione di
implicazione in uso nel linguaggio comune. Il problema non è linguistico, ma
ha come obiettivo piuttosto l'individuazione del nucleo minimale di proprietà
che ogni nozione di implicazione deve avere. L'idea di fondo è che un enunciato
del tipo d ::J 81 deve essere vero solo quando d è rilevante nella deduzione di
81, nel senso che d deve essere usato effettivamente in qualche deduzione di 81.
I vari sistemi di implicazione stretta presentati allo scopo da Clarence
Irving Lewis a partire dal I9I8 - e basati come si è visto sul concetto di possibilità - partono dall'idea che perché d implichi strettamente 81 deve esistere
un legame concettuale fra i due enunciati. Come sappiamo però nessuno dei
sistemi di Lewis è completamente adeguato allo scopo: si ripresentano in essi
- questa volta ovviamente per l'implicazione stretta - paradossi analoghi a
quelli dell'implicazione materiale dei calcoli classici. Discorso analogo vale per
l'implicazione nei calcoli intuizionisti che è ancora troppo « debole » in questo
senso. Fu questa situazione che spinse prima Alonzo Church nel I 9 5 I e poi
Wilhem Ackermann nel 19 56 a formulare calcoli formali per una implicazione
forte. Queste ricerche culminarono con i sistemi per una implicazione rilevante
presentati da Alan Ross Anderson e Nuel D. Belnap jr. a partire dal I 9 58, e che
si basavano su modificazioni del sistema di Ackermann. Queste logiche ponevano come centrale il collegamento fra dimostrabilità e implicazione sopra indicato, sicché per esempio lasciavano cadere lo schema del sillogismo disgiuntivo1 ossia lo schema (((d V 81) 1\ -., d) ::J 81). La debolezza dei sistemi di lo-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
gica rilevante stava nella difficoltà di fornire un'analisi semantica della nozione
presentata cosicché la loro giustificazione risultava spesso ad hoc.
Un primo tentativo per ovviare a questa difficoltà si ebbe nel 1970 ad opera
di J. Mi~hael Dunn che utilizzò come modelli particolari strutture algebriche;
se questo però forniva un metodo algebrico d'analisi del sistema, non era d'altra
parte sufficiente per giustificare sul piano semantico le assunzioni di base. I risultati di Urquhart e Routley sopra accennati ne forniscono invece un'analisi
plausibile in termini di strutture di Kripke generalizzate. Dal punto di vista
filosofico non ci sembra di poter dire che questi risultati rappresentino una giustificazione del tutto soddisfacente, in quanto non è agevole collegare la semantica con l'analisi intuitiva in termini di dimostrabilità. In questa seconda direzione si muovono piuttosto alcuni recenti lavori di Dana Scott che partono dai
calcoli di deduzione naturale e da un'analisi generale del loro significato.
Questa ripresa degli studi semantici sull'implicitazione logica ha coinciso
con un analogo intensificarsi di studi sull'implicitazione fisica (condizionali congiuntivi e controfattuali, condizionali indicativi forti) in cui i risultati più significativi sono stati ottenuti da Robert Stanaker e Thomason nel 1970, da Lennart
Aqvist nel 1971 e da David K. Lewis nel 1973. Il problema dei controfattuali
dipende, come è noto, dalla loro ambiguità contestuale, per cui essi vengono
asseriti sulla base di presupposizioni non esplicitate in forza delle quali una
stessa ipotesi rende talora plausibili conseguenti opposti. Attual!nente tendiamo
a ristrutturare il contesto delle presupposizioni, reso incoerente dalla supposizione controfattuale, con la massima semplicità: il che significa, in termini di
semantica modale, che ipotizziamo che l'antecedente del condizionale sia vero
nel mondo «il più possibile simile » al nostro. Asserire un controfattuale significherebbe dunque asserire che il suo conseguente è vero nel mondo il più possibile simile al nostro in cui è vero l'antecedente. Su questa base David Lewis ha
costruito una complessa teoria dei controfattuali in cui la nozione di somiglianza
fra mondi possibili, assunta come primitiva, porta a un inevitabile realismo circa
questi ultimi: essi esistono per Lewis come il mondo attuale, pur non essendo,
per l'appunto, «attuali». Le ricerche sulle modalità fisiche hanno ricevuto un
contributo originale anche da Aldo Bressan, cui si deve un importante volume
del 1972 che è un'avanzata trattazione della logica modale quantificata condotta
nel solco della logica intensionale carnapiana, applicata a problemi di fondazione
della fisica.
In questo contesto si inseriscono direttamente alcune osservazioni relative
alle applicazioni sempre più numerose e decisamente assai promettenti che le
interpretazioni alla Kripke e Jo le logiche modali 1 hanno trovato nel campo _delle
I Si osservi che l'impiego di una semantica
alla Kripke non comporta necessariamente l'impiego di una logica modale; a rigore non vale
neppure il viceversa, cioè si può impiegare una
logica modale senza adottare la semantica alla
Kripke. Si veda più avanti il discorso sulla
quanlum logic.
145
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
scienze empiriche, in particolare nella fisica. Considerando che questa branca
della logica non ha avuto finora particolare rilevanza per quanto riguarda i
problemi dei fondamenti della matematica, la cosa potrebbe stupire. Bas van
Fraassen ha però osservato che la nozione di mondo possibile, a dispetto della
sua apparente vaghezza e « metafisicità », si presta in termini intuitivi a delle
naturali applicazioni « empiriche », potendo ricevere interpretazioni quali « situazione fisica », « stato fisico » e cosl via; H. Dishkant, come vedremo più
avanti, ne dà un'altra interpretazione in termini più usuali di «stato di conoscenza » ma direttamente collegati alla pratica fisica. Ovviamente non affronteremo qui la complessa problematica di tali applicazioni, ma ne daremo un saggio abbastanza dettagliato riferendoci a lavori di Dishkant e di Maria Luisa
Dalla Chiara, che ci forniranno lo spunto per qualche considerazione generale.
Premettiamo alcuni richi:~mi sulla caratterizzazione algebrica delle logiche
proposizionali che saranno utili anche nel prosieguo di questo capitolo. Assumiamo un linguaggio L con lettere proposizionali A1, A2, ... e con i connettivi /\, V, ::::>, _L, dove ..l è un connettivo o-ario che interpreteremo come
Falso; la negazione --, d si può allora introdurre per definizione come (d::::> ..L).
Le formule sono costruite nel modo solito. Ora è ben noto che la logica proposizionale classica CPC si può caratterizzare mediante una semantica algebrica nel
senso che i suoi teoremi sono tutte e sole le formule di L che risultano avere
valore I in ogni algebra di Boole, che, ricordiamo, è una struttura ~ = < B,
n, u, =>,-,o, I> che soddisfa le condizioni seguenti (non indipendenti) per ogni
x,y, EB:
z
xuy =yU x
xu (yu
z) =
(xuy)u
z
(xny)uy =y
xu (yn z)
=
(xu y) n (xu z)
X=>-y=y=>-X
-(x=>y)=>y=I
-o=
I
XU-X=I.
In base alle operazioni possiamo definire su ~ una relazione d'ordine ~
ponendo ad esempio x ~ y se e solo se x n y = x. Si verifica allora che un'algebra di Boole è un reticolo distributivo, complementato (l'operazione -) dotato di massimo (I) e minimo (o), in cui x U _y è il sup di {x,y} e x n y è l'inf
di {x,y }. Una interpretazione delle formule di CPC in un'algebra di Boole ~
146
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
è data da una funzione v che ad ogni formula d associa un elemento v(.91) di
B in modo che
v(J.) =o
v(d 1\ f1l) = v(d) n v(fll)
v(dV f1l) = v(.91) U v(~)
v(d:::> ~) = v(d) => v(fll).
Si può verificare allora che per ogni formula d, d è un teorema di CPC se e
solo se per ogni algebra ~ e per ogni valutazione v in ~, v(.91) = I. Una caratterizzazione analoga si può avere anche per il calcolo proposizionale intuizionista CPI. Basta considerare, al posto delle algebre di Boole, le algebre di Heyting. Una struttura i)= <H, n, U, =>, - , o, I > è un'algebra di Heyting se soddisfa tutte le condizioni poste sopra per le algebre di Boole salvo eventualmente
la x U - x = I. In questo caso « - » viene detto pseudocomplemento. Definite le
interpretazioni come sopra, anche in questo caso si verifica che d è teorema di
CPI se e solo se v(.91) = I per ogni interpretazione in un'algebra di Heyting.
Alla formulazione della logica quantistica minimale (MQL) si è giunti
sfruttando un simile collegamento fra formule e particolari algebre che si presentano nella meccanica quantistica. Intuitivamente, ogni formula espri~e un
enunciato e nell'interpretazione quantistica ogni enunciato sperimentale ha come
intensione un insieme di stati fisici. La logica quantistica, come logica degli enun- ·
dati sperimentali, riflette la struttura algebrica degli insiemi degli stati fisici. Matematicamente questi sono sottospazi di uno spazio di Hilbert e su di essi è possibile definire tre operazioni che hanno un significato fisico: l'intersezione n ; la
formazione, dati due sottospazi x e y, del sottospazio x U y da essi generato;
l'ortocomplementazione, che ad ogni x associa lo spazio xl degli elementi ortogonali a quelli di x. Si ottiene in questo modo una struttura .Q=< Q, n, U,
l, o, I> che costituisce un reticolo non distributivo, dotato di massimo e di minimo
e (orto)complementato. La non distributività riflette l'impossibilità, dal punto
di vista fisico, di compiere determinate misure. Non mette conto di dare qui
esplicitamente gli assiomi e le regole di MQL; ci basti osservare che una formula .91 è un teorema di MQL se e solo se assume il valore I in ogni struttura
come .Q; questo naturalmente considerando il linguaggio con i soli connettivi
&, u, "', e interpretando & su n, u su U e "' su l. In generale, sono questi i
connettivi cui riusciamo a dare esplicitamente un significato fisico. Già a questo punto possiamo concludere che MQL e CPI sono inconfrontabili, in quanto mentre nella prima è teorema du -d ciò non si verifica in CPI; e mentre
in quest'ultima vale la legge d 1\ (~V <if) (d 1\ ~)V (d 1\ <if) che esprime
la distributività, questa non vale in MQL. In ogni caso entrambe queste logiche sono essenzialmente più deboli di CPC.
=
147
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Veniamo ora ai risultati cui sopra si accennava. Nel 1972 il sovietico Dishkant ha suggerito per MQL un nuovo tipo di realizzazioni da lui dette modelli
semantici (noi le chiameremo anche, per comodità, realizzazioni alla Dishkant o
D-realizzazioni) per le quali ha dimostrato un teorema di completezza facendo
vedere che ogni formula d di MQL è valida rispetto alle D-realizzazioni se e
solo se lo è rispetto alle realizzazioni algebriche sopra descritte e che abbiamo
detto caratterizzare le MQL-tautologie. Per definire le sue realizzazioniDishkant
si serve di semantiche alla Kripke, ponendo precisamente che un modello semantico è una struttura (fj = < G, R, 1> > dove
1) G è un insieme non vuoto (i « mondi possibili »)
z) R è una relazione fra elementi di G (la relazione di accessibilità fra mondi)
che gode delle proprietà
za) riflessiva: Vg(gRg)
g
E
G
zb) transitiva debole:
Vgh(gRh => 3i(hRi 1\ Vj(iRj=> gR})))
g, h, i,j,
E
G
3) [> è una relazione fra elementi di G e formule di MQL che soddisfa
una serie di condizioni che non interessa qui riportare e che la possono far considerare una relazione di forcing. G è. inteso intuitivamente come un insieme di
possibili stati di conoscenza, un suò elemento come una collezione di fatti fisici
noti in un particolare momento, la relazione R come il possibile scorrere del
tempo: il passaggio da uno stato g a uno stato h è connesso con l'esecuzione di
un esperimento, sicché gRh verrà inteso come: « se conosciamo ora g, è possibile
che più tardi, una volta completato un esperimento, conosceremo h».
Al di là dell'intrinseco interesse della proposta di una « nuova » semantica
per MQL, da un punto di vista epistemologico più aderente, per così dire, all'andamento intuitivo dei fatti fisici, mette conto rilevare che sulla base delle
proprietà delle relazioni R e [> Dishkant stabilisce un suggestivo confronto
con la logica intuizionista che in certo senso « dà corpo » a quello puramente
formale sopra ricordato. La transitività debole della relazione R rende talora
impossibile una transizione poniamo da g a i, gRi, anche nel caso si abbia, per
un qualche h, tanto gRh quanto hRi: intuitivamente « lo stato di conoscenza non
può essere cambiato troppo rapidamente ». Nel modello di Kripke per CPI,
invece, R è transitiva, sicché il passaggio precedente è sempre possibile: « la
C<?noscenza ottenuta con molti passaggi può essere raggiunta con un passaggio
solo ... non esistono restrizioni alla quantità di conoscenza che può essere acquisita in uri sol colpo >>.
Leggiamo ora, con Dishf:.ant, h 1> d come: « dalla collezione di fatti h
possiamo dedurre la verità di d » (h « forza » d). Dishkant dimostra un lemma
q8
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
che estende ad ogni formula una delle condizioni per [> data solo per formule
atomiche: precisamente, se d è una formula qualunque di MQL, per ogni
g E G si ha
(I)
g
[>
d se e solo se Vh(gRh :::> 3 i(hRi 1\ i
[>
d))
che intuitivamente si può leggere come affermante che la verità è qualcosa che
non può essere cancellata senza essere ripristinata come risultato di una singola
osservazione, vale a dire sono possibili solo variazioni ripristinabili degli stati
di conoscenza. Viceversa, per il modello intuizionista invece della (I) abbiamo
g
(z)
[>
d se e solo se V h(gRh => h [> d)
vale a dire fatti nuovi non possono rimpiazzare i vecchi, i fatti si possono solo
accumulare o, altrimenti detto, la verità si conserva indipendentemente dal sorgere di fatti nuovi: «la verità è eterna». In conclusione, secondo l'autore, «la
logica quantistica è una logica di fatti ripristinabili che variano lentamente; la
logica intuizionista è una logica dell'accumulazione dei fatti».
Veniamo ora al lavoro, del I973 ma non ancora pubblicato, di M.L. Dalla
Chiara, che conduce ad alcune interessanti considerazioni generali sullo status
della quantum logic e su alcune annose difficoltà ad essa relative. L'autrice opera
una traduzione di MQL in un sistema modale CPC* che è un ampliamento di
CPC ottenuto aggiungendo al suo linguaggio i simboli L e M per gli operatori
modali di necessità e possibilità rispettivamente. La traduzione avviene mediante
la funzione e così definita:
e(Ai)
e("' d)
e(d & f!J)
e(d u f!J) -
LMAi
(per ogni lettera proposizionale At di MQL)
L ---, e(d)
e(d) 1\ e(f!J)
LM(e(d)
v e(f!J))
che cioè porta la negazione quantistica nella necessità della negazione classica, la
disgiunzione quantistica nella necessità della possibilità della disgiunzione classica. Anche CPC* risulta semanticamenté caratterizzato dalle strutture di Kripke
la cui relazione di accessibilità sia riflessiva e debolmente transitiva (cioè le
formule valide di CPC* sono tutte e sole quelle vere in ognuna di tali strutture),
sicché valendosi del risultato di Dishkant l'autrice può dimostrare che
(*)
!===d
se e solo se
MQL
l.
CPC*
I49
www.scribd.com/Baruhk
e(d)
La logica nel ventesimo secolo (II)
(ossia una formula di MQL è valida per MQL se e solo se la sua traduzione è
valida per CPC*).
Considerato che MQL può essere estesa in modo standard a un calcolo del
primo ordine, se indichiamo con 1\ e V i quantificatori quantistici, si ha la traduzione
e(f\xd) = Vxe(d)
e(V x#) = LM3xe(d)
di immediata lettura.l
L'autrice può a questo punto trarre una prima conclusione: «La logica
quantistica è senza alcun dubbio una " logica reale". Anche se storicamente suggerita dalla meccanica quantistica, la sua interpretazione modale mostra chiaramente che essa possiede un significato logico che è del tutto indipendente dalla meccanica quantistica. )) A riprova di questa conclusione sullo status epistemologico
della quantum logic, l'autrice affronta la nota difficoltà di una «ragionevole)) definizione di un'implicazione materiale in questa logica e mostra come la proposta
traduzione modale permetta di dare una risposta assai convincente alla questione.
Come si è visto infatti MQL non aveva tra i suoi connettivi quello di implicazione e questo discende dal fatto che le strutture algebriche da cui eravamo partiti
non sembrano almeno in prima istanza ammettere una definizione plausibile di una
operazione che potesse corrispondere a tale connettivo.2 Riferendoci alle realizzazioni algebriche di CPC, CPI e MQL, la cosa può essere presentata come segue.
Per le algebre di Boole e per le algebre di Heyting vale che
x
(**)
=>y =
maxz(xn
z <y)
mentre per un reticolo ortocomplementato la (**) in generale non è vera, ossia
dati due elementi x e può non esistere un massimo tale che x n <
Dalla Chiara osserva però che in tutti e tre i tipi di strutture qui considerati
può essere definita un'operazione ~ ponendo
y
z
z y.
se x <y
altrimenti
r In questo caso le realizzazioni algebriche
sono reticoli ortocomplementati completi, con due
operazioni infinitarie n e v, e la valutazione v
viene così estesa:
v(/\xd) = n{v(d(x/d))}dED
v(Vxd) = v{v(d(x/d))}dED
dove D rappresenta il dominio della realizzazione
e d è un nome per l'individuo d.
z La difficoltà di definire un'implicazione
materiale per la logica quanttst!ca minimale si
può superare passando a una logica quantistica
ortomodulare, una logica cioè le cui proposizioni
valide sono tutte e sole quelle che assumono valore r in ogni reticolo ortomodulare (un ortoreticolo
in cui valga laleggex,;y =o(y =XV (xl_ ny))).
In tal caso infatti si può sensatamente definire
l'operazione x=> y come xl_ v (x ny) e questo
connettivo risulta comportarsi come una ragionevole implicazione materiale.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
che si comporta come una « implicazione stretta » nel senso che ponendo z'(d :::>
fJI) = v(d) ---s v(PJ) si «evitano » i paradossi dell'implicazione materiale. Ampliamo ora il linguaggio di MQL aggiungendo il nuovo connettivo binario-+e poniamo
:::>
v(d -+-fJI)
=
v(d) ---s v(PJ);
estendiamo contemporaneamente la traduzione da MQL a CPC* con l'ulteriore
clausola
e(d -+-Pi)
=
e(d) ---s e(PJ).
Il risultato (*) si estende allora in modo diretto anche a questo caso, si ottiene
cioè
1=== d-+- PJ se e solo se l=== e(d) ---s e(PJ).
CPC*
MQL
Ne discende che questo tipo di implicazione stretta sembra essere il più naturale
candidato al ruolo di implicazione quantistica, dal momento che « essa è del
tutto omogenea con l'interpretazione modale degli altri connettivi quantistici ».
Più che soffermarci sull'interesse di questo risultato che peraltro ci sembra
non abbisogni di commenti, è opportuno ribadire che qui abbiamo dato solo
un saggio della complessa problematica relativa alla logica quantistica, per mostrarne il collegamento con le logiche intensionali standard e senza quindi tener
conto di una mole enorme di lavori che si sono succeduti dal 1936 in poi, da
quando cioè Garrett Birkhoff e John von Neumann hanno dato inizio a questo
discorso. Limiti di spazio e di competenza ci impediscono di fare un discorso
più ampio.
Vogliamo invece osservare come la semantica a mondi possibili è en'trata
decisamente anche nel campo della logica deontica, che è in effetti una logica
modale priva dell'assioma d=> Md (che verrebbe a significare «tutto è permesso ») e abitualmente dotata in suo luogo dell'assioma Ld :::> Md («ciò che
è obbligatorio è permesso»). I mondi possibili dei modelli deontici sono spesso
interpretati come « i migliori tra i mondi possibili » con il risultato di dare un
sapore leibniziano anche alle attuali discussioni di filosofia morale. In questo
campo va ricordato da un lato un notevole tentativo di formalizzazione del
diritto compiuto da Stig Kanger nel 1972, dall'altro i tentativi di agganciare la
semantica modale alla teoria della scelta e della decisione razionale compiuti
per esempio da Krister Segerberg nel 1970.
Infine, un settore profondamente coinvolto nell'impiego della semantica
intensionale è quello dell'analisi del linguaggio naturale quale è stata inaugurata
da Montague nel 1968 e nel 1970. Senza entrare in dettagli che riguarderebbero
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
più la linguistica che la logica, vale la pena di accennare alle ricerche sugli aspetti
temporali del linguaggio comune che continuano, pur con considerevole complessità tecnica, le indagini di Arthur Norman Prior. Fondamentale in questo
campo è la lunga analisi condotta nel 1971 da Hans Kamp sulla logica dell'avverbio « ora » e profondamente innovatrice la serie di ricerche recentissime e
non ancora pubblicate di Aqvist e Franz Gunther sugli aspetti logici delle nozioni di « cominciare a », « cominciare con », « finire con », « diventare sempre
più vero che », ecc. La ricostruzione formale della logica del senso comune preannunciata dall'analisi dei tempi verbali condotta da Priore dalle ricerche sui modi
verbali (condizionale e congiuntivo nei controfattuali; ma anche imperativo in
particolari logiche deontiche, ecc.) comincia dunque a diventare un concreto
programma di lavoro per molti logici aperti a prospettive interdisciplinari.
Le logiche intensionali costituiscono forse il campo più vasto dell'indagine
sulla logica non classica. Significativi in questo senso sono ad esempio i tentativi
di Scott (1974) di fornire un'analisi in termini di strutture alla Kripke delle
stesse logiche polivalenti di Jan Lukasiewicz. Il discorso si inquadra in un ripensamento generale del background della formalizzazione della logica iniziato da
Scott nel 1973, in cui vengono riaffrontate in chiave critica le stesse assunzioni
di base della formalizzazione: ad esempio l'ipotesi che i linguaggi siano insiemi,
che la chiusura rispetto ai connettivi sia illimitata, che le valutazioni siano bivalenti, che le dimostrazioni di completezza giustifichino la semantica. In questa
ottica vengono ripresi il problema della forma delle regole logiche (di qui il collegamento con l' entai!ment cui sopra si è accennato) e le proprietà generali del
concetto di valutazione. L'obiettivo di Scott è di «misurare» -fornendo alternative concrete - il peso di tutte queste assunzioni dal punto di vista filosofico
e matematico. I lavori sulle logiche polivalenti tentano infatti una riconduzione
- via una strutturazione dell'insieme dei valori di verità - della polivalenza
alla bivalenza.
Tra le assunzioni che Scott pone in discussione ve ne sono due che riguardano i presupposti esistenziali e il ruolo dei quantificatori; esse sono: 1) tutti i
termini hanno una denotazione e z) i quantificatori fissano il dominio dell'interpretazione. Queste assunzioni, come si è accennato nel capitolo v del volume
ottavo, sono state da tempo messe in discussione e costituiscono il punto di
partenza della logica inclusiva e della logica libera, di cui ora ci occuperemo.
La semantica della logica standard contiene due condizioni che si traducono
immediatamente in profondi impegni di carattere antologico. La prima richiede
che il dominio di ogni realizzazione non sia vuoto: su questa base possiamo facilmente dimostrare la validità della formula 3x(x = x) e quindi giustificare il
fatto che l'esistenza di almeno un oggetto sia una verità logica. La seconda richiede invece che la funzione di interpretazione assegni un oggetto del dominio a
~
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
tutte le costanti individuali (o, se il calcolo è privo di costanti, a tutte le variabili individuali): si può così affermare che la logica standard esclude la possibilità di termini singolari non denotanti, ossia che essa ci costringe a trattare
tutti i « nomi » utilizzabili come nomi di oggetti esistentL
I problemi cui queste condizioni danno luogo sono di duplice natura. Da
un lato infatti si può sollevare la questione dell'adeguatezza del calcolo come
strumento di indagine della logica del discorso ordinario, in vista del fatto che
tale discorso contiene spesso riferimenti a oggetti «fittizi»; mentre dall'altro,
in sede più propriamente filosofica, ci si può chiedere se sia giustificata questa
stretta connessione fra logica e antologia. L'esistenza di questi due ordini di
problemi ha portato spesso gli autori interessati a fornire risposte diverse, e
talvolta difficilmente conciliabili.
Intorno al 19 5o l'interesse si accende sulla prima condizione di cui sopra:
in una serie di articoli di Andrzej Mostowski (scomparso nel 1975), Church,
Theodore Hailperin e Willard van Orman Quine, si formulano varie proposte
relative alla costruzione di un sistema di teoria della quantificazione i cui teoremi
risultino validi anche nel dominio vuoto. Tutte queste proposte non superano
tuttavia una difficoltà relativa alla costruzione di una procedura che permetta di
valutare in modo soddisfacente le formule aperte nel dominio vuoto, difficoltà
la cui natura è più riposta di quanto non sembri. Si osservi infatti che nella semantica standard la verità è concepita in modo corrispondentista (per intenderei,
alla Tarski): la formula P x è vera in una determinata realizzazione (per una particolare valutazione delle variabili individuali) se e solo se l'oggetto assegnato
a x è contenuto nella classe dei P, ossia, in termini più intuitivi, se si verifica che
Px (Px è un fatto) in quella realizzazione e per quella valutazione. Ora però se
ad x non è assegnato alcun valore, come è possibile decidere se Px è vera (cioè
se corrisponde a un fatto) sulla base di una simile nozione corrispondentistica
di verità (o se si preferisce di una simile nozione realista di « fatto »)? È evidente
dunque che l'ammissione di termini singolari non denotanti comporta quanto
meno una rimeditazione complessiva del problema della verità, che solo cosi
potrà essere risolto nel caso particolare del dominio vuoto, dove tutti i termini
singolari sono necessariamente non denotanti.
· I tempi tuttavia non erano maturi per una impostazione cosi generale del
problema che fu invece affrontato in termini assai riduttivi: da un lato, proponendo (Church, Hailperin, Quine) la costruzione di sistemi di quantificazione
che ammettessero solo teoremi chiusi; dall'altro sostenendo (Mostowski, e successivamente Hubert Schneider) che le formule aperte sono tutte vere nel dominio vuoto, per semplice estensione (peraltro non altrimenti motivata) a questo
dominio del metateorema di chiusura. I sistemi così costruiti sono noti comunemente, con espressione coniata da Quine, come sistemi inclusivi (s'intende, del
dominio vuoto).
153
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Nel 1956 un articolo di Henry Siggins Leonard vivamente critico nei confronti della regimentazione russelliana e quineana, comincia a delineare le caratteristiche essenziali di una nuova logica dei termini singolari, in cui viene a cadere l'ipotesi che tali termini siano tutti denotanti. Tale logica prende via via
una forma sempre più precisa attraverso contributi di Jaakko Hintikka, Hailperin, Hugues Leblanc e Karel Lambert e riceve da quest'ultimo la denominazione
di «logica libera (da assunzioni esistenziali)». La caratteristica fondamentale dei
sistemi di logica libera consiste nel loro rifiuto della cosiddetta legge di specificazione (e della corrispondente regola di esemplificazione universale) V xd => d(x Jy),
che viene sostituita con la legge più debole (.V xd /\ E!J) => d(x !y), dove El
è un predicato monadico che va letto «esiste» e che in una logica dell'identità
può essere definito nel modo seguente: E!J =dJ 3x(x = y). La legge di specificazione debole ci permette di passare ad esempio da « Tutti gli x sono P »
a« a è P» (o, il che è lo stesso, da« a è P» a« Esiste un x che è P») solo se a
esiste, e quindi blocca inferenze illecite come quella da « Pegaso è Pegaso » a
« Esiste qualcosa che è Pegaso ».
Come abbiamo detto però il vero problema connesso ai termini singolari
non denotanti è di natura semantica e riguarda in definitiva i rapporti tra verità
(in particolare, verità logica) ed esistenza. Più che il calcolo in sé è pertanto
opportuno discutere le varie interpretazioni che di esso sono state date e che
possono essere raccolte in quattro filoni principali.
Il primo (e anche il meno seguito) è rappresentato sostanzialmente da Rolf
Schock, che in numerosi articoli pubblicati dal 1961 in avanti è venuto proponendo e articolando la posizione seguente (in cui si riconosceranno evidenti
influssi russelliani): una formula atomica è vera in una determinata realizzazione
(e rispetto a una data valutazione) se e solo se corrisponde a un fatto che si verifica in quella realizzazione (e rispetto a quella valutazione) e dunque se una tale
formula contiene termini singolari non denotanti, e di conseguenza non può
corrispondere a un fatto, essa è falsa. Evidentemente, sulla base di una tale valutazione delle formule atomiche, sarà possibile valutare anche tutte le formule
complesse contenenti termini singolari non denotanti; si tenga conto comunque
che per quanto riguarda la valutazione di formule quantificate Schock considera
rilevanti solo gli esempi di tali formule costruiti con termini singolari denotanti
(ovvero, il che è lo stesso, solo le realizzazioni alternative che assegnano un valore alla variabile quantificata) ovviamente in vista della portata esistenziale che
egli (d'accordo in questo con la semantica standard) intende dare ai quantificatori
(tale caratteristica sarà conservata anche in tutte le semantiche alternative).
Lo strumento fondamentale del secondo filone interpretativo è costituito
dalla nozione di « dominio esterno », ossia di un dominio di oggetti inesistenti
che possono essere assegnati come denotata ai termini singolari non denotanti.
Sulla base di questa nozione è molto semplice costruire una semantica libera:
154
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
basterà infatti conformarsi al modello di una semantica standard in cui però i
quantificatori siano « ristretti » a un sottoinsieme del dominio di interpretazione.
Sarà molto semplice in particolare spiegare perché una formula come x = x è vera
anche quando x non esiste: infatti, che x esista o meno (ossia che il valore assegnato a x appartenga al dominio interno o a quello esterno) tale valore coinciderà ovviamente con se stesso. Ciononostante, quello che otterremo in tal
modo potrà difficilmente essere considerato soddisfacente da un punto di vista
filosofico (e in tal senso si sono espressi anche due fra i principali artefici della
semantica dei domini esterni, Leblanc e Thomason) in quanto per questa via
possiamo al più evitare la questione fondamentale delineata sopra, non certo
risolverla. Se il problema è «Come possiamo valutare degli enunciati che contengono termini singolari non denotanti, dal momento che essi non possono
corrispondere ad alcun stato di cose? », è evidente che una risposta del tipo
«Possiamo valutare tali enunciati perché essi corrispondono (o non corrispondono) a degli stati di cose relativi agli oggetti fittizi cui si riferiscono », mentre
provoca uno stravolgimento delle nozioni stesse di « stato di cose » e di « termine non denotante », vanifica addirittura la domanda e la difficoltà che essa
tentava di esprimere. È opportuno comunque ricordare che esistono oltre a
quella di Leblanc e Thomason, due varianti di questo filone semantico: quella di
Nino B. Cocchiarella (già presente in germe in alcune osservazioni di Church)
in cui non abbiamo due domini disgiunti, ma piuttosto un unico dominio (cui
appartengono tutti gli oggetti possibili) del quale la collezione degli esistenti è
un sottoinsieme (in questo modo le analogie con la teoria « ristretta » della quantificazione sono ancora più evidenti); e quella di Scott, che in un certo senso
realizza un compromesso con la« teoria dell'oggetto prescelto » di Frege-Carnap,
in quanto costruisce dei domini esterni che contengono esattamente un oggetto,
il quale funge da denotatum improprio di tutti i termini singolari non denotanti.
Assai più stimolante ai fini della ricerca di una soluzione soddisfacente alla
nostra questione fondamentale si presenta la linea impostata da van Fraassen,
in una serie di articoli pubblicati fra il 1966 e il 1969. Per van Fraassen una formula d contenente termini singolari non denotanti non può ricevere in prima
istanza alcun valore di verità. Ciononostante, essa può ricevere un valore di verità come risultato di una sorta di esperimento mentale: possiamo cioè supporre
di assegnare a tutte le componenti atomiche di d che in una data realizzazione
risultano invalutabili (perché appunto contengono termini singolari non denotanti) un valore di verità qualsiasi, e quindi assegnare un valore di verità ad d
nella realizzazione data se e solo se per ogni valutazione delle componenti atomiche di d che coincida con la valutazione associata alla realizzazione stessa
là dove questa è definita e che la completi nel modo sopra specificato, d riceve
sempre lo stesso valore di verità.
Il discorso di van Fraassen può essere interpretato mediante una metafora
155
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
assai suggestiva: possiamo pensare cioè ai termini singolari non denotanti semplicemente come a dei termini sui quali non abbiamo alcuna informazione. Di
essi dunque non possiamo in prima istanza dire nulla; può darsi però che, per
ogni completamento possibile della nostra informazione che ci ponga in grado
di dire qualcosa relativamente a tali termini, certi enunciati che li contengono
risultino invariabilmente veri o invariabilmente falsi. In tal caso, in base alla
posizione di van Fraassen, siamo autorizzati a considerarli veri o falsi già adesso.
La proposta è indubbiamente interessante, ma conviene mettere subito in
rilievo quello che è un suo limite piuttosto grave. Si tratta di questo: lo strumento che permette di valutare le formule logicamente (e non fattualmente) vere
o false (cioè quelle che van Fraassen chiama supervàlutazioni) agisce di fatto solo
a livello di enunciati non analizzati. La supervalutazione infatti è costruita su
delle valutazioni che assegnano un valore di verità qualsiasi alle componenti
atomiche invalutabili di una formula, indipendentemente dalla loro struttura. Per
questo motivo, le uniche formule logicamente vere o false che una supervalutazione riesce a valutare in modo naturale sono tautologie e contraddizioni; là dove
invece la struttura delle formule atomiche ha una rilevanza essenziale la supervalutazione non può arrivare. Un esempio molto semplice di questa limitazione
si ha considerando la formula x= x. Se in una data realizzazione x è un termine singolare non denotante, certamente la supervalutazione - per come essa
è stata definita - non potrà assegnare il valore V ero a tale formula, dal momento
che essa è atomica e quindi, nelle valutazioni ideali che completano quella associata alla realizzazione data, riceverà ora il valore Vero, ora il valore Falso.
Per ovviare a questo inconveniente, van Fraassen è costretto a ricorrere a un
espediente ad hoc: deve cioè ammettere che tutte le valutazioni ideali di cui sopra
per definizione assegnino il valore V ero alla formula in questione, cosicché la
supervalutazione costruita su di esse le assegni ancora il valore Vero (analoghe
condizioni devono essere introdotte per validare gli altri assiomi relativi alla
quantificazione e all'identità). In questo modo però la grande plausibilità di
questa linea di soluzione viene ad essere in gran parte perduta: x = x infatti
non è vera (quando x non esiste) 'in base al successo di un esperimento mentale,
ma semplicemente in base a una definizione.
Il quarto e ultimo filone interpretativo, rappresentato in particolare da
Leblanc, raccoglie e in certo senso porta alle estreme conseguenze i suggerimenti
di van Fraassen, giungendo alla costruzione della cosiddetta semantica verojunzionale, nella quale i domini sono completamente eliminati in favore di valutazioni arbitrarie delle formule atomiche del linguaggio. L'idea che le formule logicamente valide o contraddittorie siano quelle invarianti rispetto a tutte le trasformazioni possibili dei valori di verità delle loro componenti atomiche, applicata fino in fondo, permette di eliminare qualsiasi riferimento al piano della
« realtà »; ma si ripresentano allora puntualmente le difficoltà che già van Fraas-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (TI)
sen aveva dovuto affrontare relativamente alla specificità di certe strutture enunciative (quelle per così dire intrinsecamente quantificazionali) e le stesse soluzioni ad hoc.
Per finire su questo argomento, fra le limitate applicazioni che la logica libera ha finora trovato ricordiamo la costruzione di teorie delle descrizioni più soddisfacenti dal punto di vista intuitivo di quelle tradizionali; l la costruzione di
logiche modali predicative; i tentativi di applicazione alla teoria degli insiemi.
In quest'ultimo campo, oltre a un articolo di Scott in cui si fornisce un'interpretazione « libera » della teoria delle classi virtuali di Quine, sono da ricordare
recentissimi lavori di Ermanno Bencivenga.
, II • SVILUPPI DELL'INDAGINE CLASSICA SUI FONDAMENTI
Le pagine precedenti sono state dedicate a un sommario panorama degli
sviluppi delle logiche « non classiche » viste come analisi alternative o come generalizzazioni delle nozioni che stanno alla base della fotmalizzazione delle teorie.
Tutto ciò può essere riguardato come un ampliamento del raggio d'applicazione
della formalizzazione a campi che per varie ragioni sembravano doverle sfuggire.
Un analogo allargamento di prospettive si può verificare d'altra parte anche
se si considerano i lavori più strettamente legati ai programmi fondazionali
discussi nel capitolo v del volume ottavo. Si tratta di un campo d'indagine
centrale per la riflessione logica che continua a registrare notevoli sviluppi
tanto nella prosecuzione di temi classici quanto nella proposta di nuovi approcci all'intera problematica. Rimandando alla parte terza il discorso relativo
alla fondazione categoriale - che costituisce il tentativo più significativo in
questa seconda direzione - daremo qui un breve panorama di quanto fatto
nella prima.
I temi fondamentali che avevamo isolato nel capitolo v del volume precedente riguardavano lo sviluppo della teoria degli insiemi dopo il risultato di
Paul Cohen, la generalizzazione del concetto di effettivo e il discorso relativo
alla matematica intuizionista. In questo contesto è impossibile non tener conto
di un indirizzo di ricerca cui in quel capitolo avevamo solo marginalmente accennato, cioè l'approccio ai problemi fondazionali fornito dalla teoria dei combinatori. Si tratta di ricerche che dopo un periodo di parziale stasi hanno conosciuto in tempi recenti particolari sviluppi.
I) La teoria degli insiemi
Come già ricordato l'evento centrale in questo campo dagli anni sessanta
in poi è dato dalla dimostrazione di Paul J. Cohen dell'indipendenza dell'ipotesi
la verità di «l'x tale che Px = l'x tale che Px »
anche se un tale x non esiste o non è unico.
r Nel senso che in esse, ad esempio, si
può affermare, a differenza che in quella di Russell,
I
57
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
generalizzata del continuo (/CC) e dell'assioma di scelta (AS). Da allora risultati di indipendenza per altre ipotesi matematicamente interessanti si sono sueceduti e hanno dimostrato ampiamente la fecondità del metodo del forcing e dell'uso dei modelli booleani. Dal punto di vista fondazionale però tutte queste
dimostrazioni ripropongono con particolare urgenza il problema di come la teoria
degli insiemi possa a pieno diritto presentarsi come teoria fondante per l'intera
matematica. Le alternative infatti sono sostanzialmente due, come i lunghi dibattiti sul significato filosofico dei risultati di Cohen hanno posto in luce: o si accetta la irrimediabile pluralità dei possibili universi degli insiemi, o si prende
un'altra strada cercando nuovi principi che diano determinatezza alla teoria raggiungendo in qualche modo una sorta di univocità.
Accanto alla ricerca di nuovi principi alternativi o più forti di /CC c'è stato
quindi un rinascere dell'interesse per le assiomatizzazioni della teoria degli insiemi diverse da quelle «classiche» come 3iJ6 e 9UB<fi. Al fondo di questo interesse ci sembra stia l'obiettivo di riprendere da capo in esame lo stesso concetto di insieme per vedere in dettaglio quali possibilità esso contenga e in che
misura i risultati di indipendenza e la scelta di nuovi principi possano dipendere dall'assiomatizzazione assunta. Assiomatizzazioni diverse da quelle classiche
esistevano già da tempo; basti pensare, per non fare che gli esempi più noti, ai
sistemi 9liJ e ID1E di Quine basati sul concetto di stratificazione, e a quelli stile
Ackermann che si fondano su una particolare interpretazione della « definizione »
cantoriana degli insiemi come totalità di oggetti « ben definiti ».
I sistemi di Quine si fondano su un ripensamento della gerarchizzazione
in tipi proposta da Russell e ne forniscono una versione per così dire relativizzata
mediante il concetto di stratiftcazione. Grosso ~odo l'idea di Quine è che si può
evitare una gerarchizzazione a priori e per restringere l'assioma di comprensione
è sufficiente postulare che la formula la cui estensione vogliamo assumere come
insieme sia stratificata, ammetta cioè tra le sue variabili una gerarchizzazione in
livelli per cui non si abbia mai che, se x Ey, x abbia un livello maggiore o uguale
a quello diy. L'impossibilità di unificare le stratificazioni in un'unica assegnazione
di tipo fa sì che i sistemi di Quine siano difficilmente confrontabili con 3iJ6 o
9l~<fi, per c~i vale un teorema di gerarchizzazione come quello di von Neumann.
Prova della radicale diversità dei sistemi di Quine da quelli ordinari è ad esempio
il risultato di Ernst C. Specker del 19 53 sulla contraddittorietà di 9liJ con AS:
questo contrasta con il risultato di Gi:idel che, come si ricorderà, stabilisce la coerenza di 3iJ6 con l'assioma in questione. Lavori recenti hanno tentato di portare
a una semplificazione del sistema riducendo il numero di livelli necessari nella
stratificazione del principio di comprensione per 9liJ: V. Grishin nel 1972 ha
dimostrato che sono sufficienti quattro livelli e successivamente Maurice Boffa
ha trovato che il risultato non si può migliorare- nel senso che 9liJ non si può
assiomatizzare con formule stratificate con tre livelli.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
In altra direzione si spingono i lavori riguardanti il sistema di Ackermann.
L'idea di Ackermann è che perché una collezione di insiemi sia un insieme è
necessario e sufficiente che « quello che appartiene e quello che non appartiene
alla collezione sia delimitato in modo sufficientemente netto »; Ackermann assume
cosl un linguaggio con le due costanti predicative E e M(« essere un insieme»)
e oltre all'assioma di estensionalità e di costruzione di classi assume uno schema
(detto appunto di Ackermann) che sostanzialmente afferma che se tutti gli oggetti che godono della proprietà a (senza alcuna restrizione salvo che non deve
contenere M) sono insiemi (cioè oggetti sufficientemente determinati) allora la
estensione della proprietà sarà un insieme. A ciò va aggiunto un ulteriore assioma che stabilisce che ogni elemento e ogni sottocollezione di un insieme è a
sua volta un insieme. Il sistema si presenta come particolarmente potente, ma
nel 1970 W.N. Reinhardt è riuscito a dimostrare che se gli si aggiunge un assioma di fondazione si ottiene una versione di 3!J6, sicché dal sistema originario
di Ackermann non c'è da attendersi «nulla di nuovo». È però possibile modificarlo conservandone le caratteristiche salienti: sempre Reinhardt ha proposto
nel 1974 nuovi principi per la formazione di insiemi basati sull'idea di Ackermann e ne ha mostrato i collegamenti con analoghe proposte di Joseph R.
Shoenfield e W.C. Powell e con i principi di riflessione.
Esistono d'altra parte approcci più radicali al problema dell'assiomatizzazione della teoria degli insiemi, in cui viene rigettato come base il concetto di
appartenenza: si tratta delle assiomatizzazioni della categoria degli insiemi di cui
parleremo più avanti.
In altra direzione, le ricerche affrontano direttamente il problema dello
status di lGC e più in generale di altre ipotesi collegate a questa o a AS. Dopo il
risultato di Cohen, il primo problema è naturalmente quello di indagare cosa
succede una volta che non si assuma lGC (secondo la quale, ricordiamo, per
ogni--cardinale f, &P( f) = zl = f+, il successore di f) ma in qualche modo la si
indebolisca. Jack Silver ha dimostrato ad esempio che in 3!J6
AS se si assume lGC per tutti gli l) < f dove f è singolare e il suo carattere di cofinalità è
strettamente maggiore di w allora l'ipotesi varrà anche per f, avremo cioè &P( f) =
= zl; ciò non vale se la cofinalità di f coincide con w. In questa direzione esistono altri risultati dovuti a Stephen H. Hechler, Roland B. Jensen, Robert M.
Solovay. Risultati di questo tipo permettono in certo senso di isolare i «punti
critici» per cui l'assunzione della validità di lGC è essenziale. Molto vive anche
le ricerche legate all'assioma di scelta e ai suoi rapporti con altri principi centrali
in particolari settori della matematica. Da molto tempo si era osservato che tra
AS, il principio che afferma che in ogni algebra di Boole ogni ideale è estendibile a un ideale primo (lP) e il teorema di Hahn-Banach sui grafi chiusi (HB),
esistono forti contatti. Nel 1971, James D. Halpern aveva dimostrato che lP
non implica AS mentre, come noto, ne è implicato: esso costituisce quindi un
+
I
59
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
principio più debole di AS, e ciò è di notevole interesse se si pensa che molte
dimostrazioni algebriche che normalmente sfruttano il lemma di Zorn (equivalente a AS) si possono ottenere ricorrendo a /P: un esempio è il teorema di
completezza per teorie elementari, un altro il teorema di Steinitz sull'esistenza
per ogni campo~ numerabile di una sua chiusura algebrica (un'estensione «minimale » in cui tutti i polinomi su ~ si decompongono in fattori lineari). Nel
1972 D. Pincus ha dimostrato che la stessa situazione si presenta nel caso di HB:
mentre esso è conseguenza di AS, la sua assunzione non comporta AS. L'interesse generale di questi risultati sta nel fatto che essi mostrano come in un certo
senso i principi di costruzione fondamentali di specifiche discipline (ad esempio
teoria dei campi e analisi funzionale) possono sì essere unificati sulla base del
concetto di insieme in un principio solo - l'assiom;J. di scelta appunto - ma
questa unificazione risulta non sempre « giustificata » sul terreno specifico, e può
esserlo solo - se mai lo è - sulla base di considerazioni a priori sul concetto di
insieme.
Altra prospettiva di ricerca è costituita dall'indagine sistematica dei rapporti
fra i vari tipi di grandi cardinali e le conseguenze dell'assunzione della loro esistenza. Da un punto di vista realista l'analisi dei grandi cardinali è essenziale:
essi costituiscono assiomi forti dell'infinito ed il principio base di una posizione
realista che accetti come fondamentale il concetto di insieme è che totalità « grandi» svolgono un ruolo importante nello studio e nell'organizzazione di fatti che
riguardano anche totalità «piccole ».l I problemi sono quindi due: il primo riguarda il « modo » di formulare assiomi forti di esistenza e questo si ricollega
per un certo verso con le indagini sulle assiomatizzazioni della teoria degli insiemi; l'altro riguarda più strettamente la possibilità di ottenere, via l'assunzione
di grandi cardinali, risultati matematici o logici specifici. È impossibile dare una
rassegna in questa direzione, ché saremmo costretti ad introdurre una lunga serie
di definizioni. Ci limitiamo ad accennare ai risultati recentemente ottenuti da M.
Magidor sulla supercompattezza. In primo luogo Magidor ha dimostrato che è
consistente con gli assiomi di 30:6 assumere che il primo cardinale fortemente
compatto sia supercompatto; in secondo luogo ha collegato l'esistenza dei supercompatti a proprietà logiche dei linguaggi del secondo ordine: ha provato ad
esempio che essa equivale ad una forma del teorema di Lowenheim-Skolem per
logiche del secondo ordine, mentre invece l'esistenza di un supercompatto estendibile comporta, per la stessa logica, un teorema di compattezza. Grosso modo,
la plausibilità di questi risultati si può vedere considerando che il ruolo degli assiomi forti dell'infinito è in larga misura quello di permettere di riflettere in livelli
1 Un paradigma è dato dalle dimostrazioni
analitiche, che sfruttano quindi il continuo reale
o addirittura il campo complesso, di teoremi
aritmetici. In quest'ottica il teorema di indecidi-
bilità di Godei viene letto come la dimostrazione
della necessità di principi insiemistici veri e propri
nello studio dei numeri naturali.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
dell'universo che sono insiemi proprietà di un oggetto che coinvolgono tutto
intero l'universo. Di qui il collegamento fra principi di riflessione e esistenza di
grandi cardinali: più grandi sono i cardinali che assumiamo esistere, più fini
evidentemente sono le proprietà degli oggetti che riusciamo a riflettere. L'importanza dei risultati di Magidor sta nel fatto che essi estendono un collegamento
che fino ad ora valeva per le proprietà elementari a proprietà del secondo ordine,
e quindi estremamente più profonde.
Di estremo interesse anche le ricerche sull'assioma di determinatezza (AD)
che gettano luce su problemi classici della teoria descrittiva degli insiemi. AD
è stato proposto per la prima volta (e con molte cautele per quanto riguarda il
suo status di assioma) da Jan Mycielski nel 1964, ed è formulato in termini della
teoria matematica dei giochi; diamo un'idea del suo contenuto. Supponiamo che
X sia un insieme (per lo più si considera il caso in cui X sia N o {o, 1 }). Intuitivamente l'idea è che se immaginiamo di avere due giocatori I e II e concepiamo
le mosse come scelta di elementi in X, una partita sarà una successione di mosse
e quindi un elemento x E XN. Perché abbia senso parlare di gioco occorre specificare quando uno dei due giocatori vince una partita. Per far questo in generale ci basta scegliere un sottoinsieme A di XN e convenire che la vittoria è di
I nella partita x se x E A. Un gioco Gx(A) è precisato una volta che siano dati
X e A. Nella teoria dei giochi si pone il problema delle strategie vincenti, che
matematicamente possiamo precisare nel modo seguente. Dato un gioco Gx(A)
una strategia è una funzione da successioni finite di elementi di X a elementi di
X, nel senso che è una procedura che ci permette di scegliere una mossa (un
elemento di X) in base alle mosse fatte precedentemente (successione finita di
elementi di X). Se I usa la strategia a e II la strategia r, indichiamo con a o T
la partita che si ha quando X 2n si ottiene applicando a alla successione X1, ... ,
X2n-1 e X2n-1 è ottenuto applicando r a X1, ... , X2n-2: le mosse dispari sono
di I che usa a e le mosse pari sono di II che usa r. Una strategia vincente per I
nel gioco Gx(A) è allora chiaramente una strategia a tale che, per ogni r, a o T
appartiene ad A, cioè qualunque sia la strategia di II, I vince la partita seguendo
a. Non in tutti i giochi esiste una strategia vincente per uno dei giocatori, se si
parla di giochi reali (si pensi ad esempio ai giochi aleatori, tipo dadi, ecc.). Un
gioco Gx(A) è determinato se I o II ha una strategia vincente cioè se
(*)
3a'i7'r(a o T
E
A) V 3N a( a o-r i A).
Un insieme A è determinato se lo è il gioco GN(A). L'assioma di determinatezza
è l'assunzione che ogni gioco è determinato (e quindi in particolare che ogni
insieme lo è). L'interesse dell'assioma sta nel fatto che in un certo senso esclude
totalmente l'esistenza di giochi aleatori nei quali non esistano strategie vincenti,
e impone quindi una sorta di «regolarità», la cui natura si può vedere consi-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
derando che la formula (*), che esprime la determinatezza per il gioco Gx(A),
si può esprimere anche nel modo seguente
Vd a( a o T
E
A)::::> 3aVr(O'o "t'E A).
In questa fo~ma l'assioma viene a dire che se esistono controstrategie «locali»,
esiste una strategia vincente «globale». Questo passaggio dal locale al globale
è espresso da una inversione dei quantificatori: da una formula del tipo V 3 passiamo a una formula del tipo 3 V. Passaggi come questo richiedono in generale
assunzioni di finitezza, di compattezza, di uniformità, ecc. ed è in questo senso
che l'assioma impone una «regolarità» sugli insiemi.
Una prima conseguenza dell'assioma è che da esso si ricava il principio della
scelta numerabile; questo non significa però che AD sia una forma più forte
di AS: si può infatti dimostrare che la determinatezza dei giochi GN(A) implica
che non esistono ultrafiltri non principali su N e quindi implica la negazione del
teorema dell'ideale primo e, di conseguenza, di AS. Questo fatto pone in luce
come AS contenga in sé un'assunzione di «casualità» che AD nega; vedremo
più avanti, parlando del teorema di Diaconescu sui topoi elementari, un altro
aspetto di questa casualità.
Abbiamo visto come AD comporti la possibilità di un'inversione di quantificatori. In generale esiste uno stretto rapporto fra giochi e quantificatori che è
stato ampiamente sfruttato nella teoria dei modelli e anche nella filosofia della
logica. H. Jerome Keisler ha applicato la teoria dei giochi ai linguaggi infinitari
proprio in quest'ottica e partendo da questo collegamento Hintikka ha sviluppato tutta una teoria dei giochi di quantificatori in connessione con la teoria
dei giochi linguistici di Wittgenstein.
In generale, nella misura in cui riusciamo ad associare a una formula del
tipo V3 un gioco, è possibile, applicando AD, attenerne un'altra equivalente
del tipo 3V. Questo spiega come AD abbia grosse conseguenze nello studio delle
gerarchie analitica e proiettiva che costituiscono il campo centrale della teoria
descrittiva degli insiemi. Entrambe le gerarchie si basano su una classificazione degli insiemi fondata sulla complessità della loro definizione, che viene misurata in
particolare dal tipo di prefisso delle formule definitorie. In generale si ha, come posto in luce nel 1968 da D.A. Martin e quindi da J.W. Addison e Yannis Nicholas Moschovakis, che se si aggiungono assunzioni di determinatezza si ottengono principi di riduzione per i livelli superiori delle gerarchie; e questo è di
estremo interesse in vista dei legami oggi esistenti fra generalizzazioni della
teoria della ricorsività e teoria descrittiva degli insiemi.
Strettamente connessi a questi sono i rapporti fra A D e teoria della misura;
la cosa non sorprende se si pensa a quanto detto sopra sul teorema dell'ideale
primo e ai legami fra filtri e funzioni di misura. Una delle conseguenze più sin-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
golari è ad esempio che AD comporta la misurabilità secondo Lebesgue di ogni
sottoinsieme della retta reale, il che contrasta con il teorema classico, che si dimostra utilizzando AS, per cui esistono sottoinsiemi della retta reale non misurabili. In questo contesto si situano alcuni lavori di Martin del 1970 sui rapporti
fra cardinali misurabili e AD. Recentemente, sempre Martin ha dimostrato che
i giochi boreliani sono determinati (dove un gioco Gx(A) è boreliano se lo
è A).
Il discorso sulle gerarchie e sui collegamenti con la teoria generalizzata della
ricorsività ci porta a un altro tema in evidenza in questi ultimi anni, che riguarda la nozione di costruibilità. L'elemento nuovo in questo interesse per i
costruibili è dato dall'analisi del significato dell'assolutezza del concetto di costruibilità in termini della forma delle formule che ci permettono di definire la
gerarchia costruibile. Si può dimostrare infatti che l'assolutezza della nozione di
costruibilità dipende dal fatto che le formule di cui ci serviamo per definire la
gerarchia sono del tipo ~r~ 6 (se ci muoviamo in 3~6) sono cioè formule che
rispetto a 3~6 sono equivalenti a formule tanto del tipo Vx1, ... , Xnd quanto
del tipo 3xh ... , xnf!lJ, dove d e f!lJ sono formule senza quantificatori illimitati: appunto per questa persistenza rispetto alle estensioni e alle restrizioni le
formule ~l sono assolute.
L'idea di considerare la gerarchia delle formule insiemistiche in base ai
blocchi di quantificatori illimitati è di Azriel Levy (1965) e permette di vedere
molto bene i rapporti tra costruibilità, proprietà delle gerarchie e generalizzazioni della ricorsività. Come si ricorderà infatti le gerarchie della teoria della
ricorsività si basano in larga misura sulla complessità dei prefissi ed è questo che
consente di estendere molti concetti della teoria della ricorsività basata sulla teoria dei numeri naturali a una teoria della ricorsività basata sulla teoria degli insiemi. Centrale è il problema di individuare il nucleo minimale della teoria degli
insiemi che sia in grado di permetterei la definizione degli analoghi insiemistici
delle funzioni ricorsive primitive e di dimostrare la chiusura rispetto a schemi
definitori quali quello di recursione.
Il nucleo fondamentale individuato è costituito dalla teoria .R\.l-3 di KripkePlatek che si ottiene da 3~6 eliminando gli assiomi della potenza e dell'infinito
e restringendo lo schema di rimpiazzamento a formule ~o (cioè senza quantificatori illimitati) . .RilJ è sostanzialmente una versione in termini di appartenenza
della teoria di Peano dei numeri naturali eq il ruolo dell'assioma di induzione è
svolto dallo schema di fondazione (un principio di fondazione relativo a formule
e non a insiemi). Entro .RilJ si possono così definire funzioni primitive ricorsive
su insiemi e studiare le gerarchie che ne risultano. In particolare .RilJ ci permette
di isolare una classe di insiemi notevolmente interessanti, quella degli insiemi
ammissibili, che costituiscono nelle generalizzazioni della teoria della ricorsività gli analoghi dell'insieme dei numen naturali: un insieme è ammissibile
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
(interpretando l'appartenenza sulla reale appartenenza) se è modello di ~l_l3. 1
L'importanza di questo tipo di ricerche, come vedremo brevemente più
avanti, sta nella luce che esse gettano sulle proprietà semantiche e sintattiche dei
linguaggi infinitari: come la teoria delle funzioni ricorsive numeriche è la base
per la sintassi dei linguaggi finitari, così la teoria delle funzioni ricorsive su insiemi è la base della sintassi dei linguaggi infinitari; e il rilievo che in questo
contesto acquistano gli ammissibili sta nel fatto che- come ricordato nel capitolo
v del volume ottavo parlando del teorema di Barwise - per essi vale una forma
del teorema di compattezza.
Lavori molto interessanti sugli insiemi ammissibili si devono a K. Jon
Barwise, Shoenfield e altri che ne hanno indagato sistematicamente le proprietà,
non solo in collegamento con i linguaggi infinitari .
.Questi lavori pongono in luce un possibile modo di generalizzare i concetti
di finito, ricorsivo, ecc. Nella misura in cui i concetti fondamentali della teoria
ordinaria della ricorsività (ORT) si possono giustificare in base a considerazioni
diverse (macchine di Turing, sistemi equazionali, definibilità all'interno di teorie, ecc.) è chiaro d'altra parte che saranno possibili diverse vie per raggiungere
generalizzazioni adeguate. È di questo che ci occuperemo nel prossimo paragrafo.
2) Generalizzazione del concetto di effettivo
I primi lavori di generalizzazione della ORT possono essere analizzati come uno studio dei rapporti di analogia esistenti fra le gerarchie aritmetica e analitica (Stephen C. Kleene, 195 5). Si può cioè considerare l'insieme dei predicati
iperaritmetici come la generalizzazione al secondo ordine dell'insieme dei predicati ricorsivi (anche se questa analogia non è così stretta come può sembrare:
si veda più oltre il discorso sugli insiemi « metafiniti ») e quindi si studiano i
rapporti fra le gerarchie basate su tali insiemi di partenza: si noti tuttavia che
all'insieme dei predicati ricorsivamente en~merabili (1:~) dovrà essere fatto corrispondere l'insieme n~ e non l'insieme 1:~. L'estensione del concetto di funzione
parziale ricorsiva potrà essere agevolmente ottenuta per esempio introducendo
un opportuno sistema di indici per gli insiemi n~ e definendo le funzioni parziali n~ a partire da grafi n~: in questo modo alle funzioni ricorsi ve totali cor"risponderanno le funzioni iperaritmetiche, cioè quelle funzioni il cui grafo è A~.
Lo studio di questo tipo di analogia ha portato a una serie di risultati assai interessanti non solo per l'ampliamento di conoscenza sulla gerarchia analiti-
1 Kripke aveva isolato la nozione di ordinale ammissibile, partendo da una generalizza-
zione del calcolo di Godel-Kleene delle funzioni
ricorsive (cui si accennerà più avanti). L'idea di
considerare gli insiemi ammissibili e l'osservazione
della validità per essi di uno schema particolare
di riflessione è di Richard Platek, cui si deve
propriamente la teoria della ricorsività su insiemi
ammissibili.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
ca, ma anche sulla funzione, spesso ambigua, dei concetti basilari della ORT.l
In relazione a questa tematica e allo studio dei funzionali di tipo finito, nel
1962 viene presentata da Kleene una generalizzazione delle maccbine di Turing
basata sull'« halting problem ». Accanto agli usuali passi della procedura si suppone la possibilità di un passo « speciale » che consiste nello stabilire le condizioni di stop di una macchina di Turing di cui è dato il codice: tale passo è lecito
però solo nel caso in cui la macchina di cui si studia la procedura o è ordinaria
o contiene passi speciali di complessità inferiore (si tratta qu~ndi di una definizione per induzione). Le funzioni computate da queste macchine risultano essere
esattamente le n~: quindi è possibile caratterizzare queste funzioni come quelle
per il cui calcolo si può procedere in modo deterministico sulla base di un insieme
finito di istruzioni, purché si supponga la capacità, ad ogni istante, di « passare
in rassegna » una successione infinita di passi. Risulta ovviamente possibile descrivere tali macchine mediante un albero in cui al primo livello compaiano i passi
della procedura, e ad ogni livello successivo i passi delle sottoprocedure che
corrispondono ai passi speciali del livello precedente: ad ogni albero di questo
genere verrà associato in modo naturale un ordinale che ne misura la complessità
e che risulterà essere un ordinale ricorsivo.
A questo punto è abbastanza naturale concepire una nuova 'generalizzazione
della ORT, in cui l'insieme N dei numeri naturali sia sostituito dall'insieme Or
degli ordinali ricordvi (più precisamente Or è un particolare insieme di notazioni,
quindi ancora di numeri naturali, per gli ordinali ricorsivi): va notato che Or
è un insieme n~ ed è completo nel senso che ogni insieme n~ è « riducibile »
(sulla base di un'opportuna estensione del concetto di riducibilità della ORT) a
Or. Questa generalizzazione, detta metaricorsività, è stata proposta da Georg Kreisel
e Gerald Sacks nel 196 5, sullo spunto degli studi condotti da Gaisi Takeuti negli
anni cinquanta. Un insieme (di ordinali ricorsivi) verrà detto: metaricorsivamente
enumerabile se l'insieme di notazioni dei suoi elementi è nb metaricorsivo se sia
l'insieme delle notazioni dei suoi elementi sia il suo complemento (rispetto a Or)
è n~; metaftnito se l'insieme delle notazioni dei suoi elementi è ~~. Si noti in
special modo la generalizzazione del concetto di finito : esso viene interpretato
come « ricorsivo e limitato » e nella generalizzazione ciò diventa « metaricorsivo
1 Per chiarire meglio questo fatto possiamo per esempio notare che nell'estensione di
un asserto (teorema) dalla gerarchia aritmetica a
quella analitica, possiamo studiare l'analogia in
senso stretto, trasformando cioè ogni concetto
aritmetico nel suo analogo analitico, oppure operare solo parzialmente tale trasformazione (si ricordi che la gerarchia aritmetica è una sottogerarchia di quella analitica). Se ad esempio vogliamo definire il concetto di insieme Ilf-produttivo, possiamo stabilire che la funzione parziale produttiva ad esso associata sia Hl-parziale
(analogia totale) oppure che essa rimanga ancora
parziale ricorsiva (analogia parziale) e i risultati
che si potranno ottenere saranno ovviamente diversi: se l'estensione di un teorema vale nel caso
dell'analogia totale si è portati a ritenere che la
funzione dei concetti che compaiono nel suo
asserto (nella ORT) è, per così dire, relativa all'universo in cui si muove; viceversa nel caso
dell'analogia parziale·si metterebbe in luce il valore assoluto (non cambia estendendo l'universo)
di alcuni di questi concetti.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
e limitato (da un ordinale ricorsivo) »,il che è equivalente a richiedere che sia ~~.
Ciò, in connessione con il fatto che ovviamente la gerarchia analitica può essere
studiata come una particolare restrizione della metaricorsività (identificando i numeri naturali con gli ordinali finiti, gli insiemi n~ coincidono con i metaricorsivamente enumerabili), indica come nell'analogia fra gerarchia aritmetica e gerarchia analitica non sempre sia opportuno far corrispondere gli insiemi ~~ agli
insiemi ricorsivi, ma agli insiemi finiti.
Vi è inoltre una conseguenza assai importante: mentre ogni intersezione di
un insieme numerico con un qualunque insieme numerico finito è ovviamente
finita, non è detto che ogni intersezione di un insieme A di ordinali ricorsivi con
insiemi metafiniti sia a sua volta metafinita. Se ciò si verifica in ogni caso, diremo
che l'insieme A è regolare. Molto spesso si verifica che le"estensioni dei teoremi
sugli insiemi ricorsivamente enumerabili agli insiemi metaricorsivamente enumerabili valgono solo supponendo tali insiemi regolari: d'altra parte si dimostra
che ogni insieme metaricorsivamente enumerabile è « riducibile-» a qualche insieme metaricorsivamente enumerabile e regolare. In altre parole, una delle
conseguenze dei lavori di generalizzazione consiste nel mettere in luce più profondamente i nessi che intercorrono fra i vari concetti enucleati nell'ambito non
generalizzato, nessi talora ambigui e oscuri proprio a causa della relativa « semplicità» o anche «concretezza» della struttura di partenza.
A livello di esposizione abbiamo presentato la metaricorsività come un'u] ..
teriore generalizzazione dello studio della gerarchia analitica: anche se i rapporti
sono molto stretti e lo studio della gerarchia analitica con i metodi della metaricorsività si rivela assai fruttuoso, tuttavia storicamente le basi della metaricorsività si sono sviluppate nell'ambito delle ricerche sul concetto di definibilità
(al secondo ordine). Il collegamento può essere reso intuitivo considerando come
alla « complessità » relativa di ogni particolare insieme che si vuol definire corrisponde la complessità di una formula in un opportuno linguaggio (in generale
infinitario); questa a sua volta può essere analizzata mediante un opportuno albero
(che potrebbe venir fatto corrispondere a una macchina di Turing generalizzata)
e quindi un opportuno numero ordinale (o meglio una notazione per tale numero). Da questo punto di vista assume allora ovvia importanza lo studio degli
insiemi numerici definiti in modo induttivo (Clifford Spector, 1961) in un linguaggio del primo ordine (cioè a una definizione esplicita al secondo ordine si
sostituisce una definizione induttiva, e quindi implicita, al primo ordine): gli insiemi induttivi risultano essere esattamente i n~.
Al momento attuale le ricerche sono indirizzate verso generalizzazioni dei
filoni precedentemente ricordati. In particolare mette conto di ricordare:
- lo studio approfondito delle generalizzazioni delle analisi basate sul
concetto di « riducibilità » (gradi, ecc.) relativamente ad enti di tipo superiore a
quello dei numeri naturali (funzionali oppure ordinali ricorsivi); un'ulteriore
166
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
generalizzazione si basa sul concetto di ordinale ammissibile (intuitivamente un
ordinale a è ammissibile se ogni « deduzione » a partire da un sistema finito di
equazioni e che contenga numerali che siano notazioni. di ordinali minori di a
ha una« complessità» minore di a) e viene sviluppata in modo del tutto analogo
(per quello che riguarda la struttura di base) alla metaricorsività: l'importanza
di tale generalizzazione sta nel fatto che comunque sia dato un ordinale ammissibile,
l'insieme degli ordinali minori si comporta (dal punto di vista della generalizzazione) come l'insieme dei numeri naturali (si noti che ogni cardinale è un ordinale ammissibile);
- una parallela ripresa delle ricerche sulle definizioni induttive, non più
solo in. relazione alla struttura dei numeri naturali, ma generalizzate a strutture
arbitrarie~" A questo proposito ricordiamo come questi studi si siano inizialmente
sviluppati in un ambito alquanto diverso, che tendeva a generalizzare a strutture
arbitrarie proprio il momento « calcolistico » della ORT: anche se i risultati
ottenuti erano promettenti, l'apparato definitorio risultava complesso e spesso
artificioso; il cambiamento di prospettiva, con il quale si è focalizzato l'interesse
sulle definizioni induttive, ha permesso di inquadrare i risultati precedentemente
raggiunti in una sistemazione assai più semplice dal punto di vista concettuale.
Va anche notato che le ultime ricerche in questo campo hanno permesso di ottenere nuovi risultati nell'ambito della generalizzazione basata sugli ordinali ammissibili cui si è fatto cenno al punto precedente.
Un altro filone di ricerca si occupa delle sistemazioni di tipo assiomatico
(come tali quindi applicabili a strutture entro certi limiti arbitrarie) che hanno il
loro punto di partenza nella teoria degli indici della ricorsività ordinaria (teorema di ricursione). Infine, anche se con maggior discontinuità, vengono approfondite le tematiche relative alla presentazione di « macchine » o comunque
« dispositivi » in grado di simulare la generalizzazione della ORT a strutture
arbitrarie (purché ovviamente dotate di una qualche possibilità di approccio di
tipo combinatorio).
3) La teoria dei combinatori
Come abbiamo visto, la teoria della ricorsività e le sue generalizzazioni hanno come sfondo la teoria degli insiemi e in questo senso costituiscono un approccio classico al problema dell'effettività e della computabilità di funzioni e
funzionali. Esiste però un altro contesto in cui è possibile sviluppare un'analisi
del concetto di computazione e di quello di regola: si tratta della teoria dei
combinatori, che negli ultimi anni ha registrato notevoli sviluppi, proprio in
vista delle possibilità che essa offre di studiare nella loro generalità questi concetti.
La ricchezza della problematica attuale legata alla teoria dei combinatori
contrasta con le motivazioni apparentemente modeste che hanno portato al suo
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
sorgere. L'idea di Moses Schi:infinkel (cui si deve la creazione della teoria) nel
1924 era di ridurre, all'interno del programma hilbertiano, i presupposti della
sintassi dei linguaggi formali eliminando la distinzione in categorie sintattiche
(variabili individuali, predicative, ecc.) che sembrava essere giustificata unicamente dall'interpretazione insiemistica che i linguaggi ammettevano, ma non dall'aspetto formale dei calcoli. L'idea di Schi:infinkel è che in ogni calcolo logico
si ha a che fare con termini che denotano funzioni, siano esse su individui, o
proposizionali, ecc., e che le regole deduttive si possono vedere come prescrizioni sul computo di queste funzioni: sicché la sua analisi parte appunto dal
concetto di funzione.
Per determinare una funzione occorre stabilire per ogni argomento per cui
è definita il corrispondente valore. Pensiamo ad esempio alla sottrazione e supponiamo di disporre di un simbolo«-» che indica l'operazione. Consideriamo
l'espressione x - y: di per sé essa non denota una funzione ma la forma schematica del valore di una funzione per gli argomenti x eJ'· Per ottenere un termine
che denoti una funzione occorre astrarre da x - y rispetto alle variabili. Possiamo
così convenire che il termine J..xy . x - y denoti la funzione che applicata a ogni
coppia a, b dà come risultato appunto a - b. Per ora non si tratta che di una semplice notazione, per distinguere la funzione in sé dal risultato della sua applicazione; perché l'interpretazione del termine J..xy . x - y sia quella voluta, occorre
formulare regole per la sua computazione. Introduciamo allora tra i termini una
operazione, quella di applicazione: dati due termini a e b, con (ab) indicheremo
l'applicazione della «funzione» denotata da a all'« argomento» denotato da b.
Per imporre questa interpretazione al termine J..xy . x - y si dovrà allora formulare una regola del tipo (J..-conversione)
(J..x. b(x)a) = b[a]
dove b[a] indica il risultato della sostituzione delle occorrenze libere di x (cioè
non all'interno del campo d'azione di J..) con occorrenze di a. Nel nostro caso
ad esempio applicando due volte la regola otterremmo ((J..xy. x -ya)b) = (0' .
. a -y)b =a- b. In generale l'operazione di applicazione non è associativa e
quindi per indicare l'ordine di applicazione dovremo usare delle parentesi; nell'esposizione informale che segue noi comunque le elimineremo ogniqualvolta
ciò non si presti ad ambiguità.
L'analisi che la À-regola ci offre del computo delle funzioni riduce sostanzialmente ogni funzione ad una unaria, con un solo argomento: la sottrazione
tra due numeri si ottiene dal termine J..xy . x - y mediante due successive applicazioni dell'operatore di astrazione À. Da una prospettiva più generale possiamo
vedere la À-regola come una sorta di assioma di comprensione: se ammettiamo
come esistenti nel nostro universo solo gli oggetti denotati dai termini, la regola
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
ci dice infatti, poste delle condizioni su una funzione, che esiste la funzione in
questione, cioè ad esempio il termine Àxy . x - y denota la funzione richiesta.
Ora quello che Schonfinkel voleva ottenere, a partire da uno stock finito di
termini e dall'operazione di applicazione fra di ess'i, era un termine, diciamolo Z,
che godesse delle proprietà di À, tale cioè che per ogni f e per ogni a1, ... , an
si avesse Zja1, ... , an= j(a1, ... , an); ma voleva inoltre giungere all'eliminazione delle variabili, in quanto il loro ruolo, come si è ben visto utilizzando l'operatore À, è puramente accessorio, serve solo ad indicare in che senso si astrae
da un termine dato, mentre l'essenziale è la sola regola su À; il problema era allora di trovare termini e regole per il loro impiego che permettessero di « combinare » le espressioni richieste. Sono questi i combinatori definiti da Schonfinkel.
Accanto all'eliminazione della categoria sintattica delle variabili, ne viene implicitamente fatta una seconda e più radicale, in quanto non si pone alcuna differenza fra termini che denotano funzioni e termini che denotano argomenti (co~
me si può vedere tanto nel caso di À che in quello di Z).
In Schonfinkel tuttavia il progetto rimase allo stato di abbozzo, come pure
le motivazioni, che erano sostanzialmente riduzionistiche. È ai lavori di Haskell
B. Curry, a partire dal 1929, che si deve la prima formulazione di un sistema rigoroso e il suo inquadramento in un contesto più generale. Curry costruisce il
sistema basico dei combinatori, estendendo il qqale è possibile ottenere quella formulazione dei vari calcoli logici senza variabili e senza distinzioni a priori di categorie sintattiche che era l'obiettivo di Schonfinkel. Una formulazione equivalente a quella di Curry è la seguente. Il linguaggio è formato da atomi, fra i
quali tre combinatori fondamentali I, K, S. Termini saranno gli atomi e, se
X e Y sono termini, anche (XY). Le regole daranno una relazione di riducibilità
fra termini che intuitivamente, una volta che si interpreti (XY) come l'applicazione di X a Y, forniscono regole di computazione. Avremo gli assiomi (si legga
A t> B come «A si riduce aB») per ogni X, Y, Z
IX t> X
KXY t> X
SXYZ t> XZ(YZ)
Xt>X
e le regole
(a)
X t> X'-+ZX t> ZX'
(/3)
(y)
X t> X'-+XZ t> X'Z
X t> Y;\ Y t> Z-+X t> Z.
Come dimostrato da Curry è possibile, sulla base di questo sistema, definire un
termine (un combinatore) [x1, ... , x,.] che svolge il ruolo dell'operatore di
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
astrazione
À,
tale cioè che per ogni termine N1, ... , Nn e
1lf
si abbia
È questo il teorema di completezza combinatoria per il sistema basico. Possiamo
ora introdurre una distinzione tra termini: alcuni si possono contrarre, mediante
gli assiomi e le regole, in altri termini, altri no. Più precisamente, se chiamiamo
redex i termini della forma IX, SXY, e KXYZ, contrarre significa rimpiazzare
in un termine l'occorrenza di un suo redex con il termine cui questo si riduce
mediante regole e assiomi. Un termine è in forma normale quando è irriducibile,
cioè quando non contiene alcun redex.
Questa distinzione ha un significato dal punto di vista interpretativo. Intuitivamente tutti i combinatori si possono vedere come funzioni generalizzate in
quanto fra di essi è definita un'operazione di applicazione; possiamo dire che gli
argomenti su cui è definito un combinatore U sono quei termini X tali che U X
si converte ad un termine normale, cioè irriducibile dal punto di vista della
computazione. Non tutti gli U X però si convertono in forma normale e ciò si
può interpretare quindi dicendo che U non è definito per X. Potremo quindi
parlare di funzioni generalizzate, ma parziali, ossia non ovunque definite. In
questa prospettiva divengono essenziali due questioni: in primo luogo stabilire
un criterio affinché un termine U sia riduci bile a forma normale; in secondo
luogo, perché si possa davvero parlare di funzioni parziali, si dovrà dimostrare
che non è possibile che un termine si converta a due termini in forma normale
essenzialmente diversi.
Alla seconda questione risponde il teorema dimostrato da Church e J.
Barkley Rosser che ha un ruolo fondamentale nella teoria dei combinatori. Esso
ammette due versioni: la prima afferma che se Usi riduce a X e a Y, allora esiste
uno Z tale che tanto X quanto Y si riducono a Z, dal che consegue che un termine si potrà convertire ad una sola forma normale. La seconda riguarda la
relazione di equivalenza « = » che possiamo stabilire fra termini sulla base del
concetto di riducibilità. La riducibilità infatti introduce chiaramente un preordine
fra i termini: la « = » non è nient'altro che l'equivalenza che possiamo definire
assumendo che X= Y se e solo se X [> Y e Y [> X. Il teorema di Church e
Rosser afferma allora che se X= Y esiste 3-mo Z cui entrambi si riducono; da
ciò consegue che se X= Y o entrambi non hanno forma normale oppure, se
l'hanno, è la stessa.
Rimane il primo problema, quello di determinare quando un termine U si
converte a una forma irriducibile. Mentre esistono algoritmi per stabilire quando·
U e V hanno la stessa forma normale (ammesso che ne abbiano almeno una) non
esiste in generale una procedura di decisione che ci dia tutti e soli i termini che
ammettono forma normale.
J70
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Il sistema basico dei combinatori permette di costruire termini estremamente
semplici; è però possibile estenderlo in modo da ricostruire sistemi formali più
complessi, ad esempio fondare l'intera logica su questo sistema esteso. Si giunge
così ai cosiddetti sistemi illativi di Curry che consentono la riformulazione dei
calcoli logici fondamentali. L'idea di fondo è di ammettere fra gli enunciati
della teoria anche enunciati della forma l- X dove X è un termine, e che intuitivamente rappresentano l'asserto metateorico «l'enunciato X è dimostrabile».
È questo un modo per passare dalla computazione di funzioni proposizionali all' asserzione di proposizioni. Si tratta poi di introdurre nuove combinazioni e
quindi nuove costanti con cui formare le ordinarie connessioni fra enunciati:
l'obiettivo finale è chiaramente quello di poter ottenere come dimostrabili nel
nostro sistema tutte le espressioni della forma 1-- X dove X è un termine che
rappresenta una formula dimostrabile nel sistema logico che vogliamo rappresentare. Già a questo livello, come posto in luce da Curry, si pone un grosso problema: la formulazione in termini di combinatori è estremamente generale in
quanto le regole di conversione e le regole aggiuntive che dobbiamo dare per
connettivi e quantificatori si applicano a termini qualsiasi, non avendo assunto
alcuna distinzione in categorie sintattiche. Capita così che se assumiamo una
regola del tutto naturale del tipo X= Y 1\ 1-- X--+ 1-- Y e per ogni coppia
di termini X e Yassumiamo altrettanto naturalmente che esista il termine X=> Y
in modo che risultino soddisfatte le regole X=> Y, X 1-- Y e 1-- (X=> (X=> Y)) =>
=> (X=> Y), otterremo che per ogni termine Y si deduce nella teoria 1-- Y; in
altre parole, il sistema è contraddittorio. Occorre quindi in qualche modo restringere la generalità delle regole: dopo molteplici tentativi Curry, con la collaborazione di Kleene e Rosser, riuscì a giungere a formulazioni adeguate.
Qui è importante non tanto dare una formulazione di questi sistemi quanto
sottolineare l'atteggiamento di Curry di fronte a queste contraddizioni: in netta
antitesi con l'approccio insiemistico che in base a un'analisi semantica assume
una classificazione a priori dei termini in categorie sintattiche, per Curry si parte
invece dal sistema basico in cui tale distinzione non esiste e man mano che si
rafforza il sistema aggiungendo nuovi operatori e nuove regole, si deve analizzare il modo di imporre restrizioni alla generalità originale delle regole. La distinzione in categorie o in tipi ha un grosso ruolo in queste restrizioni, in quanto
ci permette di porre distinzioni, in termini di tipi, all'applicabilità delle regole,
ma non viene accettata a priori e non è l'unica: di volta in volta se ne può riscontrare
la necessità all'interno del sistema che si costruisce.
Ma qual è il vantaggio di questo partire da un livello così primitivo di generalità, a parte il suo interesse intrinseco da un punto di vista teorico? Il fatto
più significativo è che in questo modo abbiamo un contesto in cui studiare le
regole di computo o di trasformazione tra oggetti nella loro generalità. Abbiamo
sopra interpretato il sistema basico come una teoria del computo delle funzioni
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
parziali. A ben vedere, gli oggetti propri della teoria non sono le funzioni come
oggetti insiemistici ma le definizioni di funzioni, le funzioni in intensione. Il
comportamento delle funzioni, in questo contesto, è dato unicamente dalle regole
di conversione e i rapporti di uguaglianza o diversità fra termini valgono solo se
si possono stabilire in base a queste regole. Ciò significa che la nostra è una
teoria delle « funzioni parziali » intensionali, viste come procedure di computo
e non come oggetti dell'universo degli insiemi. Questo spiega anche la non assunzione a priori di una gerarchizzazione in tipi, che si impone se si vedono le
funzioni come insiemi di n-uple di oggetti (che saranno di tipo inferiore).
All'interno di questo contesto generale possiamo ricostruire teorie particolari riguardanti specifiche classi di funzioni. Lo si può vedere ad esempio ricostruendo la teoria delle funzioni ricorsive all'interno del sistema basico dei
combinatori. All'interno di questo sistema si possono infatti definire dei combinatori che rappresentano la successione dei numeri naturali; quindi, è possibile
trovare, per ogni funzione ricorsiva parziale, un termine del calcolo che la definisca all'interno del sistema. In altre parole, data una funzione n-aria f è possibile
trovare un termine X del sistema tale che per ogni n-upla a1, . •. , an di numeri
naturali abbiamo [ Xa1, ... , an] = j(a1, ... , an) dove at è il termine che rappresenta il numero naturale at e j(a1, ... , an) il termine che rappresenta il risultato.
La dimostrazione di questo fatto è dovuta a Kleene (I 9 36); come corollario dell'indecidibilità del problema della caratterizzazione delle funzioni ricorsive totali
(haltingproblem) abbiamo allora l'indecidibilità del problema della riduzione a forma normale di cui sopra si è parlato.
In modo analogo si possono rappresentare le funzioni ricorsive nel À-calcolo
che Church elaborò attorno agli stessi anni e che costituisce un parallelo del
sistema basico dei combinatori in cui si assume come primitivo l'operatore À di
astrazione. Fu con questo sistema che Church dette la prima dimostrazione del
suo teorema di indecidibilità del calcolo dei predicati. I rapporti fra À-calcolo e
combinatori portano a introdurre diverse nozioni di riducibilità, oltre a quella
da noi definita, a seconda che si pongano o meno certe restrizioni sulla convertibilità dei termini. In particolare si può assumere còme schema di conversione
·la cosiddetta 17-regola (che verrà data più avanti) che introduce un'assunzione di
estensionalità, permettendo di raggiungere l'estensionale a partire dal contesto
intensionale generale. Risultati interessanti sugli analoghi del teorema di ChurchRosser per queste nozioni si sono avuti in tempi recenti; notevole importanza ha
il teorema di Corrado Bohm, del 1968, sulle forme normali forti (normali rispetto a una particolare nozione di riduzione).
La possibilità di rappresentare le funzioni ricorsive entro il sistema basico
non solo offre un'ulteriore giustificazione della tesi di Church, ma consente di
cogliere la struttura unitaria di vari principi di recursione. Usando i combinatori
molti di questi schemi si ottengono come corollari di un risultato centrale che
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
riguarda i punti fissi dei termini in questo sistema. Ciò spiega il ruolo importante
che la formulazione in termini di combinatori ha avuto in tempi recenti nello studio delle generalizzazioni delle funzioni ricorsive, quali i funzionali di tipo finito
introdotti da Godei.
Questo ~i porta al nucleo centrale degli sviluppi recenti nello studio dei
combinatori, cioè alla teoria della funzionalità nelle varie formulazioni introdotte
da Curry e dai suoi allievi. Abbiamo già detto come la teoria basica si possa
vedere come una teoria rudimentale sulle funzioni parziali. Da qui si può partire
per studiare combinazioni più complesse di funzioni una volta che questa parzialità venga assunta come concetto primitivo, introducendo una gerarchizzazione in tipi dei termini. Ciò non costituisce un abbandono dell'originario programma, ma piuttosto un suo approfondimento, volto a mettere in luce il ruolo
che la gerarchizzazione in tipi ha nella formulazione di schemi generali per la
definizione di funzioni.
Ci sono due vie per formulare la teoria della funzionalità: una ammette
una moltiplicazione dei combinatori fondamentali (I, K, S) per ogni tipo, l'altra assume che i combinatori possano ricevere infinite assegnazioni di tipo e
pone in primo piano il meccanismo di questa assegnazione. Si introduce così
una distinzione fra termini: termini che denotano tipi e termini più propriamente denotanti funzioni che vengono costruiti nel solito modo. In più si assume una costante relazionale binaria F sì da leggere FaX come «ad X è assegnabile il tipo a », dove X è un termine; si tratta poi di fornire regole su F
che stabiliscano il meccanismo dell'assegnazione. Naturalmente esiste una corrispondenza fra le due formulazioni, ma l'importante è che mediante una scelta
opportuna dei tipi fondamentali (ad esempio assumendo un tipo per i numeri
naturali, una costante o per lo zero e una s per il successore) possiamo costruire
in modo unitario una teoria dei funzionali di tipo finito a partire dalle funzioni
numeriche. Accanto ai combinatori fondamentali d'altra parte possiamo assumere altri combinatori che ci permettono di introdurre schemi di definizioni per
funzioni sempre più complesse.
È così che Andrzej A. Grzegorczyk nel 1964, L. E. Sanchis nel 1967 e
William W. Tait nel 1965 e '69 sono riusciti a formulare la teoria dei funzionali
di Godei in modo combinatorio e più in generale a definire nozioni di ricorsività
per oggetti di tipo superiore. Anche per questi sistemi estesi si pone naturalmente
il problema della convertibilità a termini normali e della unicità di questa convertibilità. Si tratta allora di estendere i risultati di Church e Rosser: questo è
possibile, ma mentre per il sistema basico si può dare una dimostrazione dell'esistenza di forma normale che sfrutta solo l'induzione sui numeri naturali, per
questi sistemi estesi occorre postulare principi d'induzione più forti (nel caso dei
funzionali di Godei l'induzione fino a e: 0 , come già ricordato nel capitolo v del
volume ottavo). La cosa importante è che l'uso dei combinatori in questo con173
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
testo permette un'analisi unitaria e profonda dei principi di recursione utilizzabili nella definizione di funzioni di tipo superiore.
Conosciamo il ruolo che questi funzionali hanno nella teoria della dimostrazione dopo la dimostrazione di coerenza dell'aritmetica data da Godel nel 195 8.
La cosa si può estendere a teorie più complesse quali l'analisi intuizionista, ecc.,
e in generale (come fatto da Tait) è possibile, a partire dalla teoria dei combinatori,
formulare una teoria generale del ragionamento costruttivo. Vedremo più avanti
un altro strettissimo contatto fra teoria della dimostrazione e combinatori. La
individuazione di questi contatti pone in luce la fecondità dell'approccio originario di Curry, .ma nello stesso tempo fa risaltare un aspetto insoddisfacente di
tutta la teoria, costituito dal suo carattere esclusivamente formale. Si è posto
così ripetutamente il problema di fornire una giustificazione concettuale del sistema basico e delle sue estensioni esibendo delle interpretazioni precise che rendano possibile la sua lettura come teoria delle funzioni parziali. Uno dei risultati
più significativi a questo riguardo ottenuto negli ultimi tempi è dato dalle interpretazioni che Dana Scott ne ha fornito in termini di teoria dei reticoli. L'idea di
fondo sfrutta la possibilità di ordinare i termini combinatori visti come funzioni
parziali in base ai rapporti di inclusione dei loro domini. L'ordine che si ottiene
in questo modo ammette una strutturazione in termini di reticoli completi sicché
ad esempio si può stabilire un preciso contatto tra i teoremi del punto fisso validi
per reticoli completi e analoghi teoremi dimostrabili nel calcolo dei combinatori.
L'interpretazione di Scott avviene all'interno di una teoria generale della computazione che sembra aver ricevuto negli ultimi tempi notevole interessamento
da parte dei computer scientists.
Come vedremo nella terza parte è però possibile un altro tipo di giustificazione concettuale del sistema dei combinatori, che si basa sui rapporti fra
regole di conversione e aggiunzione di funtori nella teoria delle categorie cartesiane chiuse.
4) La fondazione intuizionista
Come già sottolineato nel capitolo v del volume precedente, la problematica dell'intuizionismo ha un carattere nettamente diverso da quella degli altri
indirizzi, nel senso che l'obiettivo fondamentale non è di giungere a una giustificazione o a una ricostruzione della matematica classica, ma piuttosto di costruire una matematica alternativa i cui concetti base abbiano contenuto costruttivo; e abbiamo già avuto occasione di ricordare come dal I 9 3I in poi,
a partire dalla formalizzazione della logica intuizionista, abbia avuto inizio il
programma di assiomatizzazione della matematica intuizionista. Questo programma ha portato alla codificazione di settori centrali della pratica matematica costruttiva. Alla formalizzazione dell'aritmetica sono seguite varie formulazioni
dell'Analisi, la formalizzazione della teoria delle specie (corrispondente intuizioni174
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
sta del concetto di insieme), l'assiomatizzazione della teoria delle definizioni induttive iterate, ecc. Accanto a queste teorie, che costituiscono il nucleo centrale della
matematica intuizionista (nel senso che svolgono ruoli analoghi a quelli che aritmetica, teoria degli insiemi e Analisi svolgono nella matematica classica) si è
avuto. un parallelo ampliarsi del discorso intuizionista anche per quello che riguarda la topologia e l'algebra, dopo i primi lavori del 1956 di Heyting relativamente a quest'ultima e con le recenti indagini di A.S. Troelstra sulla topologia.
In una prospettiva più autonoma rispetto all'intuizionismo ma certamente
legata ad esso si situa il lavoro del 1967 di Errett Bishop sull'Analisi costruttiva
che ha segnato un evento importante dell'indagine in questo senso. Partendo
da un programma in netto antagonismo con la fondazione insiemistica e con
l'approccio hilbertiano, Bishop è riuscito a dimostrare come un'ampia parte dell'Analisi classica si possa ricostruire su basi costruttive. Non avrebbe senso entrare nei dettagli ç:lella descrizione di tutti questi sistemi; quello che per noi conta
è che essi testimoniano, con le discussioni che hanno suscitato circa la loro accettabilità dal punto di vista costruttivo, la fecondità dei postulati iniziali di
Brouwer e la possibilità di concretare. i suoi programmi in una vera e propria
nuova pratica matematica.
-Differenti sono i problemi che essi· pongono dal punto di vista più strettamente fondazionale. Per accertare le potenzialità di questi sistemi, per indagare
il senso del loro carattere costruttivo, per determinare infine qual è lo status di
principi proposti e discussi, quali ad esempio lo schema di Markov o altri principi brouweriani, si è imposta up'analisi metamatematica di questi sistemi. Dal nostro punto di vista le novità piÒ interessanti delle recenti indagini sull'intuizionismo riguardano appunto questo aspetto. Come nel caso classico, lo studio dei
sistemi intuizionisti si può condurre sia dal punto di vista della te9ria della dimostrazione (analisi della struttura delle prove) sia da quello semantico (mediante
un'elaborazione delle interpretazioni delle teorie). È in questa seconda direzione
che l'indagine si stacca decisamente da quella analoga sui sistemi classici. Se
infatti è possibile - come vedremo - fornire interpretazioni dei sistemi intuizionisti sulla base della teoria degli insiemi (paradigmi di queste interpretazioni
sono l'analisi in termini di strutture di Kripke o di strutture topologiche) si
pone d'altra parte il problema ben più urgente dell'elaborazione di interpretazioni
plausibili dal punto di vista costruttivo e quindi di necessità non insiemistiche:
è attraverso queste infatti che è possibile non solo valutare la potenza delle teorie
in esame (cosa questa possibile anche con costruzioni classiche) ma per così dire
estrarne il contenuto costruttivo che costituisce la loro ragion d'essere.
Tentativi di formulare interpretazioni di questo tipo, come abbiamo visto
nel capitolo citato, si sono succeduti fin dagli anni quaranta, e i due esempi più
significativi sono sostanzialmente la realizzabilità di Kleene con le sue molteplici
diramazioni e l'interpretazione mediante funzionali proposta da Godei nel 1958.
175
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Partendo dall'idea base che ogni asserto intuizionista è un asserto sull'esistenza
di una costruzione, tutte queste proposte hanno come scopo quello di individuare la classe delle operazioni costruttive che garantiscono la validità degli
asserti appartenenti a date teorie intuizioniste. In sostanza tutte queste interpretazioni si basano cioè sull'analisi delle formule della teoria formale mediante
funzionali che estraggono il loro contenuto costruttivo: ad ogni formula d della teoria viene associata una formula d* del sistema interpretante che « traduce »
in termini di esistenza di funzionali il significato della formula d.
Il carattere costruttivo di questa interpretazione può essere giustificato in
varie maniere e nel 1967 Tait ha proposto, partendo proprio dal sistema T dei
funzionali di Godei, un modo estremamente fecondo per far questo. L'idea, che si
riconoscerà come familiare dopo aver letto le pagine sui combinatori, è che il sistema e gli schemi definitori per i funzionali primitivi ricorsi vi vanno visti come regole
di computazione per termini piuttosto che come schemi definitori. La differenza è
significativa in quanto in questo modo si dà della teoria di Godei un'interpretazione intensionale e non estensionale: gli oggetti in esame non sono più entità
astratte insiemistiche (funzionali) ma definizioni di funzionali cioè funzionali in
intensione. Sono questi i veri e propri oggetti costruttivi. Il problema centrale è
quello di determinare quando valgono certe equazioni tra termini che denotano
funzionali. Se, cOme proposto da Tait, accettiamo il punto di vista intensionale,
queste equazioni non vanno più riguardate come identità fra gli oggetti designati
dai termini, bensl come asserti che stabiliscono che le procedure di computazione
associate ai singoli termini coincidono; il problema è allora quello di dimostrare
queste coincidenze sulla base delle regole di computo che definiscono i termini
i.9-trodotti: alla identità tra funzioni si sostituisce dunque l'eguaglianza definitoria
(deftnitional equaliry). Il modo più adeguato per analizzare da questo punto di vista
i funzionali è quello di introdurli secondo lo stile della logica combinatoria, ché
allora diviene possibile determinare l'eguaglianza definitoria tra due termini t e
t' che « denotano » funzionali come convertibilità di t e t' ad uno stesso termine
t'' in forma normale. La teoria dei combinatori, come già visto, si rivela cosi
come il contesto più naturale per lo studio delle funzioni dal punto di vista intensionale o in altre parole per lo studio delle procedure di computo dei termini,!
La valutazione del carattere costruttivo della classe di funzionali introdotta
dipende dalla plausibilità delle procedure induttive necessarie o in altre parole
dalle proprietà delle regole della computazione. In questo contesto è possibile
I Si vede anche come il problema centrale
di provare che quelle date sono definizioni di
funzioni si traduca nel seguente: dimostrare che
per ogni termine esiste una sua forma normale
(esistenza) e che questa forma è essenzialmente
unica (teorema di Church-Rosser). Mentre l'unicità per il sistema T di Godei si può dimostrare
con mezzi strettamente finitisti, in generale l'esistenza comporta il ricorso a procedure che possono essere non finitiste. È importante il fatto
che comunque è sempre possibile dimostrare che
per due termini che hanno forma normale è decidibile la relazione di convertibilità.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
reintrodurre l'approccio estensionale postulando, oltre alle ordinarie regole di
conversione, il seguente schema 'YJ secondo il quale, se x non è libera in b,
( "'J)
ì..x. b(x) si converte in b,
che non è altro che una forma di assioma di estensionalità. Dal punto di vista
costruttivo il problema è se l'assunzione di questo schema sia corretta e su questo punto le discussioni sono aperte. Comunque, quale che sia la posizione sull'estensionalità, una volta che si sia dimostrata l'esistenza e l'unicità di forme
normali è possibile costruire un modello di termini per la teoria in esame. Modello del sistema T di Godei ad esempio sarà l'universo delle classi di equivalenza dei termini rispetto all'eguaglianza definitoria, su cui è definita l'operazione
di applicazione determinata dalle regole di computazione. È in questo senso che
l'approccio in termini di computabilità ci fornisce modelli per le teorie esaminate.
Dal lavoro di Tait in poi l'approccio in termini di computabilità alla interpretazione delle teorie intuizioniste si è sempre più esteso e ha portato a risultati
decisamente interessanti. Basti pensare ai lavori dello stesso Tait sui funzionali
a recursione sbarrata (1971) necessari per interpretare l'Analisi intuizionista, e
ai lavori del 1970 di W.A. Howard sul collegamento fra computazione di termini e induzione su ordinali in cui viene analizzato in dettaglio come la dimostrazione dell'esistenza per ogni termine che definisce funzionali ricorsivi primitivi sia legata all'assegnazione di ordinali a questi termini e all'assunzione di
principi di induzione sul segmento di ordinali utilizzato. A ciò vanno aggiunti
i lavori del 1975 di Per Martin-Lof sulla teoria semplice dei tipi intuizionista,
che rivestono estrema importanza perché è nell'insieme dei tipi che si trovano
le varie costruzioni di cui si ha bisogno nell'interpretazione delle varie teorie.
Portando avanti un progetto iniziato da Scott nel 1970, che mirava ad una definizione generale di validità costruttiva ma che costruttivamente non era plausibile, e sulla base di lavori analoghi di Kreisel e Goodman, Martin-Lof ha formulato nel 1974 un sistema di teoria dei tipi plausibile intuizionisticamente; per
questo sistema, o meglio, per i termini di questo sistema, è riuscito a dimostrare
un teorema di forma normale fornendo così un modello della teoria i cui oggetti
sono appunto i termini chiusi. Ne consegue come corollario che ogni funzione
numerica costruibile nella teoria dei tipi (per cui cioè c'è un terinine della teoria
che la denota) è computabile in modo meccanico. Ciò deriva dal fatto che la relazione di convertibilità è decidibile, il che è a sua volta conseguenza della validità
della proprietà di Church-Rosser per i termini del sistema. Diversamente che
per il sistema T di Godei però quest'ultimo fatto non si può provare con metodi finitisti.
In questa prospettiva di ricerca di un concetto di modello per teorie.intuizioniste si situa un altro recente lavoro di Martin-Lof che formula una nozione
177
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
generale di modello per una classe molto ampia di queste teorie: escluse sono
quelle che contengono assiomi per sequenze di scelta. Martin-Lof insiste qui
sulla necessità di escludere un'interpretazione estensionale dell'eguaglianza come
non adeguata dal punto di vista costruttivo e propone la sua sostituzione nella
costruzione di modelli intuizionisti con l'eguaglianza definitoria. Questo porta
al rifiuto della regola 'YJ e quindi rende impossibile provare la validità di certi
principi rispetto alle interpretazioni su modelli di termini in cui la convertibilità
è così ristretta. L'idea di Martin-Lof è che per avere senso costruttivo una relazione di eguaglianza deve essere decidibile e se si assume come base per la dimostrazione di questa decidibilità quella della relazione di conversione, non si può
in alcun modo accettare che l'identità fra termini coincida con l'identità fra gli
oggetti denotati: la convertibilità ci dà infatti un'eguaglianza intensionale che
non si può confondere con quella fra gli oggetti astratti denotati. Per questa
ragione secondo Martin-Lof, se vogliamo avere come modello quello dei termini, non si può accettare la validità dell'assioma (a= b) V --,(a= b) per gli
oggetti di tipo superiore. È notevole il fatto che entro lo schema generale di
Martin-Lof con questa vincolante è possibile riottenere le varie interpretazioni
in termini di realizzabilità proposte a partire da Kleene.
Venendo ora all'analisi dal punto di vista della teoria della dimostrazione,
troviamo che anche in questo contesto è essenziale il ruolo della formulazione
in termini di combinatori e anzi non si verifica quel divario netto fra teoria della
dimostrazione e teoria dei modelli che esiste nel caso classico. C'è infatti uno
strettissimo legame fra l'elaborazione di modelli di termini come concepita sopra
e l'analisi delle dimostrazioni di una teoria formulata stile deduzione naturale.
La possibilità stessa infatti di dimostrare che una certa struttura di termini è
modello di una teoria è strettamente legata alla possibilità di fornire un'analisi
combinatoria (nel senso della teoria dei combinatori) della struttura delle dimostrazioni della teoria: in quest'ottica, le regole di deduzione ci danno un modo
per determinare, date le costruzioni per le premesse, le costruzioni per le conseguenze. È quello che si verifica nel caso classico dimostrando il teorema di validità. Il rapporto è duplice: da una parte va nel senso detto sopra cioè ci permette
di dimostrare che certi insiemi di termini sono modelli, dall'altra ci consente di
dimostrare teoremi di normalizzazione per le dimostrazioni di una teoria.
Quello che sta alla base di questa possibilità è il collegamento fra calcoli
della deduzione naturale e teoria della funzionalità cui si è accennato sopra parlando della teoria dei combinatori. Diamo un'idea di cosa questo possa significare
in un caso particolarmente semplice. Supponiamo di avere un linguaggio del
primo ordine i cui unici operatori logici siano ::.> e V. Ad ogni formula d del
linguaggio associamo un'infinità di variabili x'{ e intuitivamente interpretiamo
x'{ come l'i-esima assunzione in una dimostrazione di .4. Useremo poi a, b, c, ...
come nomi per dimostrazioni. Parallelamente introduciamo un insieme infinito
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
di variabili x{ che intenderemo scorrere su nomi di individui; useremo poi t,
s, ... come nomi di individui. Scriviamo inoltre a l= d per dire che a è una
dimostrazione di d. A questo punto possiamo collegare a dimostrazioni nel
calcolo della deduzione naturale termini costruiti a partire dalle variabili e le
costanti sopra date utilizzando l'operatore di astrazione e l'operazione di applicazione. Per far questo basta correlare ad ogni applicazione di regole un termine opportuno. Cominciamo dalle regole di introduzione, che nel nostro caso
saranno
IV
I=>
Ad una applicazione di I ::::>, supponendo che b l= fJ8, possiamo associare il termine 'Axf'. ab. La cosa è intuiti va in quanto il termine viene a denotare quell'operazione che ad ogni assunzione xf di d fa corrispondere una dimostrazione di
fJ8; mediante l'applicazione di À, xf~ diviene vincolata e il significato della regola
I::::> è esattamente questo, di «scaricare» un'assunzione di d. In generale le variabili libere in un termine indicano le assunzioni da cui la dimostrazione ad
esso associata dipende. Discorso analogo per I V: all'applicazione della regola
assoderemo il termine )..xl. b. Anche qui il termine denota quella funzione che applicata a ogni individuo t ci darà una dimostrazione di fJ8(t). La restrizione sulla
regola di conversione per )..xl. b corrisponde alla restrizione sull'applicazione della
regola nel calcolo. Passiamo ora alle regole di eliminazione.
E=>
!
d~fJ8
EV
l
d
VxlfJ8
fJ8
t
fJ8[t Jx1 ]
Qui l'operazione sui termini sarà l'applicazione. Precisamente faremo corrispondere a E::::> un termine ca dove c l= d::::> fJ8 e a l= d. Intuitivamente: la dimostrazione di d::::> fJ8 è una funzione che ad ogni dimostrazione di d associa una
dimostrazione di fJ8. Analogamente a E V assoderemo il termine c(t) dove t è il
nome per un individuo e c l= fJ8: c è quindi una funzione che a ogni nome di
individuo t associa una dimostrazione di fJ8(t). Poiché ogni dimostrazione non
è che una successione finita di applicazioni di queste quattro regole, ad ogni
dimostrazione sarà univocamente associato un termine.
In questo modo si è data una precisazione dell'interpretazione intuitiva di
::::> e di V fornita da Heyting, quindi un'analisi del significato costruttivo degli
operatori, che è parallela a quella data dalle regole. Quanto alle dimostrazioni
179
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
delle eventuali assunzioni, la loro natura dipende ovviamente dal tipo di assunzioni con cui abbiamo a che fare e quindi dal tipo di teoria che stiamo analizzando. Se esse sono equazioni, le dimostrazioni potranno essere prove della convertibilità ad una stessa forma normale di dati termini. Il collegamento si può estendere a linguaggi più ricchi di quello da noi esaminato; ciò che conta è che in
questo modo è possibile stabilire una preci~a corrispondenza fra i passi che ci
possono permettere di ridurre una dimostrazione in forma normale e le regole
di conversione per termini. Consideriamo ad esempio la dimostrazione
[d]
fJ6
che si riduce a
dove è stato eliminato il detour costituito dall'applicazione di una introduzione
seguita da una eliminazione. Se consideriamo i termini corrispondenti avremo
questa situazione. Alla prima dimostrazione corrisponde il termine (ì...xd. b) a;
alla seconda b [a], vale a dire una dimostrazione di b che dipende da a (il termine
si ottiene da b che contiene una variabile libera sostituendola con a). Dalla regola della À-conversione abbiamo che il primo termine si converte nel secondo,
quindi al passo di riduzione corrisponde la conversione dei termini associati.
La cosa si può estendere a tutte le altre regole, utilizzando, anche, oltre alla
À-conversione, la regola 'Yl· Per sapere se una dimostrazione si converte in forma
normale basta quindi sapere se il termine associato si converte a forma normale
applicando le regole del calcolo dei combinatori. Questa corrispondenza si può
modificare ed estendere a seconda della teoria e della logica in esame.
È con un metodo del genere che Martin-Lof è riuscito a fornire un'analisi
dal punto di vista della teoria della dimostrazione di due sistemi fondamentali
della matematica intuizionista: quello delle definizioni induttive iterate e quello
della teoria delle specie. Dopo aver opportunamente formulato in termini di
deduzione naturale i sistemi presenti nella letteratura, egli infatti ha introdotto
il concetto di dimostrazione computabile provando lungo linee analoghe a quella
sopra accennata che i passi di riduzione corrispondono ai passi di computazione;
in questo modo è riuscito a superare un ostacolo che si presenta nella dimostrazione dei teoremi di normalizzazione quando si ha a che fare con sistemi di ordine superiore) Quest'idea di associare termini a dimostrazioni per provare teoI La difficoltà è che in generale non è
detto che la complessità di un esempio di una
formula del tipo, poniamo, 'V X .5#, dove X è
una variabile predicativa, sia inferiore a quella
della formula stessa. Risulta così impossibile
l'ordinaria procedura induttiva con cui si dimo-
strano teoremi di normalizzazione. Associando
opportuni termini alle formule, Martin-Lof ha
potuto ridurre il problema della normalizzazione
a quello del computo dei termini associati, in
cui la difficoltà non si presenta.
ISO
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
remi di normalizzazione è stata sistematicamente sfruttata per la prima volta da
Jean-Yves Girard che l'ha applicata nel 1970 all'interpretazione dell'Analisi intuizionista e ad una dimostrazione dell'Hauptsatz per essa e per la teoria dei tipi. Il
risultato di Girard è centrale negli sviluppi recenti della teoria della dimostrazione
per i sistemi intuizionisti e non solo per essi. Prima del suo intervento, come già
ricordato nel capitolo v del volume ottavo, si possedevano solo dimostrazioni
non costruttive per l' Hauptsatz per l'Analisi intuizionista. L'applicazione del
concetto di computazione ha permesso di superare l'ostacolo.
L'interesse di tutti i risultati cui sopra si è accennato sta nel fatto che riguardano le teorie intuizioniste che corrispondono alle strutture fondamentali dell' Analisi e dei tipi. Risultati interessanti sono stati ottenuti però anche in altri
contesti utilizzando metodi non costruttivi, più precisamente modificazioni o
arricchimenti delle interpretazioni non costruttive della logica intuizionista. In
una serie di lavori del I 968 Scott è riuscito ad estendere l'interpretazione topologica della logica intuizionista data da Tarski all'Analisi intuizionista fornendo
modelli estremamente interessanti che se pur non hanno in quanto tali una giustificazione costruttiva, lumeggiano le alternative che si presentano una volta
che si vogliano chiarire formalmente le idee di Brouwer. In questa stessa direzione, ma in vista invece dell'algebra intuizionista, si situano alcuni lavori di
Dov Gabbay e H. Smoryski che hanno gettato le basi per una vera e propria
teoria dei modelli intuizionista fondata sulla semantica di Kripke. È risultato
così possibile dimostrare analoghi dei risultati classici sulla completezza della
teoria dei campi algebricamente chiusi e di quella dei campi reali chiusi, analoghi
del teorema di interpolazione di Craig, ecc. L'interesse di questi lavori sta in due
fatti sostanzialmente: in primo luogo essi hanno permesso di ottenere informazioni sulla metamatematica dei sistemi intuizionisti che difficilmente si sarebbero
potute ottenere utilizzando esclusivamente strumenti costruttivi; in secondo luogo hanno permesso di collegare la matematica intuizionista con alcuni aspetti
fondamentali della ricerca classica. I collegamenti riguardano in particolare i
modelli booleani e la rappresentazione di strutture algebriche, quali gli anelli,
come sezioni di fasci. In altre parole è possibile vedere certi aspetti dell'Analisi
e dell'algebra intuizioniste in un contesto diverso da quello intuizionista « classico». Come dimostrato da Christopher H. Mulvey c'è uno stretto collegamento
tra lo studio dei fasci di strutture algebriche e la teoria intuizionista di queste
strutture; analogamente c'è un collegamento tra i modelli topologici dell'Analisi
definiti da Scott e l'interpretazione dell'Analisi all'interno di un topos di prefasci. Ma diremo più avanti di questo.
Qui ci limitiamo a ricordare un altro tipo di indagine che si muove in questa
direzione. Si tratta del lavoro di Melvin Chris Fitting del 1969 sui rapporti fra
forcing nella teoria degli insiemi e logica intuizionista. Che tra forcing di Cohen
e nozione intuizionista di verità ci sia un collegamento è già stato sottolineato a
181
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
suo tempo. Fitting ha reso operante questo rapporto dimostrando l'indipendenza
di IGC e di AS utilizzando lo studio di modelli alla Kripke di una formulazione
degli assiomi di 31J6. L'idea è che, come dimostrato a suo tempo da Godei, è
possibile tradurre una teoria classica in una intuizionista e che una formula d
senza occorrenze del quantificatore universale è valida classicamente se e solo se
--, --, d Io è intuizionisticamente. Se quindi consideriamo una formulazione di
31J6 in cui non si utilizzino i quantificatori universali, per dimostrare che ad
esempio AS non è conseguenza classica di 31J6 è sufficiente provare che esiste
un modello intuizionista di 31J6 in cui non risulta vero --, --, AS. Il risultato di
Fitting è interessante in quanto apre tutta una nuova prospettiva che ha del resto una controparte nella pratica matematica (si veda nella parte terza quanto
riguarda l'interpretazione in topoi di fasci e prefasci): l'uso di nozioni non classiche di verità per lo studio di strutture classiche.
Un altro esempio verrà dato più avanti, quando si considereranno i lavori
di Abraham Robinson (scomparso nel 1975) sul forcing generalizzato e il suo
impiego in algebra.
5) Alcuni sviluppi della metamatematica generale: teoria della dimostrazione e teoria dei
modelli
Già parlando degli sviluppi delle ricerche più strettamente fondazionali abbiamo avuto modo di ricordare alcuni dei risultati più interessanti ottenuti negli
ultimi anni in quell'area di studi che genericamente possiamo chiamare metamatematica. Accanto però alle ricerche che considerano specificamente teorie
particolari, esiste tutto un lavoro dedicato alla metamatematica generale di cui
teoria della dimostrazione e teoria dei modelli costituiscono le articolazioni principali.
Per quanto riguarda la teoria della dimostrazione va subito detto che i
risultati più significativi sono senz'altro quelli che siamo venuti citando nelle
pagine precedenti. Quello che piuttosto conviene sottolineare in questa sede è
il mutamento di prospettiva che ormai sembra essersi consolidato in questo
campo. Un'illustrazione concreta di ciò si può avere confrontando la prima e la
seconda parte dell'articolo di Kreisel A survry of proof theory uscite rispettivamente
nel 1968 e nel 1971. Mentre la prima parte è essenzialmente dedicata alla teoria
della dimostrazione riduttiva e i vari sistemi di deduzione naturale vengono presentati come strumenti per individuare il grado di evidenza dei principi usati,
concentrando l'interesse sulla dimostrabilità entro le teorie più che sulle modalità
di dimostrazione, la seconda pone al centro del discorso l'analisi diretta delle
dimostrazioni e riconosce, nei vari sistemi di deduzione naturale, tentativi per
l'analisi del concetto di prova. Il mutamento è interessante in quanto nella prima
parte Kreisel aveva esplicitamente dichiarato di considerare erronea l'opinione
di Gentzen, secondo la quale le regole costituiscono un'analisi del significato
182
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
degli operatori logici, riconducendo in sostanza quest'analisi ad una base semantica - sia essa insiemistica o costruttiva - che è indipendente ed anteriore
alla determinazione delle regole. In questo modo l'analisi delle dimostrazioni
anche se feconda sul piano tecnico risulta subordinata concettualmente ad una
preliminare concezione semantica. Il riportare in primo piano, come viene fatto
nel secondo articolo, il concetto di dimostrazione, significa accettarlo come elemento « naturale » dell'analisi degli operatori logici: in questo contesto l'analisi semantica, soprattutto quella in termini costruttivi o di computazione o altro,
non viene più posta come fondante, ma deve risultare collegata puntualmente
con le regole deduttive.
Un ripensamento del genere a nostro parere è in parte motivato dal sempre
maggiore distacco che si era venuto a creare fra la concreta pratica matematica e
ciò che la teoria della dimostrazione in senso riduttivo assume come tipico dell'esperienza matematica. Che tipo di informazioni forniscono risultati quali la
dimostrazione dell' Hauptsatz di Gentzen, o la dimostrazione del 195 8 di Géidel,
ecc.? Affermare che esse «giustificano » l'aritmetica o l'Analisi da un punto di
vista costruttivo può essere soddisfacente solo entro certi limiti, in quanto si ha
l'impressione che la sottigliezza delle dimostrazioni « dica » qualcosa di più di
questo; informazioni del genere, nel panorama della matematica come oggi viene praticata non sembrano particolarmente significative: e questo, si noti, anche
in quei settori della matematica in cui i problemi di effettività e costruttività sono
il tema stesso dell'indagine, si pensi alla dimostrazione automatica, alla problematica della computer science, ecc. È stato lo stesso Kreisel a porre in luce come,
nel suo complesso, la prospettiva generale hilbertiana non sia sufficientemente
« sofisticata » da permettere un autentico approfondimento della comprensione
dei problemi posti nella pratica dalla dimostrazione automatica o dalla computazione.
Il discorso si applica anche al modo tradizionale di vedere la teoria dell' effettivo. Tutto sommato, l'interesse dei logici in questo campo è stato, più che
per l'effettivo, per il non effettivo, vale a dire per le dimostrazioni della non esistenza
di algoritmi più che per la formulazione di procedure « semplici » per il confronto
e le analisi dei programmi delle macchine. Il ritorno a un interesse più esplicitamente diretto al concetto generale di dimostrazione (per quanto riguarda la
computazione si è già detto parlando delle generalizzazioni della ORT) costituisce ci sembra una presa di coscienza di questo fatto. È significativo che il maggior protagonista delle ricerche attuali sulla teoria generale della dimostrazione,
Dag Prawitz, abbia compiuto ricerche anche nel campo della dimostrazione automatica e che logici come Scott, Erwin Engeler, ecc. abbiano elaborato e raffinato nozioni sorte nella pratica logica in modo da rendere possibile questo
contatto con la pratica del calcolo automatico.
Non vogliamo peraltro sopravvalutare il ruolo di questa connessione: c'è
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
un interesse filosofico autonomo nella ripresa di un'analisi del concetto generale
di dimostrazione. Nella prospettiva di Prawitz, infatti, il ruolo di questa teoria è
quello di simulare e classificare le dimostrazioni intuitive mediante le loro traduzioni formali, ed il problema centrale diviene quello da una parte di fornire
una definizione di correttezza o di verità sulla base del procedimento dimostrativo,
dall'altra di formulare condizioni per la individuazione delle prove e quindi criteri per la loro identificazione: l'importanza filosofica di un simile programma
è innegabile. In quest'ordine di idee si situano alcuni recenti lavori di Prawitz
(1973, 1975) che partono dalla contrapposizione fra l'analisi semantica della correttezza degli argomenti fornita dal concetto di verità e quella che si può dare
riprendendo la concezione di Gentzen delle regole di introduzione e di eliminazione come analisi del significato degli operatori logici. Prawitz ha formulato
una nozione di verità per le dimostrazioni che sfrutta il collegamento fra passi
di riduzione e procedure di computo nel À-calcolo di cui sopra abbiamo parlato.
L'idea di fondo è che è plausibile assumere che l'equivalenza fra prove data
dalla relazione di riducibilità corrisponda all'equivalenza fra le prove intuitive
associate alle dimostrazioni formali. Di qui una giustificazione nuova del ruolo
dei teoremi di normalizzazione visti come risultati che permettono una partizione delle dimostrazioni: due dimostrazioni sono equivalenti se hanno la stessa
forma normale. In un certo senso quindi le forme normali ci permettono di individuare la complessità delle dimostrazioni intuitive e di classificarle su questa
base.
Buona parte dei lavori recenti dedicati alla teoria generale della dimostrazione indagano la possibilità di ottenere teoremi di normalizzazione per sistemi
logici di diversa potenza e di fornire un'analisi delle dimostrazioni in termini di
computazione via l'associazione di termini del linguaggio dei combinatori. Possiamo ricordare la dimostrazione del teorema di normalizzazione per la logica
del secondo ordine ottenuta da Prawitz nel I97I, i lavori sopra citati di Girard
del '71 e del '72 e le indagini sulla formulazione in termini di deduzione naturale
di teorie matematiche più specifiche di cui i lavori sopra citati di Martin-Lof costituiscono esempi cospicui. In questa direzione contributi interessanti si sono
avuti anche in Italia, ad esempio da parte di Carlo Cellucci che nel 1975 ha stabilito teoremi di normalizzazione per sistemi funzionali intermedi fra il sistema
T di Godei e· quelli di Girar d.
La teoria della dimostrazione è solo un aspetto dell'indagine generale sulle
proprietà logiche delle teorie che a partire dagli anni trenta si indica col nome di
metamatematica. Già nell'originale programma hilbertiano uno degli obiettivi
dell'analisi delle dimostrazioni doveva essere quello di permettere di risolvere il
problema della decisione per specifiche teorie. Nel capitolo v del volume ottavo
abbiamo ricordato come i risultati di Godei del I 9 3I abbiano aperto tutta una
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
problematica nuova in questo campo offrendo metodi per le dimostrazioni di
indecidibilità.l I risultati ottenuti a partire dagli anni trenta sulla decidibilità o
indecidibilità delle teorie sono numerosi ed è impossibile darne qui un resoconto
dettagliato. Ci limiteremo ad alcuni cenni, iniziando da problemi che non riguardano direttamente teorie, ma questioni di decisione - o di esistenza di algoritmi - che sono sorte nella ste~sa pratica matematica e che per lungo tempo, prima della creazione della teoria dell'effettivo, erano rimaste senza risposta.
L'esempio recente forse più significativo è il risultato ottenuto da Yu. V.
Matijasevic nel 1970, riguardante il decimo problema di Hilbert. Esso stabilisce
la non esistenza di un algoritmo in grado di decidere la risolubilità nel dominio
degli interi delle equazioni diofantee. La sostanza del risultato di Matijasevic
sta nella dimostrazione del fatto che i predicati della forma 3y(p(y)) = o, che
esprimono l'esistenza di almeno uno zero per il polinomio p(v) a coefficienti interi, coincidono con i predicati ricorsivamente enumerabili e quindi, come esistono predicati ricorsivamente enumerabili che non sono ricorsivi, esisteranno predicati « diofantei » che non sono ricorsivi. Questo significa appunto che - se
si identifica computabile con ricorsivo - non esiste l'algoritmo richiesto da Hilbert. Altri tipici problemi che si presentano nell'algebra e nella topologia sono
ad esempio i cosiddetti problemi della parola, che in generale hanno la forma seguente: dato un alfabeto finito A e delle regole di trasformazione per le parole
costruite su A, trovare un algoritmo in grado di determinare quando per due
qualsiasi parole t e t' è dimostrabile l'eguaglianza t= t'. Come si vede si tratta
di un problema di decisione per un particolare sistema formale i cui teoremi sono
le formule del tipo t= t', dove t e t' sono parole sull'alfabeto. Problemi del genere sono interessanti in quanto semigruppi e gruppi si possono presentare come sistemi di questo tipo dove l'operazione di concatenazione fra parole corrisponde all'operazione di gruppo o semigruppo e come equazioni di base (assiomi) si prendono le equazioni definitorie del gruppo o semigruppo: come è
noto infatti ogni gruppo si può presentare come quoziente di un gruppo libero
i cui elementi sono appunto parole e la cui operazione è la concatenazione; le
equazioni definitorie sono le equazioni che « generano » la congruenza rispetto
alla quale si fa il quoziente utilizzando le regole sull'identità.
Già nel 1948 Emil L. Poste A.A. Markov avevano dimostrato la indecidibilità del problema della parola per semigruppi e nel 1958 Petr Sergeevic Novikov e W.W. Boone indipendentemente hanno ottenuto un analogo risultato
per i gruppi. In tempi recenti risultati assai interessanti in questa direzione sono
stati ottenuti relativamente a problemi analoghi a quelli della parola, quali il
problema dell'immersione, il problema di Burnside e il problema dell'isomorfismo,
1 In generale questi metodi possono essere
diretti, nel senso che riproducendo sostanzialmente
la tecnica di Godei si mostra come costruire all'interno di una teoria un enunciato indecidibile,
oppure indiretti, nel senso che si riconduce l'indecidibilità di una teoria T a quella già nota di
una teoria T' mediante la definizione di un'interpretazione della seconda nella prima.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
che ci limitiamo a ricordare; una serie di contributi in questo senso è contenuta
in un volume del I 97 3 a cura di Boone e altri. Buona parte dei risultati relativi
a questi problemi sono stati ulteriormente estesi basandosi sul concetto di grado di indecidibilità e si è ad esempio dimostrato che esistono gruppi o semigruppi, a seconda dei casi, per cui il problema della parola ha un grado di indecidibilità assegnato. L'estensione è analoga a quella fatta nel caso delle teorie
e che ha portato a costruire teorie con problema della decisione avente un
assegnato grado di indecidibilità; ricordiamo i lavori in questo senso di Marian Bolkan Pour-El e Saul Kripke.
Dal punto di vista dei problemi della decisione in senso stretto, i risultati
più interessanti riguardano la decidibilità di teorie di ordine superiore al primo:
così ad esempio nel I96o J. Richard Buchi ha dimostrato che l'aritmetica del
secondo ordine con la sola operazione di successore è decidibile. Questo risultato è molto interessante in quanto questa teoria permette di esaminare in modo
duttile gli automi finiti (le macchine sequenziali). Nella stessa direzione si muovono le ricerche di J ohn Doner che ha esteso il risultato di Buchi al caso di
un'aritmeti&a al secondo ordine con un numero finito arbitrario di operazioni di
successore. Una teoria come quella studiata da Buchi si può vedere come un'assiomatizzazione degli insiemi bene ordinati con una sola operazione di successore; introducendo più operazioni di successore è possibile interpretare nel sistema
risultante la teoria di tipi d'ordine più generali e attenerne così, in vista del risultato di Doner, la decidibilità. I risultati sono poi stati estesi da Hans Lauchli
alla teoria degli ordini lineari formulata in un linguaggio del secondo ordine
debole.
Per quanto infine riguarda le teorie del primo ordine, dopo i risultati classici di Tarski che ha dimostrato la decidibilità della teoria dei campi algebricamente chiusi e di quella dei campi reali chiusi, si sono avuti alcuni altri risultati
di rilievo facendo largo uso della teoria dei modelli. Il punto di collegamento è
dato dall'osservazione di A. Janicak che ogni teoria assiomatizzata, coerente e
completa è decidibile,! Data allora una teoria coerente e assiomatizzata, per stabilire la sua decidibilità è sufficiente sfruttare i metodi di teoria dei modelli di
cui si è parlato nel capitolo v citato e che ci consentono di accertare la completezza. Il risultato forse più significativo è quello ottenuto nel I 96 5 da Ax e Kochen,
che hanno stabilito, per ogni p, la completezza di una assiomatizzazione dei
campi p-adici. L'applicazione di metodi « modellistici » alla teoria della decisione
si può estendere al caso di teorie non complete utilizzando una generalizzazione
del suggerimento di Janicak dovuta a Y.L. Ershov, il quale ha dimostrato che
r Per giustificare quest'osservazione basta
considerare che se la teoria è assiomatizzata saranno enumerabili i suoi teoremi e dall'enumerazione di questi, sfruttando la coerenza e la completezza, possiamo ottenere un'enumerazione dei
non teoremi considerando l'enumerazione delle
formule .SI>' dove -, .SI>' è teorema. Per ottenere
un metodo di decisione basta quindi procedere
a zig-zag fra le due enumerazioni.
186
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
una teoria assiomatizzata T è decidibile se esiste una successione { m1 }i<=w di m o
delli di T per cui !ì Th(mi)iEw = T dove Th(mi) è la teoria di l}l; e la successione
Th(m1), Th(m2) ... è ricorsiva. Applicando questo criterio Ershov ha ottenuto
una dimostrazione estremamente elegante del risultato di Wanda Szmielev sulla
decidibilità della teoria dei gruppi abeliani.
Il discorso ci ha portato in modo naturale alla teoria dei modelli e ai suoi
sviluppi recenti. I problemi di completezza e decidibilità, pur importanti, costituiscono solo un aspetto della problematica affrontata in questi ultimi anni. Le
direzioni più significative di ricerca riguardano però altre questioni, più precisamente lo sviluppo della teoria di Morley per le dimostrazioni di categoricità,
l'approfondimento del concetto di completezza rispetto ai modelli (m-completezza) per mezzo della nozione di forcing generalizzato introdotta da Robinson e
lo sviluppo della teoria dei modelli per linguaggi che estendono quelli elementari:
linguaggi infinitari, con quantificatori generalizzati, ecc. Abbiamo già avuto occasione di parlare dei risultati di Michael D. Morley sulla categoricità nel capitolo
citato. Per poter accennare agli sviluppi più recenti è opportuno soffermarsi
brevemente sul metodo utilizzato da Morley. L'idea base, grosso modo, è la
seguente. Mediante un opportuno arricchimento del linguaggio è possibile, data
una teoria T', ricondurre lo studio dei suoi modelli a quello dei modelli di una
teoria T subcompleta tale cioè che per ogni sottostruttura m di un modello di T,
Tu D(m), dove D(m) è il diagramma di m, è una teoria completa. Per studiare
i tipi di isomorfismo dei modelli di T' è sufficiente quindi concentrare l'attenzione sui modelli di T. Sia ora m un sottomodello di un modello di T. Possiamo
immaginare le estensioni di m modello di T come ottenute mediante aggiunzione
di un singolo elemento per volta. (È chiara l'analogia con la teoria dell'estensione
dei campi.) Chiamiamo estensione semplice di '}!un'estensione m[b] se è generata
da '}! u {b }. Ancora in analogia con la teoria dei campi possiamo dire che due
estensioni semplici Q3 e U: di '}! sono isomorfe su '}! se esiste un isomorfismo tra
di esse che lascia invariati gli elementi di 1}1. Lo scopo della teoria di Morley è quello di classificare i tipi di isomorfismo delle estensioni semplici di m così che risulti
possibile affrontare il problema dell'isomorfismo tra i modelli della teoria data.
L'idea è di classificare questi tipi di isomorfismo estendendo la distinzione che
esiste nella teoria dei campi fra elementi algebrici e trascendenti: alla base della
classificazione di Morley sta la possibilità di assegnare un grado di « trascendenza » agli elementi delle estensioni di m.
Si tratta di considerare i tipi l che questi elementi realizzano. Sostanzialmente, un tipo su m (o compatibile con· m) è un insieme non contraddittorio e
r Non si confondano questi tipi, che sono
particolari classi di formule in un linguaggio, con
i tipi di isomorftsmo, che sono classi di strutture fra
loro isomorfe. Per evitare confusioni scriveremo
da ora in poi « i-tipo » per « tipo di isomorfismo ».
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
massimale di formule con una e una sola variabile libera formulate nel linguaggio Llll che possiede nomi per .gli elementi di '2l e tale che ogni suo sottoinsieme
finito è soddisfatto da almeno un elemento di '2l o di una estensione di '2{. In
base a un semplice argomento di compattezza si può provare che se P è un tipo
compatibile con '2l esisterà un'estensione semplice '2l [bl di '2l tale che b realizza P
(soddisfa cioè tutte le formule di P) in ogni estensione di '2l modello di T. Questo
discende dal fatto che T è subcompleta. È facile provare che se tanto b che c
realizzano P esisterà un unico isomorfismo Sll[b l~ '2l[cl su '2l per cui b viene
mandato in c. All'inverso è ovvio che se S)l[bl e Sll[c] sono isomorfi su '2l rispetto
a un isomorfismo che manda b in c, b e c realizzeranno gli stessi tipi. Ne concludiamo quindi che nel caso T sia subcompleta gli i-tipi delle estensioni semplici
di '2l sono univocamente individuati dai tipi compatibili con S)l. Il passo successivo sta nell'indurre una struttura sufficientemente ricca sulla famiglia S('2l)
dei tipi compatibili con '2l. Si tratta di una struttura topologica: è infatti possibile definire una topologia su S('2l) prendendo come base gli insiemi
UF(r)
= {PI F(x)
E
P}
dove F(x) è una formula di Llll con libera la sola x. Lo spazio risultante è compatto e di Hausdorff. Ridotta la classificazione degli i-tipi a quella dei tipi compatibili con '2l, il problema è quello di classificare i punti dello spazio S(S)l). Senza entrare in particolari, diremo che Morley riesce ad assegnare ad ognuno di
questi punti un grado e un rango: i ranghi sono cardinali e i gradi sono numeri
naturali ed è possibile fornire regole di computazione per entrambi. In questo
modo si riesce ad introdurre procedure induttive nello studio degli i-tipi e si
dispone quindi di un mezzo potentissimo per la loro classificazione.
La nozione di rango permette di isolare varie classi di teorie dal punto di
vista della realizzazione dei tipi, e in conseguenza di ciò della categoricità in
potenza. Non è possibile qui entrare in dettagli ulteriori. Ci basti osservare che
a partire dal 196 5, anno in cui Morley presentò la sua teoria, si sono succeduti
lavori molto importanti che sfruttano in molteplici direzioni il concetto di tipo
e la possibilità di assegnare gradi. Fondamentali in questo contesto i lavori di
Saharon Shelah, che oltre a estendere il risultato di Morley al caso di teorie più
che numerabili ha gettato le basi per uno studio sistematico di una teoria dei
modelli a partire dai concetti sopra introdotti, ottenendo ad esempio risultati
sui numeri di Hanf delle algebre semplici, sul numero dei modelli non isomorfi
ma elementarmente equivalenti della stessa cardinalità, ecc.l
Come dicevamo, altro aspetto importante della ricerca in questi ultimi anni
I Un'applicazione estremamente significativa della nozione di rango dal punto di vista
algebrico è stata fornita da Leonor Blum che
nel 1968 ha dato un'analisi della teoria dei campi
differenzialmente chiusi di caratteristica zero
ed in particolare è riuscita ad individuare un
« buon » concetto di chiusura differenziale per
questi campi.
188
www.scribd.com/Baruhk
La logica nei ventesimo secolo (Il)
è costituito dallo sviluppo che ha ricevuto la teoria del forcing generalizzato
introdotta da Robinson nel I 969 e cui abbiamo già accennato nel primo capitolo.
Ci sono sostanzialmente due versioni del forcing nella teoria dei modelli : una
versione finita presentata originariamente e quella infinita cui Robinson giunse
nel 1970. L'idea di fondo è di concepire il forcing non più come relazione fra
insiemi e formule, ma tra strutture e formule e di ottenere in questo modo .non
insiemi generici, ma strutture generiche. Supponiamo di avere una classe ~ di
strutture induttiva, chiusa cioè rispetto alla somma su catene, e supponiamo che
mE ~. La nozione m[>d (la struttura mforza la formula d) si ottiene considerando le possibili estensioni di m appartenenti a ~. La definizione procede
per induzione sulla complessità delle formule, e mentre nel caso di formule
atomiche, di congiunzione, disgiunzione e quantificatore esistenziale coincide
con la definizione di verità, se ne differenzia rispetto alla negazione: si definisce
infatti che m [>--,d se non esiste estensione m di m in ~ tale che m [> d.
Se definiamo V xd come --, 3 x--, d e d ::J fJì come --,d V flì, avremo che
anche l'implicazione e il quantificatore universale si comportano diversamente dal caso classico. Quella ora data è la definizione di forcing infinito; il caso
finito si ottiene prendendo per ~ una classe di strutture finite.
L'interesse della nozione di forcing sta sostanzialmente nel fatto che consente di generalizzare il concetto di m-completezza. Chiamiamo infatti generica
rispetto a una classe ~ una struttura mE ~ per cui verità e forcing coincidono:
è facile dimostrare che se ~ è induttiva ogni struttura in ~ sarà sottostruttura
di una struttura generica. Che cosa è una struttura generica? Sostanzialmente
una struttura in cui una formula d non può risultare falsa (non si può quindi
avere m [> --,d) se esiste almeno un'estensione di min cui d è vera. La cosa
diviene interessante se d è una formula esistenziale contenente eventualmente
nomi per elementi di m; dire che mè generica significa in questo caso che se
esistono elementi Xt, . . . , Xn in un'estensione di m per cui flì(at, ••• , ak, Xt,
••• , Xn) è vera, allora elementi del genere esisteranno già in me CÌÒ comporta
che msarà esistenzialmente chiusa in ~' cioè renderà vere tutte le formule esistenziali in L<JI vere in una qualche estensione di mappartenente a ~. In un certo
senso quindi una struttura generica è una struttura con « sufficienti elementi ».
Un esempio classico di struttura esistenzialmente chiusa è dato dai campi
algebricamente chiusi, come mostra il Nullstellensatz di Hilbert: ogni formula
3 y 1 , •• • ,ynflì della teoria dei campi equivale ad una formula che afferma che esistono elementi y1, ... , )'n che soddisfano un opportuno sistema di uguaglianze
e disuguaglianze fra polinomi, ed il Nullstellensatz afferma che se una formula
del genere è soddisfatta in una estensione di un campo algebricamente chiuso lo
è già nel campo stesso. q è un altro fatto da notare: la chiusura esistenziale delle
strutture generiche comporta che se me msono strutture generiche e mè sottostruttura di m, ~{ sarà sottostruttura ele!lleJJiare di m. È quanto si verifica fra
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
campi algebricamente chiusi di uguale caratteristica come dimostra la m-completezza della relativa teoria. Questo permette di capire in che senso il forcing
consente di estendere il concetto di m-completezza. Supponiamo che T sia la
teoria dei campi e r la classe dei suoi modelli; r è chiaramente induttiva in
quanto somme su catene di campi sono campi. Esiste quindi per quanto detto
sopra, per ogni campo 'll, una sua estensione generica; d'altra parte, come abbiamo testé visto, se r è la classe dei campi generici e T la sua teoria, T sarà
m-completa. Ne concludiamo allora che la teoria dei campi generici è la m-complezione della teoria dei campi. Ma Robinson aveva dimostrato che una teoria
può avere al massimo una m-complezione e la m-complezione della teoria dei
campi è la teoria dei campi algebricamente chiusi. Ne consegue che campi algebricamente chiusi e campi generici coincidono e che abbiamo trovato un nuovo
modo per ottenere, quando esiste, la m-complezione di una teoria: basta considerare, nel caso la teoria sia induttiva, la classe delle strutture generiche e
prenderne la teoria.
L'importanza di questo collegamento fra strutture generiche e m-complezione sta nel fatto che non sempre una teoria ha una m-complezione mentre è sempre
possibile, purché sia induttiva, associarle il forcing companion: la teoria dei suoi
modelli generici. Quel che conta è che quando la m-còmplezione esiste, essa
coincide col forcing companion: si tratta quindi di una vera generalizzazione.
L'idea originaria di Robinson era di ottenere, via il concetto di forcing, una generalizzazione del concetto di struttura algebricamente chiusa applicabile a
strutture diverse dai campi, venendo incontro così ad un'esigenza che nasce
all'interno stesso della pratica algebrica. Che almeno in parte questo obiettivo
sia stato raggiunto mediante il concetto di struttura generica lo si può affermare
considerando il fatto che casi particolari di questa nozione sono le definizioni di
algebricamente chiuso date per particolari teorie quali quella dei gruppi, dei
campi reali, ecc. Una conferma della fecondità del concetto è fornita dai recenti
lavori di un allievo di Robinson, W. Wheeler, che nel 1974 è riuscito a sviluppare
una teoria della chiusura algebrica per gli anelli di divisione (corpi non commutativi) e riottenere così per via generale risultati quali il Nul/ste/lensatz anche
per queste strutture notevolmente più complicate dei campi.
Sempre in questo contesto un'altra direzione di ricerche si è concentrata
su un vecchio programma di Robinson, lo studio dell'aritmetica non standard:
su questo tema esistono lavori recenti e assai interessanti di J. Hirschfeld.
Altro aspetto del forcing ampiamente studiato riguarda i collegamenti fra
strutture generiche e altri tipi di strutture « con sufficienti elementi ». I risultati
più significativi riguardano la possibilità di caratterizzare la classe delle strutture
generiche rispetto a una data ~ mediante condizioni che non coinvolgano il
forcing e l'elaborazione di metodi per la costruzione di strutture generiche. Qui
i risultati sono molti e vanno da quelli di H. Simmons che hanno permesso di ap-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
prossimare « dall'alto » le classi delle generiche a quelli di Mitsuru Yasuhara
che hanno collegato strutture sature e strutture generiche. Un problema ancora
aperto è quello di vedere entro che limiti il forcing di Cohen si possa presentare
come caso particolare di quello di Robinson. Una risposta chiara a riguardo non
esiste ancora anche se Keisler ha fatto alcuni passi in questa direzione, mostrando
il collegamento fra i due tipi di forcing e i teoremi di omissione di tipo.
Come molte delle tecniche della teoria dei modelli classica, il forcing si può
estendere a linguaggi più forti di quelli elementari, e il collegamento è interessante in quanto esistono risultati di Carol Wood che mostrano come sia possibile
assiomatizzare classi di strutture generiche utilizzando linguaggi infinitari. Il
discorso su questi linguaggi è d'altro canto uno dei temi centrali della ricerca in
questi ultimi anni e ha registrato notevolissimi sviluppi in più direzioni. Il problema generale che si pone nei confronti dei linguaggi infinitari (e delle altre
generalizzazioni dei linguaggi elementari) è quello di vedere entro che limiti si
estendono ad essi risultati validi per i linguaggi elementari. Anche se esistono
tecniche specifiche per i linguaggi infinitari è chiaro infatti che per avere una
teoria dei modelli significativa occorre che almeno una parte dei risultati sui
linguaggi elementari si possa estendere anche ad essi. Di fatto, si verifica che
solo gli estremi dello spettro di questi linguaggi ammettono una teoria dei modelli significativa. Abbiamo così una teoria estremamente ricca per i linguaggi
infinitari più deboli, del tipo Lw,oo e all'estremo opposto per i linguaggi La, tJ
dove a e {3 sono «grandi» cardinali. Questo dipende dal fatto, posto in luce con
evidenza dal caso degli insiemi ammissibili, che per sviluppare una teoria dei
modelli significativa sono necessari in qualche modo « principi di riflessione »
sui cardinali che si ammettono. Il discorso sui linguaggi infinitari si può applicare anche ad altri tipi di estensione dei linguaggi elementari, quali le varie
formulazioni di ordine superiore, i linguaggi con quantificatori generalizzati (che
come sappiamo hanno preso lo spunto da alcune indicazioni fornite da Mostowski
nel 1957), ecc.
Queste estensioni hanno portato naturalmente ad un problema più generale:
quello di determinare delle condizioni sufficienti e necessarie affinché un linguaggio di questo tipo abbia una «buona » teoria dei modelli, il che significa
sostanzialmente chiedersi quante delle proprietà dei linguaggi elementari valgono per essi e sotto quali condizioni. Ma la questione acquista un significato
più generale se si pensa che i linguaggi elementari, come ha mostrato la pratica
logica e non solo logica di almeno mezzo secolo, costituiscono un vero e proprio
paradigma nella determinazione del concetto di linguaggio logico. Quello che
ci si domanda allora è come estrarre le caratteristiche generali di un concetto di
logica analizzando i linguaggi elementari. I primi risultati in questo senso furono
ottenuti da Per Lindstrom nel 1969, ma per un certo tempo non ricevettero la
attenzione che meritavano. È stato solo verso il 1971 che da più parti si è rico-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
nosciuta la portata di questi lavori ed è iniziata una ricerca di vasto raggio sulla
« logica astratta ».
Il programma di Lindstrom è sostanzialmente quello di caratterizzare la
logica dei linguaggi elementari all'interno delle sue possibili estensioni. Per far
questo è necessario disporre di una nozione generale di logica, la logica astratta
appunto, entro la quale isolare quella elementare mediante un'opportuna famiglia di proprietà. Una logica astratta (una LA) L è determinata dall'insieme S
dei suoi enunciati e dalla sua relazione di verità l=; quest'ultima relazione è definita fra strutture ed enunciati di L. Possiamo quindi identificare una logica
astratta L con la coppia < S, l=> . Perché abbia senso parlare di logica occorre
porre delle condizioni sulla relazione di verità e sull'insieme S. Sostanzialmente
queste condizioni sono che la verità è preservata dall'isomorfismo, che ogni
enunciato ha un vocabolario extralogico finito, che è possibile estendere opportunamente una struttura ad un'altra con linguaggio più ricco, ed infine che
gli enunciati di S sono chiusi rispetto a congiunzione, negazione e a un'opportuna nozione di sostituzione. Chiaramente, la logica elementare LE è una LA
e tra LA è possibile definire diverse relazioni d'ordine basandosi sulla capacità
espressiva dei relativi linguaggi. Possiamo così dire che L s L' se e solo se per
ogni enunciato d di L c'è un enunciato 3d di L' tale che d e 3d hanno gli stessi
modelli. Questo significa che come caratteristica dei linguaggi si pone la loro
capacità di individuare classi di strutture e la maggior potenza dei linguaggi è
data dalla maggiore capacità espressiva. La relazione s si può raffinare considerando classi opportune di strutture. Possiamo così definire che L S inf L' se
e solo se per ogni enunciato d di L c'è un enunciato 3d di L' tale che d e 3d
hanno gli stessi modelli infiniti. Tanto a partire da s che da s inf possiamo chiaramente definire due relazioni di equivalenza
e inf ponendo che L = L' se
e solo se L S L' e L' S L e analogamente per -in/"
A questo punto quello che ci si domanda è come caratterizzare LE all'interno della famiglia delle LA. L'idea è quella di utilizzare i teoremi fondamentali
della teoria dei modelli di LE come altrettante proprietà caratteristiche e di indagare quali sono le estensioni di LE che godono di tutte o di parte di queste proprietà. Alcune delle proprietà centrali isolate da Lindstrom sono la proprietà
di compattezza, PC (ogni insieme di enunciati T ha un modello se e solo se ogni
suo sottoinsieme finito possiede un modello), la proprietà di Lowenheim, PL
(ogni enunciato di L se ha un modello infinito ne ha uno numerabile), laproprietà
di Tarski, PT (se un enunciato d ha un modello infinito ne ha uno più che numerabile). Tutte queste tre proprietà sono chiaramente godute da LE e corrispondono a teoremi classici. Un primo risultato ottenuto da Lindstrom stabilisce
che non esiste L 2 LE e non equivalente a LE che goda di PL e PC rispetto
agli insiemi T numerabili: queste due proprietà sono quindi sufficienti a caratterizzare LE nella famiglia delle sue estensioni. Un'altra caratterizzazione fa ri-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
corso alla proprietà dell'unione di catene, PUC, che stabilisce che se K è una
catena di strutture rispetto all'estensione elementare relativa alla logica in questione, allora la somma su questa catena è estensione elementare di ogni elemento
di K; Lindstrom dimostra che se L ::2 LE e L gode di PC e di PUC, allora L_ LE.
Questi sono solo alcuni esempi delle diverse caratterizzazioni che Lindstrom
ha ottenuto; altre se ne possono avere considerando combinazioni di ulteriori
proprietà, quali ad esempio la proprietà di completezza, delle tavole semantiche,
ecc. Il senso di questi risultati è d1;1plice: da una parte ci mostrano come, data
una definizione sufficientemente generale di logica, l'essenza della logica elementare stia in una certa combinazione di proprietà che riguardano le classi di
modelli che in essa è possibile determinare e quindi costituiscono una precisazione dell'idea dei linguaggi come « crivelli » per la classificazione di strutture;
dall'altra essi costituiscono un effettivo strumento nella ricerca di estensioni di
LE che abbiano una «buona» teoria dei modelli, che siano plausibili come logiche. Essi ci dicono infatti quando è possibile individuare delle estensioni proprie di LE, essenzialmente più potenti, che godano di certe combinazioni di
proprietà, dandoci così un metodo generale per stabilire quando la ricerca di
date logiche è possibile o meno.
La nozione di logica astratta data da Lindstrom non è la più generale possibile;
la restrizione riguardante la finitezza delle costanti extralogiche in ogni formula esclude ad esempio i linguaggi infinitari, prendendone in considerazione solo frammenti. Estendendo opportunamente questa definizione è possibile ottenere ulteriori
risultati e tentare anche la caratterizzazione di logiche diverse da quella elementare.
La candidata più immediata per questa indagine è la logica L 001 ,ro che ammette
congiunzioni e disgiunzioni infinite numerabili ma quantificazioni solo finite.
Nel 1971 Barwise è riuscito ad ottenere risultati riguardanti la sua caratterizzazione all'interno di una famiglia di logiche molto generali. Va sottolineato che
considerando linguaggi come Lror.ro si pongono dei problemi nella scelta delle
estensioni che non si presentano nel caso finitario. Sappiamo ad esempio che in
LE tutti i connettivi sono definibili a partire da -, e da /\, sicché la scelta di questi tra gli altri connettivi non comporta problemi. Se si ammettono però congiunzioni infinitarie e quantificazioni finite non si dispone più di teoremi tipo
quelli della forma normale prenessa; visto il ruolo che queste forme hanno nello
studio dei modelli si pone naturale il problema di che altri connettivi vadano introdotti. Risultati di caratterizzazione quali quelli ottenuti da Barwise danno un
filo conduttore nella scelta delle varie possibilità, permettendo così di individuare
criteri di « naturalezza » nella scelta dei concetti logici fondamentali.
Un altro aspetto del lavoro di Barwise riguarda il problema dell'assolutezza
della logica adottata, l'indipendenza cioè di sue proprietà specifiche dall'universo
degli insiemi in cui la studiamo. In questo contesto astratto in cui le formule
possono essere oggetti infiniti, l'insieme degli enunciati di un linguaggio o la
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
relazione di verità dipendono dall'universo in cui ci poniamo: estendendolo o
restringendolo possono cambiare gli aspetti caratteristici della logica. Questo
non avviene se, adottata come metateoria una data teoria T degli insiemi, poniamo delle condizioni sulla forma dei predicati in T che definiscono l'insieme
delle formule e la relazione di verità per la logica in esame. Una logica astratta
come proposta da Barwise è così assoluta relativamente a una teoria T se la relazione di verità è espressa da un predicato di tipo b.~ e l'insieme delle formule da
un predicato L,'f. Ciò significa, come sappiamo da quanto detto a suo tempo sugli
insiemi, che mentre la proprietà di essere formula sarà persistente, quella di essere
vero sarà assoluta. È importante notare che sarebbe troppo restrittivo assumere
nella definizione di logica assoluta che anche la proprietà di essere formula sia
b.~; sappiamo infatti che la proprietà di essere numerabile, e quindi quella: di
essere congiunzione numerabile di formule, non è assoluta. Queste logiche generali sono attualmente oggetto di ricerca ad opera di vari logici tra i quali H.
Friedman, Jan A. Makowski, Solomon Feferman, ecc. In questa linea lo stesso
Barwise ha tentato nel 1974 di giungere a una formulazione di una teoria assiomatica dei modelli basandosi su una definizione astratta di linguaggio e di verità.
I risultati ottenuti sono per ora ancora scarsi, ma testimoniano un interesse che
sempre più si sta imponendo nella ricerca: l'indagine del concetto generale di
logica e lo studio del ruolo che l'individuazione dell'articolazione logica ha sull'analisi degli oggetti matematici (e no).
Altro campo di ricerca estremamente interessante e oggi assai promettente,
è quello relativo al problema dell'adeguamento, se così si può dire, del concetto
di modello come elaborato dalla logica alle esigenze poste da altre scienze, in
particolare dalle scienze empiriche. Nel suo intervento al simposio in onore di
Tarski, tenutosi nel 1971, ma i cui atti sono stati pubblicati nel 1974, Chen
Chung Chang si chiedeva: « I nostri modelli sono sufficienti per lo studio di
tutte le " scienze deduttive "? » Anche se storicamente le co~ potevano stare
cosi al tempo in cui Tarski introduceva questa teoria e possono ancora stare così
per la matematica « ... ciò non è vero per il termine " modelli " come è inteso
e impiegato da un gran numero di ricercatori in branche diverse quali ... l'economia, la biologia, la psicologia ... Tutti costoro sono alla disperata ricerca di
modelli. Ognuno cerca di trovare un modello senza che tuttavia nessuno sembri
sapere che cosa esso sia; e tutti inoltre concordano sul fatto che i modelli hanno
o avranno un ruolo importante nella loro scienza ». Ora, prosegue Chang, « noi
specialisti della teoria dei modelli sappiamo tutti esattamente che cosa è un modello
e possiamo continuare a ripeterlo a questi ricercatori. Ma i nostri modelli non li
soddisfano. Ciò può avvenire o perché la loro scienza non è ancora deduttiva,
o perché il loro linguaggio non è abbastanza formale, oppure (e questa è forse
la ragione più cogente) perché ci sono cose intrinsecamente più complicate di
194
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
quelle che noi chiamiamo modelli ... Qualunque possa essere la loro nozione
di modello, non si tratta di quella che noi stiamo studiando in modo così intenso».
Una tendenza che sembra essersi sempre più affermata di recente nella ricerca matematica è quella di indirizzarsi verso problemi pratici, nella soluzione
dei quali il matematico può risultare utile. Qualcosa di analogo, secondo Chang,
dovrebbe accadere anche per quanto riguarda gli specialisti di teoria dei modelli,
e questo non nel senso che essi debbono abbandonare questa teoria così come ora
la conoscono e l'hanno costruita per diventare tutti dei « modellisti applicati »;
l'idea che Chang vuole suggerire è piuttosto quella che «se pensiamo di applicare la teoria dei modelli dobbiamo essere disponibili e preparati a studiare tipi
di modelli certamente non ortodossi ».
Le parole di Chang riflettono un'esigenza profondamente avvertita da un
punto di vista epistemologico, ponendosi dal quale l'usuale analisi logica delle
teorie empiriche ha il difetto di essere, per così dire, troppo « idealizzata »: in
generale infatti essa trascura tutta una serie di elementi che i vari operatori ritengono caratteristici o comunque essenziali nella « pratica » delle singole scienze
e tali tuttavia da non dover essere trascurati in un'analisi teorica delle stesse.
D'altra parte, pur se con posizioni assai diverse, molti autori vanno da tempo
sostenendo l'opportunità di studiare le scienze empiriche con gli strumenfi della
teoria logica dei modelli; Patrik Suppes, ad esempio, ha ripetutamente sostenuto
che al concetto di modello come elaborato dalla logica è riconducibile qualunque
altra analoga concettualizzazione di scienze empiriche particolari; per quanto riguarda la fisica invece- con molta maggior cautela- Joseph Sneed ad esempio
ha osservato che l'usuale caratterizzazione semantica coglie al più la «fisica matematica » piuttosto che la fisica tout court. In questo senso una teoria fisica - esattamente come avviene per una teoria matematica - si pensa determinata da
una classe M di strutture m
(*)
dove mo è la parte matematica di m (ad esempio un modello standard per l'Analisi), S è un insieme di oggetti fisici e q1, ... , qn sono grandezze fisiche che formalmente possono descriversi come funzioni che a oggetti fisici (elementi di S)
associano numeri reali (elementi di mo)·
Questo stato di disagio è stato chiaramente denunciato da M.L. Dalla
Chiara e Giuliano Toraldo di Francia in un loro articolo del 1973 dedicato appunto all'analisi logica delle teorie fisiche che, a loro parere, «vengono assai
-spesso trattate in un modo che assomiglia troppo da vicino all'analisi delle
scienze formali, col risultato che l'aspetto caratteristico della fisica è semplice-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
mente rappresentato dalla necessaria richiesta che la teoria ammetta una parziale
interpretazione osservativa, che non è un modello nel senso della semantica
logica. Una tale interpretazione, che dà origine al problema di separare i termini
osservativi da quelli teorici, 1 non costituisce né un aspetto specifico né il più
interessante delle teorie fisiche». L'analisi dei due autori - con esiti che costituiscono una prima risposta al discorso di Chang - si appunta in particolare sul
concetto di grandezza fisica di cui le usuali caratterizzazioni come sopra descritte
sembrano fare un'idealizzazione particolarmente spinta, dal momento che non
tengono conto di alcuni suoi aspetti essenziali e specifici dei quali viene invece
proposta nel loro articolo una rigorosa trattazione formale. Scopo degli autori
è quello appunto di «collegare l'analisi teorica con la fisica reale», con l'intento
epistemologicamente più rilevante di confutare opinioni largamente diffuse secondo le quali « la fisica può solo formulare delle regole strumentalmente utili per
scopi pratici ma che nulla hanno a che fare con la verità o la conoscenza »; e di
mostrare, sulla base della loro analisi, che viceversa « le verità della fisica sono
verità rigorose, nel senso della semantica logica e non si limitano ad approssimare
delle verità " più profonde" o " ultime" ».
Intese ora le grandezze fisiche come oggetti di possibili e diverse procedure
di misurazione, le usuali versioni semantiche delle teorie fisiche trascurano secondo gli autori due aspetti fondamentali ad esse relativi, e precisamente:
I) nei casi concreti le grandezze fisiche non assumono mai come valori numeri reali, ma solo intervalli di numeri reali;
z) per avere significato fisico le grandezze fisiche debbono essere definibili
operativamente.z
Per superare queste lacune gli autori cominciano con l'introdurre un insieme
S di situazioni ftsiche 3 cui sono riferite le procedure P t di misurazione di una data
grandezza fisica Q. L'esperienza quotidiana del fisico mostra che ogniqualvolta si
I Secondo gli autori questa dicotomia non
è stata mai chiaiamente determinata e lo stesso
Carnap che l'aveva introdotta ha finito con l'annetterle solo un valore pratico; di avviso diverso
Nagel che sostiene ancora la grande importanza
della distinzione, che invece è semplicemente
rifiutata da altri autori come Putnam. Dalla
Chiara e Toraldo di Francia non solo sono del
parere di Putnam (anche se per ragioni diverse)
ma sostengono inoltre che « un completo rifiuto della dicotomia tra termini osservativi e termini teorici si troverà essere essenziale per
una migliore comprensione del concetto di
grandezza fisica » che è il concetto centrale
di cui si propone una nuova analisi nel loro articolo.
2 Si noti che gli autori non affrontano qui,
né intendono affrontare, la questione generale relativa all'operativismo in quanto posizione epi-
stemologica globale come sostenuta ad esempio
da Bridgman e altri; essi dichiarano infatti esplicitamente che si interesseranno soltanto « della
definizione operativa di grandezze fisiche e non
della definizione generale di concetti fisici ». Colgono peraltro l'occasione per denunciare la confusione frequente anche nella letteratura specializzata fra grandezze fùiche, entità fisiche e funzioni
matematiche definite su grandezze fisiche.
3 Gli autori riconoscono che il concetto
di situazione fisica non viene sufficientemente
precisato nel contesto della presente discussione,
e abbisogna quindi di un esame più approfondito
per una sua più adeguata determinazione. Avvertono comunque che tale concetto non va inteso
come «un'istantanea di un angolo della realtà
fisica... ma piuttosto come una struttura di materia spaziotemporale che soddisfa certe specificazioni».
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
misuri Q con una certa procedura non si ottiene come valore un numero reale q
ma un intervallo q ± eq l 2 dove il numero eq è relativo all'accuratezza o precisione
della procedura usata: tanto minore è eq tanto più accurata (precisa) è la misura.
Effettuate ora in una data sE Se per una certa Q due misurazioni che abbiano
dato come risultati rispettivamente p ± ep l 2 e q ± eq l 2 si dirà che questi due
intervalli sono uguali a meno di e e si scriverà p e q se e solo se esiste un intervallo
e che li include entrambi. È chiaro che se due intervalli sono uguali a meno di e
restano uguali a meno di e' per ogni e' > e. Si noti che per ogni e dato si può
stabilire questa relazione di E-uguaglianza fra intervalli: essa risulta chiaramente
riflessiva e simmetrica ma non transitiva. Dalla e-uguaglianza così definita si
può ottenere una relazione Re di e-equivalenza (ossia anche transitiva) tra procedure di misurazione P t, P1 applicabili a una classe S di situazioni fisiche: precisamente, Re(Pt, P1) se e solo se per due qualunque situazioni fisiche s, s' .ES
per le quali Pt dà risultati e-uguali anche P1 dà risultati e-uguali e viceversa. A
questo punto per il concetto di grandezza fisica si può stabilire una conveniente
definizione per astrazione nella quale viene esplicitata la sua dipendenza dalle
situazioni fisiche e dalla precisione delle procedure di misurazione.
Su questa base gli autori, a conclusione della loro analisi, possono presentare gli elementi fondamentali di una teoria « empirica » dei modelli. Intanto il
nuovo concetto di struttura fisica Wl è ancora descrivibile come (*), ma ora, fermo
restando il significato di mo,
è un insieme di situazioni fisiche e ognuna delle
grandezze q l, • . • , qn è definita su un sottoinsieme si di s e in modo operativo come
sopra visto; altrimenti detto, a ognuna di queste grandezze resta associato, anche
a livello formale, un campo di precisione (la precisione della misurazione) e un
campo di applicabilità (un certo insieme di situazioni fisiche). Questa nuova situazione si riflette nella definizione di verità in Wl che viene data come segue per
una formula d del linguaggio L della teoria fisica considerata (come al solito
scriveremo I!Dl d per «d è vero in m»).
I) Se d non contiene nomi qt per le grandezze fisiche q t allora I!Dl d se e
d;
solo se l
IDio
2) d abbia la forma fld(qt 1, ... , qtn,yl, ... ,yk) e sia R.s# una relazione n-aria
che rappresenta l'interpretazione in Wl 0 della formula "ify1, ... ,ykfld(Xl, . .. , Xn,
Yl, ... ,yk)· Allora /!Dl d se e solo se per ogni situazione fisica s ES per la quale
le grandezze qi1 sono definite esiste una n-upla di numeri reali r 1 , ••• , rn tale che
ogni r1 giaccia nell'intervallo associato a qi1 da una misurazione per s e che
R.s#(r1, ... , rn) valga in Wl 0 •
Dovrebbe risultare chiaro il senso e l'importanza della condizione 2). Anche in essa, come è ovvio, si giunge a valutare la formula d in Wl 0 , ossia nella
parte matematica di Wl; ma ora tale valutazione a-vviene facendo effettivamente intervenire a livello semantico rigoroso la controparte formale di quelle condizioni
s
197
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
sopra poste come essenziali perché un fisico direttamente impegnato nella ricerca potesse per così dire riconoscere le grandezze con le quali quotidianamente
opera. Si noti comunque che nel caso della seconda condizione I!Vl d 1\ !!ìJ non
è equivalente a I!Vl d e I!Vl !!ìJ; che I!Vl ---,d non è equivalente a non I!Vl d;
ancora, per una data d può accadere che tanto I!Vl d quanto I!Vl ---,d. In termini generali, mentre nella teoria « logica » dei modelli una classe M di strutture
determina univocamente una teoria coerente T i cui assiomi sono tutte le proposizioni del linguaggio vere in ogni modello d_ella classe M (e T viene detta la
teoria di M), se M è una classe di strutture fisiche come sopra definite, proprio
in vista della possibilità che una proposizione sia contemporaneamente vera e
falsa in una data struttura, la teoria di M sarebbe in generale incoerente; se ne
conclude che « una classe M di strutture fisiche determina, invece di un'unica
teoria coerente, un'intera classe di teorie, tutte compatibili con M. Questo rappresenta forse la controparte formale di un certo tipo di arbitrarietà nella assiomatizzazione delle teorie fisiche che è stata osservata in diverse occasioni».
In successivi lavori gli autori traggono alcune conseguenze del nuovo approccio semantico da essi proposto : ad esempio introducono la relazione di
« sotto teoria fisica » secondo la quale una teoria fisica T 1 è una sottoteoria di
una teoria fisica T 2 (T1 ~ T 2) se e solo se ogni modello di T1 è anche modello
di T 2 • Grazie a questa relazione essi riescono a tradurre in veste rigorosa il fatto
che la meccanica classica è « fisicamente più debole » tanto della meccanica relativistica quanto di quella quantistica, in quanto ora risulta
Meccanica classica
~
Meccanica relativistica
~
Meccanica quantistica
mentre queste «inclusioni» non potevano essere stabilite né tramite l'usuale
concetto di inclusione teoretica fra teorie né mediante la relazione di relativa
interpretabilità di una teoria in un'altra. La relazione T1 ~ T2 può anche essere
definita dicendo che ogni modello di T 1 è un modello parziale di T 2 , ossia è una
struttura fisica
nella quale sono vere tutte le proposizioni valide di T 2 espresse
nel linguaggio L!Ul. Definiti opportunamente, tramite una naturale generalizzazione della definizione di verità sopra riportata, i concetti di teoria deterministica e di teoria indeterministica, gli autori sono in grado di trattare in termini
logici definiti il problema- centrale da un punto di vista epistemologico dopo
l'avvento della meccanica quantistica- relativo alla« linea logica di distinzione»
fra teorie deterministiche e indeterministiche. Precisamente risulta che se una
teoria T1 è deterministica mentre T 2 è indeterministica e T1 ~ T 2, allora T2 ammette una classe di modelli parziali nella quale è deterministica.
m
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Non ci illudiamo di aver reso con questi brevi accenni il reale interesse di
questi lavori dai quali è lecito attendersi conseguenze ben più incisive; ricordiamo solo che un'analoga definizione di verità è stata proposta indipendentemente, nel 1972, dal polacco R. W6jcicki e per concludere cediamo la parola alla
Dalla Chiara che nel 1974 così precisa il senso di queste ricerche: «Un'analisi
di questo tipo dimostra nello stesso tempo la vasta applicabilità delle idee generali della teoria dei modelli e tuttavia la necessità di adattare via via i suoi
strumenti alle caratteristiche peculiari delle diverse situazioni teoriche considerate. Storicamente, i teorici dei modelli sono stati quasi sempre dei matematici,
che naturalmente lavoravano avendo in mente soprattutto applicazioni di tipo matematico. Con tutta probabilità la tendenza, a cui stiamo assistendo oggi, di aprire la teoria anche verso le problematiche delle scienze empiriche, è
destinata a suggerire nuovi problemi di grande interesse per la stessa teoria
pura dei modelli.»
III • LOGICA E TEORIA DELLE CATEGORIE
1) Categorie, funtori, trasformazioni naturali
Ufficialmente la teoria delle categorie nasce nel 1945 con la pubblicazione
dell'articolo Generai theory of natura! equivaiences (Teoria generale delle equivalenze
naturali) di Samuel Eilenberg e Saunders Mac Lane. In questo lavoro sono introdotti i concetti fondamentali di categoria, funtore, trasformazione naturale,
e ne vengono date le prime applicazioni, inquadrate in un contesto generale che
sottolinea le ragioni che hanno portato all'elaborazione della teoria. Come lo stesso
titolo dell'articolo indica, la motivazione profonda sta nel tentativo di analizzare
una situazione centrale nella pratica matematica: si tratta del problema di individuare quando dati isomorfismi fra strutture dello stesso tipo, spazi vettoriali
poniamo, sono «naturali», nel senso che per definirli non è necessaria una particolare presentazione delle strutture in esame (nel caso degli spazi vettoriali, la
scelta di una particolare base) ma essi si possono definire simultaneamente per ogni
struttura di quel tipo, indipendentemente quindi da una presentazione particolare. La necessità di una teoria con la quale analizzare esattamente questa situazione nasceva proprio dal fatto che in certe circostanze, in particolare nella geometria algebrica, alcuni problemi fondamentali si traducevano nella questione
della naturalità o meno di certi isomorfismi. Per precisare questo concetto di
naturalità, Eilenberg e Mac Lane introdussero il concetto di categoria e di funtore fra categorie: gli isomorfismi naturali venivano allora codificati da particolari trasformazioni tra funtori. Questo modo di risolvere il problema, d'altra
parte, si basava su una concezione generale della natura degli enti algebrici: non
si tratta cioè di una soluzione m/ hoc di un problema ~pecifìco, ma di una teoriz1
99
www.scribd.com/Baruhk
La logica nei ventesimo secolo (II)
zazione che partendo da un problema particolare individua uno schema generale
in cui inquadrare i fenomeni in esame.
L'idea di fondo di Eilenberg e Mac Lane è che quando si considerano costruzioni matematiche fra strutture, come prodotti, limiti diretti o inversi, ecc.
l'essenziale è il carattere di universalità di cui queste costruzioni godono: quello
che conta non è il modo concreto con cui viene costruita una struttura - quali
cioè sono i suoi elementi e le loro mutue relazioni - ma i rapporti tra le strutture
di partenza e quelle ottenute mediante le diverse costruzioni. Dal punto di vista
algebrico infatti - ma si può dire dal punto di vista matematico tout court strutture isomorfe sono indistinguibili.
Consideriamo per esempio il caso del prodotto di due gruppi (f)' = < C', · >
e (f)"= <C", e>. Classicamente la costruzione è la seguente: si prende come
supporto della struttura prodotto il prodotto cartesiano C' X C" dei domini
dei due gruppi e quindi si definisce punto per punto l'operazione gruppale Q9 in
questo nuovo dominio ponendo
<a, b > Q9 <a'' b' > = <a . a'' b
e b' >
V a, a'
E
C', Vb, b'
E
C".
La struttura m= < C' x C", Q9 > così ottenuta ha come supporto un insieme di
coppie ordinate, ma dal punto di vista algebrico questo è del tutto irrilevante;
la cosa importante è il modo con cui l'operazione gruppale del prodotto si collega con le analoghe operazioni definite sui singoli fattori. Un modo per rendere
questo collegamento consiste nel porre iu primo piano gli omomorfismi che
legano fra loro i tre gruppi.
Verifichiamo allora la situazione seguente:
I) è dato un omomorfismo P1 che va da (f) a
va da ma mIl' definiti ponendo rispettivamente
PI(<a, b>) =a
E
(f)'
e un omomorfismo P2 che
C'
P2(<a, b>) =bE C"
z) il prodotto è universale rispetto alla proprietà I) nel senso che, dato un
qualsiasi altro gruppo (f)"' che a sua volta goda di I), tale cioè che siano dati due
omomorfismif da (f)'" a (f)' e g da (f)"' a (f)", si ha che esiste esattamente un omomorfismo h da (f)" l a m tale che si verifica
zoo
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
La situazione ora descritta si può esprimere concisamente dicendo che il seguente diagramma
commuta o è commutativo, dove con ciò si intende che « sentieri » sul diagramma
con la stessa origine e lo stesso punto terminale (percorsi nel senso delle frecce)
inducono omomorfismi uguali.l
·
La I) e la z) definiscono essenzialmente il prodotto, nel senso che lo individuano a meno di isomorfi~mi: si può infatti verificare che se oltre a <D esistesse un
altro oggetto Gl 1 « prodotto » di Gl' e G)", e tale quindi da soddisfare la I) e la
z), allora risulterebbe che GJ 1 è isomorfo a GJ. Si vede quindi che il contenuto
rilevante della nozione di prodotto fra due gruppi si può interamente determinare senza far riferimento al modo specifico con cui abbiamo costruito il supporto e definito l'operazione gruppale, ma servendosi solo degli omomorfismi
definiti fra i gruppi. Si è fatto ricorso alla costruzione insiemistica del prodotto
cartesiano solo in un punto: per garantirci l'esistenza del prodotto e dell'operazione gruppale su di esso, in quanto sappiamo dalla teoria degli insiemi che
dati due insiemi esiste il loro prodotto cartesiano e che l'operazione gruppale da
1 Non ci sembra necessario ricordare la
nozione di gruppo, che è stata più volte presentata ed esemplificata nel corso di questi capitoli.
Il lettore può riferirsi per comodità all'esempio
3 = < I,
> in cui il supporto è l'insieme I
dei numeri interi e l'operazione gruppale !:ordinaria addizione su interi. Ricordiamo piuttosto
che un omomorftsmo da un gruppo (f; a un altro <r;'
è una funzione f che « conserva la struttura di
gruppo» tale cioè che l'immagine della somma
di due elementi di (f; è la somma delle immagini
dei corrispondenti elementi di <r;': j(x1
x2) =
= f(xt)
j(x2). Come si può osservare nel
diagramma, una funzione (e, più in generale,
un morfismo) viene presentata geometricamente
mediante una freccia tra il dominio e il codominio della funzione stessa. Così ad esempio
~criveremo f : A --+ B
o equivalentemente
A /_. B. Questa rappresentazione geometrica è
in effetti qualcosa di più di un comodo espediente se Mac Lane afferma che « la teoria delle
+
+
+
categorie prende le mosse dall'osservazione che
molte proprietà dei sistemi matematici possono
essere unificate presentandole per mezzo di diagrammi di frecce». Nel seguito parleremo quindi
genericamente di frecce, o mappe, o morfismi,
che riceveranno di volta in volta, a seconda dei
contesti, delle precise esplicazioni particolari. lA
indica la freccia identità dell'oggetto A, cioè
IA : A--+ A. Ricorderemo inoltre che la composizione o di due morfismi f e g è quell'operazione
f o g il cui risultato è dato dalla successiva applicazione di g e di f (prima g e poi f). La composizione è un'operazione parziale in quanto è definita fra due frecce f e g quando e solo quando
il codominio di g coincide col dominio di f
Così, se f: A--+ B e g: C--+ A, si avrà
f o g : C--+ B. Talora si omette il segno o di
composizione semplicemente giustapponendo i
segni dei morfismi, si scrive cioè fg in luogo
di jog.
201
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
noi definita esiste ed è una funzione che soddisfa gli assiomi di gruppo.
Lo stesso discorso si può fare per altre strutture; ad esempio, se si considerano gli spazi topologici 'll e '!3 e si fa il loro prodotto, si vede che esso è univocamente determinato, a meno di omeomorfismi, dalle proprietà 1) e z) date sopra, dove le mappe, s'intende, sono ora funzioni continue, conservano cioè la
struttura topologica.l La situazione non cambia per altre strutture quali anelli,
campi, moduli, spazi vettoriali topologici, ecc., considerando di volta in volta le
opportune mappe che conservano la struttura rilevante, e per altre operazioni:
somma disgiunta, quoziente, limiti diretti e inversi, campi di frazioni, chiusure
algebriche, ecc.
Se si tiene presente l'esempio del prodotto di spazi topologici e del prodotto
di gruppi, si può vedere come questo atteggiamento ponga in luce la profonda
unità che lega i due concetti: cambia la costruzione insiemistica, ma le proprietà
definitorie rimangono le stesse. A questo livello, si può quindi dire almeno
questo: che il linguaggio dei morftsmi (funzioni continue, omomorfismi, ... e
in generale applicazioni che conservano date strutture) permette di rendere
esplicite le proprietà essenziali di determinate operazioni definite su « oggetti
algebrici» molto diversi fra loro. Il concetto di categoria non è altro che un
modo per dare forma sistematica a quanto illustrato finora sulla base di esempi.
Una categoria C è data da una classe di oggetti, che si indica generalmente
con Ob(C), una classe Hom(A, B), per ogni coppia ordinata di oggetti< A, B >
di C, i cui elementi diremo morftsmi di dominio A e codominio B, ed un'operazione o detta composizione, definita fra coppie di morfismi f e g quando e solo
quando il codominio di g coincide col dominio di J, che soddisfa gli assiomi seguenti:
x) se f
E
Hom(A, B) e g
z) per ogni A
E
E
Hom(C, A), fog
Ob(C) esiste un morfismo
I Ricordiamo, perché ci sarà frequentemente utile nel seguito, una definizione di spazio
topologico. Sia X un insieme non vuoto e d
una famiglia di suoi sotto insiemi tale che:
I) 0 E d; 2) X E d e 3) l'intersezione di due
elementi qualunque di d appartenga ad d e
l'unione su ogni famiglia di elementi qualunque
di d appartenga ad .>#. La coppia < X, s# >,
dove d soddisfa le condizioni sopra poste, si
dice spazio topologico e gli elementi di s# si dicono gli aperti dello spazio. La nozione generale
è astratta dal caso della retta reale, ossia dalla
coppia < R, d> doveR è l'insieme dei numeri
reali ed d è la famiglia di sottoinsiemi di R che
contengono un intervallo aperto per ognuno dei
loro punti: quegli insiemi Y cioè tali che se x E Y
esiste un intervallo aperto Ix con x E Ix per cui
Ix S Y (topologia usuale di intervalli sulla retta).
E
Hom(C, B);
IA E
Hom(A, A) detto l'iden-
Su uno stesso insieme si possono dare più topologie (ossia più famiglie s#) che danno origine
a diversi spazi topologici con lo stesso supporto.
In particolare, dato un insieme X, possiamo considerare su di esso la topologia banale, i cui unici
aperti sono X e 0, e all'estremo opposto la topologia discreta in cui d è costituita da tutti i sottoinsiemi di X. Dati due spazi topologici
<X, d> e < Y, SI> possiamo definire un opportuno concetto di isomorfismo fra di essi:
data una funzione f : X___,.. Y, diremo che essa
è continua se, per ogni aperto UESI, j- 1 (U)
è un aperto di d. I due spazi sono detti omeo·morft se esistono funzioni continue f: X___,.. Y
e g : Y ___,.. X per cui jo g = Ix e go f = Iy.
Due spazi omeomorfi sono essenzialmente indistinguibili dal punto di vista della struttura
topologica.
2.02
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
tità di A, tale che per tutti i morfismi f e g per cui la composizione a sinistra o
a destra con lA è definita, vale lAoj = j e go l A = g;
3) se le composizioni sono definite, vale, per ogni morfismo k, g,J, k o (go f)=
= (kog)oj.
La 2) stabilisce le proprietà essenziali dell'identità, la 3) la associatività della composizione. Nell'esempio dei gruppi dato sopra gli oggetti sono i gruppi,
i morfismi gli omomorfismi fra gruppi, le unità gli omomorfismi identici, la
composizione l'ordinaria composizione fra funzioni.
L'universalità del concetto di categoria - e la sua utilità - sta proprio nel
fatto che le costruzioni insiemistiche rilevanti sono sempre definite entro specifiche categorie in termini puramente categoriali. Accanto alla categoria Gr dei
gruppi (oggetti: i gruppi; morfismi: gli omomorfismi fra gruppi) abbiamo così
la categoria Top degli spazi topo logici (oggetti: gli spazi topologici; morfismi:
le funzioni continue), la categoria Pr degli insiemi preordinati (oggetti: gli
insiemi preordinati; morfismi: le funzioni crescenti fra di essi), ecc. Tutte queste
categorie hanno come oggetti insiemi dotati di una struttura e come morfismi
funzioni che conservano la struttura stessa. Lo stesso universo degli insiemi può
essere riguardato come una categoria Ins i cui oggetti sono appunto gli insiemi
e i cui morfismi sono le ordinarie funzioni fra insiemi: l'unica « struttura » rilevante infatti che hanno gli insiemi « puri » è data dall'uguaglianza definita sui
loro elementi, che per definizione è conservata dalle funzioni. Il concetto di categoria non comporta però necessariamente di considerare come oggetti insiemi
strutturati, e non è detto che i morfismi debbano essere funzioni: l'essenziale è
di avere oggetti (che possono essere qualsiasi) e morftsmi (che possono essere qualsiasi) che soddisfano gli assiomi.
È chiaro allora che le categorie sono un particolare esempio di strutture parziali e che molte strutture parziali non sono altro che categorie: ad esempio, se
prendiamo una categoria C i cui oggetti formino un insieme e in cui ogni morfismo f: A---+ B ha un inverso j-1 : B---+ A tale chef oj-1 = In e j-1 of = lA,
possiamo considerare la famiglia dei morfismi di C su cui è definita la composizione o come un gruppoide con operazione o ; all'inverso, ogni gruppoide è una
particolare categoria. Fatto ancora più interessante, certe strutture relazionali si
possono vedere come categorie. Se ad esempio consideriamo l'insieme preordinato <O, ::::; >potremo descriverlo come una categoria prendendo O come famiglia di oggetti e assumendo, per ogni A, BE O, che Hom(A, B) ha al massimo
un morfismo e ne ha uno quando e solo quando A ::::; B. La riflessività dell'ordine viene allota a significare che Hom(A, A) ha un morfismo (l'identità) e la
transitività dell'ordine significherà che la composizione dei morfismi, quando
è definita, è associativa.
Parlando di categorie come strutture si presenta un problema dal punto di
vista fondazionale. Nella nostra definizione gli oggetti di una categoria costitui-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
scono una classe che può essere propria. In questo caso non possiamo propriamente parlare di una categoria come di una struttura, in quanto in generale una
struttura è un insieme sul quale sono definite delle operazioni. Occorre quindi
fare una distinzione fra categorie « grandi » e « piccole » che riflette la distinzione
fra classi proprie e insiemi: grandi sono le categorie le cui classi di oggetti o di
morfismi sono proprie, piccole quelle per cui tali classi sono insiemi.
Da quanto detto sopra risulta che studiare la teoria dei gruppi vuol dire
studiare la categoria dei gruppi e che l'aspetto algebrico rilevante di un gruppo è
dato proprio dalla rete di omomorfismi che lo collega agli altri oggetti della categoria (agli altri possibili gruppi). In un certo senso, considerare la categoria dei
gruppi ci permette di « esternalizzare » in modo uniforme, relativo cioè a tutti
i gruppi, ciò che distingue un gruppo da un altro, che non è allora la sua composizione interna, ma il modo di collegarsi, via morfismi, con gli altri gruppi
(oggetti della categoria). L'accento si sposta sulla stessa categoria considerata
come oggetto in sé e si ripropone, in certo senso, un problema analogo: che cosa
distingue la categoria dei gruppi da, poniamo, la categoria dei campi? Sicuramente un elemento essenziale, come mostra la pratica, sono le proprietà di chiusura delle categorie. Come abbiamo visto sopra, ad esempio, la categoria dei
gruppi è chiusa rispetto al"'prodotto, cosa che non avviene per la categoria dei
campi. Questo porta in primo piano il concetto di operazione fra strutture visto
come una procedura sistematica per associare ad oggetti di una data categoria
oggetti della stessa o anche di un'altra categoria. Si consideri ad esempio la costruzione dei gruppi liberi: si tratta di un'operazione che ad ogni insieme non vuoto
- cioè ad ogni oggetto della categoria Ins - associa il gruppo libero generato
da quell'insieme -cioè un oggetto della categoria Gr. Come detto sopra, l'importante è che questo processo di associazione è uniforme, nel senso che le sue
proprietà non dipendono dagli specifici oggetti da cui partiamo ed è proprio
questo che ci permette di parlare della costruzione dei gruppi liberi come di un
processo generale. Si può dire che l'importanza del concetto di categoria sta nel
fatto che ci permette di precisare che cosa siano queste costruzioni e il senso nel
'
quale sono uniformi.
Nasce così il concetto difuntore, che si presenta in modo naturale come una
sorta di morftsmo fra categorie, e tramite il quale si possono analizzare moltissime
situazioni della matematica moderna. Definiamo questo concetto. Date due categorie A e B, un funtore F da A a B
F:A-+B
è specificato dai dati seguenti:
I) per ogni oggetto A di A, un oggetto F( A) di B;
z) per ogni morfismo f: A-+ B di A, un morfismo F(f): F(A)-+ F(B) in
B in modo che siano soddisfatte le proprietà seguenti:
www.scribd.com/Baruhk
La logica nei ventesimo secolo (Il)
a) F(IA)
=
b) F(g o f)
IF<A>
= F(g) o F(j).
In altre parole, un funtore deve conservare la struttura rilevante in una categoria,
cioè la composizione dei morfismi e il carattere di unità.
Esistono però delle situazioni in cui l'associazione funtoriale di oggetti e
di morfismi di una categoria a quelli di un'altra è poc;sibile solo a patto di una
inversione dei morfismi. Facciamo un esempio che ci servirà in seguito. Sia ;:r
uno spazio topologico, e d la famiglia dei suoi aperti, ordinata mediante l'inclusione insiemistica. <d, s > è una struttura preordinata e come tale è - come
abbiamo visto sopra - una categoria, chiamiamola P. Consideriamo ora le
funzioni continue da ;:r a ~ (insieme dei reali con l'usuale topologia d'intervalli).
Se vogliamo considerare il comportamento « locale » di queste funzioni, viene
naturale associare a ogni aperto U di ;:r l'insieme delle funzioni continue da U a
~; chiamiamo 5( U) questo insieme. Il collegamento fra i vari aperti induce un
collegamento fra gli insiemi di funzioni associate. Infatti, dato U s V, possiamo
associare a ogni g E 5( V) la sua restrizione g' a U, cioè g' = g ~ U, che chiaramente apparterrà a 5(U). Possiamo così, dato f E Hom(U, V), definire un morfismo
f*: 5(V)--+5(U)
che ad ogni g E 5( V) associa g' E 5( U). Questi morfismi vengono detti morftsmi
di restrizione. In questo modo quindi ad ogni freccia
f: U--+ V
resta associata una freccia
f*: 5(V)--+5(U)
e si verifica che
2) f* oh*= (ho f)*.
Se definiamo
F(U) = 5(U) e
F(f)=f*
avremo un funtore F da P a Ins che «inverte » le frecce: lo chiameremo funtore
controvariante, mentre riserveremo il nome di covariante a un funtore che mantiene
l'ordine delle frecce. Funtori controvarianti da P a Ins come quello ora definito
si chiamano prefasci di insiemi e come vedremo più avanti sono di importanza
fondamentale nella matematica moderna.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Parlando all'inizio di Gr, abbiamo usato il concetto di isomorfismo e abbiamo verificato chef: C-+ C'l è un isomorfismo se esiste un morfismo g:
C'-+ C tale che j o g = I G, e go f = I G· In generale in ogni categoria questa è
la definizione di isomorfismo. Allo stesso modo possiamo definire in generale i
concetti di monomorfismo ed epimorfismo astraendo da esempi noti. Dato il
morfismo f: C-+ C' diremo che f è un monomorfismo (o più semplicemente
che è mono) se presi due morfismi g: X-+ C'e g': X-+ C', abbiamo che
g # g' -=::;, f o g #
f
o
g'
mentre diciamo chef è un epimorfismo (è epi) se presi comunque g: C'-+ X
e g': C'-+ X si ha
Come si vede le definizioni di mono e epi sono una la «duale» dell'altra,
nel senso preciso che una si ottiene dall'altra invertendo la direzione delle frecce
e quindi l'ordine nella composizione. Questo fenomeno di dualità si può analizzare sistematicamente introducendo il concetto di categoria duale o, in terminologia più recente, opposta di una data categoria. Considerata una categoria C
chiameremo opposta di C e l'indicheremo con C0 , la categoria che si ottiene prendendo come oggetti gli oggetti di C e, dati A, B in C0 , ponendo
stabilendo infine che f o g = h in co se e solo se gof = h in C. Si vede che se
C è una categoria anche co lo sarà e sarà la categoria ottenuta da C semplicemente invertendo la direzione di tutte le frecce. (Per inciso, questo ci fornisce un
esempio di categoria in cui non necessariamente i morfismi sono funzioni.) Dire
allora chef è epi in C equivale a dire che essa è mono in co e viceversa. Ancora,
se F: C-+C' è controvariante, sarà covariante F: C 0 -+C'. La nozione di categoria opposta ci permette quindi di « dimezzare » le dimostrazioni: ottenuto
un risultato sui monomorfismi in C, esso si trasformerà per dualità in un risultato sugli epi in co. Analogamente per i funtori: utilizzando co potremo sempre
!imitarci a funtori covarianti.
L'operazione che ci porta da una categoria alla sua opposta è un primo
esempio di operazioni fra categorie. Altre se ne presentano, ad esempio il proI Le strutture algebriche vengono di norma
indicate col carattere gotico, salvo che non si
considerino come oggetti di una data categoria,
nel qual caso vengono indicate semplicemente in
corsivo. Il lettore non confonda - ma riteniamo che il contesto dovrebbe evitare ogni possibilità di errore - le strutture indicate in que-
sto secondo modo con il relativo supporto.
2 Quando si vuole mettere in evidenza
che si tratta di mono o di epi, si usano i simboli
« >-+ >> per i mono e «-l+» per gli epi. Non ci
sentiremo legati a questa convenzione se non,
appunto, quando essa servirà a chiarire il discorso.
zo6
www.scribd.com/Baruhk
La logica nei ventesimo secolo (II)
dotto. Date due categorie C e C' il loro prodotto C x C' sarà la categoria che
si ottiene come segue: come oggetti di C X C' prendiamo le coppie ordinate
<A,B>conAinCeBinC';dateoraduecoppie<A,B>, <A',B'> inC X C',
definiamo
Home x c' (<A, B>, <A', B' >) = Home( A, A') x Home'(E, B').
È facile verificare che in questo modo (.con l'ovvia composizione dei morfismi ·
<J,j' > in C X C') si ottiene una categoria. La nozione di prodotto di categorie
ci permette di vedere come molte associazioni di oggetti a oggetti non sono che
definizioni di funtori. Ad esempio, se prendiamo la categoria Gr e definiamo
F: Gr x Gr-+ Gr
ponendo F( G, G') = G x G', e definendo in modo ovvio le immagini dei morfismi, otterremo un funtore. Altro fatto da osservare è che, definito il prodotto
di categorie, potremo definire funtori con un qualunque numero finito di argomenti, considerando la categoria prodotto. Lo studio delle categorie si riduce
così allo studio di funtori fra categorie, proprio come lo studio dei gruppi si
riduce a quello dei morfismi tra gruppi. Questo significa, se ci limitiamo alle
categorie piccole, considerare la categoria delle categorie piccole i cui morfismi
sono appunto i funtori.
Abbiamo a questo punto gli strumenti per analizzare il concetto di isomorfismo naturale che, come si è già detto sopra, costituiva l'obiettivo di fondo del
lavoro di Eilenberg e Mac Lane. Questa analisi avviene precisamente attraverso il concetto di trasformazione naturale che ci permette di confrontare fra loro funtori.
Siano F e F' due funtori da C a C'. Confrontarli significa vedere che trasformazioni esistono, se ne esistono, fra di essi. Una trasformazione naturale -r: F--+ F'
tra i due funtori è data specificando per ogni A di C un morfismo TA: F( A)--+
-+F'(A) di C'tale che per ogni frecciaj: A-+B di C si abbia che il seguente
diagramma è commutativo
F (A)--F_(_f)_--t_F (B)
TAl
l
F'(A)
F'(f)
Tn
F'(B)
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Le varie TA, TB, vengono chiamate componenti della trasformazione naturale e
determinano univocamente T. La « naturalità » della trasformazione sta nel fatto
che le componenti sono definite simultaneamente per tutti gli oggetti e questo è il
significato della commutatività del diagramma.
Esempi di trasformazioni naturali abbondano in tutta la matematica; uno
semplice può essere il seguente. Sia C una 'categoria qualsiasi e P un insieme
preordinato considerato come categoria P. Supponiamo che F e F' siano due
funtori da C a P tali che F(A) ~ F'(A) in P. Ponendo T: F(A).....-+F'(A)
otteniamo una trasformazione naturale. È chiaro infatti che per ogni j: A.....-+ B
in C avremo che il diagramma
F(A) _ _
F_(f_) _ _ F(B)
'·~ ~ t'"
F' (A) -~F~'(:--:cf):----F' (B)
commuta, in quanto il morfismo diagonale esiste ed è unico (si ricordi che per
definizione Hom(F(A), F'(B)) contiene un solo elemento) ed è per definizione
F'(D TA = f 1 = TnF(f). Questo esempio è matematicamente banale, ma illustra
una situazione generale che si presenta in contesti ben più interessanti. Le trasformazioni naturali sono « morfismi » tra funtori. Così, studiare i funtori da
C a C' significa studiare la categoria Func(C, C') dei funtori in questione, prendendo come morfismi le trasformazioni naturali fra di essi.
Una trasformazione naturale è un isomorftsmo naturale quando ogni sua componente è un isomorfismo. Funtori tra cui esiste un isomorfismo naturale hanno
sostanzialmente un comportamento identico dal punto di vista algebrico (proprio
come avviene ad esempio per gruppi isomorfi). Consideriamo l'esempio cui abbiamo accennato all'inizio e prendiamo la categoria V degli spazi vettoriali a
dimensione finita su un dato campo e la trasformazione T tra i funtori l: V.....-+ V
(identità) e T 2 : V.....-+ V che allo spazio vettoriale A associa il duale del suo duale.
Uno spazio vettoriale è isomorfo « naturalmente » al suo doppio duale nel senso
che l'isomorfismo, per essere stabilito, non richiede la scelta di una particolare
base, ma sì può stabilire a prescindere da tale scelta simultaneamente per tutti gli
spazi vettoriali in V: " è quindi un isomorfismo naturale. Il significato della
condizione di naturalità è proprio questo e se ne coglie il senso per contrapposizione, considerando il caso del funtore T1 : V.....-+ V che a ogni A di V associa
semplicemente il suo duale T1(A); non esiste isomorfismo naturale da l a T~,
anche se, come è noto, T1(A) è isomorfo ad A: il fatto è che non c'è modo di
zò8
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
stabilire questo isomorfismo simultaneamente per tutti gli spazi vettoriali, in
quanto nella sua definizione interviene in modo essenziale il riferimento a una
data base.
Dal 1945 in poi la teoria delle categorie ha pervaso sempre più la pratica
matematica e si è arricchita di nuovi concetti, alcuni dei quali avremo più avanti
occasione di ricordare. Basta pensare ad esempio al concetto di aggiunzione fra
funtori, introdotto da Daniel Kan, alle categorie abeliane, che stanno alla base
dei moderni sviluppi dell'algebra omologica e della teoria dell'omologia su fasci
introdotta da Alexandre Grothendieck, ecc. La fecondità pratica dell'algebra categoriale non deve far dimenticare d'altra parte che questi successi nascono da una
precisa concezione di quello che è essenziale di quello che non è essenziale nella
matematica. Questa consapevolezza si trova già nel già citato articolo di Eilenberg e Mac Lane; con le loro parole: « In senso matematico la nostra teoria
[delle categorie] fornisce concetti generali applicabili a tutte le branche della
matematica astratta, e contribuisce così alla tendenza corrente verso un tratta_mento uniforme di discipline matematiche differenti. In particolare, esso fornisce
l'opportunità di confrontare costruzioni e isomorfismi che occorrono in branche
differenti della matematica; in questo modo essa può eventualmente suggerire
nuovi risultati per analogia. La teoria sottolinea anche che, ogniqualvolta degli
oggetti sono costruiti in un modo specificato da altri oggetti dati, è consigliabile riguardare la costruzione delle corrispondenti applicazioni indotte su questi
nuovi oggetti come parte integrante della loro definizione. La messa in opera di
questo programma comporta una considerazione simultanea di oggetti e loro
applicazioni (nella nostra terminologia ciò significa la considerazione non di oggetti individuali ma di categorie). Questa enfasi sulla specificazione del tipo di
applicazioni impiegate dà una maggior penetrazione nel grado di invarianza dei
vari concetti considerati ... Il carattere di invarianza di una disciplina matematica può essere formulato in questi termini. Così, nella teoria dei gruppi, tutte le
costruzioni fondamentali possono essere riguardate come definizioni di funtori
co- o controvarianti, sicché possiamo formulare lo slogan: il soggetto della
teoria dei gruppi è essenzialmente lo studio di quelle costruzioni di gruppi che
si comportano in modo covariante o controvariante rispetto a omomorfismi indotti. Più precisamente, la teoria dei gruppi studia funtori definiti su ben specificate categorie di gruppi, con valori in un'altra di tali categorie. Tutto ciò può
essere riguardato come una continuazione del programma di Erlangen di Klein nel senso
che uno spazio geometrico con il suo gruppo di trasformazioni viene generalizzato a una
categoria con la sua algebra di applicazioni» (corsivo nostro).
Forse l'applicazione più vasta e rivoluzionaria di questo progràmma, che
concepisce l'invarianza come il vero e proprio oggetto dell'indagine matematica,
si è avuta nel nuovo approccio alla geometria algebrica iniziato da Grothendieck
attorno al 1957. In questa prospettiva gli oggetti geometrici fondamentali sono
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
i topoi concep1t1 come algebre delle trasformazioni in uno spazio geometrico
generalizzato. Conviene illustrare brevemente questo sviluppo in quanto è proprio in riferimento ad esso che ha preso le mosse il lavoro di William Lawvere
sui fondamenti della matematica e sulla logica.
z) La geometria algebrica e il concetto di topos
Con una buona dose di semplificazione possiamo vedere la storia della geometria algebrica, dagli anni venti di questo secolo in poi, come il tentativo di
trovare una definizione di oggetto geometrico sufficientemente generale e nello
stesso tempo passibile di analisi algebrica. A partire dai primi lavori di Bartel
L. van der Waerden e di Oscar Zariski, passando per i contributi di André Weil,
E. Kahler e giungendo fino a Grothendieck, il leitmotiv è dato dalla domanda:
fino a che punto gli oggetti geometrici si possono studiare algebricamente e che
cosa rende possibile questo studio?
Da Cartesio in poi la via canonica per applicare l'algebra alla geometria è
stata quella di considerare gli oggetti geometrici come « luoghi » delle soluzioni
di equazioni o sistemi di equazioni. Parlare di equazioni comporta il riferimento
ad uno specifico campo base in cui variano i coefficienti e le soluzioni; dato un
campo Sl, ad esempio quello dei reali, consideriamo allora l'anello di polinomi
Sl [x1, ... , xn] (che per brevità indicheremo con Sl[X]) a n indeterminate. Dato
un insieme r di polinomi in Sl [x], resta univocamente determinato l'insieme F*
dei suoi zeri in Sl, i cui elementi sono tutte e sole quelle n-uple < a1, ... , an> di Sl
che annullano simultaneamente tutti i polinomi di r. Queste n-uple si possono
considerare come punti dell'n-esima potenza cartesiana Sln di Sl; Sln viene detto
lo spazio affine a n dimensioni su Sl. All'inverso, dato un insieme di punti r s; Sln,
gli è univocamente associato un insieme F* s; Sl [x] dato da tutti i polinomi che
si annullano simultaneamente per tutte le n-uple in r.
Questa doppia associazione ci dà una via per studiare in termini di rapporti
fra insiemi di polinomi i rapporti fra regioni dello spazio affine e viceversa (è
una situazione analoga a quello che si verifica, in logica, fra teorie e classi di
modelli corrispondenti).
Uno dei risultati più significativi della scuola algebrica tedesca degli anni
venti - van der Waerden, Emil Artin, ecc. - è l'individuazione di un preciso
vocabolario per stabilire questo collegamento. Per cominciare va osservato questo: ciò che conta non sono tanto gli insiemi di polinomi, quanto gli ideali generati da essi. Se consideriamo infatti un insieme r di polinomi, ogni zero di r
sarà anche uno zero di ogni polinomio dell'ideale (F) generato da Fl. Quindi
I Come è noto, dato un anello commutativo 'll, un ideale in 'll è un insieme I di elementi di 'll tale che se x e y appartengono ad I,
anche la loro somma x
y è in I e se x E I e
+
y E 'll, x • y E I. Un ideale I è proprio se non
contiene l'I dell'anello; è primo se ogniqualvolta
contiene un prodotto x • y contiene uno almeno
dei fattori; è massimale se oltre a essere proprio
210
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
se r è un insieme di punti in ,Sln, F* sarà un ideale in $l [x]. Possiamo quindi
!imitarci a quei particolari insiemi r di polinomi che sono ideali, ed ai corrispondenti insiemi F* di punti che chiameremo varietà affini.
Il collegamento ideali /varietà ci permette di associare diversi oggetti algebrici alle varietà e quindi di studiarle da questo punto di vista. Per prima cosa,
data una varietà V, indicato con rv l'ideale da essa determinato, possiamo considerare l'anello quoziente .sl/Fv che indicheremo con m( V) e chiameremo l'anello di coordinate di V. Sostanzialmente m( V) è identificato da quelle funzioni polinomiali che hanno come argomento i punti di V e valori in .ft. Il fatto importante è che presi due polinomi può darsi che le funzioni polinomiali corrispondenti coincidano su una varietà e non su un'altra, sicché le proprietà della varietà si riflettono sulle proprietà dell'anello associato. Se $l è algebricamente
chiuso, il Nullstellensatz di Hilbert ci consente di caratterizzare gli ideali associati
alla varietà e quindi anche gli anelli. Gli ideali in questione sono gli ideali radicali,
tali cioè che se contengono una potenza di un elemento (polino mio) contengono
anche l'elemento stesso; gli ideali primi sono un caso particolare di ideali radicali
e si può vedere che le varietà loro associate sono tutte e sole quelle irriducibili,
tali cioè che non sono riunione di due sottovarietà proprie. Dal fatto che gli ideali
delle varietà sono radicali scende che gli anelli
V) saranno anelli senza elementi nilpotenti, tali cioè che qualche loro potenza sia uguale a zero, e, in quanto
quozienti di .sl[x], $l-algebre finitamente generate.
C'è una biiezione fra le $l-algebre finitamente generate senza elementi nilpotenti e gli anelli di coordinate; non solo, date due varietà V e V' quello che
conta dal punto di vista geometrico è definire un opportuno concetto di morfismo fra di esse, considerando quelle f: V-+ V' dette regolari, che sono indotte
da polinomi. In questo modo possiamo considerare varietà e mappe regolari
come una categoria. D fatto importante è che ogni mappa regolare f: V-+ V'
induce un omomorfismo di $l-algebre j*: m( V)-+ V'); si può verificare che in
questo modo otteniamo un funtore controvariante F e si può dimostrare che
all'inverso esiste un funtore F' dalla categoria delle $l-algebre a quella delle
varietà, per cui esiste una equivalenza naturale fra F o F' e l'identità sulla categoria delle varietà e fra F' o F e l'identità sulla categoria delle $l-algebre. Que-
mc
mc
non è contenuto strettamente in nessun altro
ideale proprio. Ogni ideale massimale è chiaramente primo, ma non vale il viceversa. Infine,
un ideale è principale quando è generato da un
elemento di 'Il, quando cioè è il più piccolo ideale
che contiene quel dato elemento. Si dimostra
che se un ideale è generato da un elemento x,
tutti i suoi elementi sono tutti i prodotti x • y
per Y E !!l. L'importanza degli ideali sta nel fatto
ch_e essi sono in corrispondenza biunivoca con
gh omomorfismi fra anelli e con le congruenze
su anelli. In altre parole, se f : !Il---+ ~ è un
omomorfismo tra gli anelli !Il e ~. il nucleo di f
(ossia l'insieme degli elementi x E '!l tali che
j(x) = o E'8) è un ideale in !Il e ogni ideale
in !Il ha questa forma. Basta infatti considerare
il morfismo canonico g : !Il---+ !Il/ I, dove '!l/ I è
l'anello quoziente rispetto alla congruenza x ~ y
se e solo se x - y E I, e g assegna ad ogni elemento di !Il la sua classe di equivalenza. Si può
verificare che 'li/ I è un dominio di integrità (non
ammette_ cioè divisori dello zero) se e solo se I
è primo, ed è un campo se e solo se I è massimale.
211
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
sto significa che la categoria delle varietà affini è equivalente alla categoria opposta
delle ~-algebre finitamente generate senza elementi nilpotenti: possiamo quindi
studiare l'una categoria attraverso l'altra. Limitanéloci a ricordare che da questa
corrispondenza base se ne possono ottenere altre, notiamo che quello che conta
è che si è cosi stabilito un preciso vocabolario di traduzione che ci fa passare
dalle varietà affini ad oggetti algebrici: più specificatamente, lo studio delle varietà affini si riduce totalmente allo studio degli oggetti algebrici corrispondenti.
La difficoltà è che chiaramente le varietà affini non si possono considerare
come gli oggetti geometrici più generali: ne esistono altri, ad esempio gli spazi
proiettivi, che non rientrano nella categoria. C'è ancora un altro momento delicato nel discorso fatto sopra: la pratica matematica dimostra che per la risoluzione di problemi geometrici è essenziale poter passare da un dato campo ~ a
un suo sovracampo ~~ in cui esistono «più soluzioni ». Il primo passo in questa
direzione fu compiuto da Vietar Poncelet e Gaspard Monge che dal campo dei
reali passarono a quello dei complessi. È opportuno quindi, algebrizzando i
problemi geometrici, considerare le varietà affini determinate da un ideale al
variare dei sovracampi del campo dei coefficienti. « È solamente a partire dal
1940, » affermano Grothendieck e Jean A. Dieudonné, «con la geometria algebrica " astratta " (vale a dire su un campo di base ~ qualsiasi, eventualmente di
caratteristica =F o) sviluppata soprattutto da Weil, Chevalley e Zariski, che l'idea
del cambiamento di base assume if!:portanza in ':n contesto più generale: in effetti è necessario di frequente passare ad esempio a una chiusura algebrica di ~
o (quando ~ è un campo valutato) alla complezione di ~. Tuttavia né in Chevalley né in Zariski si trova uno studio sistematico di questa operazione; mentre in
Weil, che la impiega in ben altre occasioni, la sua generalità è in qualche modo mascherata dal partito preso di restringersi una volta per tutte a non considerare
che sottocampi di un campo chiuso" abbastanza grande" (il" corpo universale")
restando quindi evidentemente abbastanza vicino al punto di vista classico dove
tale ruolo era tenuto dal campo <r dei complessi. Solo più di recente, prima in E.
Kahler e quindi nella prima edizione del presente trattato,l è stata riconosciuta
l'utilità di ammettere delle "estensioni" ~~ di ~ che siano delle ~-algebre (commutative) arbitrarie (anche quando ~è un campo) e tali cambiamenti di basi arbitrarie sono senza dubbio divenuti uno dei procedimenti più importanti della
geometria algebrica moderna; sicché si può opporre al punto di vista " aritmetico " . . . il punto di vista che si può qualificare propriamente geometrico: si
fa astrazione dalle proprietà particolari delle soluzioni del sistema di equazioni
nello spazio particolare ~~ donde si è partiti, per considerare per ciascuna ~­
algebra ~~ l'insieme delle soluzioni del sistema in ~~~ e il modo con cui questo
I La citazione è tratta dagli Eléments de
géométrie algébrique, I (n ed.), Berlino I97I. La
prima edizione è sempre del I97I. Abbiamo ap-
portato leggere modifiche per adattarla al nostro
simbolismo e alla nostra terminologia.
2.12.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
insieme varia con .R'; in particolare si cercheranno le proprietà del sistema di
equazioni che restano invarianti con il variare di .R' (o, come anche diremo, che
sono "stabili rispetto a cambiamenti di base").
«L'idea di "variazione" dell'anello di base si esprime matematicamente
senza difficoltà grazie al linguaggio funtoriale (la cui mancanza spiega la timidezza dei tentativi anteriori). Si può dire in effetti che si ha un funtore covariante
(*)
dalla categoria delle .R-algebre a quella degli insiemi, c):le fa corrispondere a
ogni .R-omomorfismo ({1: .R'---*.R" l'applicazione ({JI: .R'I---*.R"I; si dice anche
che (*) è il funtore " spazio di tipo affine di dimensione I su .R". Se S designa una
famiglia (F1)JeJ di polinomi, indichiamo con Vs(.R') la parte di .R'I formata dalle
soluzioni del sistema di equazioni corrispondente; si dice anche che queste soluzioni sono i " punti a valore in .R' " della " varietà su .R" definita dal sistema. È
immediato che
(**)
Vs: .R'---* Vs(.R')
è un sottofuntore del funtore BI (essendo l'immagine di Vs(.R') tramite ({JI contenuta in Vs(.R")). Affermiamo dunque che in linea di principio lo studio del sistema d'equazioni dal punto di vista della geometria algebrica è lo studio del funtore Vs
(dalla categoria delle .R-algebre a quella degli insiemi).»
La svolta astratta quindi, rispetto alla geometria degli anni trenta, riguarda
l'arbitrarietà dei campi e delle loro estensioni. La considerazione di campi di
caratteristica =1= o permette un fecondo contatto con la problematica aritmetica
e l'ammissione di .R-algebre arbitrarie non necessariamente prive di elementi
nilpotenti consente di disporre di questi ultimi che vengono a giocare un ruolo
di elementi infinitesimi, permettendo così la considerazione di problemi analitici
sotto forma algebrica.
Determinato così l'obiettivo della geometria algebrica, si tratta di vedere
come esso si possa realizzare concretamente. È in questo contesto che si inserisce
il concetto di fascio che, come vedremo, ha un ruolo centrale non solo da un punto
di vista geometrico, ma anche da quello logico. Nella geometria algebrica degli
anni quaranta una varietà affine è determinata dal suo anello di coordinate. Se
si vuole tener conto, come detto sopra, del cambiamento di base, questo non
sarà più possibile. Il concetto di fascio nasce appunto per tener conto, nell'algebrizzazione, di questa possibilità di variazione. In termini molto schematici,
l'idea di fondo è la seguente: si tratta di partire, invece che dalle varietà affini,
dagli anelli e di domandarsi quali possano essere gli oggetti geometrici, le « varietà » di cui essi si possono vedere come gli anelli di coordinate. Dato un anello
~. è possibile associargli uno spazio topologico, lo spazio di Zariski sull'insieme
213
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Spec(~, lo spettro di m:, dei suoi ideali primi. Questi, essendo collegati ai morfismi, e quindi ai cambiamenti di base, prenderanno il posto dei « punti » della
trattazione classica. Se consideriamo m: come un anello di coordinate, la topologia
su Spec(m:) riflette i legami di copertura fra le sottovarietà della varietà associata ad m:, cioè fra le « zone » nelle quali essa si può articolare. La corrispondenza
fra anelli e spazi di Zariski non è biunivoca (basti pensare che due campi qualunque, non avendo ideali propri, avranno lo stesso spettro) quindi non è possibile considerare lo spazio di Zariski associato ad un anello come l'oggetto
geometrico di cui esso è l'anello di coordinate. La pratica mostra che conviene
considerare, invece del solo Spec(m:), un particolare fascio, il fascio strutturale che
ad ogni « zona » di Spec(m:) associa un anello (che possiamo considerare come
l'anello di coordinate della sottovarietà di questa zona). L'anello associato all'intero Spec(m:) sarà isomorfo all'anello di partenza m:, ma in questo modo
avremo un dato in più: il fascio infatti ci dice come gli anelli associati alle varie
zone si « incollano » fra di loro in dipendenza dei legami di copertura delle zone
stesse. Abbiamo così un oggetto geometrico ben articolato in corrispondenza
ad ogni anello. Considerando la coppia data dall'anello e dal fascio strutturale si
giunge alla nozione di schema affine come generalizzazione del concetto di varietà
affine. Gli schemi, che costituiscono le più generali varietà geometriche, si ottengono considerando oggetti che « localmente » sono schemi affini.
Schematizzata così la problematica generale della geometria algebrica legata al concetto di fascio, occupiamoci di quest'ultimo. Come detto sopra, un
fascio stabilisce un modo di « incollare » fra di loro degli oggetti, ed è a questa
immagine intuitiva che conviene appoggiarsi. Sia ~ uno spazio topologico la
cui famiglia di aperti è d'. Come detto a suo tempo, .91 costituisce una categoria
in quanto insieme preordinato dall'inclusione. Un fascio di insiemi su ~ è un
prefascio (si veda pag. 365) F che soddisfa particolari condizioni di continuità.
Consideriamo ancora l'esempio delle funzioni continue: c'è un legame tra gli
elementi g E F(A), dove A è un aperto, e le loro restrizioni agli aperti inclusi
in A. Precisamente si verifica questo: dati g, g' E F(A), se per una copertural
{Ai}tei, con At ~ A abbiamo per ogni At che g ~ At = g' ~ At, g coinciderà
con g'; in altre parole, una funzione su un aperto è univocamente determinata dai valori
che assume su una sua copertura. All'inverso, possiamo « comporre » una funzione
su A, quindi un elemento g E F(A), a partire da elementi gì E F(At) per ogni
i E I dove {A t }te I è una copertura di A. L'unica ovvia condizione per far questo
è che i vari gì costituiscano una famiglia compatibile, nel senso seguente: dati
gt E F(At) e !J E F(Ai) si abbia che sul dominio comune essi coincidano, cioè
se Atn A1= Ak
1 Si ricordi che dato uno spazio topologico < X, .w'> se A è un aperto, una copertura
di A è una famiglia { A; }; e I di sottoaperti di
A la cui riunione è uguale ad A.
ZI4
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
In questo caso, facendo la riunione dei vari ,g; concepiti come insiemi otterremo
una funzione g E F(A); che questa sia una funzione dipende ovviamente dalla
condizione di compatibiljtà; che sia definita su .A dal fatto che gli A; costituiscono una copertura di A; che sia continua dal fatto che lo è su ogni sottoaperto
della famiglia.
Il concetto di fascio di insiemi su uno spazio topo logico costituisce una generalizzazione di questo esempio al caso in cui gli F(A) sono insiemi arbitrari,
non necessariamente di funzioni. Si tratta di esprimere in termini categoriali le
_condizioni di esistenza e unicità sopra formulate. Ricordando quanto detto a
pag. 205 sui morfismif* di restrizione, giungiamo alla definizione seguente: un
funtore controvariante F da d a Ins è un fascio se
1) siano g, g' E F(A). Allora g = g' se esiste una copertura {At}tEI di A
tale che per ogni i E l e per ogni /i: A-+ At, f*t(g) = f*;(g') (Unicità);
2) sia {At}tEI una copertura di A con morfismi /i: A-+ A; per ogni i E l.
Sia {gt}tEI una famiglia compatibile di elementi g; E F(A;). Esiste allora un
g E F(A) tale che, per ogni j E l, f*J(g) = g; (Esistenza).
A parole: se abbiamo una famigliagt di elementi di F(At) tali che per ogni
coppia gi e g; le loro restrizioni a F(At n A 1) coincidono, esisterà ungE F(A)
la cui restrizione a F(At) per i E l coincide con gi. Come si vede quindi le condizioni di esistenza e unicità che caratterizzano
---- i fasci non fanno che dire come
possiamo « incollare » fra loro elementi éompatibili di una copertura di A in
modo da ottenere un oggetto associato ad A. La condizione di unicità ci garantisce d'altra parte che per confrontare tra loro due oggetti in F(A) ci basta stll-'
diare il loro comportamento «locale» sui vari sottoaperti di A. È in questo
•·_.
senso che la nozione di fascio ci permette di «.costruire per incollamento » un oggetto in
modo da poterne controllare localmente le proprietà.
Questa messa a fuoco del ruolo del concetto di localizzazione ci permette di
estendere il concetto di fascio a situazioni più generali. Per cominciare possiamo
considerare fasci non di insiemi ma di strutture arbitrarie, cioè fasci di gruppi,
di anelli, ecc. (come si fa nella geometria algebrica). In secondo luogo possiamo
definire fasci non solo su spazi topologici, ma su categorie più generali. Questo
fu fatto per la prima volta da Grothendieck per poter costruire una teoria sufficientemente generale della coomologia su fasci. L'idea è di assiomatizzare il
concetto di copertura o di localizzazione individuandone 1e,..proprietà centrali.
Limitiamoci al caso di quelle particolari categorie che sono i preordini <l, ~ > .
Tenendo presente il caso degli spazi topologici, si può verificare che determinare
una nozione di copertura significa assegnare a ogni elemento i E l una collezione
di famiglie di elementi ~ i che soddisfano particolari condizioni. Un modo per
definire questo concetto più generale è di introdurre la nozione di criwllo. Chia215
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
meremo crivello su i ogni famiglia A di elementi di l tali che se i E A e k ::::; i
allor.a k E A. Diremo crivello principale per i, e lo indicheremo con Ct, la famiglia
di tutti gli elementi di l minori o uguali a i. Le famiglie coprenti i dovranno allora
essere sottocrivelli di Ct. Giungiamo così alla definizione seguente. Diciamo
topologia di Grothendieck su <l, ::::; > l'assegnazione a ogni i E l di una famiglia Loc(i) (le localizzazioni di i) di sottocrivelli di Ct tali che
1) C, E Loc (i) ;
z) se CELoc(i) ej::::; i, allora Cn C1 ELocU);
;) sia CE Loc(i) e C' s; Ct con C'crivello. Allora C'E Loc(i) se per ogni)
si ha C'n cj E Loc (i).
Queste condizioni generalizzano quanto vale per gli aperti. La prima afferma
che il crivello principale di i è una famiglia coprente; la seconda che « tagliando »
una famiglia coprente con la massima famiglia coprente di un elemento minore
otteniamo una famiglia coprente di quest'ultimo; la terza infine è una sorta di
transitività: una famiglia di coperture indidata da una copertura è a sua volta una
copertura. Si noti che una topologia di Grothendieck non è affatto una topologia
nel senso usuale, ma ha sempre un significato geometrico in quanto connessa al
concetto di copertura. Diremo allora sito su <I, ::::; > la coppia data da <l, ::::; >
e da una topologia di Grothendieck su J.t
Non daremo la definizione di topologia di Grothendieck per categorie più
generali; l'idea è comunque quella di considerare come crivelli di un oggetto A
della categoria C famiglie dimorfismi {At~A}teJ· Un sito, allora, è dato da
una categoria piccola e da una topologia di Grothendieck definita su di essa.
Anche in questo caso i fasci possono essere di insiemi, di anelli, ecc. Dato un sito,
i fasci di insiemi su di esso definiti possono essere diversi, ed è estremamente
importante studiarne i rapporti: possiamo fare prodotti di fasci, sottofasci, ecc. ?
Dal punto di vista della geometria algebrica (e non solo di essa) la definizione di
un sito ha proprio il ruolo di permetterei di isolare la totalità dei fasci su di
esso definiti e i loro rapporti. Un topos è appunto la famiglia di tutti i fasci di
insiemi definiti su un sito.
Per Grothendieck i topoi costituiscono veri e propri universi geometrici.
Per rendersi conto di cosa questo possa significare pensiamo a quanto detto sopra
sulla possibilità di considerare i funtori Vs che ad ogni ft-algebra associano i
I Questo mostra come, definendo uno
schema affine, il ruolo della topologia di Zariski
sull'anello 'li di partenza altro non fosse che un
modo per definire una nozione di copertura così
da poter costruire il fascio strutturale.· Se teniamo
conto che, nel caso 'li sia un anello di coordinate di V, gli ideali primi in 21 corrispondono
alle sottovarietà irriducibili di V, si capisce in
che senso il fascio strutturale ci dà un oggetto
geometrico: esso non fa che esprimere come gli
anelli associati alle « zone » di V si compongono
in dipendenza dei rapporti di copertura fra di
esse in modo da ottenere l'anello di coordinate
su v.
216
www.scribd.com/Baruhk
La logica nei ventesimo secolo (II)
punti del suo spazio affine che soddisfano i polinomi in S. Se consideriamo la
categoria opposta delle Sl-algebre finitamente generate, intuitivamente ciascuno
di questi funtori rappresenta le deformazioni che la « varietà » determinata da
S subisce una volta che la si consideri nello spazio corrispondente alle varie
$\-algebre. Questi funtori quindi sono « varietà in movimento » o se si preferisce
varietà definite in modo invariante rispetto alla scelta della Sl-algebra. Se definiamo una topologia di Grothendieck sulla categoria delle Sl-algebre che stabilisce i rapporti di copertura fra di esse, i fasci saranno quelle « varietà » che riflettono questi rapporti. Si può quindi capire in che senso un topos come categoria di tutti i fasci su un sito si possa vedere come un universo geometrico. È
chiaro infatti che un topos si può concepire come una categoria i cui oggetti
sono i fasci e i cui morfismi sono le trasformazioni naturali.
C'è un punto essenziale da osservare: proprio in quanto totalità di fasci di
insiemi, i topoi ereditano molte proprietà dell'universo degli insiemi, anzi questo
stesso universo risulta essere un particolare esempio di topos. Basta infatti considerare i fasci definiti nello spazio « degenere » dato da un solo punto X e dalla
topologia discreta su di esso (che è ovviamente l'unica). Un fascio sarà determinato una volta che si specifichi quale insieme è associato a {X}. Ne scende
che c'è una biiezione tra fasci e insiemi per cui i fasci sullo spazio corrispondono
alla totalità degli insiemi. L'universo degli insiemi si presenta quindi come un
caso di universo geometrico particolarmente «povero», in cui le grandezze
non hanno variazione. Ciò è estremamente importante dal punto di vista fondazionale.
3) Topoi elementari, insiemi variabili, internalizzazione della logica
Si è detto che i topoi di Grothendieck ereditano dall'universo degli insiemi
alcune essenziali proprietà (di chiusura e di esattezza). Questo significa che ogni
volta che consideriamo un topos come una categoria (oggetti i fasci, morfismi le
trasformazioni naturali fra di essi) si verifica che l'applicazione di operazioni analoghe a quelle che da insiemi ci portano a insiemi ci portino nei topoi da fasci
a fasci e che certi funtori siano esatti. Esiste un teorema dovuto a Jean Giraud
(1962) che stabilisce che queste proprietà di chiusura e di esattezza caratterizzano
essenzialmente i topoi, nel senso che i topoi sono tutte e sole le categorie che
sono chiuse rispetto a date operazioni che sono definibili riferendosi all'universo
degli insiemi. Alla ricerca di un contesto generale in cui immergere e giustificare
i modelli booleani della teoria degli insiemi, Lawvere e Myles Tierney giunsero
alla formulazione del concetto di topos elementare: l'obiettivo di fondo era quello
di mostrare come i topoi elementari siano veri e propri universi del discorso,
definibili senza ricorrere al concetto di insieme, e come anzi l'universo degli
insiemi costituisca un loro caso particolare. Vedremo più avanti che cosa questo
significhi precisamente: l'essenziale per ora è capire per quale ragione questo
217
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
ampliamento del concetto di universo del discorso sia rilevante ai fini della nostra analisi.
Torniamo per un momento ai topoi di Grothendieck. Gli oggetti di un
topos sono fasci e i fasci si possono vedere come un modo per parametrizzare la
variazione di insiemi : un fascio è in un certo modo una funzione che al variare
degli oggetti di una certa categoria assegna diversi insiemi; questi insiemi sono
collegati l'uno all'altro in quanto c'è un preciso legame tra gli elementi dell'insieme associato ad un oggetto e quelli degli insiemi associati alle famiglie di
oggetti che coprono l'oggetto dato. Consideriamo il caso più semplice e prendiamo la retta reale 91: il sito su 91 sarà quello indotto dalla topologia usuale.
Possiamo vedere un fascio definito su questo sito come una legge che ad ogni
intervallo della retta associa un insieme in modo da rispettare i legami di copertura. Se leggiamo gli intervalli della retta come intervalli di tempo, un fascio
descrive un insieme in movimento, un insieme che varia. La variazione non è
casuale: poiché abbiamo a che fare con fasci, c'è un legame preciso tra un insieme
assodato a un intervallo e quelli associati a una famiglia di intervalli che ricopre
l'intervallo dato. Questo legame si può leggere come una sorta di condizione di
continuità e quindi un fascio definito su 91 risulta la precisazione matematica del
concetto di insieme che varia in modo continuo. L'esempio del sito dato dalla
retta reale costituisce un caso particolare di insieme variabile. Come dominio di
variazione di fasci si possono prendere siti diversi, la cui strutturazione interna
non necessariamente è quella di un insieme ordinato, ma quella più generale di
una categoria; il legame tra la localizzazione definita sulla categoria e i fasci
rappresenta sempre però una condizione di continuità nella variazione, proprio
in quanto vincola il valore del fascio in una «zona» (un oggetto della categoria)
a quelli assunti nelle famiglie coprenti quella zona.
In questa prospettiva il fatto che l'universo degli insiemi costituisca un
topos acquista un significato preciso: il topos degli insiemi non è nient'altro che
la totalità degli insiemi senza variazione, fissi, mentre un topos in generale è la
totalità degli insiemi che variano su un dominio, su un sito. La teoria dei topoi
permette lo studio di questa nozione più genetale, la cui importanza dal punto
di vista matematico è data proprio dal fatto che attraverso i fasci è possibile organizzare uno studio degli enti geometrici. Nei topoi di Grothendieck però,
proprio in quanto gli oggetti sono fasci, otteniamo una descrizione degli insiemi
variabili sfruttando essenzialmente le proprietà degli insiemi stabili; questo perché un fascio è per definizione una famiglia di insiemi indiciata da oggetti della
categoria. Le proprietà dei topoi vengono ricavate studiando il comportamento
dei fasci punto per punto e quindi gli insiemi costanti che a questi punti corrispondono. Non si è quindi arrivati a una descrizione degli insiemi che variano
in modo continuo in sé e per sé, ma solo via una rappresentazione parametrica
che ne riduce lo studio a quello degli insiemi costanti. D'altra parte, come si è
218
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
detto sopra, il teorema di Giraud fornisce delle condizioni di chiusura su una
categoria affinché essa sia un topos: l'idea di Lawvere e Tierney è quella di
sostituire, alle condizioni di Giraud, un sistema di assiomi che descriva direttamente gli insiemi variabili in modo continuo· senza ricorrere a nozioni insiemistiche. I modelli di questi assiomi saranno ·categorie di oggetti variabili che non
necessariamente si potranno rappresentare parametricamente come fasci; tali
modelli sono detti topoi elementari perché gli assiomi in questione sono esprimibili senza far ricorso alla nozione di insieme. La categoria degli Ìnsiemi sarà
ancora modello degli assiomi dei topoi elementari e soddisferà particolari
condizioni aggiuntive date appunto dal fatto che i suoi oggetti sono insiemi
costanti.
Gli obiettivi che cosi si raggiungono sono due: il primo, più importante,
è quello di fornire un sistema assiomatico che descrive direttamente il concetto
di insieme variabile ponendolo al primo posto; il secondo è quello di ottenere una
descrizione dell'universo degli insiemi in termini puramente categoriali senza far
riferimento, come nozione base, al concetto di appartenenza. Già prima dei lavori sui
topoi elementari Lawvere aveva fornito un sistema di assiomi per la categoria
degli insiemi senza fondarsi sull'appartenenza e nel quale risultava interpretabile
gran parte della matematica classica, e nel 1965, sempre alla ricerca di un sistema
fondante formulato in soli termini di morfismi, aveva assiomatizzato il concetto
di categoria delle categorie. Le ragioni del rigetto della nozione di appartenenza
come unica nozione primitiva discendono dai principi stessi dell'approccio categoriale. Da questo punto di vista infatti, come si è già detto, studiando gli insiemi (o in generale qualsiasi struttura) quello che conta non è la loro composizione interna, ma quali morfismi esistono fra di essi. L'appartenenza ci dà un
modo per rappresentare la costruzione di insiemi, ma non è detto debba essere
il modo migliore per descrivere direttamente le proprietà matematicamente rilevanti di essi. In altre parole: la gerarchia di von Neumann fondata sull'appartenenza è una particolare rappresentazione della categoria degli insiemi, e solo come
tale va vista, senza che questo costituisca un'ipoteca sul reale « significato » degli
insiemi. Anche se « naturale » conseguenza del programma di categorializzazione
della matematica, questo rigetto coerente del concetto di appartenenza è stato
sostenuto e sostan2iato solo a partire dai lavori di Lawvere sopra ricordati. La
teoria dei topoi elementari supera questi primi lavori non solo nel senso che
gli assiomi sono assai più limpidi nel loro contenuto di quelli precedenti, ma
per il fatto ben più importante che mostra chiaramente in che modo il conce~to di insieme costante che sta alla base della teoria degli insiemi sia un
casò limite, una volta che gli insiemi si descrivano in termini categoriali, e quindi senza riferirsi ad una particolare rappresentazione, del concetto di insieme
variabile.
Che cosa è un topos elementare? Detto brevemente è una categoria carte-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
siana chiusa con classificatore di sottoggetti.l Spieghiamo cosa questo significhi.
Una categoria cartesiana chiusa è una categoria con oggetto terminale, oggetto
iniziale, pullback, pushout,2 e chiusa rispetto all'esponenziazion~. Data una categoria C, un oggetto terminale di C è un oggetto I di C tale che per ogni altro
X E Ob(C) esiste sempre esattamente un morfismo da X a I ; dualmente, un
oggetto iniziale o di C è un oggetto tale che per ogni altro X E Ob(C) esiste
esattamente un morfismo da o a X. (In Ins, che è la categoria alla quale di norma
ricorreremo per rendere intuitivi i concetti introdotti, ogni insieme unità {x}
e in particolare { 0} è chiaramente terminale, mentre iniziale è l'insieme vuoto
0 .) In generale si può dimostrare che oggetti iniziali e terminali sono unici a
meno di isomorfismi.
Passiamo ora ai pullbacks. Sia C una categoria, X, Y, Z tre suoi oggetti, f
e g due morfismi tali che
y _ __;:g_ _~
z
pullback di X e Y su Z (rispetto ai morfismi f e g) è ogni oggetto V tale che
esistano due morfismi f' e g' in modo che il seguente diagramma
v
g'
x
!'
f
y
g
I Esistono altre assiomatizzazioni più compatte dei topoi elementari. Anders Kock e C.
Juul Mikkelsen hanno mostrato che è sufficiente
assumere, oltre agli assiomi di categoria, la completezza finita (esistenza di limiti finiti) e per ogni
B la rappresentabilità del funtore Re!(-, B) che
associa ad ogni oggetto A l'insieme delle relazioni da A a B (l'insieme dei sottoggetti di
A X B). Ci siamo attenuti a questa perché ci è
sembrata intuitivamente più giustificabile.
:z Per termini quali pullback e pushout, di-
z
rettamente intraducibili, pur con varie e notevoli
eccezioni sembra essersi affermata nella terminologia specialistica italiana la versione prodotto
fibrato, rispettivamente somma amalgamata. A hbiamo tuttavia conservato la dizione inglese in
vista della sua maggior « maneggevolezza » nel
discorso, tenuto conto delle oscillazioni di traduzione fra i vari autori, e infine perché pensiamo che per il non specialista i corrispondenti
nomi italiani non sarebbero stati certamente più
« evocativi » degli inglesi.
zzo
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
sia commutativo, e sia universale rispetto a questa proprietà nel senso che per
ogni altro oggetto W e morfismi f" e g" da W a X e Y rispettivamente, per cui vale
quanto sopra detto per V,j, g, esiste esattamente un morfismo s da W a V per il
quale tutto il seguente diagramma sia commutativo
f"
W-----=---~X
',s
g·
Il
T f
g'
Y=Y----~z
g
Per la proprietà universale il pullback è unico a meno di isomorfismi. L'esempio
tipico di pullback in Ins è il seguente. Consideriamo il triangolo
t
A-----~
dove A è un sottoinsieme di Y e i è l'inclusione. Il pullback di A lungo f è
l'insieme delle controimtnagini di A rispetto a j, cioè la sua immagine inversa
che si ottiene «spingendo indietro» (pulling back) A lungo f
-------x
f
y
A
Se tanto X quanto Y sono sottoinsiemi di Z e f e g sono i rispettivi monomorfismi
di inclusione, il pullback di X e Y su Z è nient'altro che l'intersezione X n Y
coi rispettivi mono di inclusione in X e Y. Più in generale, se f e g sono due qualsiasi morfismi in Z, il pullback sarà l'insieme di tutte le coppie <a, b > in X x Y
per cui j(a) = g(b).
ZZl
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Dal pullback possiamo ottenere l' egualizzatore di due morfismi
f
e g tra
XeZ
f
x ____
~z
g
che è il « sottoggetto » di X dove f e g coincidono. In Ins l'egualizzatore non
è nient'altro che l'insieme Y ~ X dato da Y = {alf(a) = g(a) }. Lo stesso prodotto, nel caso in cui la categoria contenga l'oggetto terminale, è un caso di
pullback: infatti il prodotto X X Y è il pullback del seguente diagramma
x x y -------1-
y
!
l
x
(In Ins chiaramente il prodotto di due insiemi è il loro usuale prodotto cartesiano.)
Passiamo a considerare il pushout che è il duale del pullback. Per ottenere
una sua definizione è sufficiente invertire il senso delle frecce nella definizione
precedente. Da esso possiamo ottenere il coegualizzatore e, nel caso la cat~go~
ria abbia un oggetto iniziale, il coprodottol (in Ins il coprodotto è la somma
disgiunta).
·
Le categorie cartesiane chiuse quindi, in quanto contengono oggetti terminali e iniziali, pullbacks e pushouts contengono anche egualizzatori, coegualizzatori, prodotti e coprodotti finiti. Ora, si dimostra in generale che se una categoria contiene prodotti e egualizzatori è chiusa anche rispetto ai limiti finiti e
dualmente se essa è chiusa rispetto a coprodotti e coegualizzatori è chiusa anche
rispetto ai colimiti.
Passiamo all'esponenziale. Abbiamo detto cos'è il prodotto. Intuitivamente
l'esponenziale in una categoria C corrisponde in Ins all'insieme XY di tutte le
funzioni da Y a X; c'è un legame fra questo oggetto e il prodotto Y X X, e la
definizione di esponenziale in una categoria si ottiene utilizzando la traduzione
categoriale di tale legame. Siano X e Y ·due insiemi. Esiste una funzione e:
xy ~x che « valuta >> ogni funzione g E XY: è la funzione che applicata alla
coppia <g,y > con g E XY e y E Y, associa il valore g(y) che apparterrà a X. Il
legame fra il prodotto e l'esponenziale è caratterizzato dall'esistenza della e.
I In generale, dato un nome « X » per un
certo concetto, il concetto duale viene indicato
premettendo a quel nome un « co »,
cioè « coX ».
222
www.scribd.com/Baruhk
scri~endo
La logica nel ventesimo secolo (Il)
Giungiamo così alla definizione seguente. Data una categoria C con prodotti,
X, y E Ob(C), l'esponenziale xr è determinato da un oggetto XY e da un morfismo e: xr x y--+ x che gode della seguente proprietà universale: per ogni
freccia f: W X Y--+ X c'è un'unica freccia g: W--+ XY tale che il seguente diagramma commuti
xy
x
y ____e_ _ _ x
gXI
f
WxY
Questo comporta che esiste una biiezione naturale (definita cioè simultaneamente
per ogni X e Z) tra Hom(X x Y, Z) e Hom(X, zr) che è data appunto dal
morfismo di valutazione e. La situazione si può esprimere considerando per ogni
Y il funtore (-) X Y da C a C che ad ogni X associa X x Y e il funto re (-)Y
che ad ogni Z associa ZY.
L'esistenza di una biiezione fra gli insiemi dimorfismi sopra considerati stabilisce un rapporto fra i due funtori che viene detto di aggiunzione: l'esponenziale
è aggiunto destro del prodotto (che dualmente è l'aggiunto sinistro dell'esponenziale).
Situazioni di questo tipo fra funtori F: C-+D e G: D-+C si presentano nei
campi più disparati della matematica e una delle maggiori conquiste della teoria
delle categorie, dovuta a Daniel Kan (1958) è quella di aver fornito, attraverso il
concetto di aggiunto, un'analisi matematica di queste situazioni che ne pone in
luce gli aspetti rilevanti; aggiunti fra loro sono ad esempio il Juntore dimenticante
(che ad ogni struttura associa il suo insieme supporto) e il funtore algebra libera
che ad ogni insieme associa l'algebra libera su di esso costruita. Altri esempi incontreremo più avanti. Quello che va sottolineato è che attraverso il concetto
di aggiunzione è possibile organizzare uno studio sistematico delle costruzioni
universali o, in termini più moderni, delle soluzioni dei problemi universali, e
dare una visione unitaria di uno dei processi centrali della pratica matematica:
opportunamente analizzate, quasi tutte le costruzioni fondamentali danno origine ad aggiunti.
Abbiamo così definito che cosa è una categoria cartesiana chiusa. Per spiegare che cosa significhi l'ultimo assioma dei topoi elementari, che riguarda l'esistenza di un classificatore di sottoggetti, conviene ritornare all'esempio di Ins.
La caratteristica più significativa dell'universo degli insiemi è data dal fatto che
ogni volta che X è un insieme anche la collezione f!!>(X) dei suoi sottoinsiemi è
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
un insieme: la gerarchia di von Neumann è proprio definita sfruttando questa
proprietà. Ora in termini categoriali la nozione di sottoinsieme si trasforma in
quella di sottoggetto. Sia C una categoria; se u: X---+ Y e v: Z---+ Y sono due m ono
con lo stesso codominio, diciamo che u ~ v se esiste un isomorfismo u' per cui
u = vu'; si tratta chiaramente di un preordine fra mono. Otteniamo un'equivalenza - quando abbiamo simultaneamente u ~ v e v ~ u. Dal punto di vista
categoriale sottoggetti di Y sono le classi di equivalenza rispetto a = dei mono
con codominio Y. Intuitivamente è chiaro che nel caso di Ins un sottoggetto
sarà univocamente determinato da un sottoinsieme in quanto in questo caso la
relazione di equivalenza significa che due mono hanno domini isomorfi. Di
norma identificheremo un sottoggetto con un rappresentante della classe di
equivalenza.
Nel contesto della teoria dei topoi un classificatore di sottoggetti ha lo scopo di
garantirci l'esistenza ~per ogni oggetto X di un topos - di un oggetto che
rappresenti la famiglia dei suoi sottoggetti. Vediamo come questo può avvenire.
Un modo per descrivere i sottoggetti in Ins è quello di ricorrere alle funzioni
caratteristiche. Consideriamo l'insieme { 0, { 0 } },I che sarà un oggetto di Ins,
e sia Yun sottoinsieme qualunque di un insieme qualunque X; Y è univocamente
determinato dalla funzione caratteristica cpy: X---+ { 0, { 0 } } che ad un elemento
x E X assegna 0 se x E Y, {0 } altrimenti. È chiaro allora che esiste una biiezione tra .9'( X) e {0, { 0 } }x. In Ins l'insieme { 0, { 0 }} si può vedere quindi come
un oggetto in grado di classificare tutti i sottoggetti di ogni altro oggetto. L'idea
è quella di generalizzare la procedura al caso di categorie cartesiane chiuse arbitrarie. Diamo allora la definizione che poi illustreremo. Se C è una categoria
cartesiana chiusa diremo che un classificatore di sottoggetti è un oggetto n e un
morfismo t da I a n (dove I è l'oggetto terminale di C) tale che per ogni mono
m: S---+ X abbiamo che esiste esattamente un morfismo Cf'm da X a n tale che S
è il pullback del seguente diagramma commutativo
È chiaro che in Ins se prendiamo
n=
I Si tratta dell'insieme dei due « valori di
verità» usualmente indicato con {o, I }. Preferiamo indicarlo come nel testo per evitare equivoci col discorso più generale ove I indica l'og-
{ 0, { 0 } } e per t il mono di inclusione
getto terminale e o quello iniziale (ove esistano)
in categorie qualsiasi, dove evidentemente non
coincidono con 0 e { 0 }.
2.2.4
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
{ 0 } --+ { 0, { 0 }} (si ricordi che { 0 } essendo un insieme unità è a meno di
isomorfismi un oggetto terminale) otteniamo un classificatore di sottoggetti.
Per verificarlo basta considerare la funzione caratteristica <pm dove m: S--+ X.
Supponiamo per semplicità che m sia il mono di inclusione. Cominciamo col
provare che il diagramma
s
m
x
commuta. Infatti, preso x ES, la sua immagine m(x) sarà x; applicando <pm a
m(x) otterremo 0 per definizione di funzione caratteristica. Percorriamo l'altro
sentiero del diagramma. Essendo { 0 } oggetto terminale, l'unico morfismo da
Sa {0} sarà quello che ad ogni oggetto di S assegna come valore 0 e quindi
l'immagine di x sarà 0 ; applicando ora t all'immagine di x otterremo ancora 0
e quindi il diagramma commuta. Perché m e S siano ilpullback del triangolo
J' ___"_w_ _ _ _ X
basta che S sia il più grande sottoinsieme di X per cui si verifica la commutatività
del diagramma e questo è ovvio in quanto per ogni soprainsieme di S che sia
sempre sottoinsieme di X, ogni elemento x non appartenente a S sarà tale che
<pm m(x) = {0} per definizione di funzione caratteristica.
Per vedere ora come l'esistenza del classificatore di sottoggetti in una categoria cartesiana chiusa comporti per ogni oggetto X l'esistenza di un oggetto
che ha come elementi tutti i sottoggetti di X, occorre chiaramente generalizzare
la nozione di elemento. In un topos infatti gli oggetti non sono insiemi, quindi
non ci può essere un oggetto cui «appartengono» altri oggetti. La proprietà
di « essere elemento » dovrà quindi tradursi in termini di morfismi. L'idea è
che dato un oggetto X, elemento di X è ogni morfismo I~ X; nel caso di Ins
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
questo è evidente in quanto ogni morfismo { 0 } ~X non fa che « scegliere »
un elemento di X, il valore per 0 ; in una categoria più generale non è detto
che questa corrispondenza tra appartenenza insiemistica e motfiEmi definiti sull'oggetto terminale valga, perché non è detto che necessariamente, dati g e f da
X a Y, conf i= g, esista un x da I a X per cuifx i= gx. Ciò non toglie che se noi
riusciamo a trovare che in ogni topos elementare esiste una biiezione fra gli
elementi di nx, i morfismi da I a nx, e i sottoggetti di X, avremo trovato che
nx si può assumere davvero come l'oggetto che rappresenta l'insieme fJJ(x)
dei sottoggetti di X. È questo che proveremo. Ora, per definizione di classificatore di sottoggetti, sappiamo che ad ogni m da
corrisponde un unico
morfismo cpm da X a n. All'inverso, poiché un topos ammette pullbacks, per
ogni cpm: X---+- n esisterà un sottoggetto di X di cui Cfm sarà la funzione caratteristica. C'è quindi una biiezione tra funzioni caratteristiche e sottoggetti. D'al:tra parte, dato l'oggetto X, è facile verificare che X sarà isomorfo a I x X.
Ma I x X è un prodotto e, come sappiamo per l'aggiunzione tra prodotto e
esponenziale, esiste un isomorfismo naturale Hom(Y x X, Z) ~ Hom(Y, zx).
Ne scende allora che corrispondendo biunivocamente i sottoggetti di X ai morfismi caratteristici I X X-+ n, ci sarà una biiezione fra i sottoggetti e i morfismi
I-+ nx, che non sono nient'altro che gli elementi di nx. Si vede così come l'esistenza di un classificatore di sottoggetti in un topos elementare garantisce per
ogni oggetto X l'esistenza del suo «insieme potenza» uguale a nx. Si vede
anche come sia plausibile interpretare n come l'oggetto dei valori di verità in
un topos.
Possiamo estendere la cosa. In analogia col caso insiemistico, una relazione
tra due oggetti X e Y si potrà definire come sottoggetto del prodotto X x Y.
Questi sottoggetti saranno in corrispondenza biunivoca con i morfismi X x Y-+
-+n; per quanto detto sopra sui rapporti fra esponenziale e prodotto, Horn
(X X Y, n) ~ Hom(Y, nx), il che significa che data la relazione R >~X X Y,
esisterà nel topos un morfismo Y-+ o.x che possiamo considerare come associante a ogni elemento I _l4. Y l'oggetto i cui elementi sono tutti quegli x tali
che xRy. Abbiamo così una sorta di principio di comprensione.
Quanto detto non è che un primo passo verso la giustificazione dei topoi
elementari come generalizzazione degli universi degli insiemi. Quando descriviamo l'universo degli insiemi con gli ordinari assiomi sull'appartenenza, sostanzialmente non facciamo altro che specificare quali estensioni di predicati,
dati da formule, vanno considerate come oggetti dell'universo stesso. Per giungere ad una giustificazione più adeguata occorre considerare più da vicino un
aspetto caratteristico dell'universo degli insiemi come universo di « tutti gli
oggetti matematici » di cui si parla. Si tratta del processo di « internalizzazione ».
Gli assiomi ordinari della teoria degli insie.mi si possono vedere infatti come asserti che stabiliscono quando relazioni e costruzioni su insiemi sono oggetti del-
sax
226
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
l'universo, cwe 1nsiemi; la cosa è particolarmente evidente nel caso di teorie
del tipo Godel-Bernays, che si basano sulla contrapposizione fra classi (operazioni e relazioni esterne) e insiemi (oggetti interni). Diamo un esempio. Date
due funzioni] e g da X a Y, sappiamo che ad esse corrisponderà un sottoggetto S
di X che è il sottoinsieme di X sul quale le funzioni assumono valori uguali, il
loro egualizzatore
S
f
>~X--+
Y.
g
Gli assiomi della teoria degli insiemi ci garantiscono d'altra parte qualcosa di
più: la costruzione dell'egualizzatore ha una controparte interna nel senso preciso che nell'universo esiste una funzione
yx x
yx~nx
che ad ogni coppia di funzioni da X a Y associa la funzione caratteristica del loro
egualizzatore. Questa funzione costituisce una vera e propria versione interna
della costruzione dell'egualizzatore nel senso che è un elemento dell'universo
che corrisponde alla operazione definita esternamente. Gli esempi si potrebbero
moltiplicare. Quello che conta è che in quest'ottica si capisce in che senso l'esistenza di un classificatore (in presenza ovviamente degli altri assiomi) ci permette
di considerare i topoi elementari come una generalizzazione della categoria degli insiemi. La cosa da tenere a mente è che in un topos le controparti di relazioni e operazioni esterne saranno morfismi, in quanto sono questi ultimi che
definiscono una categoria.
L'internalizzazione nei topoi ha d'altra parte un significato più vasto, e
coinvolge la logica stessa, così che possiamo parlare della logica interna di un topos.
Questo fatto è di estrema importanza in quanto ci permette di vedere in un topos
elementare un universo del discorso generalizzato. Per illustrare questo fatto
partiamo ancora dal topos degli insiemi. Quando consideriamo due formule
d e f18, con le stesse n variabili libere, del linguaggio della teoria degli insiemi,
siamo in grado, mediante connettivi e quantificatori, di ottenere da esse formule
più complesse. Supponiamo che d e fJ8 siano interpretate sugli elementi di un
dato insieme X. Le loro estensioni sull'universo, rispetto a questa interpretazione, saranno allora due sottoinsiemiA, B di
L'applicazione dei connettivi permette di ottenere altri sottoinsiemi di
come estensioni delle rispettive
formule composte. La famiglia &(Xn) dei sottoinsiemi di
come ogni famiglia di sottoinsiemi - ha una struttura ordinata dalla relazione essere sottoggetto ed è una categoria in quanto preordine. Sulla base di questa relazione si
possono definire le ordinarie operazioni insiemistiche n, u, -, =>, che da sot-
xn
xn.
www.scribd.com/Baruhk
xn -
La logica nel ventesimo secolo (II)
toggetti di xn portano a sottoggetti di Xn. In altre parole &'(Xn) è chiuso rispetto a queste operazioni e come è noto costituisce un'algebra di Boole.
Questo discorso si può ritradurre in termini di funzioni caratteristiche
x-+ n, dove n, classificatore del topos degli insiemi, è l'oggetto {0' {0 }}.
Ad ogni connettivo binario (/\, V, ::::>) corrisponderà un morfismo Q2-+ Q e a
---, un morfismo Q-+ Q dato dalle solite tavole di verità per la logica classica.
Q e i morfismi Q2-+ n, Q-+ Q costituiscono quindi quello che viene chiamato
un oggetto algebra di Boole del topos: la logica interna del topos degli insiemi si
viene per così dire a concentrare nell'oggetto Q. Possiamo così dire che la logica
classica è la logica interna del topos degli insiemi, nel senso che è la logica del suo
classificatore di sottoggetti, che riflette la strutturazione della famiglia di sottoggetti di ogni oggetto del topos: i morfismi Q2-+ Q e Q--+ Q sono la controparte
interna delle operazioni n' u' ~. -, su sottoggetti.
Il discorso si può estendere ad ogni topos elementare. Si può vedere infatti
che la famiglia di sottoggetti di un oggetto X costituisce un'algebra di Heyting
se, partendo dalla relazione essere sottoggetto, definiamo il sup, l'inf, lo pseudocomplemento assoluto e quello relativo. Possiamo ora trasferire questa strutturazione sul classificatore n, via la corrispondenza fra sottoggetti e morfismi
caratteristici. Otteniamo così morfismi Q 2 --+ Q e Q--+ Q che corrispondono a
operazioni su sottoggetti e sono la controparte interna dei connettivi. In questo
modo la strutturazione interna delle famiglie di sottoggetti si lascia descrivere
completamente in termini dell'oggetto classificatore. Sarà quindi la natura di
quest'ultimo a darci la logica interna di un topos, in quanto, come abbiamo
visto, essa dipende dalla strutturazione delle famiglie di sottoggetti che si riflettono nelle proprietà di n.
Il discorso sarebbe parziale se si limitasse ai connettivi. Come però ha posto
in luce Lawvere possiamo internalizzare anche i quantificatori. Esemplifichiamo,
al solito, nel caso del topos degli insiemi. Come è noto, l'operazione insiemistica
che corrisponde alla quantificazione esistenziale è l'operazione di proiezione.
Data la relazione binaria R sottoinsieme di
estensione della formula d(x,y),
l'estensione della formula 3xd(x,y), che indicheremo con 3xR, sarà data
dall'insieme
per qualche x,< x,y > E R}. Questo insieme è null'altro che la
seconda proiezione p dell'insieme R s;;;
Dualmente, l'estensione \;/ xR della
formula \;/ xd(x,y) sarà data dall'insieme
per ogni x, <x, y > E R}. Questa
descrizione non è direttamente traducibile in termini categoriali in quanto
sfrutta l'appartenenza; lo diventa una volta che si pongano in primo piano la
proiezione seconda e il funtore che a ogpi sottoinsieme associa l'immagine inversa rispetto a p, vale a dire il funtore
xz,
01
xz.
{yl
che a Y s;;; X associa l'insieme {<x, x' >
E
X21 p(< x, x'>)
zz8
www.scribd.com/Baruhk
E
Y}.
La logica nel ventesimo secolo (II)
Il funtore p* si può definire all'interno dei topoi ricorrendo al concetto di
pullback. In termini delle categorie di sottoggetti (che, si ricordi, sono preordini)
e di p* possiamo d'altra parte identificare univocamente in Ins i quantificatori
mediante le condizioni
3xR
T~
~
T se e solo se R
~
'VxR se e solo se p*T
p*T
~
R.
Queste condizioni, d'altra parte, in termini categoriali significano che i funtori
3P: P/( X2)-+ P/( X)
'VP: P/( Xz)-+ P/( X)
che a Y sottoggetto di X associano rispettivamente 3xY e 'V x Y sono rispettivamente aggiunto destro e sinistro, rispetto alle categorie in esame, di p*.
Come mostra la nostra stessa notazione, i funtori che corrispondono ai quantificatori sono definiti in dipendenza del morfismo di proiezione p; il processo
si può generalizzare e parlare in un topos di aggiunti destri e sinistri di j* per
ogni morfismo j: X-+ Y, con X, Y oggetti del topos. Possiamo quindi definire
quantificatori lungo morfismi arbitrari analizzandoli in termini di aggiunzione.
Il fatto essenziale è che, all'interno dei topoi, si può dimostrare l'esistenza di
questi aggiunti, così che disponiamo della controparte interna dei quantificatori. L'intera logica ha quindi una versione interna ai topoi: questo comporta
che all'interno dei topoi possiamo interpretare ogni formula di un linguaggio che
abbia gli operatori in questione.
Più specificatamente potremo interpretare fotmule di linguaggi a più sorta
e di ordine superiore; a più sorta in quanto possiamo considerare ogni oggetto
del topos come una sorta cosicché ad esempio una relazione fra oggetti di sorta
X e Y sarà un sottoggetto del prodotto X x Y; di ordine superiore in quanto,
come mostrato all'inizio, per ogni oggetto
nel topos esistono nx, nox, ecc.
cosicché potremo quantificare su sottoggetti, elementi di nx, sottoggetti di nx
(elementi di nox), ecc. La possibilità di fungere da dominio di interpretazione
della logica del secondo ordine è l'aspetto caratteristico dell'universo degli insiemi, che ci consente di vederlo come universo del discorso; questo risultato ci dà
allora la misura di come i topoi elementari siano « buone » generalizzazioni di
quest'ultimo.
Il punto che rimane da considerare da vicino riguarda il tipo di logica interna dei topoi. Nel topos degli insiemi il classificatore è l'algebra di Boole
semplice a due elementi {0, {0}} e quindi la logica è classica; parlando in
generale dei topoi elementari abbiamo però detto che il classificatore è un oggetto
x
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
algebra di Heyting, 1 il che sta a significare che in generale la logica di un topos
elementare è intuizionista. Consideriamo la categoria Sh(X) di tutti i fasci di
insiemi su uno spazio topologico X. Si può dimostrare che essa è un topos elementare; più in generale otteniamo un topos anche considerando i prefasci su X.
Nel topos dei fasci l'oggetto classificatore sarà dato sostanzialmente dalla famiglia degli aperti di X nel senso che esiste una biiezione tra gli elementi 1 ~ Q
del classificatore e gli aperti di X. Come è noto, se consideriamo gli aperti di
uno spazio topologico, e definiamo le operazioni 1\, V, ::.J, - , , in termini di relazione d'ordine (inclusione) in modo analogo a quello che faremmo negli insiemi
(/\ è l'inf, V il sup, ecc.) otterremo un'algebra di Heyting che sarà l'algebra di
Boole semplice solo nel caso lo spazio si riduca a un solo punto. Questo significa che la logica interna dei topoi è essenzialmente intuizionista e che solo in
casi molto particolari è più forte di questa.
Introdotti i topoi elementari, vediamo ora più da vicino che rapporti precisi esistano con i topo i di Grothendieck e le varie teorie degli insiemi; si tratta
in altre parole di analizzare il senso in cui i topoi elementari generalizzano simultaneamente tanto la nozione di universo geometrico quanto quella di universo
del discorso. La risposta è semplice per quanto riguarda il primo punto: si può
dimostrare che ogni topos di Grothendieck (t.d.G.) è un topos elementare; non
vale in generale il viceversa e questo dipende da un fatto preciso: i t.d.G. sono
definiti facendo essenzialmente riferimento alla nozione di insieme sia che li si
caratterizzi come categorie di fasci di insiemi, sia che si ricorra alle condizioni di
Giraud. Per descrivere il t.d.G. si fa quindi riferimento ad elementi esterni e
appartenenti all'universo degli insiemi. Nella definizione di topos elementare
non c'è invece nessun riferimento esterno e quindi le proprietà che nel caso di
Grothendieck dipendevano essenzialmente dalla specifica struttura degli insiemi
costanti non si ritrovano nel caso dei topoi elementari. Ricollegandosi alla contrapposizione fra insiemi variabili e costanti da cui abbiamo preso le mosse, si
vede quindi in che senso la definizione di topos elementare costituisca un passo
avanti rispetto a quella di Grothendieck. Se davvero, come questi intendeva, i
topoi devono costituire la precisazione del concetto di grandezza variabile su
uno spazio generalizzato, la possibilità di descrivere direttamente questi oggetti
senza far riferimento ad insiemi costanti costituisce chiaramente un approfondimento dell'analisi.
I Si noti che la differenza fra algebra di
Heyting e oggetto algebra di Heyting è essenziale,
come lo era la distinzione fra insieme dei sottoggetti e oggetto dei sottoggetti di cui si è parlato
a proposito del classificatore. Un'algebra di Heyting è un insieme (opportunamente strutturato),
mentre nei topoi un oggetto algebra di Heyting è
appunto un oggetto X del topos, che non necessariamente è un insieme, e opportuni morfismi
XL~ X e X- X dove questi ultimi soddisfano gli assiomi delle algebre di Heyting. Stesso
discorso vale per l'oggetto numeri naturali cui accenneremo più avanti. Per brevità spesso diremo
semplicemente algebra di Heyting, algebra di
Boole, ecc. invece di oggetto algebra di Heyting,
oggetto algebra di Boole, ecc., ma il lettore tenga
ben presente la distinzione.
www.scribd.com/Baruhk
La logica nei ventesimo secolo (II)
Una prima differenza tra topoi elementari e t.d.G. è che ogni t.d.G. possiede
un particolare oggetto N che è la controparte interna della struttura dei numeri
naturali. La struttura di questo oggetto, come Lawvere ha fatto vedere, si può
caratterizzare interamente in- termini categoriali, definendo morfismi 1 _.;,.N ~N
(che corrispondono allo zero e· al successore) cosicché i t.d.G. oltre a soddisfare
gli assiomi l:l:<t dei topoi elementari soddisfano l'assioma
A
1
Esiste un oggetto di numeri naturali
di cui non daremo qui la formulazione. Questo ci porta al secondo problema
riguardante il confronto con la teoria degli insiemi. A 1 svolge nei riguardi di
'l:l:<t il ruolo di un vero e proprio assioma dell'infinito. Si verifica infatti che
mentre il topos degli insiemi finiti è un modello di l:l:<t (la cosa è ovvia in
quanto prodotti, esponenziali, ecc. di insiemi finiti sono ancora finiti) esso non
lo è più una volta che si aggiunga AL La domanda che si pone naturale, volgendosi ora al topos degli insiemi, è quella di vedere entro che misura è possibile
aggiungere a l:l:<t ulteriori assiomi formulati sempre in termini categoriali che
lo caratterizzino sempre più da presso.
Lawvere è riuscito a fornire un sistema di assiomi, che indicheremo con
<tl:<tS, che estende l:X<t e che si può confrontare con le varie assiomatizzazioni
ordinarie della teoria degli insiemi. Il primo passo ovviamente è q~ello di costringere la logica interna a essere classica. Occorre quindi postulare che n, il classificatore, sia un'algebra di Boole. Questo d'altra parte non è sufficiente in quanto,
come abbiamo visto, nel topos degli insiemi n non è solo un'algebra di Boole,
ma è l'algebra di Boole semplice con i soli elementi o e 1. Le due assunzioni sono
molto differenti fra loro e che cosa questo significhi si può vedere ricordando i
modelli booleani della teoria degli insiemi,"ove l'idea di fondo di Scott-Solovay,
come si ricorderà, è che la logica classica è valida in ogni interpretazione booleana
e non solo in quella semplice: nei modelli booleani l'appartenenza e l'identità
sono « misurate » dagli elementi di un'algebra di Boole completa nel senso che
le formule x Ey e x= y possono assumere tutti questi valori; il fatto interessante è che i modelli booleani costituiscono un topos elementare booleano, in
cui cioè n è un'algebra di Boole.l Per caratterizzare il topos degli insiemi l'assioma da assumere deve comunque essere quello più forte che comporta che
n è l'algebra semplice.
Altro assioma che Lawvere assume è quello della scelta, nella forma
ASC Per ogni epi A ~~B esiste un B ~A tale chef o g =
1 Come ricordato sopra, l'analisi di questi
modelli è stata uno dei punti di partenza per i
lavori di Lawvere. Recentemente Gerhard Osius
IB
e Higgs hanno mostrato come si possano costruire in termini categoriali, ponendo in evidenza gli elementi centrali della costruzione.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
che afferma che ogni epi ha un inverso. Se intendiamo epimorfismo come funzione suriettiva, come avviene nel topos degli insiemi, ASC è equivalente classicamente alle ordinarie formulazioni dell'assioma di scelta. Il sistema (f~(t6 di
Lawvere è dato allora dagli assiomi dei topoi elementari, l'assioma dell'infinito
Ar, l'assioma che stabilisce che n è un'algebra di Boole, da ASCe dall'assioma
che stabilisce che n è un'algebra semplice. Per questo sistema vale un teorema
di caratterizzazione stabilito da Lawvere che afferma che se C è una categoria
tale che, per ogni A, B E Ob(C), Hom(A, B) è un insieme, C è equivalentè alla
categoria degli insiemi se e solo se C è modello di (f~(t6 ed è bicompleta nel
senso che esistono limiti diretti e inversi arbitrari. Chiaramente queste proprietà
non sono formulabili senza far riferimento alla nozione di insieme arbitrario e
quindi non è possibile sfruttare il teorema di caratterizzazione per ottenere un
sistema assiomatico in termini categoriali che individui la categoria degli insiemi
a meno di equivalenze. È però possibile domandarsi che rapporti esistono fra
(f~(t6 ed eventuali sue estensioni e gli ordinari sistemi di assiomi per gli insiemi
basati sulla nozione di appartenenza. Passare da questi ultimi agli assiomi categoriali è facile, in quanto basta prendere come morfismi gli oggetti che sono
funzioni definite in termini di .appartenenza. Il passo problematico è l'inverso.
J.C. Cole e William Mitchell sono riusciti a fare questo passaggio dimostrando
che una estensione di (f~<t6 è equivalente ad una variante della teoria degli insiemi di Zermelo, la indicheremo con .3 0 , che ha come assiomi l'estensionalità,
l'esistenza dell'insieme vuoto, della coppia, dell'insieme potenza, dell'unione,
l'assioma di regolarità, di scelta, dell'infinito e una formulazione del principio di
comprensione per formule con tutti i quantificatori limitati. Gli assiomi che vanno
aggiunti sono conseguenza dell'assioma di rimpiazzamento che non stiamo qui
a descrivere. Il fatto importante è che si può provare che ogni modello di .3o
dà una categoria che soddisfa (f~(t6 e che a partire da ogni modello di (f~(t6
si può costruire un modello di .3o· L'idea è che ogni insieme, una volta che si
assuma l'assioma di regolarità, si può vedere come un albero e che gli alberi si
possono descrivere direttamente in termini categoriali. Questo dimostra che
(f~(t6 è una teoria notevolmente potente e risulta plausibile la congettura di
Lawvere secondo la quale buona parte della matematica classica si può sviluppare
all'interno di essa.
I risultati più interessanti però riguardano un altro punto, più precisamente
il legame fra la logica interna di un topos e l'assunzione dell'assioma di scelta.
R. Daiconescu e Tierney hanno dimostrato infatti che tale assioma implica che
O sia un'algebra di Boole: il che è estremamente interessante se, secondo la
prospettiva di Lawvere, consideriamo la teoria dei topoi come una descrizione
diretta degli insiemi variabili. Il fatto che in un topos il classificatore sia booleano
e quindi che il morfismo n ~ n sia uguale a I (in termini di SOttoggetti e non di
morfismi che -. --, X coincida con X) comporta che si può spezzare il dominio
2.32
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
di variazione in un topos in due parti complementari in modo che la variazione
globale sia la combinazione delle variazioni nelle due parti. Questo significa che
la variazione in questo caso è « casuale » nel senso che non vengono rispettate
condizioni di continuità in quanto lo « spezzamento » è arbitrario. Che Q sia
booleano comporta quindi che in un topos di questo· genere gli insiemi variano
in modo casuale e ciò fornisce un'analisi del famoso paradosso di Banach-TarskiSierpinski (1924) secondo il quale dall'assioma di scelta si ha che una sfera può
essere decomposta in due sottoinsiemi disgiunti tali che la sfera è equidecomponibile con ciascuno dei due sottoinsiemi.l Se infatti il movimento si può spezzare in modo arbitrario, non c'è nulla di strano che si verifichi questo e la constatazione che ciò non può accadere nel mondo reale è una conferma del fatto che
le quantità reali variano in modo continuo.
Da questo si possono trarre ulteriori considerazioni. Classicamente l'assioma di scelta è la base per le analisi in termini di punti di processi di variazione;
basti pensare ad esempio a come tale assioma implichi l'esistenza di ideali primi
e quindi, nella geometria algebrica, di punti (si pensi alla topologia di Zariski
per un anello); di come comporti l'esistenza di modelli per teorie elementari della
logica e quindi la possibilità di analizzare le teorie considerando i valori che assumono su strutture viste come punti in uno spazio di modelli, ecc. D'altra parte,
assumere l'adeguatezza di una analisi in termini di punti comporta in ultima
istanza l'affermare che una totalità si può completamente descrivere in termini
di elementi irriducibili, i punti, studiando i loro rapporti. Questo vuol dire negare che esistano ·.ùei legami di continuità, di prossimità, che non si possano
scindere senza falsificazioni introducendo surrettiziamente elementi esterni alla
situazione «reale». Da qui emerge l'estremo interesse della teoria dei topoi
elementari, in cui si ammettono topoi con classificatori non booleani e non si
accetta di conseguenza l'assioma di scelta. Un esempio della fecondità di questo
approccio è stato dato recentemente da André Joyal, che ha eliminato il ricorso
ai « punti » in una costruzione centrale della matematica, quella della topologia
di Zariski associata ad un anello che abbiamo visto più sopra. Classicamente,
l'abbiamo detto, i punti dello spazio topologico sono gli ideali primi dell'anello;
quello che conta però, come si è già osservato, non sono i punti, ma la topologia
stessa, che ci permette di definire il fascio strutturale e di giungere così agli
schemi affini: J oyal è riuscito ad effettuare questa costruzione senza sfruttare la
scelta e senza usare i punti. Si tratta chiaramente di estendere questa prospettiva
a casi più generali e l'esempio più interessante dal punto di vista logico sarebbe
proprio quello di fare un discorso analogo nel caso delle teorie e dei modelli,
I Consideriamo due sottoinsiemi A e B
dello spazio euclideo tridimensionale. Come è
noto si dice che A è equidecomponibile con B
se esiste una decomposizione finita di A in sot-
toinsiemi disgiunti, A = A1 v A2 V ... V An
e una di B, B = B1 V B2 v ... v Bn tali che
ogni A; è congruente a B 1 •
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
giungendo così a una teoria dei modelli in cui sostanzialmente non si usano i
modelli ma le proprietà strutturali dello spazio da essi definito.
Quello che ci preme sottolineare è che queste considerazioni sull'assioma
di scelta introducono un elemento nuovo di discussione, non assorbibile in nessun modo nella problematica classica ad esso connessa. Discorso analogo vale per
la logica interna dei topoi elementari. Le obiezioni costruttiviste avevano portato
tanto a negare la scelta quanto a negare il terzo escluso; questo però in base a
una concezione innegabilmente ristretta del sapere matematico. Gli strumenti
·elaborati dal costruttivismo vengono ripresi in questo contesto da una prospettiva. molto più generale in cui alle motivazioni basate sul « movimento » della
conoscenza matematica contrapposto alla staticità classica, si sostituiscono considerazioni basate su un concetto generale di movimento, sia esso della conoscenza o della realtà esterna. Quello che si concretizza in ultima istanza è un
atteggiamento realista che prende finalmente sul serio, ma pone nei giusti limiti,
le critiche costruttivistiche.
Abbiamo parlato della logica interna dei topoi sottolineando che essa è
determinata dalla struttura generale del topos stesso. La domanda che si pone
naturale è se questa determinazione della logica interna dei topoi elementari non
dipenda anche da qualcosa di esterno, cioè dalla logica che si utilizza formulando
gli assiomi per i topoi. L'interrogativo è legittimo in quanto nel caso delle teorie
degli insiemi formulate mediante appartenenza c'è una corrispondenza, come abbiamo visto, fra la logica esterna che utilizziamo nel formulare gli assiomi e quella
interna, ed è difficile dire quale delle due preceda l'altra: è la logica classica che
determina la nozione di insieme o viceversa ? Il fatto importante è che questo
dubbio nel caso dei topoi elementari non sussiste e possiamo davvero sostenere
che la logica interna dipende esclusivamente dalla struttura dei topoi. La ragione
è che gli assiomi dei topoi elementari si possono formulare senza ricorrere a
connettivi e quantificatori.
Per verificarlo basta ricordare quanto detto a suo tempo sul concetto di categoria. Una categoria si può descrivere compiutamente esclusivamente in termini di morfismi e composizioni; il ruolo degli oggetti viene preso dai morfismi
identità. L'universo di una categoria è quindi dato dai suoi morfismi sui quali è
definita un'operazione parziale, la composizione. Il problema è di stabilire quando due morfismi sono componibili. Per far questo ci bastano le nozioni di dominio
e codominio dei morfismi, che possiamo intendere come funzioni D e C che
ad ogni morfismo f E Hom(A, B) associano: C(f) = IA e D(f) = rs. Le funzioni dominio e codominio sono totalmente definite sull'universo dei morfismi,
e avremo chef o g è definita nel caso D(f) = C(g), con D(f o g)= D(g) e C (f o g)=
= C(j). Da questo fatto fondamentale scende che si possono formulare gli assiomi per le categorie esclusivamente mediante sequenti del tipo r l- d dove
.9/ è un'equazione e r è un insieme (anche vuoto) di equazioni, o sequenti della
234
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
forma l' 1- 0 che leggeremo come una sorta di negazione della congiunzione
degli elementi di l': assiomi saranno, ad esempio,
D(hog) = D(g)
0
1-
0
1- C(hog) = C(h)
0
1-
foDU)=f
0
1-
CU) o f =f.
Lo stesso vale per i topoi elementari sfruttando essenzialmente, come ha mostrato
Lawvere, i rapporti di aggiunzione fra le operazioni dei topoi.
Si potrebbe obiettare che di fatto l'uso di l' 1-d e di l' 1- 0 comporta il
riferimento ai connettivi di implicazione e negazione, come pure la lettura di un
sequente in cui accorrano variabili libere come se fosse la sua chiusura universale rimanda al quantificatore universale; questo però è solo apparente in quanto
non ci occorre una definizione del completo significato di questi operatori quale
sarebbe necessaria se noi ne iterassimo l'applicazione in modo da avere sequenti
entro sequenti, ecc. r 1- d significa che d è vero ogniqualvolta lo è r, qualunque valore si assegni alle variabili. Per questa lettura non è assolutamente necessario definire l' 1-d nel caso l'non sia vero, come avverrebbe se 1- fosse un
autentico connettivo.
Gli assiomi per le categorie e i topoi elementari dunque, se non sono direttamente equazionali, cioè semplici equazioni, come capita per alcune classi di
strutture algebriche interessanti, sono quasi-equazionali o, con una terminologia
introdotta da Peter Freyd, essenzialmente algebrici. In generale, essenzialmente algebrica è una teoria in cui compaiono simboli per funzioni parziali i cui domini
si possono determinare mediante equazioni. Gli assiomi avranno tutti la forma
di sequenti come sopra. II concetto di essenzialmente algebrico è estremamente
interessante in quanto copre i casi di teorie matematicamente significative in cui
si ha a che fare con operazioni parziali. Come avevamo detto all'inizio parlando
delle categorie, esse costituiscono un tipico esempio di strutture parziali ed il
concetto di essenzialmente algebrico, come si rivela utilissimo nello studio della
metateoria della teoria delle categorie e dei topoi elementari, si mostra altrettanto
utile in molti altri campi.
Proprio per la forma dei loro assiomi quindi i topoi elementari si possono
descrivere senza presupporre una logica specifica: per comprendere gli assiomi
basta sapere come si interpreta un'equazione. Ne scende che la determinazione
della logica interna di un topos non dipende da fattori esterni ma dalla pura
struttura del topos stesso. Nella problematica classica l'idea di arrivare a una
teoria fondante indipendente dalla logica si era già presentata con· Hilbert, la cui
matematica finitista, o meglio il suo frammento centrale - l'aritmetica ricorsiva
primitiva- si può presentare sotto forma equazionale. II fatto che questa matematica non dipendesse dall'interpretazione dei connettivi e dei quantificatori, e
quindi da alcun riferimento a un universo logico, costituiva per Hilbert una ga235
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
ranzia del suo carattere assoluto. Anche nel nostro contesto il fatto che gli
assiomi dei topoi elementari siano essenzialmente algebrici è una garanzia di
« assolutezza», ma in un senso diverso, in quanto quello che qui è importante non è tanto l'individuazione di un unico universo come fondante,
ma della logica interna di ogni topos, quella logica cioè che non dipende da
assunzioni a priori ma dalla natura stessa degli oggetti che vogliamo descrivere.1
La forma logica degli assiomi dei topoi ha come altra importantissima conseguenza la stabilità della proprietà di essere topos elementare rispetto a svariate
operazioni algebriche. Fenomeni del genere sono ben noti già nell'algebra classica: che prodotti di gruppi siano gruppi, che sottostrutture di gruppi siano gruppi, ecc. dipende essenzialmente dal modo con cui si definiscono le operazioni
negli oggetti risultanti rispetto a quelle degli oggetti di partenza e dal fatto che
la proprietà di essere gruppo si esprime in termini di equazioni. Per le teorie
essenzialmente algebriche si trova che la proprietà centrale di chiusura è quella
rispetto ai limiti. Abbiamo poi ad esempio che prodotti di topoi elementari sono
ancora topoi elementari, ecc. Altro fatto assai importante è che anche sui topoi
elementari possiamo definire topologie di Grothendieck, cosicché possiamo avere
la categoria dei fasci su un topos rispetto a una data t.d.G.; si verifica che questa
categoria è anch'essa un topos elementare.
È con costruzioni come queste che è stato possibile. ottenere dimostrazioni
categoriali estremamente limpide di risultati classici di indipendenza della teoria
degli insiemi.
Nel 1971 Tierney e Lawvere hanno dato una versione in termini di topoi della dimostrazione di Cohen dell'indipendenza dell'ipotesi del continuo
e nel 1972 Marta C. Bunge ha dimostrato l'indipendenza dell'ipotesi di Souslin
utilizzando costruzioni categoriali di modelli. La limpidezza delle dimostrazioni
dipende dalla stabilità della nozione di topos elementare rispetto a operazioni
« forti », cosa questa che non si verifica nel caso dei modelli della teoria degli
insiemi fondata sull'appartenenza, i cui assiomi hanno complessità arbitraria (si
pensi allo schema di rimpiazzamento).
4) L'approccio categoriale alla logica
Come si è visto sopra, la teoria dei topoi elementari fornisce un'analisi categoriale del concetto di insieme variabile e come caso limite del concetto di insieme
costante. Al fondo di questa analisi sta d'altra parte un programma più generale
che è quello di individuare, al di là delle particolari presentazioni, la struttura
I In un certo senso, in questa prospettiva
la teoria dei topoi elementari rappresenta il culmine attuale di un processo di algebrizzazione
della matematica e della logica: dietro a ogni
tentativo di algebrizzazione c'è sempre infatti
l'obiettivo di ottenere formulazioni equazionali o
essenzialmente equazionali.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
invariante dei concetti matematici fondamentali. In questo senso il programma
coinvolge direttamente non solo la teoria degli insiemi ma la logica stessa. Fin
dal I964 Lawvere aveva gettato le basi per un'analisi di questo tipo presentando
la sua semantica funtoriale e nel I968 J. Lambeck aveva iniziato un'analisi in
termini categoriali dei calcoli logici della deduzione naturale. Queste ricerche
hanno condotto ad uno studio generale - utilizzando i concetti categoriali dell'aspetto sia sintattico che semantico delle teorie. Vogliamo indicare alcune
linee direttive della ricerca partendo dalla interpretazione entro topoi elementari,
in quanto è qui che direttamente si può osservare con più evidenza la generalizzazione che le nozioni categoriali hanno permesso di procedure e di concetti
logici tradizionalmente riferiti all'universo degli insiemi.
Consideriamo un linguaggio L a più sorta. Abbiamo già dato alcune indicazioni su come interpretarlo in un topos; vediamo ora la cosa più da vicino.
Siano {Si}tei le sorta di L. Una interpretazione in un topos T del linguaggio L
sarà al solito un'assegnazione di significato a tutte le costanti descrittive di L.
Più precisamente, ad ogni sorta St assoderemo un oggetto Xi della categoria
che vedremo intuitivamente come il dominio degli oggetti della sorta in questione; ad ogni costante relazionale n-aria R (i,· · · · ·in> - dove l' /-esimo componente ha sorta Si1 - assoderemo un sottoggetto R >~ X 1 x ... x Xn del prodotto X 1 x ... x Xn. Ad ogni costante funzionale J<i, · · · · · in; i> assoderemo un
morfismo f: X1 x ... x Xn--+ Xt. Se infine c è una costante individuale di
sorta i, le assoderemo un morfismo c: I --+ Xt. È chiaro che questa definizione
non fa che riprodurre in termini categoriali quella ordinaria per gli insiemi;
quanto alla convenzione sull'interpretazione delle costanti individuali, si ricordi
quanto detto sulla biiezione che esiste nel topos degli insiemi fra elementi di xi
e frecce I --+X;; come vedremo più avanti, in un topos elementare arbitrario
gli elementi di questo tipo sono del tutto particolari. Se è possibile interpretare
le sorta, dagli assiomi dei topoi elementari scende che è possibile interpretare
tutte le costanti nel modo detto sopra, in quanto avremo oggetto terminale e
prodotti.
Per definire il concetto di verità di una formula in un topos rispetto a una
data interpretazione, si segue il principio secondo il quale una formula con n
variabili x1, ... , Xn avrà come estensione nel topos un sottoggetto del prodotto
X1 x ... x Xn; le variabili di sorta Si scorrono quindi sull'oggetto Xi. Nel
caso particolare di una formula .9!1 senza variabili libere, essa avrà come estensione un sottoggetto del prodotto della famiglia vuota di oggetti, cioè un sottoggetto di I, in quanto è facile verificare che tale prodotto è proprio l'oggetto terminale. I sottoggetti di I d'altra parte non sono nient'altro che i «valori di verità»; tali sono infatti gli elementi di n (si pensi al caso degli insiemi) e se X è
un sottoggetto di I esiste esattamente un V'm per cui è pullback il diagramma
seguente
Z37
www.scribd.com/Baruhk
I
I
Cf' m
Vale anche l'inverso e questo significa che ad ogni sottoggetto X >~ I corrisponde biunivocamente un valore di verità Pm che è il suo morfismo caratteristico. Il valore di verità «vero» (si pensi ancora al caso degli insiemi) sarà il
morfismo t che abbiamo dato definendo il classificatore. Nel caso degli insitmi
infatti X è il massimo sottoggetto di I se e solo se Pm = t.
Occorre ora interpretare le formule atomiche e questo ci porta all'interpretazione dei termini composti. Senza entrare in dettagli basta dire che in analogia
col caso degli insiemi l'interpretazione dei termini composti viene dtfìnita induttivamente in modo che l'interpretazione dif(t) non sia nient'altro che la composizione dei morfismi associati nell'interpretazione ai componenti del termine.
Possiamo ora passare alle formule in generale. Per assegnar loro un valore di
verità si fa ricorso alla versione interna dei connettivi e quantificatori. Occorre
però fare una precisazione sintattica. Come abbiamo detto a suo tempo, se R e P
sono due sottoggetti di X, le operazioni che corrispondono ai connettivi applicati alle formule di cui i sottoggetti sono estensioni, ci portano da sottoggetti
di X a sottoggetti di X. Non è possibile interpretare i connettivi se non in questo
caso. Ciò significa che la logica interna ci permette di interpretare solo la composizione di formule che contengono le stesse variabili; questa non è una limitazione essenziale in quanto è sempre possibile trasformare una formula in una
equivalente con variabili aggiuntive. L'importante comunque è tener presente
questa limitazione quando si parla dei calcoli logici e dei teoremi di completezza. Le versioni dei calcoli cui ci riferirtmo saranno sempre tali da non permettere la deduzione di formule composte mediante connettivi se non nel caso in
cui le formule componenti abbiano le stesse variabili libere. Versione del genere dei calcoli classico e intuizionista e loro estensioni sono state fornite ad
esempio da J. Benabou modificando in questo senso i calcoli di sequenti di
Gentzen.
Chiarito questo possiamo interpretare le formule composte mediante connettivi, il che ci consentirà di vedere più da vicino il significato categoriale dei
connettivi di un linguaggio in un topos. Come detto a suo tempo, la famiglia
&(X) dei sottoggetti di un dato oggetto X (da non confondersi con nx, che
è l'oggetto che nel topos rappresenta &(X), ma non è esso stesso la famiglia dei
sottoggetti di X) è preordinata dalla relazione «essere so t t oggetto »; più specificatamente è un'algebra di Heyting, come si ricorderà. Possiamo allora inter-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
pretare 1 connettivi con le operazioni dell'algebra. Precisamente, se d e 8?1 sono
interpretate sui sottoggetti A e B di X si avrà
Formula
Interpretazione
AnB
d/\8?1
dVB?l
d~B?l
-,d=d~ _l
t
A u B
A~B
A ~ o (dove o è il minimo dell'algebra)
Rimane il problema dei quantificatori e della sostituzione. Cominciamo da
quest'ultima e supponiamo di avere una formula d(x) e un termine t della stessa
sorta di x. Per quanto detto a t corrisponderà un morfismo t Y--+ X dove X
è la sorta di x. Il denotato della formula d(t), ottenuta sostituendo t a x, si può
avere ricorrendo al morfismo ~*: 9( X)--+ 9'( Y) che associa ad ogni sottoggetto
di X la sua immagine inversa rispetto a ~; sappiamo che esso esisterà se ! è un
morfismo del topos. D'altra parte, essendo A(~:) sottoggetto di 8l'(X), la sua
controimmagine ~*(A(~) sarà sottoggetto di 8l'(Y). Per definizione porremo che
l'interpretazione di d(t) sia ~*(A(~:)). Nel topos degli insiemi questa è la versione categoriale del processo di sostituzione.
Possiamo ora definire l'interpretazione dei quantificatori. Come detto a suo
tempo, i quantificatori 3/ e v! sono aggiunti destro e sinistro rispettivamente di
morfismi della forma j*, cioè di morfismi di sostituzione. Se ora indichiamo con
Pi: X 1 x ... x Xn--+ X 1 la proiezione sulla)-esima coordinata, potremo definire
3xjd(Xl, ... , Xn) = 3P1 A(~h ... , ?'!_n)
VxJd(xh ... , Xn)
= "\fp1 A(~l,
... , ?'!_n)·
Abbiamo così mostrato come interpretare nei topoi formule di L. Il discorso,
naturalmente, vale qualunque sia il topos, anche quello degli insiemi, e ci dà
un primo esempio di un'analisi categoriale della logica. L'interpretazione dei
connettivi e dei quantificatori infatti ha un preciso significato cate,goriale. I quantificatori, come detto a suo tempo, danno origine a funtori, aggiunti rispettivamente destro e sinistro di un funto re P dove' h è un morfismo; non solo, ma
anche la struttura di algebra di Heyting di 9(X) per ogni oggetto X ha un significato categoriale. gl'( X) è una categoria in quanto preordine, e si può verificare
che il sup u è il coprodotto, l'inf n il prodotto, o, il minimo dell'algebra, l'elemento iniziale, r, il massimo dell'algebra, l'elemento terminale e la condizione
definitoria dello pseudocomplemento (per ogni oggetto C, C n A :::;; B se e
2
39
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
solo se C:(, A =:> B) stabilisce che in f!J( X) il funto re A =:> ( - ) è l'aggiunto
destro del funto re (-) n A. In altre parole quindi, essendo n il prodotto, la =:>
sarà l'esponenziale. Questo per quanto riguarda la categoria f!J(X) in cui ogni
Hom(A, B) contiene al massimo un morfismo: nel topos ogni A =:> B non è
affatto l'esponenziale BA in quanto, in questo ambiente, i morfismi sono di più.
Basta pensare al caso di Ins: BA, come insieme delle funzioni da A a B, dove A
e B sono sottoinsiemi di X, non è affatto un sottoinsieme di X. Le operazioni
nell'algebra di Heyting corrispondono quindi a quelle in una categoria cartesiana
chiusa che è un preordine. L'importante è che in questo modo siamo riusciti a
ricondurre a nozioni categoriali generali, prodotti, coprodotti, aggiunzioni, il
significato degli operatori logici. Il discorso vale come vedremo non solo per i
topoi ma per categorie più generali.
Ma torniamo ora all'interpretazione nei topoi. Si tratta di definire la verità.
Sempre partendo dal caso degli insiemi potremo convenire di considerare vera
una formula d(x 1 , ••• , xn) in una data interpretazione in un topos se A(::t,
... , :::_n) . X 1 x ... x Xn. Come caso particolare avremo, quando n sia uguale
a zero, che una formula d chiusa è vera se A · I, il massimo valore di verità.
Come nel caso classico si può verificare che una formula d è vera se e solo se è
vera la sua chiusura universale. Possiamo quindi definire i concetti di modello e
di conseguenza logica. Per quest'ultima nozione dobbiamo fare una distinzione. Una
nozione di conseguenza che possiamo chiamare debole si ottiene definendo che
I' l!T d, dove T è un topos, se e solo se d è vera in ogni interpretazione in T
in cui sono vere tutte le formule di r. Questo tanto per formule aperte, purché
con le stesse variabili libere, che per formule chiuse. Un'altra definizione la possiamo ottenere se consideriamo i rapporti d'ordine tra le estensioni di formule
con le stesse variabili. Sia f!J una formula con le stesse variabili libere della formula d: diremo allora che d è conseguenza forte di f!J rispetto a topos T, e
scriveremo f!J 11-:f-d, se per ogni interpretazione a in T si ha f!Ja :(,_ da. d
quindi è conseguenza forte di f!J se è soddisfatta in una data interpretazione ogniqualvolta è soddisfatta f!J. Le due nozioni di conseguenza divergono se le formule non sono chiuse, come succede nel caso classico, ossia interpretandole nel
topos degli insiemi: la forte comporta la debole ma non viceversa.
Abbiamo per ora considerato due nozioni di conseguenza relative ad un
dato topos; possiamo introd urne due analoghe nozioni di conseguenza universale considerando tutti i topo i; definiremo allora I' lf--- d, se vale I' l~ d per
ogni topos T e analogamente per f!J i~d.
La domanda spontanea è se tutte queste relazioni di conseguenza si possono
analizzare in termini di regole, cioè se si possono costruire calcoli completi rispetto.. a queste nozioni semantiche. È chiaro che per la categoria lns una nozione di deduzione adeguata sarà fornita dall'ordinario calcolo classico, tanto
per la versione forte che per quella debole; la nozione di interpretazione che
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
abbiamo dato coincide in questo caso con la classica, è anzi ottenuta generalizzando da essa (il discorso vale più in generale per i topoi booleani). D'altra parte
per ogni topos T ci sarà una logica corrispondente che in generale non sarà
classica ma intuizionista. Consideriamo ora le conseguenze universali, !imitandoci al caso di formule chiuse: si può dimostrare che la logica della conseguenza
universale rispetto all'interpretazione sui topoi non è nient'altro che la logica
intuizionista con le restrizioni sulle regole di cui si è detto sopra. Che ogni formula dimostrabile intuizionisticamente da
sia conseguenza universale di
rispetto all'interpretazione su topoi, si può verificare facilmente per induzione
sulla dimostrazione e scende dal fatto già osservato che il classificatore di un topos
è un'algebra di Heyting. Per il viceversa esiste una profonda dimostrazione di
Joyal condotta lungo linee puramente categoriali.
È però possibile anche una dimostrazione più tradizionale che sfrutta il
collegamento fra prefasci e strutture di Kripke. Il collegamento è interessante
di per sé in quanto le interpretazioni di Kripke sono un caso particolarmente semplice ed intuitivo di interpretazioni su prefasci. Ricordiamo che una interpretazione di Kripke per un linguaggio L si può dare come una quaterna <I, R, tp, v>
dove I è un insieme non vuoto, <I, R > è un preordine e "P è una funzione che ad
ogni i E I associa un insieme in modo che se i ~ j allora tp(i) s; "PU); v infine è
una funzione che ad ogni costante n-aria P associa, per ogni i E I, un sottoinsieme P i di (tp(i))n in modo che, se i ~ j, Pi s; P1 e analogamente per le costanti
funzionali. La condizione su "P si può vedere come un modo di dire che "P è un
prefascio di insiemi, i cui morfismi di restrizione sono inclusioni, sulla categoria
<I, R > , doveR è il converso di R. Ad ogni struttura <I, R, "P> è quindi associato un prefascio. Si verifica inoltre che la condizione su v non fa altro che assegnare
ad ogni formula atomica d(x1, . .. , Xn) del linguaggio un sottoprefascio dell'n-esima potenza del fascio associato alla struttura.
Qu~sto significa che se consideriamo il topos dei prefasci di insiemi definiti
su <I, R > , la v assegna un'interpretazione del linguaggio entro questo topos, e
l'importante è che le condizioni di verità di Kripke coincidono con la definizione
di verità da noi date per topoi generali, applicate a questo topos. Ne segue che
se la formula d non è vera in una data interpretazione di Kripke, esisterà un
topos in cui d non è vera. Sappiamo d'altra parte che, per il teorema di completezza di Kripke, per ogni formula d che non sia teorema della logica intuizionista esiste una struttura di Kripke in cui essa non è vera. Ne ricaviamo che la
formula non sarà vera nell'interpretazione di topos associata. Quindi la logica
intuizionista (nella versione con la restrizione sulle variabili) è completa rispetto
all'interpretazione nei topoi.
Sulla stessa linea si possono ottenere altri risultati di questo tipo. P. Freyd
ad esempio ha dimostrato che la conseguenza universale rispetto a topoi arbitrari si può ricondurre a quella rispetto a un topos particolare, quello, Sh(C)
r
www.scribd.com/Baruhk
r
La logica nel ventesimo secolo (II)
sullo spazio di Cantar: vale cioè per ogni coppia di formule chiuse d, fJ#, che
d Il- fJ8 se e solo se d llsbi<.:> fJ#. Questo risultato ne estende uno analogo di
Rasiowa e Sikorski per le interpretazioni topologiche della logica intuizionista.
Sino ad ora abbiamo parlato di interpretazione di linguaggi a più sorta considerando i tipi superiori come sorta arbitrarie. Se, definendo le interpretazioni,
vincoliamo le variabili per proprietà di oggetti della sorta si ad essere interpretate come elementi di nxi, dove Xi è l'oggetto che corrisponde alla sorta Si,
otteniamo un vero e proprio concetto di interpretazione per linguaggi di ordine superiore. Anche in questo caso è possibile ottenere risultati di completezza, come
hanno dimostrato M. Fourman e Jean Benabou. Si verifica così che una particolare versione della teoria dei tipi intuizionista è la logica per l'interpretazione
(di ordine superiore) nei topoi.
Il collegamento fra strutture di Kripke e interpretazioni su prefasci sopra
stabilito ci dà un modo generale per analizzare in termini di livelli le intetpretazioni in topoi di prefasci e fasci. È un'analisi estremamente interessante perché
mette in evidenza il senso in cui queste interpretazioni differiscono da quelle
classiche. Data una categoiia C, dare una interpretazione nel topos dei prefasci
di C significa sostanzialmente associare ad ogni oggetto U di C una struttura
classica F(U) (un'interpretazione classica del linguaggio) e ad ogni morfismo
f: U--+ V di C un morfismo p = F(f): F(V)--+ F(U) in modo cheF sia un funtore controvariante. Tradotte in questo contesto, le condizioni generali sulla interpretazione nei topoi ci danno un modo per definire la verità delle formule all'interno dell'interpretazione ad ogni livello U. Nel caso dei prefasci si verifica
questo: mentre le formule atomiche, il falso, le congiunzioni, le disgiunzioni e
il quantificatore esistenziale sono interpretati attualmente (nel senso che la verità
di una formula a un livello dipende solo da quella delle sottoformule allo stesso
livello), le condizioni sul quantificatore universale e sull'implicazione (quindi
sulla negazione) coinvolgono i livelli inferiori e quindi i morfismi di transizione
f' ·: F(U)--+ F( V). Così, d(x) => fJ#(x) sarà vera allivello U se e solo se per ogni
j': F(U)--+F(V) avremo che d(f'(~))=> fJB(j'(~)) è vera in V. Analogamente
"ii xfJ#(x) sarà vera allivello U se e solo se per ogni livello inferiore e per ogni
a E F( V), fJ#(a) è vera al livello F( V).
In generale quindi la situazione è questa: interpretare in un prefascio signi .
fica dare una famiglia di strutture classiche legate fra loro da morfismi e valutare
la verità delle formule ad ogni livello tenendo conto, nei casi di ::> e di "ii, dei
valori della formula ai livelli precedenti. Questi operatori in altre parole sono
interpretati universalmente, facendo riferimento ai futuri sviluppi di ogni livello.
La traduzione delle condizioni generali dell'interpretazione sui topoi cambia
se da prefasci passiamo a fasci. I fasci sono definiti su siti in cui, oltre a una categoria, abbiamo anche una nozione di localizzazione. In generale varrà quanto
detto per i prefasci salvo una modifica per quanto riguarda l'interpretazione del
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
falso, delle disgiunzioni e del quantificatore esistenziale: questi verranno interpretati localmente, facendo riferimento, per ogni livello U, alle strutture associate
agli oggetti delle coperture di Loc(U). Così ad esempio d(x) V &#(x) sarà vera
al livello U se e solo se esiste una famiglia r di Loc(U) tale che in ognuno dei
livelli dati dagli elementi di r, d e 3# sono soddisfatte dalle immagini di x rispetto ai morfismi di restrizione. Analogamente per la verità di :3x&B(x): essa
è vera allivello U quando esiste una r di Loc(U) e un elemento a E F( V) per
ogni V E
per cui &#(a) è vera allivello V.
Tutto questo in altre parole non fa che dire che formule di questo tipo sono
vere ad un livello se sono vere « a pezzi » in una collezione di livelli inferiori
«sufficientemente grande» da costituire una copertura del livello in questione.
Si può vedere quindi in che senso le interpretazioni in fasci e prefasci differiscono
da quelle classiche, in cui si ha a che fare con un unico livello e le distinzioni fra
attuale, universale e locale vengono quindi a cadere.
C'è un altro punto che conviene sottolineare. Dalla definizione di verità
di formule esistenziali interpretate in un topos di fasci, scende che in generale
non è detto che ad ogni livello U sia vera la formula :3x(x =x). Non è detto
infatti che esista una copertura di U tale che ad ogni suo elemento sia associata
una struttura classica non vuota. Questa situazione non è banale come nel caso
classico, in cui sostanzialmente strutture vuote sono irrilevanti e di fatto non
vengono considerate: nel caso dei fasci si ha a che fare con famiglie di strutture
classiche ed il fatto che da un certo punto in poi queste siano vuote non è una
situazione abnorme. Un caso di questo genere si ha ad esempio considerando
un fascio su uno spazio topologico < X, d> quando ogni copertura di X possiede
almeno un elemento cui è associato l'insieme vuoto. Proprio in vista della rilevanza di questa situazione, definendo il concetto di interpretazione in un topos
non si può escludere che dei livelli abbiano associato insiemi vuoti e che quindi
in alcuni di essi sia falsa la formula :3x(x = x). Questo costituisce un'ulteriore
ragione per la vincolante posta sui calcoli circa l'impossibilità di applicare le
regole sui connettivi a formule che non abbiano le stesse variabili libere. Senza
questa restrizione infatti, come si verifica nelle formulazioni usuali, potremmo
dedurre intuizionisticamente :3x(x = x) dalla formula V x(x= x) ::::J :3x(x = x),
il cui antecedente è ovviamente dimostrabile. Come si può verificare, d'altra parte,
per dimostrare l'implicazione è essenziale applicare regole sui connettivi a formule con variabili libere diverse. La condizione sopra posta ci impedisce quindi
di ottenere questa formula come teorema e ciò spiega come la logica intuizionista,
con tale condizione, possa essere valida rispetto alla nozione generale di interpretazione. Abbiamo così a che fare con una vera e propria versione indusiva
della logica intuizionista, che nel nostro contesto viene giustificata dall;! concreta
pratica matematica e ·non da considerazioni a priori, come, tutto sommato, in
generale è avvenuto (si veda pp. I p-1 53).
r,
243
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Questo ci porta a un discorso più generale che riguarda la nozione stessa di
elemento, definito, come si ricorderà, come modismo I -+ X. Nel caso del topos
degli insiemi c'è coincidenza con la nozione ordinaria definita in termini di appartenenza. Nel caso di topoi quali quelli di prefasci o di fasci, in cui abbiamo a che
fare con famiglie di insiemi, la situazione cambia, in quanto elementi che «vivono » ad un livello possono non «vivere » ad un altro. Facciamo un esempio
molto semplice. Se S è il topos degli insiemi, S x S sarà anch'esso un topos,
i cui oggetti saranno le coppie, < X, Y > di oggetti di S e i cui morfismi saranno le coppie < j, g > : < X, Y > -+ < X', Y' > , dove j: X-+ X' e g: Y-+ Y' sono morfismi di S. L'oggetto terminale sarà <I, I>, dove I è l'oggetto terminale di S, ossia {0 } ; mentre l'oggetto iniziale sarà < 0, 0 > . Ora si può vedere facilmente che < 0, I>, pur non essendo l'oggetto iniziale, non ha elementi nel nostro senso: non possono esistere infatti morfismi I-+ 0 in S, in quanto
0 è l'insieme vuoto. Questo mostra che in un topos generale, diversamente che
nel caso degli insiemi, possono esistere oggetti non iniziali privi di elementi, le
cui proprietà quindi non sono determinate da questi ultimi. Questo fatto si può
spiegare ricorrendo alla contrapposizione fra insiemi costanti e variabili. Gli oggetti di S X S si possono vedere infatti come insiemi variabili il cui sviluppo è
«misurato» in due stadi, la prima e la seconda coordinata. In quest'ottica un
elemento come noi l'abbiamo definito non è un oggetto qualsiasi, ma un vero
e proprio elemento « eterno », in quanto affinché < I, I > -+ < X, Y > sia un
elemento, è necessario che le sue componenti ai vari livelli, j: I -+X e g: I-+ Y
definiscano anch'esse un elemento del topos S. Questo significa che gli elementi come noi li abbiamo definiti esistono ad ogni livello e devono quindi essere
« eterni ». Il fatto importante è che in un topos un oggetto non è univocamente determinato dai suoi elementi eterni e che quindi questi non sono sufficienti
per caratterizzarlo, il che si traduce nel fatto che i morfismi I -+ X non sono generatori del topos. Abbiamo così un'ulteriore misura della maggior articolazione dei topoi rispetto all'universo degli insiemi.
Che senso ha interpretare una teoria in un topos diverso da quello degli
insiemi ? La risposta generale può essere che, come la teoria dei topoi elementari
ci dà una descrizione degli insiemi variabili, così l'interpretazione in topoi ci
permette di parlare di strutture variabili; la necessità di questo allargamento di
orizzonte si è imposta nella stessa pratica matematica attraverso l'uso sistematico
di prefasci e fasci di strutture (si pensi ad esempio a quanto detto sopra sulla
geometria algebrica). Le interpretazioni in topoi consentono di analizzare questo
processo in termini unitari. Un fascio di anelli infatti non è nient'altro che una
interpretazione della teoria degli anelli in un topos di fasci e questo discende dal
fatto che la teoria degli anelli, come ogni teoria algebrica (= equazionale) ha
formule che sono interpretate attualmente, sicché un'interpretazione in un fascio
sarà modello della teoria se e solo se ad ogni suo_ livello è associato un anello,
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
un modello classico della teoria. Il fatto poi di essere riusciti a individuare la logica
delle interpretazioni nei topoi ci fornisce un metodo per ottenere informazioni
sulle formule vere nell'intero fascio di anelli: una formula d sarà vera in un fascio
di anelli quando è conseguenza intuizionista degli assiomi d'anello. Questo vale
in generale per ogni teoria.
C'è un altro modo per collegare a fasci strutture classiche, che si può anche
esso analizzare in termini logici generali. Supponiamo che F sia un fascio, poniamo di anelli, definito su uno spazio topologico ;t. Ad ogni punto x E ;r possiamo associare una struttura classica, la spiga di x (in terminologia inglese lo
stalk di x) nel modo seguente. Consideriamo ~(x), ossia la famiglia degli aperti
che contengono x; essa è chiusa rispetto all'intersezione, il che significa, ricordando che i fasci sono funtori controvarianti, che dati U, V E ~(x) esisterà un
W E ~(x) per cui
F(U)\..
F(W).
F(V)/
In altre parole il sistema delle strutture associate agli aperti di ~(x) è diretto e la
spiga di x sarà il limite induttivo di questo sistema. L'interrelazione fra spighe
e fasci è uno strumento fondamentale per studiare i fasci, ove in generale si usa
la tecnica di determinare quando una proprietà è goduta da un fascio stabilendo
quando essa è goduta dalle spighe. Si può ad esempio dimostrare che se ogni
punto ha una spiga che è un gruppo, o un anello, o un modulo, o un anello
locale, ecc., anche il fascio godrà di queste proprietà.
La considerazione delle clausole sulle interpretazioni nei fasci ci fornisce
un metodo generale per dimostrare risultati del genere, in quanto la validità
di essi dipende dalla forma degli assiomi di gruppo, d'anello, d'anello locale, 1
ecc., più precisamente dal fatto che tali assiomi sono sequenti coerenti, composti
cioè da formule che contengono solo disgiunzioni, congiunzioni, quantificatore
esistenziale, il falso ...L, il vero T. L'attenzione al meccanismo di interpretazione
delle formule coerenti ci permette di generalizzare il risultato al caso di fasci
non necessariamente definiti su spazi topologici ma su siti arbitrari. In questo
I Un anello commutativo è locale quando
possiede un unico ideale massimale composto da
tutti gli elementi non invertibili. Si ottiene un'assiomatizzazione coerente della teoria aggiungendo
agli assiomi d'anello i sequenti del tipo
i=n
---, 1\
i=o
Xi =
O
l-
i=n
V 3;• y • Xi
=
I.
i=o
Gli anelli locali hanno un ruolo fondamentale
nella geometria algebrica (definendo il fascio
strutturale della topologia di Zariski si parte
appunto da anelli locali) e nell'aritmetica, in
vista della loro importanza nella teoria della
valutazione. Gli anelli l"ocali sono « quasi »
campi, nel senso che hanno il numero « minimo »
di ideali propri, ed il fatto che la loro teoria
sia coerente permette ulteriori applicazioni. A.
Kock ad esempio ha dimostrato, utilizzando strumenti categoriali, che ogni formula coerente deducibile dalla teoria degli anelli locali più un
assioma di campo, è già deducibile dalla sola
teoria degli anelli locali. Questo ha permesso a
Kock di sviluppare l'algebra lineare nel topos
di Zariski.
www.scribd.com/Baruhk
La logica ne! ventesimo secolo (II)
caso occorre generalizzare la nozione di punto, in quanto gli oggetti della categoria cui il fascio assegna strutture non sono insiemi. Quello che conta è che
se un sito ha abbastanza punti (il concetto si può precisare) quanto detto sopra
vale anche per fasci di questo tipo. Lo studio delle interpretazioni nei topoi
offre quindi un contesto generale in cui affrontare problemi riguardanti i fasci.
Su questa linea Mulvey è riuscito ad ottenere risultati interessanti sfruttando
il fatto che la logica dei fasci è quella intuizionista; ha ad esempio dimostrato
che se in un topos di fasci prendiamo l'oggetto N dei numeri naturali e generalizzando la costruzione di Dedekind costruiamo un oggetto R di numeri reali,
questo sarà modello di una formulazione della teoria dei campi, classicamente,
ma non intuizionisti<:amente equivalente alla usuale. È significativo confrontare
questa costruzione nel caso di fasci di funzioni continue su uno spazio topologico,
con quella dei campi iperreali di Edwin Hewitt, che aveva come obiettivo proprio
quello di ottenere una struttura di campo dall'anello delle funzioni continue
definite su uno- spazio: quest'anello, nella terminologia dei fasci, è l'anello delle
sezioni globali (l'anello·associato all'intero spazio). Ora, mentre Hewitt, considerando solo questo anello per definire una struttura di campo classico, doveva
costruire particolari quozienti, Mulvey, considerando l'intero fascio, ottiene direttamente un oggetto che intuizionisticamente è un campo. Il parallelo è interessante in quanto si può estendere. I campi iperreali di Hewitt costituiscono
un esempio di ultraprodotti, il cui ruolo conosciamo dalla teoria dei modelli
classica. Ora, gli ultraprodotti si possono concepire come spighe di particolari
fasci e, come ha mostrato D. Ellerman, la costruzione dell'ultraprodotto si può
effettuare non solo su insiemi di strutture, ma su fasci di strutture. A questo livello
emerge un altro collegamento, del resto prevedibile se si pensa ai legami fra
interpretazione nei fasci, logica intuizionista e forcing di Robinson: anche questo
ultimo si può ricostruire in termini di fasci. Tutto questo mostra le possibilità
di un fecondo uso dei fasci all'interno della teoria dei modelli.
L'aver messo in luce il significato categoriale dell'interpretazione delle teorie
consente d'altra parte una ben più profonda ristrutturazione dell'intero studio
dei modelli. Già nel 1964, nella sua tesi dedicata alla semantica funtoriale, Lawvere aveva mostrato, limitandosi alle teorie algebriche, come fosse possibile organizzare uno studio dei fatti fondamentali dell'algebra universale vedendo il
processo di interpretazione come un processo funtoriale. La possibilità di interpretare nei topoi determinate formule dipendeva, come si ricorderà, solo dal
fatto che agli operatori logici in esse occorrenti corrispondevano, all'interno del
topos, operazioni su oggetti; che poi queste operazioni si possano internalizzare
è una proprietà dei topoi che li qualifica come universi del discorso, ma non è
una condizione necessaria per l'interpretazione. Possiamo quindi «interpretare»
teorie con particolari stock di operatori logici in categorie più generali dei topoi.
Lo si può vedere considerando ad esempio il caso dei gruppi topologici: in
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
quest'ottica un gruppo topologico non è nient'altro che un'interpretazione della
teoria dei gruppi all'interno della categoria degli spazi topologici. Come universo
prendiamo un oggetto X e su di esso definiamo una struttura di gruppo considerando morfismi X 2 -+ X, X --4-- X e I~ X, dove I è l'oggetto terminale,
in modo che le equazioni fra questi morfismi siano proprio quelle date dagli
assiomi di gruppo. È quanto faremmo interpretando negli insiemi, solo che ora,
essendo continue le frecce, avremo non un gruppo, ma un gruppo topologico.
Ora, l'idea della semantica funtoriale è di associare alla stessa teoria dei gruppi
una categoria e di concepire le interpretazioni come funtori che dovranno conservare la struttura logica rilevante della prima categoria. Il discorso vale in
generale per teorie algebriche: una teoria algebrica nel senso categoriale sarà una
categoria piccola T con oggetti i numeri naturali o, I, 2, . . . e in cui ogni oggetto n è il prodotto diretto dell'oggetto I n volte; proprio per questo I sarà
l'oggetto terminale. Una operazione di T sarà ogni freccia n-+ I e poiché n è
un prodotto, tali saranno anche le proiezioni Pi: n-+ r. Le frecce n-+ m saranno
in corrispondenza biunivoca con m-uple di operazioni n-arie. L'esempio dei
gruppi dato sopra illustra come le teorie nel senso usuale siano connesse alle
teorie algebriche così definite e in generale c'è un processo canonico per associare ad una teoria « linguistica » T una teoria T in senso categoriale. Basterà
grosso modo prendere come oggetti o, I, 2, •.• e come morfismi n-+ I le classi
di equivalenza di termini con esattamente n variabili libere rispetto alla relazione
t ~ t' se e solo se T 1- t= t'. La composizione sarà definita ricorrendo al processo di sostituzione dei termini.
La differenza essenziale fra le due nozioni di teoria algebrica sta nel fatto
che quella categoriale è indipendente dagli assiomi della teoria e dalle costanti
primitive: infatti, associando la categoria alla teoria usuale si tiene conto solo
dell'uguaglianza o meno dei termini, indipendentemente dal modo in cui questi
sono definiti e dalle assunzioni in base alle quali abbiamo dimostrato la loro
equivalenza. Ne viene così estratta la struttura rilevante ai fini algebrici, così
che le teorie « linguistiche » si possono vedere come presentazioni diverse della
teoria invariante T. La struttura rilevante di una teoria algebrica è data dalla
sua chiusura rispetto ai prodotti finiti; perché quindi si possa interpretare T in
una categoria C è sufficiente che C sia chiusa rispetto ai prodotti finiti. Un modello di T in C sarà un funtore che conserva i prodotti finiti F: T-+ C. Se si
pensa a come abbiamo associato ad una teoria linguistica la corrispondente teoria
algebrica, si vede come questo significhi che tutte le equazioni fra morfismi di T
dovranno essere conservate dal funtore e quindi come funtori di questo tipo
determinino davvero dei modelli.
Se ora ci limitiamo alle interpretazioni negli insiemi, ad ogni teoria algebrica T è associata una categoria Ins<T> i cui oggetti sono i modelli di T e i
morfismi le trasformazioni naturali fra di essi. Considerare i modelli, al contrario
247
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
di quanto si fa ordinariamente, come una categoria e non come una semplice
classe, ci permette di affrontare in modo sistematico un problema fondamentale
dell'algebra universale, che è quello di studiare come il passaggio da una teoria
algebrica a un'altra sia correlato a passaggi da una categoria - e non solo da
una classe - di strutture a un'altra. Ogni funtore T-+ T' tra teorie algebriche,
determina infatti in modo ovvio un funtore da Ins<T> a Ins<T') che preserva i
domini. Chiameremo ju11tori algebrici i funtori di questo tipo e categoria algebrica
ogni categoria della forma Ins<T>. Il teorema fondamentale stabilito da Lawvere
afferma che ogni funtore algebrico ha un aggiunto. In base a questo risultato
si può ottenere come caso particolare l'esistenza di costruzioni algebriche fondamentali: l'abelianizzazione dei gruppi, le algebre inviluppanti algebre di
Lie, ecc.
Quanto detto finora riguarda le teorie algebriche, ma il discorso si può
estendere a teorie più complesse, dando così origine a una vera e propria teoria
funtoriale dei modelli, in cui appunto i modelli sono considerati funtori da categorie
che sono la formulazione invariante di teorie (indipendenti cioè dalla presentazione linguistica) a categorie con sufficiente struttura interna da interpretare gli
operatori logici occorrenti. Il modo per dare la formulazione invariante delle
teorie è una generalizzazione di quello usato sopra ed è collegato alla costruzione
classica delle algebre di Lindenbaum: come oggetti si prendono classi di equivalenza di formule con arietà fissata, come morfismi formule di cui entro la teoria
si dimostra il carattere funzionale. I modelli saranno funtori che conservano la
struttura rilevante. Non possiamo qui entrare in dettagli. Ci basti ricordare che
i risultati ottenuti sono notevolmente interessanti. Pensiamo ad esempio ai
lavori di O. Keane sulle teorie con formule di Horn che sostanzialmente coincidono con le teorie essenzialmente algebriche. Un analogo processo di categorizzazione delle teorie ha permesso a P. Freyd la costruzione di una teoria generale
delle relazioni, il cui significato non sta solo nel fatto che costituisce un'analisi
in termini di relazioni delle teorie e quindi anche delle loro proprietà dal punto
di vista algebrico, ma pure nel fatto che getta luce sulla struttura sottogiacente
a importanti costruzioni categoriali.
Ci siamo finora riferiti a teorie finitarie, cioè con formule di lunghezza finita.
Uno dei risultati più interessanti ottenuti recentemente da Michael Makkai e
Gonzalo Reyes sta nel collegamento stabilito tra teorie coerenti costruite su
linguaggi infinitari e topoi di Grothendieck. Si è già parlato dei collegamenti fra
interpretazione nei fasci e teorie coerenti. I lavori in questione approfondiscono
questo rapporto fornendo una vera e propria analisi, dal punto di vista della
teoria dei modelli, dei topoi di Grothendieck e realizzano così quel collegamento
tra geometria e logica che è uno degli obiettivi del programma di Lawvere. La
base di questo collegamento è data dal fatto che ad ogni sito è possibile associare
una teoria coerente eventualmente infinitaria e viceversa che ad ogni teoria di
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
questo tipo si può associare un sito. Da questo primo legame ne segue un altro:
le fibre del sito si possono vedere come modelli della teoria associata al sito e
viceversa i modelli della teoria sono fibre del sito.
Questo permette di ottenere risultati geometrici per via logica e viceversa.
Così ad esempio il teorema di Deligne, fondamentale nella teoria dei topoi, per
cui ogni topos coerente ha sufficienti punti (i punti in topoi di Grothendieck
sono particolari morfismi con dominio Ins) si ottiene dal teorema di completezza
per la logica coerente. Lo stesso avviene per il teorema di Barr sui punti booleani
suriettivi. Si ottiene così una visione unitaria, di cui si era detto parlando dei
topoi, di aspetti geometrici e logici basandosi sulla sostanziale identità fra punti
geometrici e modelli delle teorie. È importante notare che in questo contesto
si può dimostrare l'esistenza di modelli in topoi di Grothendieck per teorie infinitarie che classicamente non ne hanno in Ins. Ciò mostra che la considerazione
di interpretazioni in topoi generali può avere un significato anche partendo dalla
stessa problematica logica.
Analizzando le interpretazioni nei topoi abbiamo visto come le proprietà
logiche fondamentali dei connettivi e dei quantificatori si possono rendere in
termini di costruzioni categoriali e di rapporti di aggiunzione. Questa analisi
consente di articolare in termini categoriali non solo l'aspetto semantico della
logica, ma anche la struttura delle dimostrazioni, ossia l'aspetto sintattico. C'è
infatti un profondo legame, messo in luce da Lawvere e ampiamente esplicitato
da Joachim Lambeck, tra la struttura dei calcoli di deduzione naturale e le costruzioni categoriali corrispondenti agli operatori logici. Precisamente, l'idea di
fondo è che esiste una stretta connessione tra le dimostrazioni in un calcolo e la
composizione dei morfismi in una categoria. Partiamo dal caso più semplice e
supponiamo di avere un linguaggio L con le sole variabili enunciative. Consideriamo sequenti della forma d f- BiJ, dove d e BiJ sono formule. Un calcolo deduttivo su L dovrà plausibilmente avere assiomi della forma d f- d e una regola di inferenza
È questo il minimo che chiediamo a una relazione di deducibilità: la riflessività
.e la transitività. A questo calcolo è possibile associare una struttura che è « quasi »
una categoria. Come oggetti prendiamo le formule e come morfismi in Hom(A,
B) prendiamo le dimostrazioni nel calcolo dei sequenti di d f- BiJ. Il fatto che
d f- d è un assioma ci garantisce che esisterà IA: A~ A. RT ci dà poi un
modo per comporre dimostrazioni. Essa infatti ci dice che date due dimostrazioni
f: A ~ B e g: B ~C esiste una dimostrazione di d f- ~ che possiamo indicare
con go f: A~ C. Possiamo quindi leggere la regola come una legge di composizione tra dimostrazioni. La struttura così ottenuta diventa una categoria una
249
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
volta che si quozienti l'insieme delle dimostrazioni rispetto ad una opportuna
relazione di equivalenza. Questa relazione dovrà imporre ad esempio che i vari
lA siano morfismi d'identità, e che quindi lA o f = j, che la composizione sia
associativa e infine che l'equivalenza sia una congruenza rispetto alla composizione
sia a destra che a sinistra. Questa equivalenza è una relazione tra dimostrazioni
e si può giustificare come. tale. Dire ad esempio che lA o j = j significherà che
la dimostrazione
j:A--+B
lA
oj: A--+B
equivale alla dimostrazione
j: A--+B.
Questo è plausibile dal punto di vista della teoria della dimostrazione in quanto
concettualmente il significato della prima è uguale al significato della seconda.
Il discorso si può estendere se consideriamo che L sia chiuso rispetto a dei
connettivi, ad esempio rispetto agli ordinari 1\, V, :::::>, e contenga costanti ..l e T.
Le regole che possiamo dare per le introduzioni ed eliminazioni dei connettivi
sono in stretta corrispondenza con fatti categoriali. Diamo un esempio. Consideriamo la congiunzione, le cui regole di eliminazione sono d 1\ ~ 1-- d e
d 1\ ~ 1-- ~' e la cui regola di introduzione è
Se consideriamo quanto detto a suo tempo sulle categorie cartesiane chiuse e i
legami fra congiunzione di enunciati e prodotti di oggetti in una categoria, risulta evidente che le regole ora date corrispondono alla caratterizzazione del prodotto in termini di morfismi. Infatti, la prima regola come dimostrazione corrisponde al morfismo dato dalla prima proiezione p1 : A x B--+ A e al morfismo
dato dalla seconda p 2 : A X B--+ B, mentre la regola di introduzione ci dà la
proprietà universale del prodotto, nel senso che dati i morfismi j: C--+ A e
g: C --+B esisterà un morfismo che possiamo indicare conj*g da C al prodotto
A X B. Analogo discorso si può fare per gli altri connettivi e per le costanti
enunciative. L'assioma che afferma che T è il vero e che quindi c'è sempre una
dimostrazione di~ l- T, significa che T è l'oggetto terminale, mentre dualmente
l sarà l'oggetto iniziale. Interessante è il caso dell'implicazione. Come detto
parlando delle categorie cartesiane chiuse, semanticamente parlando all'implicazione corrisponde l'aggiunto destro del prodotto, cioè l'esponenziale. Questo
vale anche se consideriamo le regole e gli assiomi che si danno sull'implicazione:
è naturale infatti assumere che (~ :::::> d) 1\ ~ 1-- d sia un assioma e che
www.scribd.com/Baruhk
La logica· nel ventesimo secolo (II)
.91 1\ gj l- ({} /.911-- gj ::J ({} sia una regola. In termini di prodotti e di esponenti, per
l'assioma avremo il morfismo di valutazione e: AB x B---+-A, mentre nel caso
della regola al morfismo h: A X B---+- C corrisponderà il morfismo h*: A---+- CB
che dovrà esistere in una categoria cartesiana chiusa in quanto l'esponenziale è
l'aggiunto destro del prodotto.
Possiamo ora tirare le fila dell'analogia posta in luce. C'è una corrispondenza
tra le regole e gli assiomi di un calcolo enunciativo come quello cui sopra ci
siamo riferiti e la definizione di una categoria cartesiana chiusa. Questa analogia
diventa una equivalenza se, come fatto nel caso di L senza connettivi, associamo·
al calcolo la categoria che otteniamo prendendo come oggetti le formule e come
morfismi le classi di equivalenza rispetto a un'opportuna relazione di equivalenza definita fra dimostrazioni. Va osservato che questa relazione di equivalenza è plausibile in sé ·e per sé considerata dal punto di vista della teoria della
dimostrazione: dimostrazioni equivalenti hanno lo stesso significato.
Il rapporto ora messo in luce si può sfruttare in due sensi: da un lato utilizzando metodi categoriali nello studio dei calcoli logici, dall'altro associando calcoli a categorie. Lambeck è riuscito infatti a mostrare che teoremi logici quali
l' Hauptsatz di Gentzen - che stabiliscono l'equivaJenza di dimostrazioni a certe
forme normali - si possono applicare alle categorie fornendo decomposizioni
canoniche di morfismi fra oggetti, e ha applicato questo collegamento allo studio
delle categorie libere. Il discorso si può estendere al caso di- calcoli che contengono anche quantificatori, ottenendo come corrispondenti categorie cartesiane
chiuse con struttura addizionale. Ruolo fondamentale in queste associazioni gioca l'analisi dei quantificatori come aggiunti del processo di sostituzione di cui
abbiamo parlato. In termini generali (si pensi al nostro··esempio sull'implicazione) gli elementi da sfruttare per passare da regole a composizioni di morfismi
sono proprio le situazioni di aggiunzione, e più in generale le condizioni di universalità. Nel caso generale le aggiunzioni Jnd~cate non sono :sufficienti per caratterizzare i quantificatori e, come posto in luce da Lawvere, occorre che si realizzino altre condizioni - cosiddette di Beck e Froebenius, sulle quali qui non
insistiamo - che fissano più strettamente i rapporti fra immagini e quantificatori. In tutti questi casi naturalmente il rapporto è tra calcoli intuizionisti e cate·.
gorie cartesiane chiuse.
In generale possiamo vedere il rapporto fra categorializzazione basata su
considerazioni semantiche (in cui alle formule corrispondono sottoggetti ordinati
dalla relazione «essere sottoggetto ») e categorializzazioni basate sulle regole
deduttive come una scelta di diversi sistemi di equivalenza fra morfismi. Mentre,
nel secondo caso, considerando i morfismi come prove, li vediamo equivalenti
solo se lo sono -come tali, nel primo caso, considerando solo la relazione d'ordine fra sottoggetti, veniamo in certo senso ad identificare tutti i monomorfismi
equivalenti che esistono fra A e B, in quanto quello che conta da questo punto
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
di vista è solo l'esistenza di almeno un morfismo: le differenze che possono avere
l'uno dall'altro non ci interessano. In questa prospettiva, la considerazione semantica si può riguardare come un appiattimento di quella sintattica, che invece
tiene in conto le diverse maniere in cui i morfismi sono ottenuti.
I lavori di Lambeck sono stati portati avanti da M.E. Szabo e H. Mann,
cercando un collegamento più stretto tra i calcoli di deduzione naturale e le
categorie cartesiane chiuse. Szabo è riuscito, utilizzando le multicategorie cartesiane chiuse, a stabilire un preciso rapporto di identità fra le relazioni di equivalenza fra dimostrazioni nel calcolo dei sequenti introdotte grazie all' Hauptsatz, e la relazione di equivalenza definita in termini categoriali: due dimostrazioni
che si « convertono » nella stessa forma normale via l' Hauptsatz corrispondono
allo stesso morfismo e viceversa. Mann è riuscito a fare lo stesso lavoro utilizzando non i sequenti ma il calcolo della deduzione naturale di Prawitz. L'interessante è che in questo caso ci si può limitare alle categorie cartesiane chiuse
senza passare alle multicategorie.
Da un punto di vista generale l'importanza di questi risultati sta sulla luce
che essi gettano sul problema della equivalenza delle dimostrazioni. Il fatto che
questa equivalenza corrisponda a quella categoriale dà un certo grado di « naturalezza » alla definizione assunta. È una situazione analoga a quella che abbiamo visto parlando della struttura logica delle categorie. Come sul piano semantico essa permette di individuare - basandosi su considerazioni concettuali e
non linguistiche - una scelta dei connettivi e della loro interpretazione, così la
categorializzazione delle regole logiche fornisce un criterio di scelta per queste
ultime.
Il collegamento fra categorie e regole deduttive, più precisamente fra categorie cartesiane chiuse e calcoli naturali intuizionisti, risulta ancora più chiaro
se prendiamo in esame un altro rapporto ancora, che questa volta riguarda la
teoria dei combinatori. Non possiamo qui entrare in dettagli, ma è possibile
analizzare direttamente in termini categoriali la teoria basica della funzionalità
di Curry, collegando alle regole di conversione rapporti fra morfismi. Una idea
la si può avere se si considera nell'ottica della teoria dei combinatori il rapporto
di aggiunzione tra prodotti ed esponenti stabilito dal morfismo di valutazione:
tale collegamento non è nient'altro che un modo per esprimere la ì..-conversione.
Questo ci permette di estendere il calcolo basico dei combinatori arricchendolo
con la strutturazione interna delle categorie cartesiane chiuse. È quanto ha fatto
di recente Thomas Fax dando una formulazione categoriale ed un arricchimento
della teoria basica della funzionalità di Curry. La cosa è interessante per almeno
due ragioni. In primo luogo perché mostra che c'è una solidarietà di fondo tra
i concetti base della teoria dei combinatori e alcuni fatti categoriali. Questo
indica come, una volta rigettato il ·concetto di insieme come fondamentale e
accettato come primitivo quello di funzione, le scelte non siano arbitrarie: i
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
fatti categoriali costituiscono uno sfondo concettuale delle procedure puramente
sintattiche del calcolo dei combinatori. In secondo luogo, i combinatori hanno
un ruolo importante nell'interpretazione della logica intuizionista in termini di
costruzioni: le regole sui connettivi, viste in questa ottica, diventano regole di
computo per le costruzioni associate. L'interpretazione categoriale dei combinatori fornisce quindi una giustificazione delle regole anche dal punto di vista
costruttivo. Un'analisi in termini categoriali del significato costruttivo della logica intuizionista, d'altra parte, è stato fornito da Anders Kock, sulla scorta di
alcuni lavori di Laiichli, introducendo il concetto di proof bundle che grosso modo
si può identificare con un'assegnazione di un insieme di prove ad ogni formula.
A questo punto il discorso, in certo senso, si richiude: alle considerazioni
realistiche che ci hanno portato alla interpretazione entro categorie, si aggiungono
giustificazioni di carattere costruttivo. Tutto ciò pone in luce come l'approccio
categoriale alla logica sia in grado di rendere conto e di dare forma filosoficamente e matematicamente compatta a gran parte delle alternative e delle generalizzazioni che la pratica logica e matematica ha registrato, o solamente intravisto, nella sua storia più recente.
IV • OSSERVAZIONI CONCLUSIVE
Pensiamo che il modo migliore per trarre un'interpretazione globale degli
sviluppi descritti nelle pagine precedenti sia quello di cominciare col porsi una
domanda che senza dubbio è venuta in mente anche allettare: in che misura tutto
questo si può qualificare come logica? Un modo per rispondere a questa
domanda (che alcuni considerano come il modo) è di indicare l'intero corso storico che ha portato al costituirsi della pratica logica contemporanea:
la « necessità » degli sviluppi recenti dovrebbe risultare dalla interrelazione
di temi e di tecniche che storicamente hanno portato ad essi. Sicuramente un discorso di questo tipo è plausibile; sarebbe inconcepibile infatti la
comprensione, poniamo, dell'approccio categoriale alla logica senza tener conto
dello sviluppo concreto della pratica matematica. Nel corso della nostra esposizione abbiamo appunto cercato di porre in luce i problemi che hanno portato
ad elaborare specifiche tecniche e concezioni, ma non ci sembra che il discorso si
possa esaurire con questo. La storia, anche la storia delle scienze, ha certo una
sua « necessità » ma, per così dire, non sempre Iddio è dalla parte del cannone
più forte. Fuor di metafora ci sembra che il costituirsi di una disciplina non imponga univocamente un modo di utilizzazione e di contestualizzazione della
stessa e quindi l'accettazione di determinate linee di tendenza come inevitabili.
Dietro a questo problema ce n'è uno più generale che non è nostra intenzione affrontare qui ma che comunque non si può evitare: è il problema della
tradizione scientifica. Sicuramente ogni attività scientifica, come in generale ogni
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
attività umana, si inserisce in una rete di istituti, di legami interdisciplinari, di
connessioni stabilite fra problemi, di gerarchizzazione di tecniche, di rapporti
socialmente determinati, che in qualche modo « impongono » certe scelte piuttosto che altre. A nostro parere però la comprensione storica di queste determinazioni ha senso ed è utile nella misura in cui permette di operare nel presente
una scelta all'interno della tradizione costituita, che non accetta supinamente
questa stessa tradizio~e come luogo naturale della ricerca presente e futura, ma
al contrario ricompone questo passato in base a norme di razionalità, all'enucleazione di tensioni che nascono dal presente. Il confronto con il passato è un
modo per saggiare le scelte presenti non per imporle. Nel nostro caso questo significa che il panorama della storia della logica che abbiamo tracciato non è la storia di come gli antichi generosamente ci hanno fornito gli strumenti concettuali
di cui oggi ci serviamo, ma piuttosto la storia della lotta di tendenze diverse di
cui alcune hanno vinto e altre sono state sconfitte, ma non necessariamente le
vincenti devono costituire il modello per l'attività di oggi.
Seguendo questo tipo di argomento, c'è il rischio di cadere in una tentazione quanto mai viva ai nostri giorni: quella di postulare una norma esterna,
metastorica, per l'attività scientifica, in particolare quindi per la logica, in base
alla quale giudicare lo sviluppo storico. Nel nostro caso questa tentazione si
traduçe in un appello ad una nozione a priori della logica che ha portato molti
a vedere nella ricerca contemporanea una sorta di tradimento dei problemi fondamentali, una regimentazione tecnica, sostanzialmente sterile, cui si contrappone
una logica filosofica che invece rimarrebbe fedele ai problemi di fondo, sarebbe
la « vera » erede della tradizione.
A quanto ci consta questa distinzione è stata in un certo senso teorizzata da
Nicholas Rescher nel 1968 come dovuta alla necessità di far risaltare tutta una
serie di altre ricerche a suo parere oscurate, in particolare nell'ultimo ventennio,
dal continuo susseguirsi di risultati di « logica matematica », che appunto avrebbe fatto passare in secondo piano « il fenomenale scatto di crescita della logica in
direzioni riferentisi a considerazioni filosofiche ». Questa suddivisione di Rescher
sembra quindi riferita non tanto alla logica matematica - che come strumento
resterebbe costante in entrambi i casi - quanto all'argomento che di volta in
volta viene preso in considerazione.
Come già abbiamo avuto l'occasione di osservare in altro luogo, questa
distinzione, per quanto utile e fruttuosa possa risultare per scopi pratici, 1 ci
appariva allora, e ancor più ci appare oggi, comunque artificiosa: essa ripropone
dicotomie di antica data e di tipo quasi sempre conservatore e reazionario, così
1 Essa può avere un puro e semplice valore classificatorio convenzionale allo scopo ad
esempio di « ordinare» una rassegna bibliografica, o di mettere in evidenza quelle che possono
essere recenti applicazioni della logica in questo
o quel campo culturale; o al limite per dare il
nome a una rivista, o altro. Ma non ha comunque,
in questo concordo pienamente con Hintikka (si
veda più avanti), alcun valore né giustificazione
teorici.
254
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
ben tratteggiate da Frege nei due contrapposti atteggiamenti alla melaphisica
suni non legunlur o alla malhemalica suni non legunlur, che egli per primo intraprese a
combattere con l'impostazione filosofica di un tipico programma tradizionalmente «matematico». A noi inoltre richiama alla mente infeconde dicotomie
pratico ftemico di tipo crociano e la riproposizione di sepa-razione fra « scienze
esatte » e « filosofia » che - a nostro giudizio - appartengono proprio al modo
più deleterio e bloccante di vedere la filosofia. In realtà quello che crediamo debba
risultare dall'esame dello sviluppo della logica che abbiamo tratteggiato in questa
opera è che proprio la logica matematica ha contribuito fortemente a colmare per
certi aspetti quell'arbitraria e sterile frattura che in varie culture veniva (e viene)
operata fra filosofia e matematica; ha cioè permesso di gettare un ponte fra due
«attività>>, per dirla con Wittgenstein, che di diverso possono eventualmente
avere metodi e problemi, ma non certo «dignità» culturale o «profondità»
di discorso. Se oggi nella maggioranza delle riviste filosofiche (anche in alcune
italiane, possiamo notare con piacere) sempre più viene impiegata una concettualizzazione di tipo logico-matematico, ciò dipende specialmente dal fatto che
nel processo evolutivo che abbiamo descritto questa disciplina, oltre a essersi
data un'imponente strumentazione « tecnica », ha sollevato problemi la cui spettanza alla « filosofia » è un fatto puramente tradizionale: in altri termini, forse
un po' semplificati, riteniamo che oggi la logica sia « matematica » per tutta una
serie di complesse motivazioni storiche che abbiamo cercato di illustrare e non
in quanto contrapposta a « filosofica ».
Si chiede Hintikka: « Esiste qualcosa come la " logica filosofica"? Fonda~
mentalmente la mia risposta è "no". Non sembra esserci dal punto di vista dell'interesse filosofico molta differenza intrinseca tra i diversi rami della logica.
Buona parte del recente lavoro nelle parti più esoteriche della logica matematica
ha, a mio avviso, una grande rilevanza per l'indagine filosofica. È vero che la
maggior parte di questo lavoro non ha richiamato l'attenzione dei filosofi o, per
lo meno, che questo è avvenuto soltanto in quei casi relativamente rari in cui i
logici stessi hanno richiamato l'attenzione dei filosofi verso i loro problemi.
Tuttavia, gran parte del lavoro che è stato fatto in campi come la teoria delle
funzioni ricorsive, la teoria dei modelli e la metamatematica riguarda l'esplicazione e lo sviluppo di concetti e problemi concettuali che sono del massimo interesse e della massima rilevanza agli scopi del filosofo. »t
I Alle esemplificazioni di Hintikka si può
aggiungere senza difficoltà tutta la problematica
relativa alla teoria delle categorie nel suo riflesso
sulla logica e sulla concezione stessa della matematica, comi pure quella relativa all'analisi logica
delle scienze empiriche, ecc. Mette conto comunque di riportare la conclusione del discorso di
Hintikka: « Questa mancanza di interesse da
parte dei filosofi verso alcune delle parti della
logica più genuinamente filosofiche è natura!-
mente in parte inevitabile. Essa è dovuta alla
difficoltà di approfondire un campo che si è sviluppato con_ grande rapidità e che in molti casi
richiede un'alta competenza tecnica. Quello chl'
è veramente sconcertante non è tanto l'ignoranza
che si ritrova nelle discussioni di alcuni filosofi
su risultati ben noti come quelli di Gode!, quanto la loro incapacità (o riluttanza) di seguire Socrate e ammettere la vastità della loro ignoranza.»
255
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Ci preme d'altra parte sottolineare, a questo punto, che non siamo mlmmamente dell'opinione che l'intervento dell'apparato logico-matematico si esaurisca nel conferire «rigore» alla formulazione di posizioni e problemi in prima
istanza intuitivi; ci contrapponiamo così espressamente_ ad una tesi talora accreditata fra i filosofi, ma non solo fra essi, secondo la quale compito della logica
(e della scienza in generale) è quello di fare un discorso rigoroso, mentre è caratteristica della filosofia di fare un discorso veritativo. Il compito della logica mat~­
matica, a nostro parere, non si limita affatto a quello di conferire rigore; essa
piuttosto offre concettualizzazioni e metodi che sono sì tecnici e rigorosi, ma
diventano operativi e fecondi solo una volta che diano origini a nuove formulazioni e interpretazioni intuitive cui devono fornire articolazioni, ma mai puramente veste esterna. Detto in termini leggermente differenti: siamo convinti che
l'analisi logica non esaurisca in generale la compunsione estensiva del contenuto
e delle potenzialità di una teoria; ma siamo altrettanto convinti che essa sia inderogabile in quanto non di rado conduce a nuove generalizzazioni, assai precise sì,
ma non meno feconde, proprio perché mette in luce momenti contenutistici
fondamentali. Mi sembra basti qui ricordare le parole di Chang che abbiamo
riportato e il conseguente accenno da noi fatto a una teoria « empirica » dei
modelli.
Con ciò non vogliamo naturalmente dire che la moderna logica matematica
è divenuta una specie di toccasana universale, con cui affrontare e risolvere «tutto »: niente ci è più estraneo. Intendiamo invece proprio il contrario: che è perfettamente inutile sognare la costituzione di strane « logiche filosofiche » con le quali
si penserebbe appunto di poter risolvere ogni problema; e che ogni periodo storico ha i suoi strumenti d'indagine globali che come tali vanno assunti proprio
per poterli superare, migliorare e affinare continuamente, e verso i quali è ormai
per lo meno assurdo avere la culturalista repellenza della « tecnicità ». A nostro
parere tutta questa problematica è una ulteriore dimostrazione- della rilevanza
filosofica che la logica matematica- o se si preferisce la trattazione matematica
della logica - int~sa come il modo odierno di fare logica (di qualunque tipo poi
questa sia) ha in qu'anto tale, senza cioè che ci sia bisogno di scomodare qna pretesa «logica filosofica» che non sia una pura etichetta di comodo.
Siamo dell'avviso che l'unico modo per uscire da questa dicotomia astratta
tra la necessità dello sviluppo storico e la norma metastorica è quello di allargare
il raggio dell'analisi e tenere esplicitamente conto dei legami che la logica ha
storicamente intrattenuto e storicamente intrattiene con altre pratiche scientifiche, e più in generale sociali, e vedere in che misura essa è in grado di rispondere alle esigenze che queste pratiche impongono. In altri termini si tratta di
riconoscere che l'indagine logica « deve » aver a che fare con i fondamenti delle
pratiche teoriche e questo «deve» nasce dall'opportunità, oggi sempre più avvertita ma ben viva anche nel passato, di un inquadramento generale del lavoro
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
teorico, prendendo atto, nel contempo, che non sempre questo storicamente è
avvenuto. Ci sono state esclusioni, pratiche teoriche privilegiate, sovrapposizioni ideologiche, il cui studio a nostro parere costituisce uno dei compiti dello
storico della logica che non voglia limitarsi a registrare il sorgere e lo svilupparsi
dei concetti al centro dell'indagine attuale; proprio però questa accettazione di
un concetto così ampio, cosL.~ filosofico», di logica, pone in primo piano il rapporto concreto che storicamente si stabilisce fra le varie pratiche teoriche e la
riflessione logica. Quest'ultima si realizza solo nella misura in cui è in grado di
entrare in uno scambio effettivo con queste· pratiche, e il suo valore filosofico
sta nella attuazione concreta, materiale e non ideale, del suo progetto: se la logica infatti esiste come progetto, come particolare modo di affrontare il lavoro
teorico, non ha contenuti che non siano simultaneamente contenuti di altre
scienze o comunque attività umane: logicus purus asinus est, ci avverte il detto
rinascimen tale.
Innegabilmente il contatto più profondo che la logica negli ultimi cent'anni
ha realizzato con altre pratiche teoriche è quello che ha dato origine all'indagine
sui fondamenti della matematica. L'evidente interesse filosofico che questi studi
hanno è una conferma, ci sembra, di quanto detto sopra. I primi anni del secolo
fino al 1930 hanno segnato il tentativo - articolato in diverse direzioni - di
ripristinare attraverso la logica la ricerca di un'unità della matematica che gli
sviluppi del secolo precedente sembravano rendere sempre più precaria. Questa
ricerca di unità non era « dottrinaria », e anche se spesso assunse le vesti di posizioni filosofiche mutuate da impostazioni tradizionali, ciò era in larga misura
determinato più da una necessità imposta da una mancanza di nuove e adeguate
concettualizzazioni che non da una libera scelta. Sarebbe un grave errore - a
nostro parere- credere che i motivi che spingevano Russell, Brouwer, Hilbert,
ecc. a tentare una sistemazione della matematica fossero gli stessi che ancor pochi
anni prima avevano spinti gli esponenti delle diverse correnti filosofiche a dar
posto nei rispettivi sistemi agli sviluppi che la matematica registrava.
L'elemento di rottura, a ben vedere, stava nel presentarsi in un certo senso
per la prima volta della matematica come matematica pura, in grado di trovare
all'interno di se stessa le proprie motivazioni; forse l'espressione più chiara- e
anche più patetica - di questo fenomeno è il richiamo cantoriano alla libertà
intrinseca del pensiero matematico; mentre la sua affermazione più consapevole
è invece, ovviamente, quella di Hilbert. Di fronte a questa emergenza, che scardinava antichi moduli di connessione interni alla stessa ,matematica e proiettati
verso la realtà esterna, il problema che si poneva era proprio quello di come spiegare la possibilità di nuovi rapporti, di come darne una giustificazione, pur nell'impossibilità, all'inizio appunto della ricerca, di esibirne esempi concreti. È
in questo senso che la ricerca sui fondamenti, al di là della motivazione largamente occasionale offerta dai paradossi, costituisce un tentativo teorico generale
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
di riagganciarsi con la realtà esterna, comunque avvenisse questo tentativo, attraverso la logica o l'intuizione, le forme o i contenuti.
Questo processo, attraverso le vie più diverse, le caratterizzazioni più disparate, i punti di approccio più eterogenei, sembra quasi, nello stattfS odierno
della ricerca, essere giunto al suo culmine, al suo punto di rottura. Gli sviluppi
della matematica, che l'indagine sui fondamenti si era posta come obiettivo di
giustificare, hanno in larga misura realizzato questo rapporto; ma nello stesso
tempo, dialetticamente, hanno messo in luce che la concettualizzazione sulla base
della quale esso doveva essere giustificato era di fatto superata. Non sembra azzardato affermare che, pur continuando a produrre risultati rimarchevoli in
ogni campo, la « tecnica » tradizionale di ricerca logica si stia oggi dimostrando,
nelle sue punte più significative e avanzate, per così dire troppo «grossolana».
La visione di un rigido dualismo vero /falso sembra debba essere sostituita da
una più flessibile considerazione degli stati possibili di cose; l'estensionalità sembra sempre più ridimensionarsi di fronte all'intensionalità: è come se quel ripensamento che le scienze fisiche hanno dovuto compiere nel nostro secolo per un'a
deguazione sempre maggiore alla realtà, debba imporsi anche per le più astratte
scienze formali.
Ma riprenderemo più avanti questo discorso sui fondamenti della materna
tica alla luce degli sviluppi. più recenti illustrati in questo capitolo. Il problema
che si pone è piuttosto quello di vedere se la ricchezza di questo collegamento è
per così dire esclusiva, ossia limitata al rapporto fra logica e matematica, o invece non si possa estendere ad altre attività teoriche. Se infatti questo si verificasse, si porrebbe la questione più generale di giustificare questo privilegiamento
della matematica nei confronti di altre scienze. (È una questione - si ricorderà che si è posta già al sorgere della logica matematica con Boole e con Frege.)
Ora ci sembra che per evitare soluzioni preconcette occorra analizzare più da
vicino che cosa si intenda per problematica logka. Nella prima parte di questo
capitolo abbiamo accennato ad alcune « applicazioni » delle tecniche logiche a
esperienze non riducibili a quelle matematiche, siano esse linguistiche o fisiche
o di filosofia del diritto, ecc. In tutta franchezza non ci sentiamo di sostenere che
in ognuno di questi casi si sia ottenuto un rapporto ottimale o particolarmente
fecondo: innegabilmente alcune applicazioni della logica a problematiche specifiche possono risultare superficiali; ma quel che è significativo è che di questo
spesso si sono resi conto gli stessi logici che della diversa problematica si occupavano. Una polemica abbastanza recente tra Alan Ross Anderson e Georg von
Wright riguardante la logica deontica può fornire un esempio prezioso al riguardo. Secondo Ross Anderson scopo della logica deontica è quello di regimentare e introdurre criteri di correttezza all'interno del discorso morale e giuridico; secondo von Wright invece l'obiettivo è quello di permettere un'articolazione del discorso sulla ontologia delle norme, cioè sui concetti fondamentali
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
che stanno alla base del discorso normativa. A nostro parere quest'ultima posizione è la più consapevole dei limiti intrinseci a un approccio puramente logico
che tenda ad isolare all'interno di ogni pratica uno « specifico logico » indipendentemente dalla configurazione generale della disciplina in esame. È questo un
punto che ci sembra meriti una riflessione più ampia.
Quando si parla di problematica logica all'interno di una disciplina specifica, si tende troppo spesso a concentrare il discorso sui puri dati linguistici e
sui criteri di correttezza: è un'eredità senza dubbio molto antica che vede nel
linguaggio il dato primario da cui scaturisce la dimensione logica. Ora, dietro la
posizione di Ross Anderson ci pare stia proprio questa assunzione che è però
estremamente riduttiva sia dal punto di vista generale (l'origine della speculazione logica) sia dal punto di vista specifico. In altre parole non avvertiamo grande
necessità di una logica del discorso giuridico come norma di correttezza, mentre
viceversa vediamo che i concetti specifici con cui si analizzano le norme giuridiche presentano problemi non di correttezza ma di esplicitazione. Per essere più
precisi: quello che ci appare importante è la esplicitazione di presupposti in un
linguaggio che consenta il confronto con altre pratiche piuttosto che la pura
individuazione di criteri formali di correttezza. Si ritorna al problema del rigore
sopra discusso: scopo dell'indagine logica non è il rigore fine a se stesso ma la
individuazione dei concetti fondamentali, che può avvenire solo ampliando l'orizzonte e non concentrandosi esclusivamente sull'aspetto linguistico.
Il discorso vale in generale. Senza dubbio l'analisi dell'apparato linguistico
in cui si concretizza una pratica teorica è importante, ma non è l'esch;rsivo oggetto dell'analisi logica. Ancora una volta l'esempio dei fondamenti della matematica è illuminante: da quanto esposto precedentemente risulta chiaro infatti
che in fondo il problema della correttezza era l'ultimo motivo che spingeva Boole
o Frege a intraprendere tale analisi: il vero scopo era l'individuazione di concetti fondamentali e solo subordinatamente ad esso, come presupposto minimo,
naturale, si poneva l'altro problema. Questo comporta ovviamente un contatto
molto più profondo e diretto con la problematica specifica, pratica, di ogni singola disciplina: esempi di questo allargamento di prospettiva in cui la problematica logica è sostanzialmente indissolubile, come contenuti, da quella specifica,
ci sembrano essere le ricerche sopra ricordate sulla quantum logic e le esigenze
avanzate nel discorso generale di Chang sulla teoria dei modelli, ecc. In altra
direzione, un esempio analogo è fornito proprio dai lavori di von Wright su
fondamenti del diritto ed in parte almeno dai recenti sviluppi della semantica
dei linguaggi naturali.
Abbiamo detto sopra del complesso rapporto fra logica e linguaggio naturale e di come troppo spesso si riduca la rilevanza logica di una problematica
all'analisi dell'aspetto linguistico. Ci sembra che questa concezione a priori del
ruolo della logica sia all'origine di un altro equivoco per noi molto grave ri259
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
guardante la «pluralità» delle logiche: è un discorso su cui ritorneremo brevemente più avanti. Qui ci preme sottolinearne un aspetto: molte delle ricerche
riguardanti la logica di pratiche diverse dalla matematica, fanno uso di nozioni
di verità non classiche che spesso vengono presentate come più sfumate, più
adeguate a rendere la duttilità del campo in esame. Questo si verifica in particolare per quanto riguarda le teorie che hanno a che fare con le « scienze umar:e »
o con il discorso comune. Da parte di alcuni si è giunti così alla conclusione che
mentre la logica classica è la logica della matematica o in generale delle scienze
naturali che hanno a che fare con concetti rigidamente detetminati, quando si
passa a parlare dell'Uomo con la, u maiuscola e dei fenomeni culturali, questa
logica risulti ·insufficiente appunto perché troppo rigida, ed accorrano logiche
più sfumate, se mai è possibile individuare logiche di questo tipo. Ora, a nostro
parere, l'unico inconveniente di una posizione del genere è che disgraziatamente
anche la matematica è «troppo umana » e non necessariamente la sua logica è
quella classica. Quanto detto sopra sull'intuizioni~mo, sui topoi, ecc. illustra
ampiamente il fatto che è all'interno stesso della pratica matematica che si impone
la necessità di « sfumature » e che quindi non ha senso intetpretare - o addirittura fondare - la distinzione fra varie logiche sulla base di un'ipotetica frattura
fra· mondo umano, irrimediabilmente irregolare e sfumato, e mondo scientifico
naturale altrettanto irrimediabilmente determinato. Ancora una volta ci S{mbra
opportuno sottolineare che indagine logica non significa imposizione di una logica esterna per regimentare il discorso, ma enucleazione di concetti e di articolazioni fondamentali che dipendono dal campo in esame e dal livello di profondità dell'analisi, non da irriducibili differenze ontologiche tra natura e storia,
al fondo delle quali sostanzialmente c'è un'assunzione a priori di natura metafisica. Ci sembra che uno degli esiti filosoficamente rilevanti dell'indagine recente sia proprio questo.
Il discorso si può estendere, prendendo atto di una tendenza presente nella
filosofia di questi ultimi anni che ha portato ad una n:crudescenza dell'antitesi
fra logica, vista appunto come imposizione di schemi rigidi, e linguaggio umano,
ricco di articolazioni inanalizzabili· o comunque contrapposte alle strutture logiche. Ci riferiamo ai dibattiti riguardanti il contrasto fra retorica e logica. Una
esposizione molto chiara di questa contrapposizione si ha nel Trattato dell'argomentazione di Chaim Perelman e Lucie Olbrechts-Tyteca che anche in Italia ha
suscitato, in particolare agli inizi degli anni settanta, interessanti dibattiti. La
tesi di fondo di Perelman è che nella cultura occidentale, per lo meno a partire
dal Seicento (leggi: Cartesio), si è creata una frattura fra un razionalismo, che
vede nella rigida applicazione di principi logici indirizzati alla individuazione del
Vero e del Falso l'unica norma razionale, e una visione più duttile che prende in
esame il concreto articolarsi delle argomentazioni umane accettando la retorica
come una sorta di logica del discorso probabile o convincente. Secondo Perelz6o
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
man l'accettazione della prima posizione avrebbe comportato, e comporterebbe
--~uttora, l'abbandono al puro arbitrio delle decisioni prese in comunità: questo
in quanto se si accetta come unico criterio di razionalità la ricerca del Vero e del
Falso anche in contesti in cui questa non è possibile, ma ci si deve limitare a convincimenti, si viene a rigettare una discriminazione fra gradi di plausibilità che
permettono di sostituire al puro arbitrio l'argomentazione ragionevole. La retorica sarebbe appunto la logica, la classificazione di questi argomenti.
Il discorso chiaramente riguarda lo stesso concetto di razionalità ed è interessante proprio in quanto presenta una concEzione chiara del ruolo della logica
nella formazione e nell'analisi del comportamEnto ragionevole. Quello che ci
sEmbra inaccettabile in questa posizione non è l'invito a studiare la retorica,
che anzi riteniamo estrEmamente interessante ed utile, quanto piuttosto la contrapposizione stessa fra retorica e logica. Anche in questo caso scatta il meccanismo che sta sotto all'idea tradizionale della logica come regimEntazione del linguaggio. La logica, l'abbiamo già detto sopra più volte, a nostro parere non è
questo, ed è solo un'ideologia della logica quella che le assegna questo ruolo, una
ideologia che, detto per inciso, non ci sembra necEssariamente imputabile al
pensiero cartesiano come sostiEne PerElman. In realtà riteniamo Enormemente
più complesso il problema trattato da Perelman, e riguardante non tanto i criteri
di valutazione degli argomenti e quindi la low forma, quanto piuttosto i contenuti
delle decisioni e degli argomenti. In altre parole, non crediarr,o che in un'assemblea o in una riunione collettiva deliberante, debba essere l'analisi retorica a fornire una guida alle scelte, ma piuttosto l'analisi dei contEnuti: i problemi reali
che si pongono sono di informazione e di contrasti di interesse e nell'analisi di
queste realtà la «vecchia» logica ci sembra che vada benissimo nella misura in
cui si sostanzia con un'analisi sui contEnuti spEcifici, con un'analisi sociale e
politica dell'assemblea, ecc. La contrapposizione non è tra tipi di argomenti, ma
tra tipi di argomentanti, tra i loro interessi e la consapevolEzza di questi, le low
conoscenze, ecc. Il rischio della posizione di Perelman, ci pare, è quello di veder
la retorica un po' come la logica dei poveri.
A nostro parere la razionalità non si misura con la forma dEgli argomEnti
ma con lo sfruttamento il più ricco possibile dell'informazione e dd metodi di
indagine, così che il problema di una razionalità collettiva, di una razionalità
che agisce socialmente, non ci sEmbra si concEntri sull'analisi ddl'uso del linguaggio che socialmente viene fatto, ma sui contEnuti delle decisioni che si prendono e sulle forze, ovviamente, che tali decisioni traducono in pratica. Per concludere su questo punto vorremmo osservare che l'aderenza all'idea di logica
come fondata sull'analisi del linguaggio naturale costituisce oggi per alcuni filosofi l'ultima spiaggia contro la necessità di passare finalmente dai discorsi astratti
all'analisi delle pratiche e dei problemi specifici. C'è una sorta di continuità fra
le posizioni che contrappongono il linguaggio logico a quello naturale- vedendo
z6z
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
nel primo un impoverimento del secondo - e le posizioni generali di Perelman
sul concetto di razionalità: sono entrambe posizioni, ci sembra, che in concreto
sono conservatrici in quanto interrompono i legami di scambio tra ricerca scientifica e vita comune.
Rigettata, come abbiamo cercato di mostrare, la tesi sulla prevalenza dell'aspetto linguistico nell'indagine logica, risulta più facile riaffrontare il problema
da cui eravamo partiti a proposito dei rapporti fra logica e matematica. A nostro
parere la fecondità e «priorità » dei rapporti reciproci fra logica e matematica
non è casuale e questo per la ragione molto semplice che - kantianamente se si
vuole - la matematica è una componente essenziale in ogni discorso sul mondo
scientifico; nella misura in cui la logica non riguarda solo il linguaggio ma i
concetti fondamentali dell'analisi scientifica, è chiaro allora che ci sarà una solidarietà di fondo fra queste due attività. Lo ripetiamo: questo non significa che
la matematica sia l'unico linguaggio esatto ma piuttosto che essa è la fonte di
un numero straordinariamente grande di concetti fondamentali pt:r la comprensione scientifica del mondo. Anche qui il collegamento fra logica e linguaggio ci
sembra abbia portato ad un'interpretazione erronea del ruolo della matt:matica,
che trova la sua forma più esplicita nelle posizioni nwpositiviste secondo le
quali la matematica è il linguaggio di cui ci serviamo per articolare il nostro discorso scientifico sul mondo. Alla base di questa posizione c'è l'accettazione di
una solidarietà di fondo tra logica e matematica che, come si è detto sopra, ci
persuade del tutto. Quello che non convince è, al solito, la transizione dalla logica al linguaggio, che si basa sulla visione linguistica della logica che sopra abbiamo criticato. Il ruolo di questa posizione all'interno di una problematica
empiristica generale è chiaro: per i neopositivisti il linguaggio da una parte è
convenzionale, e quindi le scelte fra un linguaggio e un altro non devono essere
giustificate su presupposti extralinguistici; dall'altra parte è intersoggettivo, e
questo garantisce quella « neutralità » della matematica che è necessaria per dare
una spiegazione plausibile del ruolo che essa svolge nella teorizzazione scientifica.
Una conseguenza implicita, ma pella pratica ampiamente sviluppata, di questo atteggiamento è il ruolo ambiguo che alla matematica viene assegnato: da
una parte essa risulta imprescindibile in ogni discorso scientifico, dall'altra però
le si viene a negare la possibilità di un contatto diretto con la realtà che non sia
mediato da altre pratiche teoriche. Una delle forme più diffuse di questa concezione è quella secondo la quale, dovendo la matematica servire alla fisica - che
sarebbe lo studio fondamentale della realtà esterna-, la prova della plausibilità
di dati concetti matematici risulterebbe dalla loro applicabilità all'interno della
fisica. Questo « sciovinismo fisico » è al fondo di non pochi discorsi, che spesso
si sentono fare, sull'astrattEzza e la vacuità di almeno alcuni aspetti della matematica moderna e per converso consente al matt:matico « puro » una libertà nella
2.62.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
sua gabbia dorata che risulta in ultima analisi asfissiante, in quanto la sua teorizzazione verrebbe a essere sotto tutela rispetto alle scienze empiriche.
Proprio dalla constatazione di queste conseguenze pratiche nella posizione
neopositiva possiamo partire per una sua critica teorica. Come diceva Einstein,
« per molti fisici esperienza è la teoria che hanno imparato fino a diciotto anni;
il resto è pura speculazione teorica »; il discorso naturalmente non riguarda solo
i fisici ma tutti coloro che vedono nella matematica un linguaggio, con incorporata o meno una logica, come sostiene Feyman, la cui scelta è convenzionale e
sostanzialmente arbitraria, vincolata com'è a soli criteri di opportunità pratica
(oltre, beninteso, che a criteri «interni» di coerenza). Senza dubbio una matematica che non si concretizzasse in ultima istanza in nuove applicazioni sarebbe
sterile; ma il punto è che i rapporti fra matematica e scienze empiriche vanno in
una doppia direzione: un concetto matematico può essere sterile non in quanto
inadeguato ma in quanto non adeguatamente utilizzato. Le alternative sono due:
o ipotizziamo per gli studiosi di scienze empiriche una sovrannaturale capacità
di utilizzare in modo fecondo ogni «buon » conçetto matematico, e quindi deleghiamo ad essi il compito di decidere sulla «buona» o sulla «cattiva» matematica, oppure ammettiamo che i criteri di scelta debbono essere diversi e che in ultima analisi la matematica si può misurare direttamente con la realtà. L'insostenibilità della prima alternativa sta a nostro parere nel fatto che ogni teorizzazione
empirica che sfrutti la matematica è in parte determinata proprio dai conct~tti
matematici che usa e di conseguenza non ha neanch'essa un contatto puro con
la realtà esterna, ma un contatto mediato. Che la teoria sia empiricamente giustificata e «funzioni» è allora a nostro parere una prova del fatto che anche la
matematica su cui si basa la teoria « funziona » e che quindi inquadra bene la
realtà esterna. Ne scende allora che la teorizzazione matematica, nella misura in
cui non è sterile, ha a che fare direttamente col mondo esterno e con esso si deve
direttamente misurare. Viene così a cadere ogni discorso sulla convenzionalità
degli assiomi matematici e quindi si configura in modo diverso anche il ruolo
dell'analisi logica dei fondamenti della matematica.
Parlando sopra dei motivi che hanno portato allo svilupparsi dell'indagine
sui fondamenti alla fine del secolo scorso, abbiamo sottolineato il ruolo che vi
ha avuto il presentarsi della matematica come scienza « pura ». In un certo senso
si può dire che al fondo di queste indagini sta proprio il tentativo di giustificare
un'indagine matematica che pur muovendosi più liberamente di quella tradizionale non perde i contatti con il resto del sapere scientifico, ma anzi ne instaura
dei nuovi. Abbiamo anche sottolineato come lo sviluppo che la matematica di
questo secolo ha registrato abbia in un certo senso mostrato l'insufficienza dei
concetti generali che alla fine dell'Ottocento ne avevano giustificato il sorgere. Come accennato nell'ultima parte di questo capitolo, forse l'evento più importante da
questo punto di vista è costituito dal nuovo rapporto che la geometria è venuta
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
a stabilire con il resto della pratica matematica. Il sorgere della teoria degli insiemi e lo svilupparsi del metodo assiomatico, l'abbiamo visto, è stato il punto
di partenza della problematica sui fondamenti e ciò ha coinciso con un'inversione
di rotta della ricerca che ha portato gradualmente ad un allontanamento delle indagini geometriche dal resto della nuova matematica che si andava costituendo. L'eco di questa inversione di tendenza -come osserva Shafarevich si può trovare nelle parole di Felix Klein che nel 1926 scriveva: « Quando ero
studente, le funzioni abeliane [la cui controparte algebrica è oggi un aspetto
centrale della geometria] -come effetto della tradizione di Jacobi -erano considerate il vertice indiscusso della matematica e ciascuno di noi, naturalmente,
aveva l'ambizione di contribuire a questo campo. E ora? La nuova generazione
sa a malapena cosa sono le funzioni abeliane. »l I nuovi campi di indagine erano
costituiti dalla teoria delle funzioni, dall'algebra astratta, che si fondavano su una
concezione più ampia della pratica matematica e che trovavano il loro fondamento più naturale nella teoria degli insiemi vista come descrizione dell'universo
degli oggetti matematici.
Più o meno esplicitamente nei matematici sul campo, a chiare lettere nelle
opere dei logici, dietro questa concezione stava l'idea che la matematica fosse
essenzialmente un'attività di creazione di schemi astratti concettuali la cui giustificazione pratica andava ricercata nella fecondità, nella capacità cioè di inquadrare i problemi in esame (si pensi ad esempio al famoso discorso di Hilbert nel
19oo) ma la cui giustificazione logica (fondazione) si trovava nella riconduzione
a concetti basilari quali potevano essere quelli della logica generale, della matematica finitista, delle costruzioni intuitive. Si creava in altri termini una frattura
fra la giustificazione della correttezza di una teoria matematica e la giustificazione
della sua fecondità. Questo almeno in parte può spiegare il disagio di alcuni matematici nei confronti dell'indagine logica e anche, in alcuni casi, il deciso atteggiamento di ripulsa. In quest'ottica, a parte la posizione intuizionista, che costituisce il tentativo più deciso di non creare una frattura fra la matematica ottocentesca e la nuova matematica, la teoria degli insiemi viene vista come la teoria
dei concetti matematici, la « realtà » di fondo da cui vengono isolate di volta in
volta le singole nozioni specifiche. L'accettabilità degli assiomi della teoria degli
insiemi può essere giustificata sulla base di nozioni logiche generali (Frege,
Russell, ecc.) o sulla base di prove di coerenza finitiste (Hilbert) ma il punto
centrale non cambia: l'intero edificio matematico viene visto come un edificio
di concetti, di schemi, che trova la sua unità in questa natura concettuale della
nozione di insieme. In questo senso il mancato rapporto tra la geometria· e i nuovi
sviluppi di questa matematica astratta testimonia l'impossibilità di ricostruire integralmente e in modo adeguato le nozioni dateci dall'esperienza fisica esterna
I
La citazione è tratta da Igor S. Shafarevich, Basic afgebraic geomelry, Springer, Berlino 1973.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (Il)
in puri schemi concettuali. Ci sembra che il contrasto tra Hilbert e Frege sui
fondamenti della geometria rifletta almeno in parte questo problema.
Sul piano della matematica concreta naturalmente la questione è diversa,
e riguarda più specificamente la non conformità dell'indagine geometrica tradizionale ai nuovi standard di rigore (e in ultima istanza alla nuova concezione
della matematica) posti dalla teoria degli insiemi e dal metodo' assiomatico. Que:..
sta frattura si verrà a colmare tra gli anni venti e trenta, quando gli sviluppi
dell'algebra astratta, ad opera della scuola di Emmy Nother ed Emil Artin, permetteranno una feconda algebrizzazione della geometria classica. I lavori di
Bartel L. van der Waerden, Oscar Zariski, André Weil gettano le basi per una
geometria algebrica che si adegua perfettamente ed in modo fecondo ai nuovi
standard di rigore e permette la trattazione su base algebrica di concetti centrali
dell'indagine geometrica. Non si tratta in altre parole di un collegamento di
principio, ma di un collegamento reale che investe la pratica stessa della ricerca.
È dagli sviluppi successivi della indagine geometrica che è nata una controtendenza che ha portato ancora una volta la geometria in una posizione centrale.
I lavori di Weil, di J. P. Serre e di Grothendieck, con la nozione di fascio e di
schema, hanno ampliato enormemente l'orizzonte permettendo una profonda unificazione fra geometria, aritmetica e algebra. Il linguaggio geometrico pervade
sempre più queiti campi di indagine così che la geometria si pone ancora come
il contesto naturale entro cui si sviluppa gran parte della matematica.
In questa nuova prospettiva, le categorie hanno un ruolo centrale in quanto
costituiscono la base di un rinnovato collegamento, fornendo ai concetti geometrici una portata sufficientemente generale e aderente ai problemi di partenza.
Il discorso è chiaramente semplificato, ma dal punto di vista della problematica
sui fondamenti - che è quella che qui ci interessa - ha un significato preciso
in quanto ne deriva la possibilità di una scelta diversa dei concetti fondamentali.
Le indagini di Lawvere hanno proprio come obiettivo fondamentale quello di
stabilire un rapporto profondo fra logica e geometria che sostituisca il precedente legame fra logica e teoria degli insiemi. La teoria dei topoi elementari
come universi di discorso, la semantica funtoriale, le analisi delle regole logiche
come aggiunzione fra funtori, ecc. non sono semplicemente un'applicazione del
bagaglio concettuale della teoria delle categorie a problemi logici tradizionali,
ma pongono in luce la possibilità e l'opportunità della sostituzione del concetto
di insieme con quello di topos in un contesto fondazionale.
La possibilità di questa sostituzione risulta chiaramente da quanto detto sopra; l'opportunità invece risalta da una considerazione più globale: il modo con
cui viene individuata la struttura logica fondamentale degli oggetti matematici
si rivela non solo più generale ma in molti casi molto più «naturale» e diretto
di quello su basi insiemistiche. Il discorso fatto sopra sulla teoria dei topoi come
teoria degli oggetti variabili in modo continuo e gli accenni ai rapporti fra co-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
struzioni geometriche e nozioni logiche testimoniano ampiamente questo fatto.
Il discorso si può generalizzare traendo una morale « filosofica » da questi sviluppi. La sostituzione dei topoi all'universo degli insiemi significa anche l'abbandono di una teoria concettualistica degli oggetti matematici. Questo per almeno
due ragioni: in primo luogo, la nozione di topos nasce da considerazioni che
sono simultaneamente geometriche e logiche e quindi trova la sua giustificazione
non in una teoria dei concetti matematici ma in una teoria degli oggetti reali, gli
oggetti geometrici; in secondo luogo, è implicita nella fondazione nel senso di
Lawvere l'accettazione di una pluralità degli universi di base. Esistono topoi
diversi e questa diversità non significa l'impossibilità da parte nostra di stringere
èla vicino mediante una descrizione linguistica l'unico universo cui intendiamo
riferirei: la pluralità dei topoi elementari è un dato di partenza che riflette la possibilità di diversi contesti, di diverse totalità di oggetti.
La situazione è completamente differente da quella che si verifica nel caso
della teoria degli insiemi in cui l'unicità dell'universo viene ricercata in quanto
lo si concepisce come l'universo dei concetti matematici. L'esistenza di proposizioni insiemistiche indecidibili, da questo punto di vista, ha un significato fondamentale che a nostro parere mette in crisi l'idea dell'universo degli insiemi come unico universo di tutti i concetti. D'altra parte accettare, come alcuni hanno
fatto, la pluralità delle teorie degli insiemi, ci sembra comporti necessariamente
l'abbandono della nozione stessa di insieme come nozione fondante. Non si vede
infatti per quale ragione, una volta che gli insiemi non siano più visti come i
concetti, si debba necessariamente ricostruire ogni oggetto matematico come oggetto insiemistico. Una riduzione del genere ha senso se con questo si vuole intendere che ogni oggetto matematico è un costrutto concettuale, ma se l'universo degli insiemi non è l'universo dei concetti, non si capisce che cosa questo
possa voler dire. Rimarrebbe l'idea di concepire i vari modelli della teoria degli
insiemi come totalità di collezioni, ma a questo punto è la concreta pratica matematica che ci mostra come le proprietà essenziali di un oggetto non necessariamente si possono studiare in modo limpido attraverso la considerazione dei suoi
elementi. L'esempio più cospicuo è dato dall'algebra: studiando i gruppi o gli
anelli non è assolutamente necessario vederli come collezioni di elementi su cui
sono definite relazioni e fo operazioni: le loro proprietà risultano dallo studio
dei morfismi che li legano agli altri oggetti della categoria in cui li situiamo e dalle
trasformazioni fra questa categoria e altre. Non solo uno studio del genere è
possibile ma, come mostra la pratica algebrica moderna, permette di individuare
strutture di fondo comuni che risulta difficile cogliere vedendo gli oggetti matematici come collezioni. Fondare l'algebra sulla teoria degli insiemi significa ricostruir/a, ma non per questo individuarne le componenti fondamentali. Il concetto
di topos, o in generale quello di categoria, permette invece uno studio diretto
degli oggetti matematici, che tiene conto del fatto che le loro proprietà risultano.
z66
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
dalla considerazione dei morfismi e delle trasformazioni. In questo senso la
« fondazione » insiemistica acquista un ruolo ben più ridotto che è quello di
ricostruzione degli oggetti e non di studio diretto degli stessi.
Risulta allora il carattere idealistico della fondazione insiemistica dove la
parola « idealistico » ha un significato preciso e si riferisce al fatto che in questo
tipo di fondazione l'unica vi~ per giustificare la ricostruzione degli oggetti matematici in termini di insiemi è quella di concepirli come concetti e di vedere lo
studio della matematica come lo studio di concetti. Non solo per contrapposizione
quindi ci sembra giustificata la concezione di Lawvere del suo modo di fondazione come un modo materialista di studiare la matematica. Ci sono due aspetti
almeno nel discorso di Lawvere che giustificano questa qualifica. Il primo riguarda la non riduzione a concetti degli oggetti di studio: dal punto di vista categoriale un oggetto non viene ricostruito ma semplicemente se ne indagano i
rapporti con altri oggetti senza fare assunzioni di carattere riduttivo. Il secondo
riguarda la concezione generale dei topoi elementari come teoria degli oggetti
che variano in modo continuo. Classicamente, l'abbiamo ricordato a suo tempo,
l'analisi del movimento avviene per istanti, ossia si considerano gli oggetti in
movimento analizzando la loro posizione nei singoli istanti. Quest'analisi d'altra
parte si basa su una riduzione, in quanto assume la possibilità di poter parlare
di istanti che non sono dati dall'esperienza, ma che sono costruiti concettualmente. Nella teoria dei topoi elementari questo non avviene, ed il movimento
degli oggetti non risulta da una lòro ricostruzione in termini di istanti (se ad
esempio si pensa al caso dei fasci, considerandoli livello per livello) ma globalmente, ed i tipi diversi di variazioni che consideriamo risultano dalla proprietà
della logica interna del topos.
Questi due aspetti sono strettamente legati fra di loro. L'idea infatti che il
dato di partenza della conoscenza matematica è una realtà in movimento, significa che ogni ricostruzione di essa, quali che siano i concetti base che si assumono, è necessariamente artificiale in quanto evidentemente non ammette la possibilità di un approfondimento della conoscenza degli oggetti in esame basata
su elementi che non compaiono nella ricostruzione originaria. Quanto detto
nella terza parte di questo capitolo a proposito dell'assioma di scelta può illustrare adeguatamente questo punto. Risultati come quello di Banach-TarskiSierpinski sono paradossali se li leggiamo realisticamente; di norma il modo per
giustificare questo fatto consiste nel rifarsi alla natura puramente concettuale
della ricostruzione matematica degli oggetti in esame all'interno della teoria degli insiemi: in altre parole si sostiene che quello di cui si sta parlando non sono le
sfere « reali », ma le sfere come ricostruite all'interno dell'universo degli insiemi
postulando l' AS. C'è chiaramente un elemento insoddisfacente in questa soluzione, che la fa apparire troppo ad hoc: non si capisce infatti entro che misura,
applicando i concetti matematici agli oggetti esterni, si crede davvero che i primi
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
rappresentino o meno i secondi. La teoria degli insiemi ammette un'applicazione
dei concetti matematici al mondo esterno solo via una ricostruzione di questi
ultimi. In questo modo l'individuazione di un ulteriore dato nel mondo reale,
nel nostro caso l'individuazione dell'impossibilità fisica di operare la separazione
delle sfere come vuole il teorema, porta ad una contraddizione se interpretiamo
gli enunciati realisticamente. Ora è ben vero che noi potremmo considerare jl
paradosso come una prova del fatto che AS va rigettato, ma d'altra parte se
accettiamo l'universo degli insiemi come l'universo dei concetti matematici ci
sono forti ragioni per accettare questo assioma, una volta che lo si applichi ad
altri concetti: siamo ancora in presenza della necessità di una biforcazione che
dal punto di vista fondazionale sarebbe difficilmente giustificabile accettando come base la teoria degli insiemi.
Nel contesto della teoria dei topoi invece la situazione è diversa in quanto
la giustificazione dell'applicazione di concetti matematici ad un dominio di
realtà non dipende dalla possibilità di ricostruire gli oggetti di quest'ultimo all'interno del topos, per cui dovrebbe essere determinata una volta per tutte la
validità di AS o no; ma di volta in volta si sceglie il topos adatto prendendolo
come descrizione della struttura generale del dominio di partenza, non come ricostruzione di esso. Ulteriori informazioni su un dominio di realtà ci possono portare
a formulare nuove condizioni sul topos e quindi in questa prospettiva è del
tutto giustificata un'interpretazione realistica che ammetta nello stesso tempo la
possibilità di nuove informazioni che lo studio del dominio in esame ci possa
fornire. In quest'ottica, l'inquadramento degli oggetti di studio ammette come
fondamentale la possibilità di uno sviluppo della conoscenza.
In un certo senso si può dire che questo modo di concepire i fondamenti costituisce un'applicazione sistematica e coerente del metodo assiomatico, visto non
più come costitutivo ma come descrittivo: gli assiomi rappresentano i fatti fondamentali che riusciamo a individuare nella realtà in esame. La possibilità di
questo risiede proprio nell'adozione del concetto di topos. Classicamente infatti,
si pensi ad Hilbert e all'assiomatica della geometria, il problema che poneva
una visione coerentemente assiomatica della matematica era dato dal fatto che
non si sapeva come giustificare la scelta della logica, o in generale degli assiomi,
senza ricorrere ad una previa ricostruzione concettuale degli oggetti da descrivere: in altre parole una teoria assiomatica era vista come la descrizione di una
struttura o di una classe di strutture all'interno della teoria degli insiemi (era
quindi comunque costitutiva). L'unica alternativa a questa concezione era una
visione rigidamente formalista dei sistemi assiomatici, che in ogni caso non poteva
giustificare la scelta degli assiomi. Le difficoltà di Hilbert nel giustificare la logica classica contro le obiezioni di Brouwer ci sembra nascessero da questo e
il ricorso al paradiso cantoriano aveva appunto il ruolo di rendere plausibile
la scelta della logica classica sotto forma di un «come se», così che il pro-
z68
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
blema in ultima istanza si spostava su quello della coerenza della teoria degli
insiemi.
Il concetto di topos elementare con la sua logica interna ci permette di evitare questa difficoltà in quanto ogni teoria è interpretabile in un topos e la determinazione di un topos - si pensi alla forma degli assiomi - non presuppone
nessuna logica. In questo modo risulta possibile evitare il ricorso ad elementi
esterni non suggeriti direttamente dalla struttura del dominio che si vuol studiare e quindi viene giustificata questa concezione coerentemente assiomatica
delle teorie matematiche.
Secondo Lawvere - così almeno come lo interpretiamo - questa accettazione della realtà di base come realtà in movimento (nel duplice senso della realtà
che varia e di conoscenza della realtà che si modifica) costituisce una conferma della
natura dialettica del pensiero matematico. In un certo senso, ci sembra, questa natura dialettica è implicita nello stesso uso fondazionale del concetto di categoria in
quanto una fondazione in questi termini vede come nucleo centrale della conoscenza matematica non la sostanza, cioè la composizione interna degli oggetti,
ma i loro mutui rapporti, le loro trasformazioni. Si presenta così una concezione
dello sviluppo della matematica che è istruttivo confrontare con quella tracciata
da Hilbert nella conferenza di Parigi del I 900 e che costituiva la formulazione
più coerente e sottile della nuova (di allora) pratica matematica. Per Hilbert lo
sviluppo della matematica era motivato dall'insorgere di nuovi problemi e dall'elaborazione di teorie per la loro risoluzione; queste teorie costituivano i punti
di partenza, le ipotesi, per la risoluzione, ed Hilbert giungeva a postulare una
sorta di principio di omnirisolubilità. Il problema era di scegliere le ipotesi opportune e di giustificarne la correttezza in base a dimostrazioni di coerenza. Nella
prospettiva che abbiamo presentato la situazione cambia, nel senso che più che
i singoli problemi sono le contraddizioni tra i concetti in gioco che costituiscono
il motore dello sviluppo matematico; queste contraddizioni nascono sia dalle
condizioni del lavoro matematico stesso, sia dalle variazioni di conoscenza sugli
oggetti di studio, e il senso del progresso matematico sta nella individuazione
di un livello di discorso e di problematizzazione in cui i termini contraddittori
vengono accettati entrambi, senza ridurre l'uno all'altro, e se ne analizzano i
mutui rapporti.
Per Lawver& la contraddizione di fondo implicita nel lavoro matematico
è quella tra formale e concettuale, tra procedure di computo, presentazioni linguistiche, e strutture. Ci sembra che nella logica di questo secolo uno degli
esempi più cospicui, anche se non sempre consapevole, di questa concezione, sia
la teoria dei modelli, che ha proprio come tema l'interrelazione tra dato linguistico e st~utture che realizzano le condizioni linguistiche. Il contenuto di buona
parte dei risultati centrali della teoria dei modelli non riguarda né le ~ole teorie
né le sole strutture, ma la loro interrelazione. Prototipo ancora più significativo
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
di questa contraddizione e dello sfruttamento positivo di essa si trova nella ge:ometria, in cui viene sistematicamente sfruttata la contraddizione fra condizioni
linguistiche, le equazioni polinomiali, e varietà, classi di oggetti che soddisfano
le condizioni da esse poste. La semantica funtoriale di Lawvere, e più in generale
la teoria funtoriale dei modelli, costituiscono la formulazione più esplicita dal
punto di vista fondazionale di questa concezione, in cui la contrapposizione fra
formale e concettuale si risolve e si analizza in termini di aggiunzione fra funtori.
Sullo sfondo, come ambiente, una contraddizione ancora più generale: quella
fra geometria e logica, che costituisce il contesto più naturale per vedere la
teoria dei topoi che si presenta appunto come analisi unitaria delle interrelazioni
fra concetti geometrici e logici e della loro unità di fondo.
A nostro parere - come abbiamo già detto - il grande interesse di questa
prospettiva fondazionale costituisce l'evento più importante della indagine di
questi ultimi anni. Questo naturalmente non significa che la problematica più
tradizionale abbia di colpo perduto ogni senso né che l'approccio categoriale
costituisca la risposta definitiva ai problemi fondazionali; non vogliamo assumere d'altra parte un atteggiamento neutrale in quanto ci sembra innegabile la
maggior profondità filosofica in questa seconda concezione e per converso altrettanto innegabile il progressivo isterilirsi di alcune delle ricerche su linee più
tradizionali. In altre parole ci sembra che la linea più vitale sia oggi quella categoriale ma che da questa prospettiva sia necessario prendere in considerazione
gli sviluppi della ricerca logica e non solo logica di questo secolo isolandone gli
elementi rilevanti e portandoli avanti. Ciò in quanto riteniamo che in questa
nuova prospettiva possano acquistare significato più profondo fatti e problemi
che nella prospettiva tradizionale risultano irrilevanti o filosoficamente non pertinenti. Un esempio di quanto intendiamo si ha considerando il diverso peso filosofico che le ricerche di teoria dei modelli sulla linea di Robinson hanno acquisito
dopo che per più anni, implicitamente o meno, si era affermato, sullo sfondo di
una concezione tradizionale dei fondamenti, che esse erano matematicamente
interessanti ma filosoficamente poco significative. Lavori recenti di Kock e
Reyes- che si muovòno lungo le linee del programma di Lawvere- ci sembra
mostrino ampiamente come in questo nuovo contesto le concezioni di Robinson
acquistino una portata che i tradizionali cultori dei fondamenti gli avevano sempre negato.
L'elemento nuovo, irrinunciabile, ci sembra il deciso abbandono dell'idea
di fondazioné come giustificazione della correttezza, per quella ben più feconda
di fondazione come indagine e individuazione delle idee fondamentali. In sé
presa, quest'affermazione è forse generica, ma alla luce di quanto detto sopra
ha un significato preciso. Per troppo tempo, secondo una concezione che in
ultima istanza è quella aristotelica, per fondamentale si è concepita ogni idea in
base alla quale si possono definire le altre idee specifiche di un campo di indagine.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
Non importa se poi, come fa ad esempio Kreisel, si distingue ulteriormente fra
organizzazione e fondazione vedendo quest'ultima incentrata sulla validità piuttosto che sulla efficienza, come invece è l'organizzazione. La distinzione al massimo non fa che accentuare la separazione fra pratica concreta e analisi fondazionale: in ultima istanza non si fa che ridurre l'analisi dei fondamenti, ci si permetta
l'espressione, ad una sorta di coperta di Linus per matematici.
Ancora una volta questa prospettiva ha un netto sapore idealistico. Non
necessariamente infatti un'idea in termini della quale possiarr,o definirne altre
individua un aspetto della realtà più profondo: tale idea ha certamente una
priorità nell'esposizione, o al massimo nella conoscenza, ma, a meno di ritenere
che l'importante sia solo il modo con cui conosciamo piuttosto che quello che
conosciamo, non può essere assunta ipso facto come più fondamentale delle altre.
Per fare un esempio: una struttura algebrica si può vedere come un particolare
tipo di insieme, ma questo non significa che il concetto di struttura sia meno
fondamentale di quello di insieme, tanto è vero che in un contesto categoriale
possiamo studiare le seconde senza necessariamente presuppone i primi. All'opposto, si potrebbero addirittura concepire gli insiemi come strutture degeneri,
invertendo l'ordine di priorità. Se pure in modo generico, possiamo dire che le
idee fondamentali sono quelle che riflettono gli aspetti ir1varianti, le strutture
ricorrenti del maggior numero di campi possibile: in questo senso non si viene
più a creare in linea di principio quella frattura fra fondazione e organizzazione
da cui sopra siamo partiti e l'individuazione delle idee fondamentali non è indifferente alla pratica matematica e alla sua organizzazione ma anzi ha costanti
rapporti con essa.
Questo ha un altro risvolto che è importante sottolineare e a cui sopra ci
siamo implicitamente riferiti: l'ammissione di una pluralità delle idee fondamentali. In fin dei conti il mondo non l'abbiamo fatto noi e se per capirlo occorrono
idee, logiche, diverse, non è colpa nostra. Solo se concepiamo idee e logica
come frutti arbitrari dell'intelletto umano abbiamo un dovere di uniformità riduzionistica. Ciò non toglie naturalmente che lo sviluppo scien-tifico sia in larga
misura motivato, come sopra si diceva, dal desiderio di ricomporre un'unità
risolvendo le contraddizioni che i diversi concetti pongono; ma questo non deve
significare in nessun modo una artificiosa e aprioristica riduzione ad un'unica base.
Abbiamo parlato di pluralità delle logiche. Ci sembra chiaro da quanto detto
sopra che uno dei risultati più significativi dell'indagine di questi anni stia proprio nella giustificazione non aprioristica di questa pluralità di logiche, adeguate
di volta in volta alle specifiche « condizioni ambientali » nelle quali vanno applicate. L'affermarsi delle logiche intensionali, con la loro intrinseca flessibilità
ad adattarsi a « stati di conoscenza » differenti; lo sviluppo di logiche « empiriche » come loro specificazione che sfrutta sostanzialmente la mediazione della
netta contrapposizione Vero /Falso; la stessa non arbitrarietà della logica da
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
applicare nello studio di teorie matematiche messa in luce dall'analisi categoriale,
tutti questi fatti rendono altamente plausibile ritenere che sia del tutto gratuito
o comunque non giustificato voler imporre a priori una rigida schematizzazione
logica unica e valida per tutti i casi.
Non si tratta, si badi, di dover sostituire una logica ad un'altra, imponendo
ad esempio una scelta fra logica classica e logica intuizionista che verrebbe in
qualche modo a risolvere a favore di quest'ultima una disputa sorta come abbiamo visto agli inizi del secolo. I risultati sulle interpretazioni nei topoi potrebbero certo far propendere per questa soluzione assegnando alla logica intuizionista la palma della vittoria nella annosa vertenza e nel contempo quell'alone
di assolutezza connaturato alla logica classica. Ma credo siano sufficienti....:._ tra gli
altri - i risultati relativi alla quantum logic con l'individuazione di « reali » sistemi
logici inconfrontabili con la logica intuizionista per far comprendere che la questione è molto più complessa di quanto sembri, e non consente comunque in
nessun modo di passare per così dire da assoluto a assoluto. Quello che qui
viene messo in forse è proprio tutto il discorso di base relativo alla logica, che
la considera del tutto a priori, sganciata dall'esperienza e fissata una volta per
tutte. Già i risultati che abbiamo citato sembrerebbero infatti portare come conseguenza che la « realtà » in qualche modo vincola e condiziona la logica, la
quale viene così ad assumere una dimensione « empirica » per l'innanzi del tutto
impensabile e sdegnosamente rifiutata da tutta una tradizione filosofica. Questo
naturalmente pone un problema filosofico di notevole rilevanza- che non possiamo certo analizzare in questa sede - che è quello dei rapporti fra logiche
specifiche e linguaggio naturale. Un punto comunque è a nostro parere
irrinunciabile: il deciso rigetto di ogni tentativo di subordinare la logica al
linguaggio naturale, e ancor meno di usare l'aderenza a quest'ultimo come criterio
per la giustificazione della logica. La « scelta » della logica dipende dal tipo di
pratica in cui si è impegnati e quindi sostanzialmente dal tipo di oggetti che si
studiano.
Siamo ritornati al discorso sulla pratica, cui più volte, nel corso di queste
pagine, ci siamo richiamati. Ci sembra giusto concludere èon alcune considerazioni a questo riguardo. Come detto all'inizio, una pratica è strettamente legata
alle condizioni, anche politiche e sociali, in cui si sviluppa. Può sembrare quindi
che il voler restringere sempre di più l'indagine fondazionale- e più in generale
l'indagine logica - alle varie pratiche teoriche costituisca una sorta di accettazione dello status quo, una rinuncia a ogni tentativo di analisi critica. Almeno
sociologicamente questo può essere in parte vero. Troppi appelli alla pratica
mascherano infatti un sostanziale conservatorismo. Nel caso della logica, che
si situa tradizionalmente al confine tra filosofia e matematica, questo appello ha
avuto spesso infatti un significato di rifiuto: l'indagine sui fondamenti veniva
rigett~ta come irrilevante per la pratica, come speculativa, tanto dai filosofi quanto
www.scribd.com/Baruhk
La logica nel ventesimo secolo (II)
dai matematici. Ma la pratica non è solo conservazione: all'interno di essa, si
pensi a quanto detto sopra sulla matematica, sorgono contraddizioni, tensioni,
che spingono a nuove analisi; il compito del logico è proprio quello di rendere
atto di questo fatto. In altri termini, all'interno della pratica scientifica specifica
esiste una tensione tra aderenza ai vecchi schemi ed inquadramento in nuove
prospettive. Questo provoca uno scarto di tempi, così che spesso la « buona »
pratica del futuro è la pura ideologia del presente. Ci sembra che questo ruolo
ideologico vada accettato, in quanto esso solo permette un possibile superamento, almeno se non si concepisce il mondo come rigidamente determinato.
L'unico problema è di far sì che questo atteggiamento ideologico non risulti
puramente difensivo e in ultima analisi mistificante; l'importante, ci sembra, è
di mantenere la tensione fra la pratica reale, presente, la sua critica e le prospettive nuove. Non esiste ricetta per trovare un giusto equilibrio e solo il dibattito
continuo, libero e intellettualmente onesto può garantirlo. Perché queste condizioni si realizzino materialmente occorre d'altra parte un radicale cambiamento
dell'organizzazione del lavoro scientifico, in particolare della scuola, ma più in
generale della comunità sociale e politica: così che, in ultima istanza, la critica
della scienza, pur senza annullarsi in (e confondersi con) essa, si innesta certamente e positivamente nella critica della società.!
I Anche per questo, come per il capitolo
v del volume ottavo, mi sono stati preziosi frequenti contatti e discussioni con amici e colleghi.
Voglio qui esprimere la mia profonda riconoscenza al prof. Silvio Bozzi per la sua continua ed amichevole assistenza, anche morale. Per
i loro contributi ringrazio anche i dottori Edoardo Ballo, Ermanno Bencivenga, Claudio Pizzi.
Il prof. Gian Carlo Meloni ha letto con pun-
tuale impegno la parte relativa alle categorie
dando preziosi suggerimenti: anche a lui il mio
ringraziamento, che estendo alla prof. Maria
Luisa Dalla Chiara e al prof. Gabriele Lolli
che hanno letto tutto il manoscritto e sono
stati a loro ~olta prodighi di consigli e suggerimenti. Resta inteso ovviamente che solo mia è
la responsabilità di quanto contenuto nelle pagine precedenti.
www.scribd.com/Baruhk
CAPITOLO QUARTO
Filosofta della scienza e storia della scienza
nella cultura di lingua inglese
DI GIULIO GIORELLO
I • PREMESSA. REVISIONE DEL FALSIFICAZIONISMO
«I pesci si muovono perfettamente nell'acqua, ma dobbiamo pretendere
che conoscano le leggi dell'idrodinamica? » chiede polemicamente Imre Lakatos,
uno degli autori di cui ci occuperemo nel presente capitolo; e, fuori di metafora,
nota il grande biologo inglese P.B. Medawar che la metodologia, in ultima analisi «essa stessa una teoria sulla condotta dell'indagine scientifica», dovrebbe
certo derivare dal tentativo di scoprire « che cosa facciano esattamente gli scienziati o che cosa sarebbe utile facessero», ma «sfortunatamente questa onesta
ambizione presenta una quantità di rischi »l Le opinioni degli scienziati sulle
loro ricerche paiono infatti « così varie da adattarsi a quasi ogni ipotesi metodologica che si sia deciso di formulare » e, viceversa, ai ricercatori impegnati
la filosofia della scienza semora troppo spesso « eterea », estranea ai loro interessi
e alle loro motivazioni, degna quindi di esasperato disprezzo.
Una frattura insanabile? Niente affatto, risponde ancora Medawar, scienziato come pochi altri sensibile a questioni stricto sensu metodologiche. Attento in
particolare ai dibattiti della cultura filosofico-scientifica di lingua inglese, Medawar ha in più occasioni l sottolineato come la riflessione sulla scienza successiva
· alla seconda guerra mondiale abbia da una parte continuato la tradizione dei
grandi dibattiti epistemologici dei primi trent'anni del secolo, utilizzando proficuamente le tecniche più raffinate dell'analisi logico-linguistica e dall'altra
abbia guardato con sempre maggior interesse alla dinamica delle teorie, al mutamento delle categorie scientifiche, alle grandi rivoluzioni intellettuali, scorgendo
nella storia il banco di prova delle metodologie rivali: almeno in prospettiva
dunque non rottura, ma convergenza degli interessi degli epistemologi con le
I In particolare in The art tif the soluble
(lett. L'arte del risolubile, I967) e in Induction and
intuition in scientijìc thought (Induzione e intuizione
nel pensiero scientifico, I 969), entrambi ben noti
al pubblico italiano (le traduzioni italiane sono
apparse rispettivamente nel I968 e nel 197I, la
prima col titolo L'immaginazione scientifica, tratto
da uno dei saggi che compaiono nel volume del
I967). Sarà bene ricordare che Medawar si è
per più versi accostato al falsificazionismo popperiano.
2.74
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
«motivazioni degli scienziati». Con Medawar concorderanno, a parer nostro,
non pochi lettori della presente opera che hanno via via avuto modo di ritrovare,
al di là dell'apparente separatezza delle diverse «aree di lavoro», profondi e
inscindibili nessi tra riflessione filosofica e pensiero scientifico, tra considerazioni
metodologiche e pratica della ricerca, tra atteggiamenti epistemologici e specifiche conquiste nei vari settori dell'impresa scientifica. In particolare, proprio
chi ha abbandonato l'immagine stereotipa del lavoro scientifico come semplice
raccolta e sistemazione di dati, difficile e ardua quanto si vuole, ma sempre lontana da quell'impegno intellettuale che invece caratterizzerebbe la riflessione
filosofica e quindi priva di ogni autentica dimensione culturale, potrà cogliere
la rilevanza dei problemi che pone quella che nel I 840 William Whewell battezzava come «scoperta scientifica». Era questa l'area in cui «l'attività normale
(e non [quella]) eccezionale» consisteva nel concepire «ipotesi», audaci tentativi di spiegazione dei fenomeni che « se non riescono a prender corpo, dobbiamo a prezzo di grande fatica cercare di scalzare », sviluppando le indagini
«nel modo più analitico e rigoroso». Lungi dal ridurre la scoperta a un'asettica
raccolta di dati grezzi, il filosofo che mirava a rinnovare il Novum organon
delle scienze empiriche l realizzava dunque che il riconoscimento dell'interesse
centrale per la stessa ricerca di tale problematica dipendeva dalla consapevolezza
che « apprendere dalla natura » non coincideva con la ricezione passiva del
materiale sensoriale. Una maschera di teoria copre t'intero volto della natura. Come
per altri grandi filosofi e scienziati, la teoria è, via via, « uno schizzo », « un
disegno », « una trama », « una rete » che ci rende intelligibili i fenomeni.
Se abbiamo scelto le parole di Whewell2 tra i numerosissimi riferimenti possibili che offriva la tradizione culturale anglosassone, è stato soprattutto per il
fatto che questi ha appassionatamente insistito sulla necessità di comprendere
a fondo « i processi del pensiero scientifico » come condizione preliminare al
progresso della ricerca, senza però pretendere di ridurre tali processi a mera
«tecnica della scoperta» (Medawar), ma prospettandoli in un quadro estremamente critico e articolato in cui la ricerca storica assumeva un ruolo determinante.
Prescindendo dalle particolari soluzioni offerte da Whewell alle questioni epistemologiche via via affrontate, restano innegabilmente, un secolo dopo, il fascino e la modernità di un approccio del genere. Per noi questa è anche la via
più agevole per introdurre ai dibattiti degli anni sessanta circa « logica della
scoperta» e /o « psicologia della ricerca», cui è dedicato il presente capitolo,
senza perderne di vista le più profonde «radici» culturali.
Questo riferimento ci permette immediatamente di chiarire i limiti del presente capitolo, estremamente arduo, sia per il lettore che per l'autore, alla luce degli
I Si allude al Not•um organon renovatum di
Whewell (r859).
2 Su questi aspetti dell'indagine whewel-
liana e sulla loro ripresa nella riflessione epistemologica degli anni sessanta torneremo nelle considerazioni conclusive del paragrafo YII.
275
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
amplissimi sviluppi - e in direzioni svariatissime - della riflessione epistemologica di lingua inglese. Una rassegna esaustiva della letteratura specifica non è a
nostro avviso minimamente possibile in queste pagine: tanto più nella convinzione, che sottende tutta la presente opera, che la riflessione filosofica sulla scienza non
possa fare a meno della ricerca storica.! Abbandonata dunque ogni pretesa di completezza e consapevoli di compiere una selezione che a molti può parere arbitraria, ci
siamo limitati a enucleare alcuni temi circa « i processi del pensiero scientifico »
che Whewell riteneva così rilevanti restringendoci ad alcuni autori per più
aspetti dissidenti rispetto alla ·tradizione dell'empirismo logico, per la quale rimandiamo invece ad altri capitoli di quest'opera. Ciò premesso, ci pare opportuno accennare brevemente all'organizzazione del capitolo. A una breve revisione critica del falsificazionismo popperiano dedicheremo le pagine conclusive
di questo paragrafo (r); seguirà un paragrafo (n) dedicato alla disamina della
« tesi di Duhem-Quine >> e al problema delle contrapposte caratterizzazioni
della scienza pura e della scienza applicata (o, se si vuole, della « scoperta scientifica » e della « innovazione tecnologica »); nel paragrafo successivo (nr) si
confronterà invece la « logica della scoperta matematica » con quella delle scienze
empiriche; si passerà quindi (paragrafo rv) alla considerazione del problema del
« mutamento concettuale » e delle « rivoluzioni scientifiche » per pervenire
(paragrafo v) all'esposizione della « metodologia dei programmi di ricerca»
che ambisce a far proprie alcune istanze di classici come Whewell e a costituire
una « logica della scoperta » più raffinata del falsificazionismo popperiano da noi
esposto nel capitolo xrv del volume settimo; seguirà una disamina della cosiddetta « incommensurabilità » tra teorie, programmi, paradigmi, ecc. rivali (paragrafo vr) e si concluderà con alcuni rilievi critici circa le tesi epistemologiche via via esposte (paragrafo vn). L'esposizione per temi ci imporrà di spezzare in differenti paragrafi l'esposizione del pensiero di un dato autore e, viceversa, di discutere insieme nel medesimo paragrafo idee di autori diversi;
tuttavia per ragioni di chiarezza e di facilità di lettura cercheremo il più possibile di associare, anche a prezzo di qualche schematismo, i temi dei vari paragrafi a particolari autori: più precisamente, gli accenni conclusivi di questo paragrafo I faranno riferimento, oltre che a Popper, a Joseph Agassi e John Watkins;
la tematica del paragrafo n verrà delineata soprattutto in riferimento alle tesi di
A gassi; quella dei paragrafi m e v alle concezioni di Imre Lakatos; quella del
paragrafo IV alle prospettive offerte da Norwood Russell Hanson, Thomas
S. Kuhn, Stephen E. Toulmin; quella del paragrafo VI a idee di Paul K. Feyerabend e ancora di Kuhn; 2 diversi riferimenti, spesso per meglio chiarire tesi
e argomentazioni critiche saranno infine dati nel paragrafo conclusivo. Infine,
I E viceversa. Per dirla con Lakatos: « Filosofia della scienza senza storia della scienza è
vuota; storia della scienza senza filosofia della
scienza è cieca. »
2 Per i contributi di tutti questi autori si
rimanda alla bibliografia del capitolo fornita alla
fine di questo volume.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
pur omettendo molti riferimenti per ragioni di spazio, non mancheremo di
sottolineare quello che ci pare uno dei fatti più rilevanti della riflessione epistemologica attuale, la proficua interazione tra filosofia della scienza e storia della
scienza, che fornisce un filo rosso per ritrovare un serio terreno di confronto tra
prospettive epistemologiche rivali, al di là di troppo facili semplificazioni e schematismi.
Brevissimi ora i cenni ad alcuni nodi concettuali del falsificazionismo, termine
di confronto critico di pressoché tutte le concezioni cui faremo riferimento nei
paragrafi successivi. Perché meglio risaltino i tratti specifici e distintivi delle
posizioni di Agassi, Kuhn, Lakatos, Feyerabend, ecc., questa breve disamina
mirerà a mettere in luce come la pietra angolare del razionalismo critico popperiano, la falsificazione, per essere operante, richieda « decisioni metodologiche ».1
a) Il filosofo della scienza- come il filosofo dell'arte- nel vagliare le possibilità
di « apprendere dalla natura » - rispettivamente « imitare la natura » - sa
che ogni termine « universale », come insegna la Logica popperiana, può venir
utilizzato solo adottando opportune condizioni. Scrive per esempio Ernst
Gombrich: 2 « Cosa fa l'artista quando rappresenta una montagna? Copia una
particolare montagna, cioè un elemento singolo della classe, come fa il topografo,
oppure, più nobilmente, copia lo schema universale, l'idea di una montagna?
Sappiamo che questo è un dilemma fittizio. La definizione della " montagna" dipende da noi. Ci è lecito vedere una montagna nel cumulo fatto da una talpa o
chiedere al nostro giardiniere di metterne una nel giardino » [corsivo nostro].
L'idea che la realtà contenga apparenze del genere « montagna » e che, osservando
una montagna dopo l'altra, lentamente si possa apprendere a generalizzare è
« un'idea fallace [cui] si sono ribellate tanto la filosofia che la psicologia » (Gombrich). Ma i resoconti delle osservazioni (cioè gli asserti della« base empirica»)
di necessità utilizzano termini univer·sali: non c'è dunque denJarcazione «naturale»
fra proposizioni osservative e proposizioni teoriche. Solo una decisione metodologica,
che «non può basarsi esclusivamente su ragioni psicologiche» (Lakatos), permette di determinare quali asserti vanno considerati « osservativi » e possono
costituire i «falsificatori potenziali» di una teoria. b) Nella classe degli asserti
« osservativi » (che in genere si assumono essere asserti spazio-temporalmente
singolari) vanno poi distinti quelli per cui esiste in quel tempo, per dirla con
Popper, «una tecnica opportuna» tale che «chiunque l'abbia imparata» può
decidere che l'asserto è« accettabile». In questo modo« il falsificazionista [popperiano] usa le teorie più riuscite come prolungamento dei nostri sensi» (Lakatos);
I Cfr. del resto quella componente metodologica della falsificazione da noi tratteggiata nel
paragrafo IV del capitolo xrv del volume settimo.
2 In Art and illusion (Arte e illusione, I 900)
Gombrich, come avremo modo di sottolineare
anche nel seguito, ha più volte sottolineato la rilevanza della critica popperiana all'essenzialismo
anche per imprese intellettuali (come la filosofia
dell'arte) diversa da quella scientifica. A sua volta
la riflessione di questo autore è punto di riferimento e di stimolo per considerazioni di taglio
epistemologico (come mostrano per esempio, seppur in prospettive diverse, tesi di Feyerabend e
di Kuhn).
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
è però pienamente consapevole della fallibilità delle sue decisioni l e del rischio
che si assume, dato che, come lo stesso Popper ha chiarito a più riprese, nelle
« tecniche sperimentali » seguite dalla comunità scientifica sono sempre coinvolte delle teorie fallibili, «alla luce delle quali si interpretano i fatti». c) Prima
facie le teorie probabi!istiche non sono inconfutabili? Non vanno quindi intese come
« metafisiche »?Nella Logica del '34 Popper adotta un punto di vista del genere,
là dove scrive che « stime probabilistiche non sono falsificabili e, naturalmente,
non sono nemmeno verificabili »: orbene, come osserva Richard Bevan Braithwaite nel noto Scientiftc explanation (La spiegazione scientifica, 195 3), nell'epoca in
cui « generalizzazioni statistiche· ricorrevano soltanto nelle scienze sociali e biologiche e nelle teorie fisiche, come la teoria cinetica dei gas, nelle quali non venivano
escluse spiegazioni non statistiche, era ragionevole per un filosofo della scienza
considerare [asserti del genere] come se fossero accettabili faute de mieux » soltanto
fino a che esse non potessero venir rimpiazzate da asserti differenti, che sarebbero
stati scoperti in stadi più avanzati delle discipline in questione, quando cioè
scienze biologiche e sociali avessero raggiunto maggior articolazione e la
fisica avesse posseduto conoscenze più particolareggiate delle singole molecole
e dei singoli atomi. Ma « oggi, che le più avanzate tra le scienze, nelle loro teorie
più raffinate e di più vasta portata, postulano una forma di spiegazione irredu,,dbilmente statistica », non occorre « prendere in considerazione quali modifiche
siano necessarie nella spiegazione che diamo dei sistemi scientifici, come gerarchie
deduttive in cui generalizzazioni empiriche sono deducibili da ipotesi di livello
superiore»? Non è urgente prospettare come« scientifica» (nel senso della ricostruzione razionale) l'utilizzazione di asserti probabilistici che rientra nella pratica
quotidiana dei ricercatori scientifici? Lo stesso Popper nella edizione inglese
della Logica propone « di adottare regole metodo logiche che [...] rendano falsificabili le ipotesi probabilistiche »; 2 nella fattispecie, una regola del genere,
come ha indicato da parte sua lo stesso Braithwaite andrà intesa come « regola
di rifiuto» che rende l'evidenza interpretata statisticamente «incompatibile»
con la teoria probabilistica.a d) Ma le decisioni a) b) c), se sono necessarie per
la falsificazione di una teoria, non sono in generale sufficienti. Esse infatti, come
ha particolarmente insistito Lakatos, non bastano a mettere il ricercatore in
grado di « falsificare » una teoria che non può spiegare alcunché di « osservaI Con le decisioni di tipo a) il falsificazionista individua quali teorie sono falsificabili (cioè
« scientifiche »); le decisioni di tipo b)_ sono condizioni necessarie per. effettive falsificazioni.
2. Cfr. del resto le pp. soz-so3 del capitolo
XIV del volume settimo.
3 Braithwaite ha reinterpretato in questa
chiave falsificazionista il «sottile lavoro dei matematici statistici » circa le « regole di rifiuto degli asserti probabilistici », in particolare i metodi
proposti negli anni trenta da ]. Neyman e E.
S. Pearson, come mostra il cap. VI di La spiescientifica. Varrà la pena di notare che
Braithwaite si discosta però da un punto di vista
strettamente popperiano in quanto l'oggetto di
tale capitolo è «il significato delle asserzioni probabilistiche entro un sistema scientifico » [corsivo
nostro] e, più in generale in tutta l'opera, il criterio popperiano della demarcazione tra scienza e
metafisica (la falsificabilità) è reinterpretato come
criterio di demarcazione tra asserti dotati di significato e asserti che ne sono privi.
.~azione
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
bile » senza una clausola ceteris paribus, una clausola che cioè ci garantisca che
nessuna causa pertinente agli eventi presi in considerazione (nel controllo della
teoria) è all'opera ·in qualche regione- magari remota- dell'universo. Il falsificazionistà popperiano risolve allora il problema prendendo un'ulteriore decisione: quando si controlla una teoria insieme a una clausola ceteris paribus e si
ritiene che tale congiunzione sia stata confutata, si deve decidere se considerare tale confutazione una confutazione della teoria in quanto tale. Per fare
un esempio: il perielio « anomalo » di Mercurio può fornire una confutazione
di N 3 , congiunzione della teoria di Newton, delle condizioni iniziali e di una
clausola ceteris paribus; dopo un esame «severo» delle condizioni iniziali si può
decidere di considerare « non problematiche » le condizioni iniziali e promuovere
« l'anomalia» a confutazione di Nz , congiunzione della teoria di Newton e della
clausola ceteris paribus; la decisione «cruciale» concerne se relegare nella «conoscenza di sfondo non problematica » anche la clausola ceteris paribus. Solo
una decisione del genere permette di « trasformare un'anomalia in un esempio
cruciale falsificante» (Lakatos), in quanto gli asserti che descrivono il perielio di
Mercurio da « base empirica » di N2 diventano « base empirica )) di N 1 , cioè
della sola teoria di Newton. Orbene, come si può « controllare severamente ))
una clausola ceteris paribus? Assumendo che ci siano altri fattori che influenzano
il corso degli eventi, specificando tali fattori e controllando infine tali assunzioni
specifiche. Ma quando porre un termine a tale controllo? Quando ritenere sufficiente il numero delle assunzioni specifiche confutate e abbandonare così il punto
di vista per cui, per dirla con Popper, « le discrepanze che si afferma esistano tra
risultati sperimentali e teoria sono solo apparenti e svaniranno col progredire
della nostra comprensione )) di cause nascoste? Il falsificazionista riconosce
apertamente« i rischi)) di un passo del genere; d'altra parte, ogni teoria, a maggior ragione una teoria di grande prestigio come la teoria di Newton, « deve
essere fatta per offrire il collo alla mannaia)) e la decisione spregiudicata circa la
clausola ceteris paribus non può venir rimandata all'infinito, anche a rischio di
«liquidare)) [kill] una« buona)) teoria! e) Infine, perché non compiere un ulteriore passo, perché non decidere che una teoria, che anche le quattro decisioni
a) b) c) d) non sono in grado di tramutare in una «falsificabile», sia falsificata
se risulta in conflitto con un'altra teoria «scientifica)) (nel senso di Popper)
sulla base di alcune decisioni sopra specificate ed è anche sufficientemente corroborata? Questa proposta, avanzata da J.O. Wisdom l negli anni sessanta,
permette di considerare « eliminabili )) e quindi eliminare di fatto persino
quelle teorie che nella Logica del '34 apparivano « metafisiche )) per la loro forma
linguistica, come tutte le asserzioni strettamente esistenziali.
Come esemplificava già a suo tempo Poincaré, un enunciato come « esiste
nell'universo qualcosa che resta costante )) è un tipico asserto non controllabile e
I
Cfr. la bibliografia del capitolo riportata in fondo a questo volume.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
quindi metafisica, ma alcune opportune specificazioni forniscono le controllabili « leggi di conservazione » della fisica; più in generale asserti, che non ammettono asserti spazio-temporalmente singolari come « falsificatori potenziali »,
possono venir opportunamente riformulati come asserti falsificabili, indicando
cosl il cammino della ricerca. Come ha esemplificato John Watkins, «l'aurora»
della chimica moderna non va forse cercata in quell'alchimia che moveva dall'intuizione per cui « esiste una sostanza che può trasformare tutti i metalli
in oro»?
La discussione delle decisioni di tipo e) ci ha condotto cosl ad accennare alla
«metafisica influente», per usare una fortunata locuzione di Watkins, che, lungi
dal costituire un guazzabuglio di insensatezze, spiana invece la via ai più significativi sviluppi del pensiero scientifico. Facendo proprie le esigenze di un Burtt l
e di un Koyré di ritrovare le « radici » della scienza moderna, in particolare
della grande sintesi newtoniana « nella metafisica », i popperiani 2 pervengono
cosl a chiedersi se in generale « la metafisica sia essa stessa sottoponibile a critica » e a rispondere « affermativamente » cercando di stabilire « sotto quali condizioni dottrine metafisiche costituiscano quadri [frameworks] sufficientemente
ampi in cui collocare eventuali teorie scientifiche » (Agassi; corsivo nostro). J oseph
Agassi sviluppa tale punto di vista fino ad affermare che « un'idea viene a far
parte della corrente fondamentale della scienza proprio perché trova la sua giusta
collocazione in un quadro concettuale metafisica ». Quei processi che costituiscono la whewelliana « scoperta scientifica » non si comprendono dunque se non
si tien conto dei « catalizzatori » forniti dalle concezioni metafisiche.
Rieccoci dunque alle relazioni tra riflessione epistemologica e storia della
scienza. Ci pare utile ricordare che gli epistemologi esaminati in questo capitolo
vengono a confrontarsi non solo con la filosofia della scienza di taglio neoempirista o con la stessa filosofia analitica, ma anche con quella tradizione a un tempo
storica e filosofica che mira a riproporre, in contesti intellettuali diversi, il grandioso progetto baconiano di una storia dei rapporti fra l'uomo e la natura e in
cui rientra un Whewell come un Condorcet e un Comte e di cui sono epigoni,
pur nella prospettiva del nouveau positivisme della fine dell'Ottocento, anche il
Mach della Meccanica o il Duhem storico della cosmologia. E in un quadro culturale cosl ampio, in cui il termine « storia della scienza » designa una gamma
di studi che può andare dai progetti di un Comte o di un Whewell alla « analisi
concettuale » di un Koyré, dalla ricerca delle « radici metafisiche » care a Burtt
come a Popper alla storia di quelle istituzioni scientifiche che condizionano
« il gioco della scienza », dalla riflessione dello scienziato che ripercorre il cammino della propria disciplina al tentativo dello storico generale di inquadrare
I . È del I 924 il progetto di E. A. Burtt
di riscoprire, in contrapposizione alle usuali presentazioni, « i fondamenti metafisici della scienza
. moderna», come dice il titolo stesso della sua
opera più citata dagli epistemologi anglosassoni,
The metophysical foundations of modern science.
tolo
2 Cfr. anche la
XIV del volume
z8o
www.scribd.com/Baruhk
nota I alla p. 467 del càpisettimo.
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
l'impresa scientifica nel contesto di eventi tecnologici, economici, politici, ecc.,
che va valutato anche il tentativo degli epistemologi che, concordando idealmente con un ricercatore come Medawar sui rischi di una scissione tra ricerca
scientifica e riflessione metodologica nel presente, scorgono un pericolo altrettanto
grave in una scissione tra considerazioni filosofia della scienza e ricerca storica
per quanto riguarda il passato. Per esempio, nel polemico Towards an historiograpf?y oj science (Per una storiografta della scienza, 1963) Agassi non risparmiava né
i classici della storia della scienza (« la storia più razionale e affascinante [... ]
ma oggi [1963] in uno stato desolante») né gli studi contemporanei(« pseudoscolastici e in larga misura illeggibili») e, a prescindere dai riconoscimenti a
Burtt e Koyré, imputava tale povertà intellettuale all'atteggiamento di sfiducia
verso una storiografia metodica. Quella di Agassi era solo reazione verso una
storiografia che, delusa dall'eccessivo schematismo di certe ricostruzioni « razionali», dava esclusivo rilievo all'intelligenza dello studioso e alla sua capacità
di elaborazione personale dei dati storici? Senza dubbio, ma non solo. A sua volta
schematico, ma con notevole incisività, Agassi giustificava però la delusione
verso programmi storiografici ispirati alle metodologie dell'induttivismo (progetto questo risalente per l'autore almeno a Bacone) e del convenzionalismo
(sufficientemente articolato già nell'opera di Pierre Duhem) c prospettava un
programma storiografico alternativo, « più aderente alle reali esigenze dello
storico », basato sul falsificazionismo popperiano, anche se convenientemente
« riveduto e corretto » come avremo modo di precisare nel paragrafo successivo.
Di qui l'interesse che rivestono prospettive del genere per la stessa disamina
del dibattito epistemologico che è al centro di questo capitolo; di qui, in particolare, la rilevanza che assumono le decisioni « rischiose» a)-e) del falsificazionismo, che vanno vagliate alla luce non solo della pratica ma anche della storia della
ricerca scientifica. È per questa ragione che la discussione di questi e altri spunti
del falsificazionismo nei paragrafi successivi, pur senza prendere direttamente
in esame, salvo qualche eccezione, l'immensa letteratura di lingua inglese nel
campo della storia della scienza, riterrà essenziale riferirsi anche alle implicazioni
a livello storiol,raftco delle varie metodologie.l
II·
IL FALSIFICAZIONISMO E
SCOPER'I'A SCIEN'I'IFICA E
LA 'l'ESI DI
DUHEM-QUINE.
INNOVAZIONE 'tECNOLOGICA
Dopo aver rivisto i nodi del falsificazionismo e aver accennato agli sviluppi delle tematiche connesse riprendiamo ora alcuni aspetti della popperiana
I Per quanto riguarda: storia della scienza
e storia della tecnologia nel paragrafo II; storia
della matematica nel paragrafo III; l'influenza
delle cosmologie e delle visioni del mondo sulle
rivoluzioni scientifiche nel paragrafo rv; il ruolo
della metafisica nel paragrafo v; la frattura tra
sostenitori di concezioni diverse nel paragrafo VI;
la possibilità di una teoria storica della conferma
nel paragrafo VII.
z81
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
« corroborazione delle teorie ». Delle formule popperiane per « il grado di .corroborazione » che in un senso del tutto particolare « misurano » quanto le teorie resistono a controlli « severi » si è parlato nel paragrafo v del capitolo XIV del volume settimo; qui vogliamo ricordare che il controllo di una teoria per Popper
non è « severo » se ne viene predetto il medesimo esito sia dalla teoria insieme con
ia « conoscenza di sfondo », sia dalla sola conoscenza di sfondo. A detta di
Popper, « chi è impegnato nella proficua discussione critica di qualche problema, fa spesso affidamento, sia pure inconsapevolmente, su due cose: l'accettazione da parte di tutti del comune intento di raggiungere la verità, o perlomeno di avvicinarvisi, e una comune conoscenza di sfondo [background knowledge], considerevolmente ampia». Sulla «approssimazione alla verità» (e sulla
connessa idea di verisimilitudine di una teoria) torneremo tra poche pagine.
Per la conoscenza di sfondo basterà qui ricordare che Popper vi include tutto
quel che «accettiamo (anche se solo provvisoriamente) [... ] in via non problematica ».
Tale fondamentale nozione in Popper resta però ambigua; come ha osservato John W orral, essa è stata introdotta « per almeno due scopi distinti »:
infatti, 1) indica il complesso di tutti quegli assunti che non appartengono alla
teoria sotto controllo e che pure sono necessari per dedurre conseguenze « controllabili» (per esempio condizioni iniziali e clausole ceteris paribus, cfr. paragrafo r); 2) contemporaneamente Popper se ne serve per eliminare « conferme»
(o «corroborazioni») banali di una teoria, sostenendo che scarso è il merito
di una teoria che si limiti a predire con successo qualcosa che fa già parte della
conoscenza di sfondo. Scrive Popper in Congetture e confutazioni: « Un tratto
caratteristico della situazione in cui si trova lo scienziato, è che la conoscenza
di sfondo aumenta costantemente. Se ne eliminiamo alcune parti, altre, a queste
strettamente legate, resteranno [... ]. L'esistenza di questa conoscenza di sfondo
svolge un ruolo importante in uno degli argomenti che [...] sono favorevoli
alla tesi secondo cui il carattere razionale ed empirico della scienza verrebbe meno
se essa cessasse di progredire [... ]. Un serio controllo empirico è sempre un
tentativo di trovare una confutazione, un esempio contrario. Nella ricerca di
questo dobbiamo servirei della conoscenza di sfondo; cerchiamo sempre, infatti,
di confutare per prime le previsioni più arrischiate, le "conseguenze" [... ]più
improbabili (come già vide Peirce); il che significa che sempre ricerchiamo nei
tipi di luoghi più probabili le specie più probabili di esempi contrari - più probabili nel senso che dovremmo aspettarci di trovarli alla luce della conoscenza di
sfondo. Se una teoria regge a numerosi controlli del genere, allora, in seguito
all'inserimento dei risultati di questi nella nostra conoscenza di sfondo, dopo
un certo tempo possono non sussistere più dei luoghi in cui (alla luce della nuova
conoscenza di sfondo) sia lecito attendersi il verificarsi, con un'elevata probabilità, di esempi contrari. Ma ciò significa che il grado di severità dei controlli
282
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
dimir;misce. Questa è anche la ragione per cui un controllo spesso ripetuto non
sarà più considerato significativo e severo: c'è una specie di legge dei profitti
decrescenti ottenibili da controlli ripetuti (contrariamente a quanto avviene per
controlli che, alla luce della conoscenza di sfondo, sono di tipo nuovo e quindi
possono ancora venir ritenuti significativi).» Questa lunga citazione bene enuclea,
a nostro avviso, il carattere « storico» della popperiana concezione della « conferma ».1
Ma essa non è priva di difficoltà: al momento di controllare [test] una teoria,
vengono impiegate certe teorie « interpretative » o « osservati-ve » (touchstone
theories è l'indovinata espressione coniata da Imre Lakatos) in modo «non problematico »; il falsificazionista popperiano « divide il corpo della scienza in
due, in quel che è problematico e in quel che non lo è» (Lakatos). Certo Popper
ammette che, della conoscenza di sfondo, « pochi tratti appaiono assolutamente
non problematici in tutti i contesti »: ogni elemento particolare «può venir messo
in discussione in ogni momento, soprattutto se sospettiamo che la sua accettazione
sia responsabile di qualche nostra difficoltà ». Ma « la maggior parte della vasta
conoscenza di sfondo che usiamo costantemente in ogni discussione informale,
resta necessariamente fuori discussione, per ragioni pratiche» [corsivo nostro].
Quest'ultima richiesta, in quanto « preliminare » al « non ripartire da zero »
nella critica, per Popper si concilia tranquillamente con quell'atteggiamento
« critico e razionale » che egli vuole alla base della sua filosofia; essa suona però
alle orecchie dei critici «irrazionale e dogmatica» (Lakatos). Nell'eseguire
un esperimento, infatti, « dipende solo da una nostra decisione metodologica
quale teoria considerare come pietra di paragone e quale invece sottoposta al
controllo; ed è questa decisione che determina il modello deduttivo in cui viene
applicato il modus tollens: un " falsificatore potenziale " B di una teoria T1 può
certo confutare T1 alla luce di una teoria interpretativa T2; ma lo stesso asserto
B, considerato come un " falsificatore potenziale" di T2 , una volta ammessa
T1 come pietra di paragone, confuta T2 » (Lakatos). Possiamo riformulare l'intera questione servendoci della terminologia introdotta nel paragrafo IV del capitolo XIV del volume settimo: se il falsificazionista adotta un modello monoteorico, considera la teoria come esplicativa e la sottomette al verdetto dei « fatti »
(in caso di conflitto, la teoria verrà respinta) oppure considera la teoria come
interpretativa e al suo verdetto sottomette i « fatti » (in caso di conflitto, i « fatti »
verranno respinti come « patologie »); se irwece adotta un modello pluralistico,
in cui più teorie sono in gioco, ha una gamma più ampia di mosse possibili.
Ma con questo slittamento da un falsificazionismo « ingenuo » a uno maggiormente « sofisticato» sorge un « nuovo » problema metodologico: a quale teoria
verrà applicato il modus tollens nel caso di una « confutazione »? Il verdetto dello
sperimentale non darà indicazioni: si limiterà a indicare un'incompatibilità delle
1
La concezione « storica» della conferma verrà ripresa nel paragrafo vu.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
varie teorie (esplicative o interpretative che siano) che svolgono una qualche
parte nel controllo.
Questo« nuovo» problema altro non è che la questione sollevata dalla cosiddetta tesi di Duhem-Quine, in cui incappa il falsificazionista che abbandona come
« troppo povero » (Lakatos) il modello monoteorico e opta per una soluzione
pluralistica. Già nel 1894 1 e quindi con maggior respiro nella Théorie physique,
criticando l'experimentum crucis, Duhem aveva concluso che «cercare di separare ciascuna delle ipotesi della fisica teorica dagli altri presupposti su cui tale
scienza si fonda, allo scopo di sottoporla isolatamente al controllo dell'osservazione, è perseguire una chimera» in quanto la realizzazione e l'interpretazione
di qualsiasi esperienza «richiedono l'adesione a un complesso di proposizioni
teoriche>>: l'unico controllo sperimentale «consiste nel confrontare il sistema
globale della teoria fisica con l'intero complesso delle leggi sperimentali». Da parte sua
Quine, in Two Dogmas of empiricism (Due Dogmi dell'empirismo), citando il passo
di Duhem qui riportato, ribadisce che « i nostri asserti sul mondo esterno vengono sottoposti al tribunale dell'esperienza sensibile non individualmente, ma
solo come un insieme solidale ». Di più, « qualunque asserzione può essere
considerata vera qualunque cosa succeda, se facciamo delle rettifiche sufficientemente drastiche in qualche altra parte del sistema [... ] analogamente, per converso, nessuna proposizione è immune, per le stesse ragioni, da correzioni.
Infine, il « sistema » può coincidere con « la scienza nella sua globalità »: un'esperienza recalcitrante può venir accomodata modificando a piacere alcune fra
le tante valutazioni alternative che sono comparse nei vari settori del sistema
(ed è inclusa la possibilità di valutare la stessa esperienza recalcitrante in modo
diverso).
Al falsificazionista si può dunque obbiettare che basta un po' di immaginazione per salvare qualunque teoria dalla « confutazione » con qualche opportuno
accomodamento nella conoscenza di sfondo in cui ,è inserita? In Quine l'argomento è rivolto esplicitamente solo contro «il dogma del riduzionismo [che]
sopravvive nella convinzione che ciascuna proposizione, presa di per sé e isolata dalle altre, si possa confermare o infirmare », contro cioè uno di quei « dogmi
dell'empirismo», da cui Popper ha invece preso accuratamente le distanze.
Inoltre, pur senza addentrarci in una trattazione esauriente delle differenze che
indubbiamente sussistono tra Duhem e Quine spesso sbrigativamente accomunati come sostenitori di una « concezione olistica della scienza » (come del resto
sembra suggerire la stessa etichetta «tesi di Duhem-Quine »), sarà bene ricordare che, mentre per Duhem, se pur un esperimento da solo non può mai condannare una teoria isolata, una selezione razionale tra le teorie è ancora possibile
1 In un articolo dal titolo Quelques réf!exions
au stifet de la physique expérimentale (Riflessioni a
proposito della fisica sperimentale, pubbli<;ato nel lu-
glio 1894 sulla « Revue cles questions scientifiques »),
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
impegnando « senso comune » e « accortezza » o addirittura un buon 1st1nto
metafisica in grado di guidarci verso «un ordine sicuro, supremo »,1 per Quine,
che si rifà alla tradizione pragmatistica di William James e di C.I. Lewis, si
può solo concludere che « ciascun uomo ha una certa eredità scientifica oltre
che una ininterrotta diga di stimoli sensoriali; e le considerazioni che lo guidano
a piegare la sua eredità scientifica perché si adatti agli incessanti dettami dei
sensi sono, se razionali, di natura pragmatica ». Sembra corretto 2 distinguere
dunque due interpretazioni della «tesi di Duhem-Quine » (senza per altro attribuire rigidamente la prima al convenzionalista francese e la seconda al pragmatista
americano): a) una interpretazione debole, che asserisce (solo) l'impossibilità di
un successo sperimentale diretto contro un obiettivo teorico ben definito e
la possibilità di concepire la scienza in un numero indefinito di modi differenti;
b) un'interpretazione forte, che invece esclude qualsiasi regola di selezione razionale fra le alternative. Ciò premesso, la nostra domanda può venir riformulata
in modo da dar luogo a due quesiti differenti: a) il falsificazionismo metodologico è compatibile con l'interpretazione debole della tesi di Duhem-Quine?
b) è compatibile con la tesi forte? In questo paragrafo ci limiteremo alla prima
domanda, mentre nel paragrafo v ritorneremo sull'intera questione.
Anche così rispondere non è facile. Popper nel contrapporsi alla tradizione
del convenzionalismo classico (di Poincaré e di Duhem in Francia, di Eddington
in Inghilterra, di Hugo Dingler in Germania) e in particolare nel proporre il
bando degli « stratagemmi convenzionalistici » non nega la tesi convenzionalistica secondo cui teorie e asserti fattuali possono sempre armonizzarsi con l'aiuto
di ipotesi ausiliari; piuttosto richiama l'attenzione sull'esigenza, sentita in modi
diversi sia da Poincaré che da Duhem, di tracciare una qualche linea di demarcazione tra accomodamenti scientifici e· pseudoscientifici, tra mutamenti teorici razionali e irrazionali. Di qui il riconnettersi di Popper a tutta quella tradizione intellettuale che tende a distinguere il recupero di una teoria apparentemente « confutata » mediante ipotesi ausiliari che soddisfano alcune condizioni ben definite
(esplicitabili nell'ottica popperiana mediante i requisiti di accettabilità! e accettabilità2, cfr. oltre p. 319) dal salvataggio mediante ipotesi inammissibili (in
quanto non soddisfacenti tali condizioni) o ipotesi ad hoc. Orbene la tesi di
Duhem-Quine nell'interpretazione debole colpisce certo un falsificazionismo
dogmatico che mira a una conclusiva refutazione in cui è ass~nte quella campoI È quest'ordine cui rimanda, nell'opera
del 1906 e ancor più esplicitamente nella seconda
edizione del 1914 (cfr. in particolare l'Appendice
dal significativo titolo La physique du crqyant, La
fisica del credente), la duhemiana «classificazione
naturale delle scienze ».
2. In particolare L. Laudan, nel suo Grunbaum on « the Duhemian argument » ( Grunbaum e
la «tesi di Duhem ») pubblicato nel 1965 in
« Philosophy of science » (XXXÙ, pp. 2.95-2.99) ha
osservato come Griinbaum nel trattare « la tesi
di Duhem » faccia piuttosto riferimento a Quine,
fraintendendo così gli argomenti del convenzionalista francese. La proposta di Laudan di distinguere attentamente le due versioni della « tesi di
Duhem-Quine » è stata quindi ripresa da Imre
Lakatos.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
nente metodologica che in Popper ha un ruolo così rilevante. 1 Ma questi ritiene
di concludere che la critica duhemiana all' experimentum crucis neghi « la possibilità
di esperimenti cruciali, [solo] perché pensa a essi come a verificazioni », ma non
deponga affatto contro « la possibilità di esperimenti cruciali falsificanti».
Asserzioni come quest'ultima e successive prese di posizione contro « il
dogma olistico » in cui Popper nega che il convenzionalista francese abbia prodotto validi argomenti contro la falsificazione restano però, a nostro parere, vaghe
e poco soddisfacenti. Per esemplificare riprendiamo il caso del paragrafo precedente, ave una teoria con le opportune condizioni iniziali e apposita clausola
ceteris paribus appare in conflitto con un'esperienza recalcitrante. Il falsificazionista solo grazie a opportune « convenzioni >> riusciva a elevare l'anomalia
al rango di esperimento cruciale falsificante. In questo modo realizzava, per dirla
con Popper, « che (come avvertì Poincaré nel caso della meccanica di Newton)
la teoria non è altro che un insieme di definizioni implicite o convenzioni sussistenti fino a che di nuovo compiamo qualche progresso e [che] confutandola,
si ristabilisce incidentalmente il èontenuto empirico che aveva perduto ».2 Ciò
direbbe poco, però, a un convenzionalista duhemiano. Duhem, come sottolinea
Joseph A gassi, « non ha alcun interessé per la confutazione. Ha esortato i ricercatori, come ha fatto ogni buon filosofo dai tempi di Bacone, a non ignorare le
confutazioni, a non tramutarsi in dogmatici [... ]. Ma non c'è alcun bisogno di
esortare chi mira alla scoperta scientifica a tener conto di una confutazione più
di quanto, si debba esortare un cacciatore in cerca di cibo a non ignorare l'ani:..
male che ha appena ucciso ». La duhemiana libertà « di non tener conto alcuno
dell'esperienza » è una componente di rilievo della impresa scientifica, nella fase
della costituzione di « reti » destinate a « catturare » i fatti, ma non esclude
che l'elaborazione teorica, intesa « come un tutto » possa venire sottoposta al
verdetto dello sperimentale in una fase successiva. Un popperiano (anche se
« dissidente » come Agassi) può sostenere allora che la ricetta duhemiana « priva
l'impresa scientifica della sua maggior attrattiva; [che] per Duhem non c'è più
scienza pura e quello che noi chiameremmo scienza si ridurrebbe in parte a
matematica pura e in parte a matematica applicata includente le generalizzazioni
empiriche riformulate nel linguaggio della matematica »; che resta aperta la
questione delle generalizzazioni empiriche stesse che devono risultare in un qualche modo « sicure », e che la garanzia di tale attendibilità va cercata osservando
attentamente le applicazioni delle prime e più caute generalizzazioni e proceI Andrà accuratamente distinta la « confutazione» [rifutation] popperiana da una «falsificazione definitiva » [disprooj, che in genere si
rende in italiano con « refutazione »], come Popper stesso fa nella Logica della scoperta scientifica.
Mirare a quest'ultima è proprio di un « falsificazionismo dogmatico » che alcuni neopositivisti
hanno attribuito all'autore della Logica ma che
per Lakatos e la stragrande maggioranza dei popperiani è estraneo allo spirito del « razionalismo
critico».
2 E Popper aggiunge: «De mortuis nihil
nisi bene: il carattere empirico di una teoria confutata è certo e risplende senza macchia. »
286
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
dendo quindi per «ascesa induttiva » (per usare un termine caro a Whewell).l
Ci si deve dunque affidare in ultima istanza al successo tecnologico, alla « pratica », la cui rilevanza viene a tratti sottolineata da Duhem, e, con decisione
maggiore, anche dal Poincaré di La valeur de la science? Il convenzionalista
classico - almeno stando alla caratterizzazione di Agassi - tende cosl a ridurre
la specificità delle teorie empiriche a vantaggio dei due poli estremi dell'impresa
scientifica, la matematica da una parte, la tecnologia dall'altra. Come mostra lo
stesso polemico riferimento alle idee di Poincaré circa la meccanica newtoniana,
per Popper invece resta (o è possibile ripristinare) una specificità della scienza
empirica (che il suo criterio di demarcazione si preoccupa di definire) e, più
globalmente, «si apprende dall'esperienza» nella misura in cui si identificano,
come nota Agassi, « scoperta » e « confutazione ». Ma già in un caso estremamente semplificato e molto schematico come quello delineato nel paragrafo 1
tale identificazione richiede decisioni metodologiche « rischiose ». Riferirsi come
termine di confronto alla tesi di Duhem-Quine nell'interpretazione debole evidenzia, se non altro, l'esigenza di controllare in qualche modo tali «rischi».
Non pochi epistemologi coinvolti nell'articolato dibattito sulle idee popperiane hanno affrontato la questione almeno fin dalla prima edizione inglese
(1959) della Logica della scoperta scientifica. I limiti del presente lavoro ci impediscono ovviamente di menzionare tutti i contributi e ci impongono di riassumere
le direttive generali delle varie argomentazioni: i falsificazionisti tendono a ribadire che, di fronte a un insieme non coerente di asserti tratti in vario modo dal
« corpo della scienza », per prima cosa occorre scegliere fra di essi 1) una teoria da
sottoporre al controllo (una specie di noce); z) un asserto in qualche modo« consolidato» (una specie di martello); quel che resta costituirà una sorta di «conoscenza di sfondo» (una specie di incudine) che nessuno vorrà contestare: per poter
mettere la noce sotto i denti, occorre in qualche modo « rinforzare » il « martello» e l'« incudine», in modo che ci permettano di rompere la« noce». Fuor
di metafora, questo è lo schema sottostante alla progettazione di un esperimento
cruciale negativo. Ma quali sono i criteri della scelta preliminare che permette una
suddivisione del genere? Se i popperiani ribattono che di nuovo si tratta di
«tirare a indovinare» [guess] si può rispondere che ben tenue appare il confine
tra il rischio controllato e l'arbitrarietà. Naturalmente questa può venire ridotta
in certi casi e con opportuni metodi: per esempio, Adolf Griinbaum in alcuni suoi
contributi degli anni sessanta2 caratterizzava il «martello» e l'« incudine»
come asserti dotati di alta probabilità a posteriori: « rinforzati » quindi (in un
senso plausibile del termine) in modo da poter funzionare da «schiaccianoci ».a
1 Osserva a questo proposito
popperiano « eterodosso », Lakatos:
venzionalista Duhem e l'induttivista
differiscono meno di quanto si pensa
vista.>>
un altro
«Il conWhewell
a prima
2 Si rimanda alla bibliografia del capitolo
posta alla fine di questo volume.
3 Sull'utilizzazione del teorema di Bayes in
questo contesto e sulle riserve dei popperiani
ritorneremo nel paragrafo VII.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Non entriamo qui nel merito di questa e di analoghe proposte; ci basta sottolineare che i cospicui esempi storici da Griinbaum e da altri autori addotti a favore di (o contro) singole proposte metodo logiche non solo indicano come gli
epistemologi guardino con sempre maggior interesse alla storia della scienza
come a un utile termine di confronto, ma anche l'urgenza di tale riscontro per
lo stesso falsificazionismo, se la Logica della scoperta scientifica in qualche modo
vuol essere rispondente all'effettiva pratica scientifica e non limitarsi alla proposta di standards inaccessibili, di un astratto «codice d'onore». Griinbaum,
come altri, ripropone allora il problema della attendibilità (o sicurezza) di certe
componenti del modello deduttivo in cui articolare la critica; così facendo si
colloca entro una problematica che ha una tradizione tanto lunga almeno quanto
la storia del convenzionalismo. « Ci fidiamo » delle varie componenti in modo
diverso; siamo disposti a comprometterci con esse in grado diverso e, pur
ritenendo « che sia impossibile una falsificazione che escluda l'eventualità di
una successiva riabilitazione » (Griinbaum) riteniamo razionale affidarci a tali
ineguali distribuzioni della nostra « sicurezza » in vista del controllo critico
delle teorie, come del resto avvertiva, ben prima del falsificazionismo metodologico, Henri Poincaré, quando nel capitolo di La science e l' hypothèse dedicato
« alle ipotesi in fisica », osservava, rispondendo implicitamente agli argomenti
duhemiani del 1 894, che anche se resta la « nostra unica fonte di certezza »,
l'esito dell'esperimento non ci indica «quale delle nostre premesse occorre rivedere » ed è necessario tuttavia « porre cura nel distinguere tra i differenti tipi
di ipotesi », distinguendo quelle « completamente naturali, cui non possiamo
sottrarci [... ] le ultime che si debbono abbandonare» da quelle più rischiose
e meno attendibili [corsivi nostri]. Tra l'altro, va osservato che Poincaré era già
ben consapevole che certe « premesse », come per esempio una clausola ceteris
paribus, non sempre possono venir unite agli altri asserti mediante la semplice
congiunzione l e metteva in guardia (con un appello al « rigore » della « fisica
matematica») dalle «ipotesi [più] pericolose», quelle assunte «tacitamente e
inconsapevolmente» (una tematica quest'ultima che Imre Lakatos ha ripreso nel
contesto della matematica, come vedremo nel paragrafo successivo).
Ma, poiché siamo in contesto falsificazionista, non dimentichiamoci di
una nozione chiave per l'oggettivismo popperiano, quella di verisimilitudine. 2
Congetture circa la verisimilitudine delle varie componenti del modello deduttivo non sarebbero già sufficienti a razionalizzare il « gioco delle parti » che sottende l'esperimento cruciale falsificante? O almeno tale «idea regolativa » non
dovrebbe in qualche modo evitare quell'appiattimento della scienza pura a
matematica o a tecnologia che Agassi paventa? Prima di rispondere a tali interI Il caso del paragrafo I (il perielio di Mercurio) è stato presentato dunque in una forma
estremamente semplificata e schematica.
2 Per la verisimilitudine di una teoria t in-
tesa come « misura » o « quasi-misura » della differenza tra il contenuto di verità e il contenuto
di falsità di t cfr. il paragrafo IV del capitolo XIV
del volume settimo.
z88
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
rogat1v1, occorre sottolineare che, come accadeva per la « corroborazione » e
la « conoscenza di sfondo », anche la nozione di verisimilitudine è ambigua.
Tale termine, infatti, ha almeno due diversi significati: I) può infatti venir impiegato per significare l'intuitiva somiglianza alla verità. [truthlikenessj della teoria;
2) può venir usato per significare una differenza fra le conseguenze vere e quelle
false di una teoria, conseguenze che, se pur non si possono mai completamente conoscere, si possono almeno congetturare [guess]. Popper usa «verisimilitudine » prevalentemente nell'accezione tecnica z). In una «nota storica
sulla verisimilitudine » aggiunta nel I964 e nelle «nuove considerazioni sulla
verisimilitudine » aggiunte nel I968 a Congetture e confutazioni, nel «rivolgere
l'attenzione alla distinzione tra verisimilitudine da un lato e probabilità (nelle
diverse accezioni) dall'altro» Popper fornisce non poche citazioni pertinenti a
tale accezione, mentre pare trattare altrove l'accezione I) come «~n'idea pericolosamente vaga e metafisica », in questo condividendo le « apprensioni » manifestate in Word and object (Ptfrola e oggetto) da Quine quando questi critica l'uso
di Peirce del concetto di accostamento alla verità. Ma se le cose stanno cosl,
si può subito osservare che il cardinal Bellarmino (almeno il Bellarmino di Duhem, mitico precursore del convenzionalismo) avrebbe potuto benissimo concordare con « l'oggetti vista » Popper che la teoria copernicana aveva molta « verisimilitudine » nel senso tecnico z), e contemporaneamente negare che avesse
verisimilitudine intuitiva, cioè verisimilitudine nel senso I). Molti «strumentalisti » sono « realisti » o « oggettivisti » nel senso che concordano che la « verisimilitudine » popperiana delle teorie scientifiche (probabilmente) sta crescendo; l
ma non sono realisti o oggettivisti nel senso intuitivo, cioè di ammettere, poniamo, che il campo einsteiniano sia intuitivamente « più vicino » allo schema
dell'universo di quanto lo fosse l'azione a distanza dei newtoniani. Se le cose
stanno così non hanno ragione Thomas Kuhn e Paul Feyerabend quando considerano semplice « retorica » i richiami popperiani al fatto che « ci approssimiamo alla verità»? Nel capitolo dedicato alla «rivoluzione einsteiniana»
George Gamow nel suo agile Biography of physics (1961; trad. it. Biografia della
fisica, I963), a proposito della teoria che avrebbe dovuto «unificare su una comune base geometrica il campo elettromagnetico e quello gravitazionale », esclama: « [Einstein] sarà certamente in paradiso e saprà se aveva avuto ragione
o torto nel volere geometrizzare a ogni costo la fisica! »; alla luce di quanto detto
sopra, non gli si può ribattere che le nostre teorie sono tutte « parimenti assurde
e inverisimili per la mente divina » (Lakatos)? Fuor di metafora: la verisimilitudine nel senso di Popper riabilita, in un certo senso, l'idea di uno sviluppo cumulativo
della scienza; la forza motrice di tale sviluppo è però costituita da un conflitto rivoluzionario nella verisimilitudine intuitiva; orbene si può identificare lo « scopo della scienza »
I A una critica alla verisimilitudine popperiana in questo senso tecnico ~: più ristretto
accenneremo nel paragrafo conclusivo di questo
capitolo.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
con l'accrescimento della verisimilitudine popperiana, ma questo non coincide necessariamente con l'accrescimento della verisimilitudine classica. Un elemento chiave (the
drivingforce, «la forza motrice», scrive addirittura Lakatos) del progresso scientifico è quindi eliminato dalla ricostruzione razionale di stampo popperiano, se
Popper è conseguente nel condividere le perplessità quineane.
Altrimenti: supponiamo che la nozione « empirica » di verisimilitudine proposta da Popper assorba davvero le questioni centrate sulla originaria verisimilitudine « intuitiva »: si chiede allora Lakatos: « Esistono davvero dei gradi di verità? Non è forse pericolosamente fuorviante parlare della verità nel senso di
Tarski come se questa fosse posta in una specie di spazio metrico o perlomeno
topologico, per affermare sensatamente di due teorie, t1 e t2, che, poniamo, t2
è progredita oltre II? » Obbiezioni del genere per Lakatos non sminuiscono certo
« l'importanza » dell'idea popperiana, però mostrano come non sia lecito sostituire la verisimilitudine popperiana alla verisimilitudine intuitiva. A sua volta
Kuhn, ben attento proprio agli sviluppi della teoria fisica tra Ottocento e Novecento, ha buon gioco a ribadire, contro Popper, che «dire, per esempio, della
teoria [einsteiniana] di campo che essa si accosta alla verità più di una teoria più
vecchia della materia e della forza vorrebbe dire, a meno che le parole non siano
usate in modo stravagante, che gli elementi ultimi costitutivi della natura sono
più simili a campi che a materia e a forza». Ma non si cade in questo modo nel
classico equivoco che consiste nell'identificare (o perlomeno nell'« avvicinare»)
ciò che è « ultimo » solo per un certo stadio della conoscenza con the ultimate
nature, « la natura ultima» delle cose, cara ai positivisti anglosassoni della fine
dell'Ottocento?
Nei paragrafi IV e v rispettivamente riprenderemo i punti di vista di Kuhn
e di Lakatos; in questo paragrafo ci limitiamo ad accennare che lo stesso A gassi
confessa « qualche perplessità » circa la popperiana « approssimazione alla verità ». Ma non è possibile, restando a livello metodologico e prescindendo da
apprezzamenti epistemologici, limitarsi a richiedere che lo « schiaccianoci » sia
costituito da un sistema di teorie « più corroborate » ma « di un minor livello
di universalità» della «noce», cioè della teoria sotto controllo, come suggerisce
Popper nell'ultimo capitolo della Logica del 1934? Per Agassi questo è solo un
modo di eludere il problema: la prassi scientifica non segue il cammino «quasiinduttivo » prescritto da Popper, la storia della scienza depone contro l'adeguatezza della proposta della nozione di «corroborazione» come explicatum dell'idea
tradizionale di « conferma». Nella storia della chimica, argomenta Agassi, ci
imbattiamo per esempio nella « confutazione » della teoria di William Prout T
(« tutti gli atomi sono composti di atomi d'idrogeno e quindi i "pesi atomici"
di tutti gli elementi chimici devono essere esprimibili in numeri interi ») mediante
le ipotesi « osservative» falsificanti addotte da J.S. Stas R « il peso atomico del
cloro è 3 5, 5 »; ma, come è noto, è stata T a prevalere su R, cioè la teoria a più
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
alto livello di universalità e meno corroborata su quella meno universale e più
corroborata. Dobbiamo allora concludere che un grande conflitto della chimica
si è risolto in modo irrazionale? O dobbiamo invece abbandonare la razionalità
falsificazionista proposta da Popper? Non c'è bisogno di ricorrere a tali estremi
per A gassi: la sua ricetta è falsiftcazionismo senza corroborazione. Ciò è per il nostro
autore ancora nello spirito dell'insegnamento popperiano: « nel nucleo [della
Logica popperiana] non c'è quasi nulla di esplicito circa la corroborazione, cioè
circa il fallimento dei tentativi di confutare un'ipotesi; il cuore [del falsifìcazionismo] si incentra esclusivamente sul successo delle confutazioni delle ipotesi
e solo tale tipo di successo è autentico apprendimento dell'esperienza». È in
questo modo che Popper ha risolto negativamente l'humeano problema dell'induzione (a cui va per altro affiancata l'idea regolativa dell'approssimazione
progressiva alla verità); quanto al più generale problema kantiano della demarcazione, « nulla hanno a che farvi i gradi di corroborazione »: come gli studi
antropologici hanno ampiamente mostrato, anche concezioni magiche che usualmente releghiamo nella « pseudoscienza », possono venir corroborate, possono
portare a pratiche efficaci, possono aver successo tecnologico; ma il successo
nella scienza pura non coincide, come vorrebbe ancora certo convenzionalismo
con quello della tecnologia. In conclusione la linea di demarcazione tra « scienza
e non scienza >> è ancora la falsificabilità; ancora il successo in questo particolare
tipo di impresa è la riuscita di un esperimento cruciale falsificante; ancora il falsificazionista si assumerà tutti i rischi di « rafforzare » in un qualche modo le
leve del suo schiaccianoci se vorrà eludere gli argomenti di Duhem e non perdersi nei meandri di un pesante sistema di ipotesi ad hoc, ma non sarà più costretto
a rendere un omaggio « non sentito » alle teorie « corroborate » (e a bollare
quindi come irrazionale l'abbandono di R a vantaggio di T nell'esempio sopra
considerato). Non c'è sviluppo cumulativo nella scienza: la ridda [mess] delle
ipotesi (falsificabili) in lotta tra loro non si tramuta mai (né grazie alla neopositivista teoria della conferma né grazie alla popperiana teoria della corroborazione)·
in un patrimonio scientifico dotato di una qualche« stabilità». Science in flux, « scorrimento continuo »: questa è la caratterizzazione dell'impresa scientifica che
Agassi ritiene di poter legittimamente derivare sia dal « nucleo » della metodologia popperiana sia dallo studio spregiudicato delle grandi svolte del pensiero
scientifico, incluso quello del Novecento ave l'apporto di un Einstein forse
più di ogni altro ha mostrato che l'atteggiamento critico nell'impresa scientifica
può a buon diritto concludere che « nulla è stabile ».
Questa caratterizzazione della scienza pura costituisce per Agassi anche
la via per dirimere la questione della legalità delle generalizzazioni empiriche.
La soluzione adottata dall'empirismo radicale di Mach e condivisa da certo convenzionalismo classico («considerare una generalizzazione empirica puramente
come un resoconto osservativo condensato»), non è accettabile, in quanto
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
la scienza perde tutto il suo potere predittivo: se infatti ci arrischiamo a « proiettare nel futuro » una qualche generalizzazione empirica, nulla possiamo aspettarci della verità o della falsità delle nostre predizioni. Wittgenstein soleva dire
che « il sole sorgerà domani » è una mera ipotesi: la logica nulla ci dice della
verità o della falsità di un'estrapolazione, ma, insiste Agassi, «tutti, di fatto,
continuiamo a estrapolare ». Né possiamo concedere alla psicologia di ridurre le
motivazioni di fondo dello scienziato applicato e del tecnologo a pure « credenze
animali», ché in questo modo «spiegheremmo l'estrapolazione rendendo ogni
estrapolazione egualmente irrazionale ». Ma di fatto constatiamo che « certe estrapolazioni hanno più senso di altre »: una logica, non più « della scoperta scientifica » ma « dell'innovazione tecnologica », che miri cioè a rendere conto non
« della crescita della conoscenza », ma del progresso della tecnica e del conseguente potenziamento delle forze produttive, si trova così di fronte a quello che,
riprendendo Nelson Goodman, Agassi chiama «problema di Goodman» :1
« cosa distingue la previsione Lforecast] razionale da quella non razionale? A
tale domanda si deve preliminarmente rispondere in vista dell'intervento razionale in campo tecnologico ». Secondo Agassi il problema è centrale per la
versione strumentalistica del convenzionalismo (non a caso Poincaré ribatteva
a Le Roy che la sua radicalizzazione del convenzionalismo non discriminava tra
buone e cattive estrapolazioni). Ma la questione non può nemmeno essere elusa
dal razionalismo critico che si presenta come la « terza via » tra essenzialismo e
strumentalismo: A gassi trova sostanzialmente inadeguate le tesi popperiane
secondo cui: a) nella tecnologia (per esempio nel settore della ricerca spaziale)
si preferisce impiegare una teoria confutata (nell'esempio, poniamo, la meccanica newtoniana) piuttosto che una teoria non confutata (nell'esempio, poniamo,
la meccanica relativistica); e b) in questo consisterebbe la specificità della tecnologia
rispetto alla scienza (nel popperiano «gioco della scienza [pura] »invece le teorie
confutate vengono «scartate»). Tali tesi non danno lumi circa la questione
« se l'impiego di una teoria confutata nella tecnologia sia o no razionale »: la
filosofia popperiana della tecnologia è carente e Agassi non ha dubbi su come
colmare la lacuna. La netta separazione implicita in Popper e Watkins, tra scienza
pura da una parte, applicazione e tecnologia dall'altra, 2 per Agassi va esplicitamente rinforzata, a costo di privare « l'ideologia della scienza » di alcuni dei
suoi valori più rilevanti. C'è un brano di A gassi, che riteniamo opportuno
riportare pressoché integralmente. « A causa dei precedenti religiosi della scienza
moderna, si è creduto quando i copernicani hanno scacciato l'aristotelismo dal
corpo delle credenze [beliifs] affermate, che qualche altra dottrina l'avrebbe
dovuto sostituire e si è dato per scontato che l'unico modo di sostituire l'aristotelismo come credenza affermata era sostituirlo affermando un'altra credenza;
I Cfr. N. Goodman, Fact, fiction and forecast (Fatto, finzione e previsione, I95 5).
2 Cfr. il paragrafo v del capitolo
volume settimo.
www.scribd.com/Baruhk
XIV
del
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
s1 e pensato poi o che tale credenza alternativa fosse fondata scientificamente
oppure che semplicemente si fosse sostituito un dogma all'altro. C'è molta
sensatezza in quest'ultimo punto di vista: oggi come allora, esistono certo cose
come le dottrine affermate; ma stabilire una dottrina rientra nell'istituzione di
un certo numero di pratiche sociali. [... ] Non ci si pone mai per esempio, il
problema di quanti inglesi credano nella religione evangelica prima che si sia
disposti ad ammetterla come religione di stato. Il campo della credenza stabilita
è materia di tecnologia sociale; e quindi, nella peggiore delle ipotesi, materia di
tradizione, di capriccio, nella migliore, di tecnologia razionale o scientifica,
ma non di scienza pura» [corsivi nostri]. Dobbiamo allora rinunciare, conclude
Agassi, a quel valore che usualmente si chiama « attendibilità» o « affidabilità »
[reliabili~y] delle teorie scientifiche anche se « da molti filosofi è stato considerato
il contributo più rilevante dato dalla scienza all'umanità »? In un certo senso,
sì: si tratta solo di uno dei « vantaggi extraintellettuali che la scienza offre
e che rientrano nell'ambito della tecnologia scientifica». Conseguentemente, è
doveroso « restringere il campo della scienza il più possibile alla sola spiegazione
fenlightenment] » [corsivo nostro]. Si badi, Agassi «non neg[a] che in qualche
modo l'affidabilità riguardi la scienza pura», ma si limita a contestare« due ruoli
chiave tradizionalmente attribuiti alla affidabilità >> (che rientrano semmai nella
caratterizzazione della tecnologia scientifica): I) « l'affidabilità di una teoria
nelle applicazioni pratiche non riguarda la scienza pura>>; z) «l'idea che credenze
erronee vizino la ricerca è dubbia, poiché non sappiamo cosa sia una credenza
corretta e come credenze erronee influenzino la ricerca >>. È questo, per Agassi,
l'esito coerente della rivolta intellettuale popperiana contro la concezione induttivista della scienza: mentre « tradizionalmente il corpo della scienza era visto
come un corpo di teorie affermate, per Popper consiste invece di congetture
confutabili», sicché mentre « per Bacone e i suoi seguaci il progresso della scienza
consisteva nella crescita dell'insieme delle credenze affermate », per chi inforchi
gli occhiali di Popper è « rivoluzione ininterrotta >> di audaci congetture e di
spregiudicati tentativi di confutazione. A questo punto, il lettore può, prima
facie, cogliere « una tendenza » nella riflessione sulla questione scienza (tecnologia da Bacone ai nostri giorni. Abbandonato insieme con l'ideale induttivistico
anche il nesso tra crescita della conoscenza scientifica e progresso tecnologico,
il falsificazionista si ritrova epigono di una tradiziol).e intellettuale risalente
almeno ad Auguste Comte e che potremmo chiamare antitecnologica in modo
sofisticato. Come il fondatore del positivismo si guardava bene dal contestare
alla tradizione « baconiana >> che uno dei compiti principali della scien7.a fosse
quello di accrescere il potere dell'uomo sul mondo, così Agassi non nega affatto
la rilevanza dell'impresa tecnologica, l'interesse del problema dell'affidabilità
[reliability, assurance] per una filosofia razionale dell'azione. Movendo dall'assunto « scienza d'onde previsione; previsione d'onde azione », Com te poneva
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
una netta discriminante tra le scienze e le tecniche subordinando le seconde alle
prime. Tale ruolo ancillare della tecnologia era certo logica conseguenza della
caratterizzazione comtiana del sapere scientifico, sicché ,gli innegabili successi
conseguiti dalla tecnologia contemporanea al fondatore del positivismo francese non solo non creavano alcun imbarazzo ai metodologi comtiani, ma anzi
apparivano loro ulteriori corroborazioni dell'indiscutibile validità dei dettami
impartiti al tecnico dallo scienziato puro. I convenzionalisti della fine dell'Ottocento adottando un approccio « storico-critico » hanno impugnato la comtiana
subordinazione della tecnica della scienza pura, ponendo in luce il carattere tutt'altro che assoluto dei principi della fisica e delle altre discipline empiriche come
(almeno in certi casi) degli stessi postulati matematici; di più, come bene esemplifica la disamina di Poincaré della meccanica newtoniana in La science et l' hypothèse e lo stesso excursus di Mach nella Meccanica, se pure l'accettazione dei« principi» è frutto di « libero accordo », essa deve pur tener contò dei bisogni « pratici » e delle esigenze tecnologiche (è la considerazione di tali stimoli all'impresa
scientifica che permette di ribadire, pur in un'ottica convenzionalista, la genesi
empirica di una data « rete » teorica). Ma, come Duhem e Le Roy seppur con
accenti diversi insegnano in questo riprendendo Comte, 1 l'impresa scientifica non
si confronta mai con fatti « bruti », ma con « fatti » « impregnati di teorie »;
uno schema teorico, pur rozzo quanto si vuole, è dunque preliminare sia alla
progettazione dell'esperimento come allo stesso successo tecnologico. Popper
e Agassi riprendono dunque un tema comtiano indirettamente, attraverso cioè
questa mediazione dei convenzionalisti classici, a molte tesi dei quali si rivolge
direttamente la Logica popperiana: scoperte teoriche precedono necessariamente
le innovazioni tecnologiche; di più, le modalità della « logica della scoperta
scientifica » non sono le stesse delle modalità della « logica della invenzione tecnologica » che mira a quelle operazioni di raffinamento che consentono di stare
entro 1 margini di errore consentiti dalle esigenze sociali che motivano la pianificazione degli opportuni interventi tecnologici.
Agassi, ovviamente, non nega che sotto questo profilo la tecnologia possa
r Scrive infatti Comte nella r lezione del
Corso di filosofia positiva: «Tutti gli spiriti acuti
ripetono, dopo Bacone, che non vi sono conoscenze reali al di fuori di quelle che poggiano
su fatti osservati. Questa massima fondamentale
è incontestabile, se applicata, in modo conveniente,
allo stadio maturo della nostra intelligenza. Ma
riferendoci alla formazione delle nostre conoscenze, è altrettanto certo che il pensiero umano, nel
suo stadio primitivo, non poteva, né doveva
pensare in questo modo. Infatti, se da un lato
ogni teoria positiva deve essere basata su osservazioni, da un altro lato è altrettanto ovvio che,
per dedicarsi all'osservazione, il nostro pensiero
ha bisogno di una qualche teoria. Se, osservando
i fenomeni, non potessimo riferirli immediatamente
a qualche principio, non ci sarebbe solo l'impossibilità di collegarli l'uno all'altro e quindi di trame
un qualche frutto, ma altresì saremmo del tutto incapaci di percepir li e i fatti quindi resterebbero
spesso inosservati ai nostri occhi. Così, stretto
fra la necessità di osservare per formulare nuove
teorie e la necessità, non meno imperiosa, di crearsi
delle teorie qualsiasi per potersi dedicare a sempre nuove osservazioni, il pensiero umano al suo
sorgere si trova rinchiuso in un circolo vizioso,
dal quale non avrebbe mai trovato il modo di
uscire se non si fosse fortunatamente aperta una
via di uscita con lo sviluppo spontaneo delle
concezioni teologiche che offrirono un punto di
incontro ai suoi sforzi. »
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
« condizionare » la stessa scienza pura: questo condizionamento è del resto auspicabile (in quanto riduce a un numero ragionevolmente basso l'amplissima gamma
delle alternative teoriche) e pone le premesse, a livello istituzionale di una vita
scientifica organizzata, imponendo delle « restrizioni » alle possibili estrapolazioni
compatibili con un assegnato insieme di dati empirici (avviando così verso una
soluzione del problema di Goodman) e al proliferare di ipotesi ausiliari (avviando
così verso una soluzione del problema suscitato dalla tesi di Duhem-Quine
nell'interpretazione debole). Se questi sono gli esiti della demarcazione che
Agassi propone tra scienza pura e tecnologia, non si può non riscontrare una
certa analogia con la soluzione popperiana della demarcazione tra scienza e
metafisica e la teorizzazione della metafisica influente. Quelli emergenti dalla
tecnologia non sono gli unici « vincoli » [constraints] per la creatività dello scienziato; come abbiamo già visto, ogni grande svolta nel pensiero scientifico non
può prescindere dal riferimento a « quadri metafisici »: ma come non discriminare
scienza pura e tnetafisica violerebbe i dettami dell'atteggiamento critico, assimilare scienza
pura e tecnologia costituirebbe un'altrettanto grave violazione che porterebbe alla perdita
della specificità della prima; mutamenti nella metafisica e innovazioni tecnologiche possono essere opportuni « catalizzatori » per la scoperta scientifica e farvi riferimento
può contribuire a enucleare le condizioni iniziali di una « rivoluzione scientifica »;
ma tali « catalizzatori » restano fuori dell'ambito della « logica della scoperta
scientifica »; e conseguentemente, lo storico della scienza che si rifaccia metodologicamente al « razionalismo critico » come deve attentamente guardarsi dal confondere «fisica
e metafisica », così dovrà attentamente distinguere gli apporti della tecnologia da quelli
della scienza pura.
III·
LA CONOSCENZA MATEMATICA E
DIMOSTRAZIONI
E
IL
FALLIBILISMO.
CONFUTAZIONI
Ritorniamo ora all'altro «polo» dell'impresa scientifica, la matematica.
Riconnettendoci ai riferimenti del paragrafo precedente, ci pare opportuno ricordare che Duhem, proprio là dove demoliva la baconiana fiducia nell'esperimento
cruciale, osservava sì che « la contraddizione sperimentale » non era in grado di
«trasformare un'ipotesi fisica in una verità incontestabile » («la verità di una
teoria fisica non si decide a testa o croce»), ma era appunto questo tratto specifico che permetteva di discriminare tra i modi del controllo della teoria fisica
e la reductio ad absurdum propria della matematica pura, il cui sviluppo cumulativo
non veniva affatto messo in discussione. Dal canto suo Popper non ha mai sviluppato una logica della scoperta matematica paragonabile in ampiezza e sistemadeità alla sua logica della scoperta per le teorie empiriche, anche se in molte sue
··. opere non sono mancati significativi riferimenti alla « conoscenza » matematica.
Ma per la matematica, almeno per la matematica pura, è davvero appropriato il
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
termine « conoscenza »? Dopo tutto, per un popperiano la matematica è « non
empirica » nel senso della Logica: si pone dunque, perlo meno, un nuovo problema.
Scopo di questo paragrafo è di presentare e discutere un'estensione del falsificazionismo mirante a recuperare il carattere autenticamente conoscitivo della matematica intesa però, contro una tradizione che alcuni falsificazionisti fanno risalire almeno a Euclide, non più come prototipo del sapere certo e indiscutibile,
ma come «conoscenza fallibile, conoscenza senza fondamenti» (Lakatos). Alla
concezione tradizionale del sapere matematico cui abbiamo fatto riferimento
poche righe più sopra si è affiancata, com'è noto, l'idea, ancora diffusa soprattutto nella cultura anglosassone, che il ragionamento matematico (inteso come
un caso particolare di inferenza deduttiva) non dia in alcun senso obiettivo (cioè
non psicologico) nuove informazioni. Il falsificazionista interessato allo status epistemologico degli asserti logici e matematici si trova di fronte a due nemici:
l'uno, il tradizionale e dogmatico « euclideismo » (come i popperiani amano
chiamare il punto di vista con cui Duhem è ancora pienamente solidale); l'altro,
per certi versi più agguerrito, in quanto rivelatosi capace di utilizzare alcuni dei
risultati della ricerca logica, che è stato il punto di vista già di Mach, ed è stato
ripreso in seguito « da un gruppetto sparuto di positivisti logici abbastanza
cocciuti e coraggiosi» da non temere certe « conseguenze abbastanza implausibili >> (J. Hintikka) e da riuscire a imporlo in molti ambienti come la concezione
ufficiale del (non) sapere matematico.
Ritorniamo un attimo ai primi anni del Novecento. Come il lettore avrà
visto nel capitolo dedicato agli sviluppi della logica simbolica, Bertrand Russell
(come già Frege prima di lui) si era proposto di derivare l'intera matematica da
pochi principi logici indiscutibili e, ancora pochi mesi prima della scoperta della
celebre antinomia che porta il suo nome, pareva convinto che il bagaglio che si
richiede all'inizio «non sia molto», che una tale fondazione non celi alcun trabocchetto, che l'edificio della matematica diventerà presto « inespugnabile » al
dubbio scettico e che, conseguentemente, « ordine e certezza » sostituiranno
«confusione ed esitazione». Ma anche dopo la «crisi dei fondamenti», la soluzione russelliana (teoria dei tipi ed eliminazione dei ragionamenti impredicativi)
viene prospettata nel quadro di un programma epistemologico che mira a confutare «lo scetticismo matematico», passo preliminare «all'estensione della
sfera della certezza alle scienze empiriche ». In particolare va rilevato come il
principio che permette di derivare l'antinomia di Russell non risulti falso nella
russelliana teoria dei tipi, bensì non significante. È tale modo di procedere che
viene ripreso proprio da quei «candidi positivisti » (come li chiama Hintikka)
che ne fanno uno dei punti chiave della loro teoria del significato contro la tradizionale concezione dualistica di teoria ed esperienza («Il pensiero concepisce le
leggi più generali [... ] come le troviamo codificate dalla logica e dalla matematica; poi l'osservazione riempie questi schemi dei loro dettagli»). Come Rus-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
sell, anche i neoempiristi temono lo scetticismo, ma« se si è dualisti, lo scetticismo
è inevitabile ». Pare abbastanza naturale al fisico sostenere che « la fisica sperimentale ci procura una conoscenza delle leggi naturali mediante osservazione
diretta [e che] la fisica teorica applica il pensiero in modo da prolungare questa
conoscenza »; ma affermare che grazie alla matematica la teoria si estende oltre
l'esperienza non equivale forse a introdurre un'armonia prestabilita «tra il
corso del nostro pensiero e quello dell'Universo»? La classica soluzione neoempirista è che la·« logica non si occupa affatto di alcun ogg\!tto, ma solo del
modo in cùi parliamo degli oggetti; essa viene introdotta solo col linguaggio». La
sterile contrapposizione tra teoria ed esperienza viene evitata ammettendo che
«il ruolo del pensiero è molto più modesto» di quanto non pretenda l'atteggiamento dualistico (nella sua versione ottimistica, quella del fisico militante); proprio
perché « non si occupa di alcun oggetto » la logica « è irrefutabile >> e si possono
evitare le aporie dell'atteggiamento dualistico (nella sua versione pessimistica,
che conduce allo scetticismo).
La riduzione della matematica a logica coinvolge anche que~t'ultima: per
dimostrare tale fatto, ci pare interessante fare riferimento a una breve monografia di Hahn, !JJy,ik, Mathematik und Naturerkennen (Logica, matematim e wnoscenza
della natura, 1933) non solo perché il punto di vista neoempirista circa la matematica viene espresso da un « addetto ai lavori » cui si debbono notevolissimi
risultati, ma soprattutto in quanto la stessa struttura delle argomentazioni ivi
impiegata bene si presta, per contrasto, a evidenziare quel carattere di rottura
con la tradb.ione dell'empirismo logico che esplicitamente vogliono avere le
tesi espresse da lmre Lakatos cui dedicheremo gran parte di questo paragrafo.
Prima facie, osserva Hahn, « può sussistere una certa difficoltà a riconoscere che
la matematica sia solo tautologia »; ma tale difficoltà può venir elusa per Hahn
in questo modo: non siamo onniscienti lallwissend] e, mentre una intelligenza
onnisciente comprenderebbe istantaneamente tutto quello che è implicito in un
certo insieme di proposizioni, noi invece, per renderei conto di qualsiasi fatto
matematico, dobbiamo percorrere una catena di scritture formali. Ciò non toglie
però che, quando si enuncia anche il più importante teorema, per Hahn si perviene a una conquista solo nella misura in cui, essendo lunga la catena delle dimostrazioni, «constatiamo spesso con meraviglia che, nell'affermare un enunciato, affermavamo anche qualcosa di completamente differente>>. Quest'ultima
argomentazione, che per certi aspetti ricorda il celebre passo laplaciano che illustra il determinismo universale e prelude all'introduzione del calcolo delle
probabilità nelle scienze della natura, può venir considerata sotto due aspetti.
In un senso debole contiene un'istruzione cautelativa: quando accetti un dato
principio, vedi quel che da esso derivi; i metodi della logica ti mettono in grado
di cogliere le conseguenze più inaspettate ed eventualmente di « esorcizzare >>,
con opportuni strata~emmi, le patologie. In un senso forte ribadisce che le
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
proposizioni matematiche « non dicono nulla sugli oggetti in questione » e
permette di concludere che « mentre di alcuna legge naturale non sappiamo
se ha valore di legge » in guanto abbiamo a che fare con ipotesi, è lecito però
affermare che « esprimendo delle ipotesi, esprimiamo molto più di quanto diciamo» (l'esplicitazione di questo è compito della logica e della matematica).
Com'è noto, tale punto di vista ha trovato tutta una serie di esplicitazioni
nel positivismo degli anni trenta e oltre. Occorre dire subito che la critica di
Popper all'assolutezza della base empirica porta invece a conclusioni che apertamente contraddicono la tesi di Hahn, secondo cui « a proposito di fatti la
teoria è fuori causa>>; tali conclusioni si fondano sull'applicazione dell'argomento
del regresso infinito alle pretese traduzioni di linguaggi « teorici » in linguaggi
« osservativi ». In questa sede vogliamo prospettare una considerazione di tipo
falsificazionista della stessa matematica, consistente nel negare proprio la tesi
di Hahn secondo cui gli asserti matematici non sono informativi, attribuendovi invece un « contenuto empirico »: I sotto questo profilo tale punto di vista riprende
non pochi aspetti della concezione empiristica della matematica, anche se, ovviamente, non riconduce la matematica all'esperiem~a per la via dell'empirismo
classico imboccata, per esempio, da J.S. Mill nel suo Sistema di /,ogica. Ciò premesso, va detto subito che si tratta di una direzione di ricerca estremamente viva
e articolata sia nell'epistemologia di lingua inglese che altrove, che meriterebbe
un'accurata rassegna delle posizioni che sono progressivamente emerse in
questo filone. Definiti (e limitati) i temi del presente capitolo come indicato
nel paragrafo I, ci limitiamo ad affrontare la questione prendendo come «filo
rosso>> l'argomento del reJ!.resso infinito, applicato ora al problema dei fondamenti
della matematica; conseguentemente restringiamo le nostre considerazioni ad
alcuni saggi 2 di Imre Lakatos degli anni sessanta, cominciando da un contributo del 1962, dedicato appunto « al regresso infinito e al problema dei fondamenti». Questo argomento, scettico per eccellenza (in quanto mirante, in ultima
analisi, a rìvelare «l'abisso>> che sottende la sicurezza del dogmatico), si rivela
per il nostro autore, che si propone di estendere l'ambito di « certe idee di Popper e di Braithwaite », un'arma formidabile contro ogni fondazione della matematica che pretenda di aver individuato una base sicura « come roccia eterna »
(Frege), sia essa poi costituita da pochi principi logici « indiscutibili » (come
vuole il logicismo di Russell) o da <<una metateoria banale» (come auspica il
programma formalista di Hilbert). Lakatos ha buon gioco nel ricordare che
1 Una critica radicale di questo punto di
vista e la puntualizzazione di un senso obiettivo
del concetto di informazione tale che i « giudizi »
matematici appaiono «informativi » viene fornita, in una prospettiva completamente diversa
da quella del falsificazionismo di Lakatos, da
Jaakko Hintikka nei saggi che costituiscono il suo
Logic, /anguage-games and information (1973). Non
potendo in questa sede trattare nei dettagli le
interessanti tesi hintikkiane, rimandiamo il lettore all'edizione italiana, Logica, giochi linguistici
e informazione (Milano, 1975).
2 Cfr. la bibliografia riportata alla fine di
questo volume.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Russell stesso nel I 924, modificando notevolmente posizioni assunte in passato, avvertiva che, come «tutta l'elettrodinamica è concentrata nelle equazioni
di Maxwell, ma queste equazioni vengono accettate solo perché si è constatata la
verità di certe loro conseguenze, f... ] così le nostre ragioni per credere alla
logica e alla matematica pura sono, almeno in parte, solo induttive e probabili,
anche se, nel loro ordine logico, le proposizioni della logica e della matematica
pura seguono per deduzione dalle premesse della logica». Ma, allo stesso modo
del logicismo, anche altre strade (come quella imboccata dal formalismo) ri~
chiedono analoghe « ritirate strategiche ». Sicché, a detta di Lakatos, le concessioni di un formalista come S.C. Kleene, che riconosce che « il controllo finale
circa l'ammissibilità di un metodo nella metamatematica deve ovviamente riguardare
la questione se tale metodo è intuitivamente convincente », non permettono certo di
rispondere in modo soddisfacente alla domanda: « Perché i fondamenti, se si
ammette che sono soggettivi? » Proprio come nelle questioni concernenti la
« base empirica » anche qui solo una decisione metodologica può eludere il
regresso infinito e consente di arrestarsi a un dato stadio nella questione dei
fondamenti. Ma in questo modo si riconosce il carattere fallibile della stessa
matematica attribuendo anche a essa quella provvisorietà che Duhem scorgeva
solo nella «teoria fisica»; il carattere di tentativo [tentative nature] che gli stessi
realisti ai primi del Novecento attribuivano a quest'ultima (e, più in generale,
a ogni teoria empirica) investe anche la matematica.
Di più: Lakatos (per esempio in un intervento del 1965) può riconsiderare passi come quello di Russell citato più sopra nella prospettiva di una vera e
propria « rinascita dell'empirismo matematico». Certo nessuno pretenderà che
la matematica sia empirica nel senso che i suoi falsificatori potenziali siano asserti spazio-temporali singolari com'è per le teorie empiriche considerate da
Popper nella Logica; sarà però possibile individuare asserti che svolgono per
teorie matematiche un ruolo analogo a quello di tali falsificatori potenziali.
Teorie formali, per esempio, non solo ammetteranno falsificatori potenziali
logici (cioè asserti della forma p (\ -,p), ma anche falsificatori euristici (teoremi
informali): si potrà considerare confutata una teoria formale quando uno dei
suoi teoremi verrà negato da un teorema della corrispondente teoria informate.
Ovviamente un falsificatore euristico di questo tipo « suggerisce solo una falsificazione » e i suggerimenti possono essere ignorati: esso, in realtà, è solo una
ipotesi rivale. « Ma ciò non separa la matematica dalla fisica in modo così netto
come prima facie sembrerebbe: le stesse asserzioni base di Popper sono esse pure
ipotesi rivali. » La questione dell'accettazione di tali falsificatori rimanda a guella
della natura delle teorie informaii e il problema sarà allora quello di fornire opportune « regole » che permettano, anche nel caso della matematica, di arrivare
a un «verdetto». Quale ne sarà la fonte?, si chiede Lakatos e risponde: «La
costruzione matematica? L'intuizione platonistica? Oppure una convenzione?
299
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Difficilmente si potrà dare una risposta monolitica. Un attento studio storicocritico l· .. ] porterà probabilmente a una soluzione composita piuttosto sofisticata. Qualunque sia tale soluzione, gli ingenui concetti scolastici della razionalità
statica, quali a priori fa posteriori, analitico /sintetico, potranno solo ostacolarci nella
ricerca, senza offrirei alcun aiuto. »
Aspra è dunque la polemica con i classici << dogmi dell'empirismo » (per
usare la locuzione favorita di Quine); per quanto riguarda poi le questioni che
Hahn e gli altri neoempiristi ritenevano così urgenti nella fase iniziale del positivismo logico viennese, basterà aggiungere che è proprio con l'abbandono delle
dicotomie « della razionalità statica » che il « dialettico » Lakatos ritiene di aver
superato le difficoltà del dualismo ovviamente con un esito che, recuperando il
carattere se non empirico almeno « quasi empirico » della matematica, appare agli
antipodi sia della soluzione neoempiristica sia di quella « euclidea ». Da « paradigma della certezza e della verità » questa si muta in disciplina « tàllibile >> come
ogni disciplina empirica. Tale conclusione in particolare: 1) vanifica il senso forte
della tesi di Hahn; 2.) ne banalizza il senso debole. Qualcosa però è conservato
dell'antico ideale euclideo; ancora, come osserva il matematico G. Polya, «il
consenso che accordiamo a un teorema di matematica dopo averne esaminato
passo a passo in modo critico la dimostrazione, è il prototipo del credere razionale ». Compito di una « logica della scoperta matematica » appare allora « una
ricostruzione razionale » di tale processo, senza alcuna concessione allo psicologismo. Per usare una metafora cara a Poincaré la storia della matematica e
la logica della scoperta matematica rappresentano « la filogenesi » e « l'o n t ogenesi del pensiero matematico »; nel riprenderle Lakatos cita la « euristica
matematica» di Polya e accoglie l'esortazione di questi a indagare, con riferimento a « esempi storici sensazionali » quel modo di lavoro « che alterna dimqstrazioni e controesempi » e che costituisce in matematica la spina dorsale
dell'euristica. Anche i matematici, non diversamente dagli altri scienziati, dice
Polya, « escogitano spiegazioni ipotetiche e sottomettono le loro ipotesi alla
prova dell'esperienza» (in un senso che la proposta lakatosiana di considerare
«falsificatori potenziali» anche per le teorie matematiche ritiene di poter esplicitare): anch'essi, nella loro pratica scientifi.ca, seguono la direttiva fallibilista
«indovina e controlla». Polya non solo sottolinea l'importanza di cogliere «la
funzione delle dimostrazioni [matematiche] nel costruire la scienza», ma insiste
sulla necessità di prendere atto che « il concetto stesso di dimostrazione in matematica si è evoluto, è cambiato da un'era scientifica all'altra» lcorsivi nostri]. Sono
proprio le modalità di cambiamenti siffatti che Lakatos si propone di esaminare in
Proofs and refutations (Dimostrazioni e confutazioni, 1963-64), in cui lo stimolo
iniziale è fornito dallo studio storico delle varie « diramazioni » (Polya) della ricerca matematica circa la c;elebre «congettura» di Euler sui poliedri,l alcune
1
La congettura di Euler (1758) è, com'è noto, che per tutti i poliedri «regolari» V- E
www.scribd.com/Baruhk
+
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
delle quali contribuirono a porre le premesse di uno dei più affascinanti rami
della matematica moderna, la topologia combinatoria; Lakatos propone «una
storia ricostruita razionalmente o " distillata" » che ritiene necessario punto di
partenza per un approccio razionalistico allo sviluppo della matematica « informale » [inhaltliche]. Senza addentrarci nel particolare caso storico preso in considerazione, val la pena di ricordare che una volta ammesso con Polya che «l'euristica matematica è simile all'euristica delle altre scienze[ ... ] in quanto entrambe
sono caratterizzate da congetture, dimostrazioni e confutazioni (mentre la differenza rilevante sta nella natura delle rispettive congetture, dimostrazioni e
controesempi)», Lakatos ritrova motivazioni di tale approccio in un'esigenza
critica che ha una prima espressione articolata nei grandi lavori di analisi di
K. Weierstrass. Spesso, rileva Lakatos, gli assunti di una dimostrazione non
sono convenientemente esplicitati; quando viene presentato un controesempio
risulta dunque difficile comprenderne la portata. L'insegnamento critico di Weierstrass è consistito proprio nel realizzare l'esigenza di rigore « non col nascondere
un lemma [... ] ma assumendolo pubblicamente»; ciò viene da Lakatos ribadito
non solo in funzione polemica verso il procedimento adottato da Russell e
ripreso dall'empirismo logico, ma nella convinzione che la «rivoluzione del
rigore» nell'analisi dell'Ottocento abbia costituito una formidabile spinta allo
sviluppo di un metodo critico che è riuscito a trionfare dell'opposizione reazionaria di coloro che, scambiando per intuizione un complesso di pregiudizi,
lamentavano «l'artificiosità» dell'indagine rigorosa.
Weierstrass e gli altri artefici di questa rivoluzione non solo hanno trovato le
«dimostrazioni» di importanti asserti, ma hanno delineato anche « un'analisi
delle stesse dimostrazioni » dotando così l'impresa scientifica di una maggiore
consapevolezza critica. Per chiarire a fondo questo importante concetto dianalisi delle dimostrazioni, riteniamo opportuno affiancare a questa rilettura lakatosiana di rilevanti svolte della riflessione sui fondamenti della matematica, un
passo tratto da The laws of thouj!,ht (Le leggi del pensiero, r854), in cui il logico
George Boole esamina le «dimostrazioni » circa l'essere e gli attributi di dio
fornite da Samuel Clarke e da Spinoza. Non riteniamo questo passaggio dalla
matematica alla metafisica affatto fuori tema: si tratti di una dimostrazione puramente matematica o di una catena deduttiva inserita in un sistema fisico o addirittura metafisica, l'indagine booleana mira a una disamina delle « premesse
effettive » di tale catena, cioè di « tutte quelle proposizioni che vengono assunte
nel corso dell'argomentazione senza essere state provate, e vengono impiegate
come parte dei fondamenti sui quali si costruisce la conclusione finale ». Per
Boole si tratta di individuare tali premesse, sia che vengano « espresse chiaramente », sia che invece operino come « premesse implicite » e di esprimerle
+F =
2.
ove V denota il numero dei vertici, E
quello degli spigoli e F quello delle facce del
poliedro.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
« nel linguaggio dei simboli » in modo da dedurre, servendosi delle sole regole
della logica, « le conclusioni più importanti che tali premesse implicano » e
con questa pietra di paragone controllare « le conclusioni tratte di fatto dagli
autori » presi in considerazione. Col precisarsi degli standards di rigore, si definisce il modello deduttivo in cui articolare la critica: le dimostrazioni in quanto
tali diventano oggetto di analisi prescindendo dalle credenze (in senso soggettivistico) che sottendono la scelta delle premesse; sicché Boole non ritiene tanto
compito della sua investigazione « cercare fino a che punto i principi metafisici
enunciati nelle opere [di Spinoza e di Clarke] siano degni di fiducia », quanto
« accertare quali siano le conclusioni che si possono legittimamente trarre dalle
premesse date» [corsivo nostro]. È in questa affermazione della natura formale
del calcolo logico- con la quale il lettore della presente opera è ormai familiareche cogliamo una prima componente di quella che Lakatos chiama « la dialettica »
tra dimostrazioni e analisi delle dimostrazioni. La seconda componente è rappresentata dal recupero dell'aspetto contenutistico delle «conclusioni» (nell'articolo del
1963-64 visto ancora in chiave falsificazionista: cosa vieta un teorema matematico?
quali sono i suoi «ja/siftcatori potenziali»?) L'attenzione si incentra sui «conflitti»
(in cui possono essere coinvolte teorie matematiche formali o informali, speculazioni metafisiche, differenti concezioni del mondo fisico, ecc.) che per Lakatos, che qui si rivela in pieno accordo col falsificazionismo sofisticato come da
noi definito nel paragrafo IV del capitolo XIV del volume settimo, rappresentano
nella matematica come nelle scienze empiriche i momenti in cui « cresce » la
conoscenza. Una volta adottata quest'ottica pluralistica (che nel caso delle scienze
empiriche permetteva di cogliere la « struttura fine » del conflitto teorie /fatti)
sia nel problema dei fondamenti (Lakatos 1962, 1965) sia nell'analisi delle dimostrazioni (Lakatos 1963-64), il falsificazionista si trova di fronte anche in
questi contesti al problema di fondo che abbiamo già delineato nei due paragrafi
precedenti: nei conflitti (tra teoremi formali e informali, tra ampliamento di
contenuti ed esigenza di rigore, ecc.) di cui la storia della matematica, come il
lettore di questi volumi ha avuto ampiamente modo di constatare, è ricca almeno fin dal tempo dei pitagorici, come si sono distribuiti i ruoli della «noce», del
«martello», dell'« incudine» (cfr. p. 287)? Quale parte del «sistema» (in questo
caso, la matematica nel senso più ampio del termine) è il vero bersaglio della
confutazione? Si può certo sottolineare anche qui « la necessità di decisioni
metodologiche » per poter promuovere un controesempio, che potrebbe venir
magari eluso con l'opportuna modifica di un «lemma nascosto», al rango di
falsificatore di una teoria matematica di grande respiro, adottando una « risoluta »
strategia popperiana. Ma tale strategia, qui come nelle scienze empiriche, non è
troppo risoluta? La storia della matematica della seconda metà dell'Ottocento
offre non pochi esempi di ricercatori che in alcuni casi si sono « eroicamente >>
attenuti a un codice di onore del genere, scartando certe direzioni di ricerca in
;oz
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
nome di standards di rigore accettati pacificamente nella « conoscenza di sfondo »,
salvo pentirsi poi di fronte a fortunate ricerche più spregiudicate e riconoscere
talora la « ristrettezza » dei loro canoni originari. Possiamo allora schierarci
con quel matematico che affen;nava che se le più prestigiose teorie matematiche
risultassero in conflitto con le leggi logiche a noi più familiari, come, per esempio,
la legge del terzo escluso, queste ultime andrebbero abbandonate? O sfumare
tale paradosso in una elegante soluzione à la Quine, come quella contenuta nella
introduzione di Methods of Logic (tr. it. Manuale di Logica)? l Potremmo ancora parlare di scelta razionale tra vari modelli deduttivi in cui artic.olare la critica? Sono
state domande di questo tipo (riferite sia a un contesto di filosofia della matematica, come in questo paragrafo, sia a un contesto di riflessione nella scienza empirica, come nei paragrafi precedenti) che hanno mosso Lakatos a una revisione
(più radicale, a parere nostro, di quella di Agassi) della metodologia falsificazionista e alla sua sostituzione con una nuova metodologia. A questa verrà dedicato
completamente il paragrafo v del presente capitolo; vogliamo intanto terminare
queste preliminari considerazioni sulla matematica e sui fondamenti in un'ottica
Jallibilista non solo sottolineando la vasta gamma di problemi che tale prospettiva
apre, ma anche richiamando come tale prospettiva radicalmente si contrapponga
a quella «ricorrente tentazione dei [matematici) di presentare il prodotto cristallizzato del loro pensiero come una teoria deduttiva generale, relegando al ruolo
di esempio il fenomeno matematico particolare » (per usare le parole di un protagonista della matematica del Novecento, Richard Courant). La prospettiva fallibilista, insiste Lakatos, proprio nel distaccarsi da forme dogmatiche di falsificazionismo, contempla l'eventualità di mutamenti anche nello stesso contesto dell'analisi delle dimostrazioni, dei canoni del rigore. Un grande ricercatore di rado
si piega a norme stabilite una volta per tutte: piuttosto «le crea», cioè riformula i
tradizionali « codici d'onore » o addirittura ne propone di nuovi. I canoni meta.dologici vengono spesso reinventati: è questa lezione che la storia della matematica offre (specie a partire dalla feconda «unione tra matematica e logica»
realizzatasi nella seconda metà dell'Ottocento) che può convincere il metodo lo go
a una maggior flessibilità dei propri standards. È questo un tema che verrà ulter Scrive i vi Quine: « Le stesse leggi della
matematica e della logica non sono immuni da
revisioni se si scopre che ne potrebbero seguire
semplificazioni essenziali dell'intero nostro ordinamento concettuale. È stato suggerito, principalmente sotto lo stimolo dei dilemmi della fisica
moderna, di sottoporre a revisione la dicotomia
vero-falso della logica ordinaria, in favore di
qualche tipo di tri~ o n-cotomia. Le leggi logiche
sono le proposizioni più centrali e più cruciali del
nostro ordinamento concettuale e per questa ragione le più protette contro una revisione dalla
forza del conset:v~nrismo; ma, ancora, proprio
a causa della loro posizione cruciale, esse sono
tali che una loro adeguata revisione potrebbe
offrire la più radicale semplificazione dell'intero
nostro sistema di conoscenza. Così, a dispetto di
tutte le « necessità», le leggi della matematica e
della logica possono essere abrogate. Ma questo
non vuoi dire negare che tali leggi siano vere in
virtù dell'ordinamento concettuale o in virtù dei
significati. Proprio perché queste leggi sono così
centrali, qualunque loro revisione è sentita come
adozione di un nuovo ordinamento concettuale,
come imposizione di significati nuovi a parole
vecchie.»
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
riormente elaborato nella più matura riflessione di Lakatos, come vedremo in
seguito; ma, fin da questa disamina della complessa dialettica di « dimostrazioni
e confutazioni », emerge la rilevanza che, a ogni tappa della rivoluzione del
rigore, assume il contrasto tra la « nuova » e la « vecchia guardia », tra i rivoluzionari di un tempo diventati a poco a poco conservatori e l'impietosa avanguardia insofferente di norme stabili: il conflitto può essere aspro, anche nella
scienza (sebbene, in genere, lo storico riscontra post Jestum un tipo di asprezza
diverso da quello della lotta politica) e mietere le sue vittime. Ma, come già
David Hilbert amava ricordare, quest'ultima è la condizione della stessa « stodeità del rigore »; e, da parte sua, Lakatos conclude il saggio del 1964 con la
considerazione che, a ogni rilevante modificazione dei canoni del rigore l'analisi
delle dimostrazioni penetra sempre più profondamente entro quei « fondamenti »
«forniti dalla conoscenza di sfondo» ove dominava l'intuizione e la critica era
bandita: « diversi livelli di rigore differiscono solo per dove tracciano la linea di demarcazione tra il rigore dell'analisi della dimostrazione e il rigore della dimostrazione, cioè tra
dove occorre bloccare la critica e dove occorre cominciare la giustificazione. "Non si consegue mai la certezza"; i " fondamenti" non si raggiungono mai; ma l'astuzia
della ragione tramuta ogni aumento di rigore in un aumento di contenuto».
IV· LA NATURA DEL MUTAMENTO CONCETTUALE.
RICERCA NORMALE E RIVOLUZIONI SCIENTIFICHE
Il falsificazionismo di Popper e le modificazioni fin qui analizzate dovute a
Watkins, Agassi, Lakatos, ecc. rappresentano un indirizzo epistemologico vivamente contrapposto a quello divenuto dominante negli anni quaranta e cinquanta nei paesi di lingua inglese dopo la diaspora dei protagonisti dell'empirismo
logico mitteleuropeo. Ma a quest'ultimo rappresentante la « concezione standard » (standard wiew, come l'ha battezzata un suo difensore, Israel Scheffier) si
sono venute contrapponendo, già negli anni cinquanta e con maggior compattezza negli anni sessanta, anche altre concezioni che hanno fatto propria
una gamma di temi tralasciati o programmaticamente espulsi dalla « nuova filosofia della scienza» (Reichenbach) creata dai neopositivisti. Quando il positivista sia « classico » che « logico » considera, poniamo, come « scientifiche » le
tre leggi di Keplero, le separa drasticamente dal contesto costituito per esempio
dalle analogie «intuitive» (come paralleli tra il sistema solare e la trinità) che pure
hanno costituito lo sfondo della scoperta kepleriana. La stessa metafisica influente (da noi vista nel paragrafo r) mira a recuperare molto di ciò che il positivista bolla come « extrascientifico », ma a una decisa rivalutazione della Weltan- ·
schauung o della Lebenswelt dei protagonisti dell'impresa scientifica muovono anche
prospettive che si rifanno a indirizzi di pensiero diversi, come a una tradizione
pragmatista radicata soprattutto nella cultura americana (Ch.S. Peirce, C.I. Lewis
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
e lo stesso Quine sono tra i riferimenti più rilevanti) o a quella della filosofia
analitica in origine prevalentemente inglese (profondamente condizionata dall'insegnamento del« secondo» Wittgenstein). È ovviamente impossibile, senza
cadere in schematismi, distinguere quanto caso per caso si deve all'una o all'altra tradizione e valutare esattamente gli apporti di altre esperienze culturali,
quali l'idealismo inglese e continentale, il neokantismo (specie di Cassirer), la
fenomenologia, lo stesso- materialismo dialettico. Globalmente il panorama risulta estremamente vario, il che ci costringe in questa sede a limitare e semplificare drasticamente. Movendoci, come nei tre paragrafi precedenti, più per problemi e tematiche che seguendo una puntuale esposizione dei vari punti di vista,
in questo paragrafo articoleremo intorno a quattro nodi concettuali l'esposizione
delle concezioni di Hanson, Kuhn e Toulmin, riservandoci di riprendere alcune
questioni nel delineare più oltre quelle di Lakatos e di Feyerabend, che, mossi
entrambi dal falsificazionismo popperiano, hanno elaborato poi prospettive largamente autonome proprio nel continuo confronto con le concezioni cui facciamo qui riferimento.
I. Le trame della scoperta. Era stato il berlinese Hans Reichenbach a introdurre nel I938 la distinzione, diventata poi un luogo comune, tra« contesto della
scoperta» e «contesto della giustificazione» per considerare separatamente il modo
in cui un risultato delle discipline empiriche o di quelle matematiche viene scoperto dal modo in cui viene presentato e difeso dai ricercatori. Ma per Reichenbach e gli epistemologi di impostazione neoempirista in genere, i problemi emergenti nel contesto della scoperta potevano essere al più oggetto della psicologia
o della storia; l'epistemologia programmaticamente era limitata al contesto della
giustificazione; la ricostruzione razionale, infine, concerneva dunque solo questo
ultimo, prescindendo completamente dal cammino percorso « per tentativi » per
stabilire un dato sistema teorico. Ma già nel I958, quattro anni prima della comparsa della fortunata monografia di Kuhn sulle rivoluzioni scientifiche di cui ci
occuperemo dettagliatamente tra poche pagine, Norwood Russell Hanson, in
Patterns of discovery (Trame della scoperta, I958) trova perlomeno astratto il prendere in considerazione le teorie scientifiche solo come « prodotti finiti »: « le
teorie fisiche forniscono trame [patterns] che rendono intellegibili i dati» della
esperienza e proprio per questo sono in grado di spiegare i fenomeni che dcadon~ sotto il loro ambito; ma al contrario di quanto ha ritenuto la tradizione
empirista, le teorie non sono scoperte per generalizzazione induttiva a partire
dai dati empirici; ma mediante la formulazione di ipotesi probabili alla luce di dati concettualmente organizzati: il cuore della logica della scoperta non è l'induzione,
ma la retroduzione [retroductive reasoning]. A partire dal capolavoro del I 9 58 Hanson
viene prospettando un'analisi delle teorie in polemica con l'empirismo classico
e con lo stesso empirismo logico e insieme una disamina di rilevanti casi storici,
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
che, come pietre di paragone, permettano di evidenziare i limiti dell'astorica
prospettiva positivistal e la maggior aderenza della nuova logica della scoperta
alle reali modalità della ricerca. Alla base del fraintendimento positivista sta per
Hanson la dottrina del linguaggio osservativo neutro con cui il linguaggio teorico
dovrebbe « essere messo in corrispondenza »: l'effettiva pratica scientifica non
conosce nulla del genere. Riprendendo classici argomenti di Duhem, il nostro
autore sottolinea che l'osservazione, lungi dall'essere «pura», è invece «carica di teorie » [theory !aden] con il che si rivela estremamente innaturale la richiesta di un linguaggio [osservativo] intersoggettivo in cui dare una diretta interpretazione semantica indipendente dalla considerazione di una qualche teoria.
Al tempo della grande controversia tra i sostenitori della concezione geocentrica
e· di quella eliocentrica, esemplifica Hanson, la comunità scientifica poteva compilare certo resoconti osservativi circa, poniamo, il sole; ma restava il fatto che
« Tycho Brahe, come Simplicio, vedeva un sole mobile; Keplero, invece, un
sole fisso ».
Due persone che sostengono differenti teorie circa gli stessi oggetti vedono davvero la stessa cosa? Si potrebbe rispondere affermativamente osservando che esse condividono la stessa esperienza visiva: Tycho e Keplero hanno
entrambi l'esperienza visiva di un disco giallo, rifulgente, ecc. e questo autorizza
a concludere che vedono la stessa cosa, il sole. Così risponderebbe però chi ancora ritiene « doveroso erigere un monumento alla memoria del punto di vista
tradizionale secondo cui la scienza empirica prende le mosse dalla percezione »
(sono le parole che nella Logica del 1934 Popper adoperava per Neurath). Ma è
proprio questa « concezione del nucleo percettivo » della scienza empirica
(sensory core theory, per usare una pregnante espressione di R. Firth) che per
Hanson occorre abbandonare. Per il nostro autore un conto è avere un'esperienza visiva e un conto ricevere certi stimoli sulla retina; solo nel senso che hanno
le medesime stimolazioni sulla retina, Tycho e Keplero vedono lo stesso sole. Servendoci di una terminologia introdotta ( 1 966) da A gassi, possiamo dire che,
contro il « sensismo ingenuo » che permane non solo nei filosofi della scienza
neoempiristi, ma nella stragrande maggioranza dei manuali e anche in molti
testi di storia della scienza, Hanson contrappone un « sensismo sofisticato»~~' che
si incentra sulla dottrina dell'osservazione impregnata di teorie. A questo si
aggiunge una stimolante rilettura di spunti delle Philosophische Untersuchungen (Ricerche filosofiche) di Wittgenstein. Una figura ambigua può venir vista tanto come
una testa di lepre quanto come una testa di anatra; ma, osservava a suo tempo
Wittgenstein; «non c'è neppure la più lontana somiglianza tra la testa vista in
un modo e la testa vista nell'altro, anche se sono congruenti » e aggiungeva: « de1 In questo contesto « positivista » sta per
lo più per « neopositivista ». Nei critici della standard wiew l'accostamento del positivismo logico al
positivismo classico ha spesso funzione polemica.
2 Il termine è stato introdotto inizialmente
« per le concezioni di Duhem e Meyerson ».
www.scribd.com/Baruhk
Anatra o coniglio? La celebre figura ambigua cui fanno riferimento, tra gli altri, Wittgenstein e, nel
contesto della scoperta scientifica, Hanson e Kuhn.
scrivo il cambiamento come una percezione; proprio come se l'oggetto fosse cambiato davanti ai miei occhi [... ]. La mia impressione visiva è mutata, e ora riconosco che non soltanto essa aveva [una certa] forma, ma anche una " organizzazione" perfettamente definita». A sua volta Hanson sottolinea che esempi del
genere mostrano che «interpretare le linee della figura in modi diversi [... ] è
proprio come vedere qualcosa di differente »; ma « ciò non vuol dire che vediamo la stessa cosa e la interpretiamo in modi diversi ». Quando la testa di coniglio diventa una testa d'anatra, ciò avviene « spontaneamente» (addirittura « all'improvviso», diceva Wittgenstein). Hanson ne conclude che non muta una
interpretazione sovraimposta alla sensazione, ma (come il passo delle Ricerche
filosofiche più sopra citato suggerisce) l'organizzazione di quel che si vede.
Ma questo esito del « sensismo sofisticato » in Hanson non mira solo alla
demolizione dell'ingenuo sensismo che resta in molta filosofia della scienza degli
anni cinquanta (e oltre), ma a mostrare che le organizzazioni concettuali sono
«caratteristiche logiche del concetto di vedere, [le quali] sono ineliminabili e
indispensabili per l'osservazione in fisica». Quando Brahe e Keplero «vedevano
il sole », vedevano davvero « qualcosa di diverso », nel senso che possedevano
organizzazioni concettuali estremamente differenti delle loro esperienze! Premessa di questo giudizio storico è che« l'osservazione di x è modellata [shaped]
dalla precedente conoscenza di x »: se quest'ultima è diversa in Tycho e in
Keplero, perché stupirsi che le osservazioni di x (nell'esempio il sole) dell'uno
siano diverse dalle osservazioni di x dell'altro?
Le tradizionali storie della scienza per Hanson ·hanno semplicemente ignorato un problema del genere e hanno appiattito in modo arbitrario il frastagliato
panorama dello sviluppo delle teorie scientifiche, in ciò non certo illuminate dalle
epistemologie di taglio empirista. Controcorrente, storici come Koyré hanno più
volte ammonito i « candidi » positivisti che il cielo dei copernicani era radicalmente
diverso da quello dei tolemaici: che gli uni vi scorgevano « costellazioni »l differenti
da quelle viste dagli altri, perché possedevano diverse costellazioni di teorie.
I
Il termine va inteso, seguendo Hanson, in senso lato.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Per Hanson le intuizioni di un Koyré si possono precisare se si sottolinea appunto il carattere epistemico del «vedere» [seeing]: in esso c'è infatti una componente, non tanto psicologica, quanto logica, che il nostro autore battezza « vedere che» [seeing that]. Quando vediamo [see] un x, vediamo che [see that] si
comporta nel modo in cui sappiamo che gli x si comportano e se capita che non si
comporta nel modo in cui ci aspettiamo che gli x si comportino, non siamo più
in grado di identificarlo immediatamente come un x. Dunque è implicita nel vedere una conoscenza del comportamento degli oggetti. Ma per Hanson va tenuto anche
presente che «vedere che» è usualmente seguito da un asserto: « C'è dunque un
fattore " linguistico " nel vedere, benché non ci sia nulla di linguistico in quel
che si forma nell'occhio o anche nell'occhio della mente. » Senza questo fattore
nulla che viene osservato avrebbe davvero rilevanza per l'impresa scientifica: i
fatti bruti non hanno interesse per il ricercatore scientifico. La sua abilità nel
cogliere i« fatti» dipende dal suo apparato concettuale e dal suo linguaggio(« tale
intreccio di concetti e di linguaggio è fondamentale per tutta la fisica! »);i termini
del linguaggio sono in misura rilevantissima « teorici » e se anche possono venir
correlati a termini « osservativi » mediante regole di corrispondenza, anche questi ultimi non prescindono dalla nostra organizzazione concettuale. Essi · sono
osservativi solo in senso pickwickiano: l tutti i termini che hanno un ruolo nella
spiegazione scientifica sono impregnati di teoria; di più, i significati di tali termini sono funzioni degli schemi concettuali [concep tua/ patterns] che ineriscono ai
linguaggi.
Il significato di una parola è, per lo più, dipendente dal contesto; se ha un ruolo
nella spiegazione scientifica, essa non può non far parte di uno schema di organizzazione concettuale per quel contesto; in un altro contesto può rientrare
in uno schema differente, o addirittura « scomparire » (cioè non rientrare in alcuno schema). Alcune interconnessioni di uno schema saranno allora relazioni di
significato per termini: altre, invece, relazioni contingenti, prescrittive, ecc.
« V edere x in un dato contesto » vuol dire allora vedere il referente di « x » al
centro di tutte le relazioni determinate dallo schema concettuale in cui rientra il
termine «x » in quel dato contesto. La conoscenza di tali relazioni è dunque
essenziale per accertare un «fatto» come quello se il referente di «x» sia davvero un x.
Più in generale i « fatti » in un dato contesto esplicativo dipendono da una
organizzazione concettuale. Tra Brahe e Keplero, tra i sostenitori del geocentrismo e dell'eliocentrismo, ecc. non si erge il tribunale dell'esperienza« pura»
(magari formulata in un linguaggio osservativo neutro), ma un complesso intreccio di « differenti modi di vedere ». E una teoria « costituisce sempre una
" Gesta/t concettuale ". Essa non è costruita pezzo per pezzo dall'osservazione
1
Cioè in senso translato, non nell'accezione
abituale del termine (cfr. il dickensiano Circolo
Pickwick).
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
dei fenomeni; è invece ciò che rende possibile osservare i fenomeni come se
fossero di un certo tipo e in questo modo correlarli ad altri fenomeni [... ] una
,teoria è un grappolo [cluster] di conclusioni in cerca di una premessa». I limiti
dell'invenzione delle teorie sono dati da particolari schemi di organizzazione concettuale dei ricercatori e l'estensione razionale di una teoria utilizza il ragionamento « retroduttivo » cui sopra si è accennato.
2. I paradigmi. Ma fino a che punto l'analisi delle teorie e la conseguente
ricostruzione razionale dello sviluppo scientifico che Hanson propone si può
ritenere adeguata, al di là della ripresentazione spregiudicata di certe particolari
svolte nella ricerca o di certi stimoli che indubbiamente suggerisce allo storico
della scienza? Ci pare interessante, alla luce di domande del genere, affiancate alla riflessione hansoniana sul «cambiamento di Gesta/t» [Gesta/t Swi!ch],
le- osservazioni su questo stesso argomento sviluppate da Thomas Kuhn specie
in The structure of scientiftc revolutions (La struttura delle rivoluzioni scientifiche, 1962).
Herbert Butterfield in The origins of modern science (Le origini della scienza moderna, 1949) caratterizza «casi classici di riorientamento della scienza» come processi in cui « si maneggia lo stesso insieme di dati di prima ma ponendoli in
un nuovo sistema di relazioni reciproche e dando quindi loro una diversa struttura»; al paragone di Hanson, per cui il mutamento scientifico [scientiftc change]
è analogo a un cambiamento della Gesta/t visiva, si affianca così la metafora dello storico delle origini del pensiero scientifico moderno «afferrare l'altra estremità del bastone »; Kuhn, che esplicitamente si rifà a entrambi, nel testo citato
os~erva che« gli scienziati non vedono qualcosa come qualcos'altro; al contrario,
serpplicemente lo vedono », sicché paragoni come quelli citati possono, se spinti
all'estremo, diventare «fuorvianti», tanto più che «lo scienziato è privo della
lib~rtà, che il soggetto della Gesta/t possiede, di muoversi avanti e indietro tra
diversi modi di vedere » (più volte Kuhn del resto ribadisce che lo sviluppo della
scienza è una sorta di processo irreversibile). Tuttavia i paralleli suggeriti da
Hanson e da Butterfield costituiscono « utili prototipi elementari » per comprendere «i mutamenti su larga scala nell'impresa scientifica».
La domanda- cos'è che muta?- ci porta al cuore della concezione kuhniana. La risposta della monografia del 1962 è che cambia il paradigma, una« costellazione » che « comprende globalmente leggi, teorie, applicazioni e strumenti
re chel fornisce un modello che dà origine a una particolare tradizione di ricerca
scientifica ldotata] di una sua coerenza» (tradizioni del genere, esemplifica Kuhn,
sono quelle « che lo storico descrive con etichette quali " astronomia tolemaica "
o " copernicana ", " dinamica aristotelica " o " newtoniana '~, " ottica corpuscolare" o "ondulatoria", ecc.»). Ma perché un tale cambiamento sia possibile
occorrono circostanze estremamente particolari che contribuiscono a fare del
mutamento scientifico qualcosa di ben diverso da quell'ininterrotto «rovescia-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
mento di teorie » familiare al popperiano. La ricerca « normale », che si svolge
entro un paradigma (che appare cioè « stabilmente fondata su uno o più risultati
raggiunti dalla scienza del passato, a cui una particolare comunità scientifica,
per un certo tempo, riconosce la capacità di costituire il fondamento della sua
prassi ulteriore»), spesso «sopprime novità fondamentali, nella misura in cui
queste sovvertono i suoi impegni di base», sicché di rado l'effettivo sviluppo
rispetta la trama popperiana di congetture e confutazioni. Ma il sovvertimento
dello status quo se è difficile e richiede in genere « un lungo periodo », non è però
impossibile. «Talvolta [... ] un problema che dovrebbe essere risolvibile per
mezzo di regole e procedimenti noti, resiste al reiterato assalto dei più abili
membri del gruppo entro la cui competenza viene a cadere. In altre circostanze,
uno strumento dell'apparato di ricerca, progettato e costruito per gli scopi della
ricerca normale, non riesce a funzionare nella maniera aspettata, rivelando una
anomalia che, nonostante i ripetuti sforzi, non può venir ridotta a conformarsi
all'aspettativa professionale.» Questo è il modo, conclude Kuhn, con cui la
ricerca normale « va fuori strada»: quando ciò accade, quando cioè i professionisti non possono più trascurare anomalie che sovvertono la tradizione della pratica scientifica, cominciano « quelle indagini straordinarie che finiscono col
condurre la professione ad abbracciare un nuovo insieme di impegni, i quali
verrano a costituire la nuova base della pratica scientifica ». Sono tali « episodi
straordinari» che costituiscono le autentiche « rivoluzioni scientifiche».
L'attento studio storico di« quei famosi episodi che già in passato sono stati
spesso indicati come rivoluzioni » mostra che in tali casi si è sempre rivelato
necessario «l'abbandono da parte della comunità di una teoria scientifica un
tempo onorata in favore di un'altra incompatibile con essa» [corsivo nostro] e conseguentemente si è prodotto « un cambiamento dei problemi da proporre all'indagine scientifica e dei criteri secondo cui la professione stabiliva che cosa
si sarebbe dovuto considerare come un problema ammissibile o come una soluzione legittima di esso». La fondamentale distinzione tra problemi genuini (sui
quali soli si deve appuntare l'interesse del ricercatore) e pseudoproblemi, posta
come discriminante assoluta e metastorica dai pensatori dei circoli di Vienna e
di Berlino, viene così storicizzata e relativizzata. Di qui la lezione metodologica
che si può trarre, per Kuhn, dalla storia della scienza:« Gli storici,)) scrive Kuhn,
« [... ] piuttosto che andare a cercare, nella scienza di un'epoca passata, i contributi
permanenti che quella ha apportato al nostro benessere attuale, si sforzano di
presentare l'integrità storica di quella scienza considerata nel suo tempo. Essi,
per esempio, si pongono domande non circa il rapporto delle concezioni di
Galileo con quelle della scienza moderna, ma piuttosto circa il rapporto tra le
sue concezioni e quelle [... ] dei suoi maestri, dei suoi contemporanei, e dei suoi
successori immediati nel campo delle scienze. )) Q).lesta rivoluzione nella storiagrafia ha un'importante conseguenza anche per l'epistemologia: l'esame spregiu-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
dicato di quel che la ricerca storica offre fa emergere «l'insufficienza delle direttive metodo logiche [siano pure quelle del falsificazionismo] a imporre da sole
un'unica conclusione sostanziale a molti tipi di questioni scientifiche » e a dconferire un carattere problematico a« quell'arsenale di dicotomie», in primis alla
reichenbachiana distinzione tra contesto della scoperta e contesto della giustificazione più sopra ricordata, che l'epistemologia positivistica suole invece dare
per scontate. Come Hanson, Kuhn profila il recupero di componenti dell'impresa
scientifica « dimenticate » dagli empiristi logici e accetta sostanzialmente le dottrine della dipendenza dei significati e dell'osservazione impregnata di teorie;
riprende l'« analisi concettuale» di Koyré e rivaluta quindi la funzione dei miti,
delle costellazioni di intuizioni circa « le entità che la natura contiene o non contiene », delle speculazioni metafisiche che contribuiscono a formare « la mappa »
della ricerca scientifica; un'ottica discontinuista contrappone le fratture che lo
storico constata a ogni rivoluzione scientifica con la tradizionale idea di una
« crescita del sapere per accumulazione », in questo avvicinandosi idealmente
all'epistemologia di Gaston Bachelard (non a caso citato sempre meno timidamente con la fine degli anni cinquanta dagli storici ed epistemologi di lingua
inglese insofferenti della caratterizzazione positivista del progresso scientifico) e
lontano invece dalla concezione generalmente attribuita agli empiristi logici; riporta infine la dinamica dello sviluppo della scienza alla «lotta tra sezioni della
comunità scientifica » sostituendo la considerazione di tale processo storico
(«l'unico [... ] che abbia effettivamente avuto come risultato l'abbandono di una
teoria precedentemente accettata o l'adozione di una nuova») a quei «procedimenti di conferma o di falsificazione resi familiari dalla usuale immagine della
scienza».
Ciò premesso si comprende come le idee espresse da Kuhn nella monografia
abbiano rappresentato agli occhi dei ricercatori impegnati una vera e propria
rivoluzione intellettuale e, cosa più interessante, ciò sia valso per scienze relativamente nuove (psicologia sociale, sociologia, economia, ecc. in cui « è aperto
il dibattito sui fondamenti») come per scienze più mature come la fisica, la chimica o anche la biologia, ove più ampia appare l'area« di un consenso duraturo ». Di più: la concezione dello ~viluppo secondo uno schema ricerca normale/
crisi e ricerca straordinaria /ricerca normale è stata estesa da storici « kuhniani »
anche a discipline non empiriche, in primis alla matematica. Non ha anch'essa
avuto le sue « crisi » che hanno interrotto cospicui periodi di « ricerca normale »
(a cominciare dalla scoperta degli irrazionali che, col mettere in crisi la matematica pitagorica, ha inaugurato quel filone di scienza straordinaria che è sfociata
prima nella teoria eudossiana, quindi nella sua sistemazione istituzionale negli
Elementi di Euclide, per finire con la crisi dei fondamenti clamoròsttmente aperta
dalle antinomie dei primi anni del Novecento)? Conseguentemente, in una prospettiva più ampia di quella relativa alle sole discipline empiriche si sono venuti
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
prospettando gli stessi nodi concettuali della concezione kuhniana « per paradigmi »: ne segnaliamo qui due.
Il primo riguarda la «funzione del dogma» e il ruolo della ricerca normale: nella
« tensione essenziale » tra tradizione e innovazione Kuhn, già in lavori precedenti a La struttura delle rivoluzioni scientifiche, viene enucleando il ruolo dell'atteggiamento dogmatico dei membri di una sezione della comunità scientifica
che restano aderenti «ai propri impegni di base [basic commitments] ». Con la
competenza storica che gli è propria, già nel r96r il nostro autore ricorda che,
« da come Galileo ha accolto le ricerche di Keplero, da come Naegeli quelle di
Mendel, o da come Dalton ha respinto i risultati di Gay-Lussac e da come Kelvin
quelli di Maxwell, novità inattese di fatti o teorie hanno incontrato resistenza e
sono state spesso respinte da molti dei più stimati esponenti della comunità
scientifica». Ma, come osserva nella monografia dell'anno successivo, «una resistenza opposta per tutta la vita, particolarmente da parte di coloro la cui carriera
produttiva è stata legata alla vecchia tradizione della scienza normale, non è una
violazione dei criteri scientifici, ma una indicazione della natura stessa della' ricerca
scientifica» [corsivo nostro]. In The function of dogma in scientific research (La funzione del dogma nella ricerca scientifica, r96r) già Kuhn aveva sottolineato che un
atteggiamento del genere « è elemento costitutivo della ricerca in quanto definisce per il singolo scienziato quali sono i problemi che può affrontare e la natura
delle soluzioni accettabili » perché « di norma lo scienziato è un solutore di
rompicapo [puzzle], come il giocatore di scacchi, e tale adesione, indotta dalla
formazione professionale, gli fornisce le regole del gioco in uso nel suo tempo ».
Di più, « l'unanimità con cui il gruppo di professionisti aderisce a una certa
concezione fornisce al singolo un rilevatore estremamente sensibile dei punti
deboli da cui si produrranno quasi inevitabilmente le innovazioni significative
nei fatti e nella teoria». E dunque: « non c'è bisogno di far del dogma una virtù
per riconoscere il fatto che nessuna scienza matura esisterebbe senza di esso »:
tesi questa che Kuhn rafforzerà alla fine degli anni sessanta indicando come possibile criterio di demarcazione per l'impresa scientifica la presenza rilevante di una
tradizione di scienza normale.l
Il secondo nodo concettuale concerne « il progresso attraverso la rivoluzione »,
per usare la stessa terminologia della monogra_fia del 1962. È ben vero, ammette
Kuhn, che i nuovi paradigmi, prodotti da una rivoluzione, poiché in qualche
modo sono « nati da quelli vecchi » che hanno vittoriosamente spodestato, contengono gran parte del vocabolario e dell'apparato, sia concettuale sia tecnico,
che aveva fatto parte del paradigma tradizionale; ma « entro il nuovo paradigma,
1 Scriverà infatti: «Un attento sguardo all'impresa scientifica suggerisce che è la scienza
normale, in cui il tipo di controllo caro a Popper
non ha luogo, piuttosto che la scienza straordinaria, ciò che più distingue la scienza dalle altre
attività. Se esiste un criterio di demarcazione
(penso che. non dobbiamo cercarne uno netto o
decisivo), può trovarsi proprio in quella parte
·della scienza che Popper non prende in considerazione. »
www.scribd.com/Baruhk
Filosofi~ della scienza e storia della scienza nella cultura di lingua inglese
i vecchi termini, concetti ed esperimenti entrano in nuove relazioni tra di loro».
Ne consegue «inevitabilmente» quel che Kuhn chiama («sebbene il termine
non sia del tutto esatto») «un'incomprensione fra due scuole in competizione».
Kuhn riprende quindi tesi che già abbiamo trovato in Hanson ma, si badi, nessun « ragionamento retroduttivo » sembra indicare la strada da percorrere. « Come il cambiamento di Gesta/t, » dice Kuhn, « il passaggio da un paradigma all'altro deve compiersi tutto in una volta (sebbene non necessariamente in un
istante) oppure non si compirà affatto »: se si tratta« di un passaggio tra incommensurabili »esso« non può essere [... ] imposto dalla logica o da un'esperienza
neutrale. » Ma allora come si fa strada la genuina novità scientifica? Si deve concludere pessimisticamente, con un protagonista della rivoluzione quantistica,
Max Planck,l che essa« si impone non convincendo i suoi oppositori [... ], ma
piuttosto perché costoro alla fine muoiono e subentra alloro posto una generazione che ad essa si è abituata »? Ha allora senso parlare ancora di progresso
scientifico? Per Kuhn è possibile « render conto sia dell'esistenza della scienza
che del suo successo in termini di evoluzione a partire dallo stato delle conoscenze
possedute dalla comunità a ogni dato periodo di tempo » senza per questo « immaginare che esista qualche completa [... ], vera spiegazione della natura e che
la misura appropriata della conquista scientifica sia la misura in cui essa ci avvicina a questo scopo finale» (ciò giustifica per Kuhn, tra l'altro, l'abbandono
della popperiana concezione della verisimilitudine, cfr. paragrafo n). Come nell'Ottocento la teoria darwiniana ha permesso di superare tutte quelle concezioni
per cui l'evoluzione «restava un processo diretto verso uno scopo finale»,
mostrando che era concepibile un costante processo evolutivo « a partire da
stadi primitivi, ma che non tendeva verso nessuno scopo», così «il risultato complessivo di una serie di selezioni rivoluzionarie [... ] separate da periodi di ricerca normale, è l'insieme meravigliosamente adeguato di strumenti che chiamiamo conoscenza scientifica moderna », prodottasi in un processo che « può
aver avuto luogo [... ] senza l'aiuto di un insieme di finalità, o di una verità
scientifica stabilita una volta per tutte, della quale ciascuno stadio dello sviluppo
[... ] costituiva. una copia migliore rispetto alla precedente».
3· Logica della scoperta o psicologia della ricerca? Già da quanto precede il lettore avrà intuito che le concezioni di Kuhn non solo divergono dalle prospettive
dell'empirismo logico, ma anche dallo stesso falsificazionismo popperiano, da noi
esaminato nel capitolo XIV del volume settimo e ripreso nei paragrafi I e n di
questo capitolo. Alleati contro « la concezione standard » dell'impresa scientifica, entrambi rivendicatori del ruolo positivo della metafisica e in genere delle
varie tradizioni culturali, entrambi critici dell'usuale concezione della « crescita
per accumulazione, entrambi diffidenti di un'analisi puramente logica delle
I
Nella sua Autobi~grafta scientifica (Wissenschaftliche Selbstbiographie, pubblicata postuma nel 1948).
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
teorie che non tenga conto della reale dinamica storica », Popper e Kuhn divergono sul fatto che « [mentre per il primo] la scienza è una " rivoluzione ininterrotta" e l'atteggiamento critico costituisce il cuore dell'attività scientifica,
per Kuhn la rivoluzione è un qualcosa di straordinario [... ] e l'atteggiamento
critico in tempi "normali" è un anatema» (Lakatos). Sicché tale divergenza,
ha ammonito Lakatos, lungi dal riguardare particolari problemi tecnici dell'epistemologia, « ha a che fare coi nostri valori intellettuali di fondo. Ha implicazioni che riguardano non solo la fisica teorica, ma anche discipline meno sviluppate, come le scienze sociali, e anche la filosofia morale e politica. Se anche
nella scienza non v'è altro mezzo per giudicare una teoria che non sia quello di
valutare il numero, la fede e l'energia vocale dei suoi sostenitori, allora la stessa
cosa potrà verificarsi in grado anche maggiore nelle scienze sociali: la verità si
fonda sul potere».
Fino a che punto è giustificata quest'ultima accusa? Popper, Watkins, Lakatos e in genere tutti i « razionalisti critici » scorgono nei due punti nodali che
abbiamo in precedenza esaminato e nella conseguente caratterizzazione kuhniana
del passaggio da un vecchio paradigma a uno nuovo come « una conversione »
la traccia di quella cOncezione « post-critica » dell'impresa scientifica delineata
da Michael Polanyi già nel suo Science,faith and sociery (Scienza,Jede e società, 1946)
e quindi in Personal knowledge (Conoscenza personale, 195 8) che tende a prospettare le decisioni di fondo della comunità scientifica come « prese soltanto sulla
base della fede » e a valorizzare il ruolo delle componenti extralinguistiche
e non razionali dell'attività scientifica che ne costituiscono the tacit dimension,
«la dimensione silenziosa ». Di qui la condanna di Popper della ricerca normale (intesa come «l'attività del professionista non critico [...] che accetta
il dogma predominante senza metterlo in discussione») come un «pericolo
per la scienza e anzi per la civiltà stessa », e la insistente rivendicazione della
« razionalità » delle rivoluzioni scientifiche; di qui anche il rifiuto, da parte di
Popper come di Watkins, della tesi dell'incommensurabilità o della sua versione
più debole, la tesi della «rottura della comunicazione» tra sostenitori di differenti concezioni; di qui la critica, da parte di Popper come di Lakatos, del tentativo di costruire una « psicologia » o una « sociologia » invece che una logica
della scoperta. Ritorneremo nel paragrafo successivo sulle critiche di Lakatos
nel contesto della « metodologia dei programmi di ricerca »; qui sottolineiamo
che, a sua volta, Kuhn è venuto chiarendo, a partire da un suo intervento al colloquio internazionale di filosofia della scienza tenuto nel 1965 a Londra,l le motivazioni del proprio dissenso da Popper, presente, anche se in modo meno esplicito, già nei lavori del periodo 195 8-62. L'errore di fondo che Kuhn ascrive all'epistemologia di Popper è quello di aver riletto« l'intera avventura della scienza
in termini che sono applicabili soltanto ai suoi occasicinali momenti rivoluzioI
Cfr. la bibliografia del capitolo fornita alla fine di questo volume.
314
www.scribd.com/Baruhk
Filoso~ della scienza e storia della scienza nella cultura di lingua inglese
nari », trascurando o fraintendendo la ricerca normale. Quando Popper si è rivolto alla storia della scienza, gli esempi che ha preso in considerazione sono del
tipo degli esperimenti di Lavoisier sulla calcinazione o addirittura la rivoluzione
copernicana e quella einsteiniana, ma « ha dimenticato [che] episodi del genere
sono molto rari [... ]. Quando accadono, sono generalmente provocati o da una
precedente crisi in un settore attinente (gli esperimenti di Lavoisier oppure quelli
di Lee e Y ang) o dall'esistenza di una teoria che è in competizione con i canoni
esistenti di ricerca (la relatività generale di Einstein)». Ma questi per Kuhn sono
solo occasioni per la ricerca straordinaria, che emerge però, come abbiamo visto,
solo «in circostanze eccezionali». L'atteggiamento critico caro ai popperiani per
Kuhn diventa una componente rilevante dell'impresa scientifica soltanto nei
momenti di crisi, quando cioè le fondamenta stesse del campo di indagine sono
in pericolo. Conseguentemente « né la scienza, né lo sviluppo della conoscenza
possono essere compresi con facilità, se la ricerca è vista esclusivamente attraverso le rivoluzioni che essa occasionalmente produce». Popper è sostanzialmente fuori strada « nel trasferire caratteristiche proprie della ricerca di tutti
i giorni agli occasionali episodi rivoluzionari in cui il progresso scientifico è
più ovvio e, quindi, nell'ignorare completamente l'attività quotidiana dello
scienziato».
Quanto al tentativo di risolvere il problema della scelta delle teorie durante
le rivoluzioni « mediante criteri logici che sono applicabili solo quando una teoria
può già essere presupposta », esso è condannato al fallimento: la frattura della
comunicazione, che Kuhn, come del resto vedremo nel paragrafo VI, tende a
ribadire contro le obbiezioni dei critici, implica che non sia la logica a guidare
il cambiamento concettuale, in cui svolgono invece un ruolo determinante motivi psicologici e· socio logici.
4· L'astuzia della ragione. Mentre le critiche di Popper e dei popperiani più
o meno eterodossi (Watkins, Agassi, Lakatos, ecc. e anche Feyerabend) non mettono in discussione l'esistenza della «componente normale» dell'impresa scientifica, ma vertono sulla sua rilevanza e sulle sue specifiche modalità, diverse sono le obbiezioni che alla prospettiva kuhniana della ricerca normale e delle rivoluzioni muove Stephen Toulmin. Ci pare interessante concludere con alcune
osservazioni di questo autore il presente paragrafo, dato che Toulmin è, con
Hanson e Kuhn, un altro protagonista della « rivolta » contro la tradizione empiristica e positivistica. A rigore, anzi, il distacco toulminiano dai canoni di tale
tradizione precede le « trame della scoperta » come « i paradigmi », in quanto è
già presente nell'agile Philosophy of science (Filosofia della scienza) del 1953, anche
se una più matura. formulazione, con notevoli variazioni rispetto al disegno originario, compare in saggi degli anni sessanta, per culminare infine nell'ambizioso Human understanding (La comprensione umana, vol. I, 1972).
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
È interessante notare innanzitutto che per Toulmin, benché le teorie scientifiche debbano anche fornire predizioni di successo, una volta fissati i margini
di errore tollerabile, la loro funzione precipua è quella di fornire spiegazioni convincenti(« che soddisfino il nostro intelletto», pleasing to the mind è l'espressione
di Toulmin) delle regolarità che l'uomo individua nella natura. Secondo una divisione dei compiti presente in aree anche piuttosto differenziate della filosofia
della scienza anglosassone (cfr. del resto il paragrafo n) il far previsioni rforecasting] «è un'arte, rientra nella tecnologia, rappresenta un'applicazione della scienza
piuttosto che il cuore dell'impresa scientifica». Quest'ultima invece deve specificare, utilizzando teorie, certi schemi di comportamento [behavior patterns] che
vengono incontro alle nostre aspettative e render conto di eventuali deviazioni.
Più precisamente: la teoria configura « un ideale ordine della natura » che specifica quello che usualmente intendiamo con « il corso naturale degli eventi »; ma,
poiché i fenomeni deviano inesorabilmente da tale schema ideale, la teoria deve
introdurre varie leggi, intese a specificare tali deviazioni. Così, per esempio, nella
meccanica di Newton, il principio di inerzia descrive l'ordine ideale in meccanica (il moto rettilineo uniforme è il solo che non richieda ulteriore spiegazione),
mentre le altre leggi hanno il compito di render conto di tutte le deviazioni da
tale moto «ideale». Le teorie costituiscono per Toulmin dei «metodi di rappresentazione » dei fenomeni: come tali, possonò essere « eleganti », « fruttuose »,
ecc. ma non vere o false, proprio come non sono vere o false quelle particolari
« rappresentazioni » dei fenomeni che sono disegni o figure. Quanto all' organizzazioni di ipotesi, leggi, ordini ideali in una teoria, questa avviene non secondo
uno schema rigidamente ipotetico-deduttivo, ma piuttosto mediante una « stratificazione » in vari livelli linguistici in cui il livello più basso mutua termini dal
linguaggio quotidiano e, successivamente, ogni livello mutua termini dal precedente, con un vero e proprio « slittamento linguistico » [language shift] in cui
continuamente viene alterato il significato di ogni termin~ coinvolto. Ancora
una volta il significato dei termini dipende strettamente dàlla teoria e il significato di un enunciato di un dato livello può essere esplicitato solo ricorrendo a
enunciati del livello precedente. In questa prospettiva, per certi versi « strumentalista », pietra di paragone delle varie teorie è quel complesso di « supposizioni » [presumptions] con cui diamo corpo alle nostre aspettative e che costituisce più che un « sistema di riferimento » o « un quadro concettuale » una vera
e propria Weltanschauung, che determina sia i problemi che gli scienziati si propongono di risolvere sia le premesse di fondo che sottendono le loro teorizzazioni. Ma una Weltanschauung non è necessariamente rigida: essa evolve, interagendo con l'evoluzione delle teorie e dei linguaggi e restando comunque il
punto di riferimento per la valutazione dei risultati teorici.
Per certi aspetti, dunque, l'analisi di Toulmin si avvicina a quella di Kuhn,
sia nell'abbandonare verificazione e conferma care agli empiristi logici, sia nel
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
tralasciare lo stesso schema popperiano della falsificazione, ancora troppo metastorico e astratto, per seguire «più da vicino [... ] l'effettiva e&perienza storica
degli scienziati ». I neoempiristi e Popper sono caduti nel medesimo fraintendimento: hanno immaginato che <~ i procedimenti razionali dell'indagine scientifica obbedissero a una sorta di" logica"» deduttiva o induttiva a seconda delle
proprie personali preferenze, mentre sono le strutture formali offerte dalla logica deduttiva, dal calcolo delle probabilità, ecc. che caso per caso «debbono
venir utilizzate nelle varie imprese razionali », salva restando la specificità di
ciascuna di esse. Kuhn ha indicato la via di un corretto approccio evoluzionistico,
ma l'arbitraria distinzione tra ricerca «normale» e «straordinaria» ha implicato
l'introduzione di « rivoluzioni scientifiche » come « drammatiche fratture della
comunicazione», «vere e proprie catastrofi supe.r-razionali », sì che quest'autore
ha enfatizzato il ruolo dell'atteggiamento dogmaticp. fino a prospettare il cambiamento di paradigma (Paradigm switch) come una :conversione religiosa. Nel
porre il problema «di come si possono sostituire le costellazioni intellettuali»
occorre mantenere invece il punto di vista per cui « si possono delineare in modo
significativo confronti razionali tra concetti e giudizi operativi in differenti contesti e si può far ciò in termini che, allo stesso tempo, mostrino le ragioni per
cui tali confronti, in certi casi, cessano di essere significativi ». Il punto di partenza è per Toulmin l'analisi dello sviluppo storico di quelle imprese razionali
collettive (le usuali « discipline») « in cui secondo uno schema evolutivo mutanq
col tempo le popolazioni dei conc€tti »; il passo successivo consiste nell'interpretare « in termini ecologici » come si sono adattati tali concetti alle richieste
che i vari ambienti - quello della ricerca pura come quello della tecnologia, o
del diritto, o della morale, ecc. - sono venuti via via ponendo. È questa « analisi
ecologica» che permette («retrospettivamente») di tracciare una demarcazione
tra confronti «legittimi» e no circa diversi apparati concettuali; che consente,
per esempio, di conferire un senso alla convinzione intuitiva che, almeno sotto
qualche profilo, la quantitas motus di Newton ha rappresentato un progresso intellettuale sull' impetus di Buridano! In questo modo, « mentre si accumula la
·nostra esperienza, le nostre idee circa le strategie razionali e le procedL.re da
seguire nel trattare i vari problemi nelle diverse discipline appaiono sempre più
suscettibili di revisione e perfezionamento». È finita per Toulmin l'epoca dei rituali epistemologici imposti a priori all'impresa scientifica, come volevano ancora
i neoempiristi e Popper; ma non per questo occorre seguire il Kuhn delle Rivoluzioni scientifiche nell'abbandonare ogni speranza di ritrovare una razionalità
nello sviluppo storico. C'è ancora, conclude Toulmin la prima parte di La comprensione umana, la possibilità di trarre profitto dalla storia apprendendo qualcosa
sui nostri comportamenti intellettuali (e sociali) e sotto questo profilo ha ancora
un senso il richiamo al kantiano « piano della natura » o all'hegeliana « astuzia
della ragione » (ricomparsa, come abbiamo visto alla fine del paragrafo III a
317
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
razionalizzare l'incessante, anche se lento rispetto ad altre componenti della ricerca, mutare dei criteri di rigore e, in generale, dei « principi costitutivi » di
una disciplina intellettuale).
V· LA METODOLOGIA DEI PROGRAMMI DI RICERCA SCIENTIFICI
Ritorniamo ora al caso storico invocato da Agassi nel paragrafo n ed esaminiamo la « struttura fine » della « confutazione » di Prout da parte di Stas.
Un primo punto, come ha sottolineato Imre Lakatos, è che, nella formulazione
riportata da A gassi (p. 290) T e R non si contraddicono. Per evidenziare la loro
incompatibilità, occorre riformulare T come «i pesi atomici di tutti gli elementi
chimici puri (omogenei) sono multipli del peso atomico dell'idrogeno » e R
come « il cloro ~ un elemento chimico puro (omogeneo) e il suo peso atomico è
3 5,5 ». Quest'ultimo asserto ha la forma di un'ipotesi falsificante che, se fosse
corroborata, ci permetterebbe di usare asserzioni base B «il cloro X è un elemento
chimico (omogeneo) e il suo peso atomico è 35,5 » oveXè il nome proprio di
una quantità di cloro determinata, per esempio, dalle sue coordinate spaziotemporali.
Si badi: per A gassi B è corroborata e il fatto che, ciononostante, «non scalzi»
R depone contro la popperiana teoria della corroborazione. Per Lakatos invece
che B sia sufficientemente corroborata è per lo meno problematico. Infatti la
.sua prima componente dipende da Rt: « Il cloro è un elemento chimico puro »,
verdetto del chimico sperimentale dopo un'applicazione rigorosa delle« tecniche
sperimentali» dell'epoca. Occorre allora passare alla «struttura fine» di Rt. Ma
questa sta per la congiunzione di due asserti Tt e T2. Il primo asserto Tt potrebbe
essere del tipo: « Se procedure di purificazione Pt, p2, ... , Pn sono applicate -a
un gas, quel che resta sarà puro cloro. » T 2 sarà allora: « X è stato sottoposto alle
n procedure Pt. p 2 , ••• , Pn· » Lo sperimentale ha applicato accuratamente tutte
le n procedure: T 2 dev'essere accettato. Ma la conclusione che quel che resta
dev'essere cloro puro è un « fatto bruto » solo se T 1 è relegata tra la conoscenza
di sfondo non problematica; infatti lo sperimentale, nel controllare T, applicava T 1
ed interpretava quel che vedeva alla luce di Tt. Sono tali approfondimenti di
apparenti conflitti teoria /fatti che per Lakatos permettono di evidenziare i limiti
sia di Popper che di Agassi. Popper, almeno in un primo tempo, ha adottato un
modello monoteorico in cui non c'è posto per «teorie interpretative come T1 ».
Agassi ha accettato B come « sufficientemente corroborata » (anche se allo scopo
di espellere dalla scienza pura la corroborazione). Per Lakatos nel caso specifico sarebbe stato possibile « applicare » T invece di T 1 e affermare che i pesi
atomici debbono essere numeri interi respingendo così T 1 e cercando magari nuove
procedure addizionali di purificazione. Nel modello pluralistico del falsificazionismo sofisticato per Lakatos il problema centrale non è se una confutazione è ef-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
fettiva o no, ma come riparare a una incompatibilità fra la teoria esplicativa in
esame e la teoria interpretativa- esplicita o nascosta; o, se si preferisce, quale
teoria considerare interpretativa, tale che fornisca « i fatti», e quale esplicativa, tale che li
spieghi «per tentativi». Si è prodotto così uno « slittamento » dal vecchio problema
di sostituire una teoria confutata da « fatti » al nuovo problema di come risolvere le incompatibilità fra teorie strettamente associate. Quale fra (almeno) due
teorie incompatibili deve essere eliminata? Il falsificazionista sofisticato per Lakatos cercherà di sostituire prima una, poi l'altra, poi forse entrambe, ecc. e
optare per il nuovo sistema che f®rnisce il maggior aumento di contenuto corroborato,
che soddisfa cioè i requisiti di accettabilitàl e di accettabilitàz (caratterizzati come
alle pagg. 491 sgg. del capitolo XIV del volume settimo). Agassi lotta invano con:tro la corroborazione: centra infatti il bersaglio solo nel caso del falsificazionismo
ingenuo (modello monoteorico), ma non di quello sofisticato (modello pluralistico) e
nel suo « polemizzare contro gran parte della filosofia della scienza contemporanea», nel respingere, tra le varie concezioni della « crescita della scienza per
accumulazione», anche la visione « quasi-induttiva » di Popper sembra non accorgersi, osserva con ironia Lakatos, di « riprendere i vecchi argomenti di
Neurath » che abbiamo esaminato nel paragrafo 11 del capitolo XIV del volume
settimo.
Le critiche di Lakatos appaiono estremamente convincenti; ma ci chiediamo
subito: il più ampio respiro che in vari saggi Lakatos ha conferito alle idee
espresse in un primo tempo solo in relazione alla matematica (cfr. paragrafo m)
si riduce solo a una difesa d'ufficio della « ortodossia popperiana », per usare
un'espressione di Feyerabend? Vediamo. Almeno da The aim of science (Lo scopo
della scienza, 1957) Popper mostra chiara consapevolezza che «critica e crescita
della conoscenza » non vanno valutate in riferimento a una teoria isolata, ma
a una successione di teorie.l Lakatos propone una suggestiva terminologia. Data
una successione di teorie T1, T2, Ts, ... , dove ogni teoria T71 (n > 1) si ottiene
aggiungendo clausole ausiliari alla teoria T71_ 1 (o a una sua reinterpretazione
semantica) per poter accomodare alcune anomalie e supposto che ogni teoria abbia
almeno tanto contenuto quanto il contenuto non confutato della precedente, Lakatos battezza tale successione di teorie « uno slittamento-di-problema [problem
shift] progressivo teoricamente » se ogni teoria Tn ha contenuto empirico eccedente rispetto alle teorie che la precedono, ossia, se predice qualche fatto nuovo,
inaspettato; T n costituirà anche « uno slittamento-di-problema progressivo empiricamente » se parte di questo contenuto empirico in eccesso sarà corroborato,
ossia, se ogni teoria Tn conduce alla scoperta effettiva di qualche fatto nuovo.
Finora si è trattato solo di aggiungere qualche definizione al falsificazionismo
popperiano sofisticato. Ma Lakatos ricorda che «sussiste un'abbiezione cui
nemmeno il falsificazionista sofisticato riesce a rispondere senza qualche conI
Cfr. in particolare il paragrafo
IV
del capitolo xiv del volume settimo.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
cessione alla " teoria della semplicità " di Duhem ». Questi a suo tempo aveva
osservato che non sempre si trova« sensata» « la fretta con cui [il rivoluzionario]
ha messo sottosopra i principi di una teoria ben articolata e armoniosamente
costruita, proprio quando la modificazione di un dettaglio, una piccola correzione
sarebbero bastate a mettere la teoria in accordo coi fatti »; ma pure può apparire
«puerile e irragionevole l'ostinazione con cui [il conservatore, Kuhn direbbe lo
scienziato " normale "] difende a qualsiasi costo, al prezzo di continue correzioni
e di un'accozzaglia di puntelli ingarbugliati [foui/lis d'étais enchevetrés] le colonne
corrose dai vermi di un edificio che traballa da tutte le parti, mentre, radendo al
suolo le colonne, sarebbe possibile costruire sulla base di nuove ipotesi un sistema
semplice, elegante e solido». Come distinguere, si chiede allora Lakatos, buone
(cioè «progressive») modificazioni di certi «dettagli» àal «groviglio» di pesanti ipotesi ausiliari? Stando alle definizioni di cui sopra aggiungere a una teoria
ipotesi di basso livello tra loro non connesse può costituire uno « slittamento
progressivo». Per Lakatos è difficile «eliminare tali espedienti senza richiedere
che le asserzioni aggiuntive debbano essere connesse con l'asserzione originaria
più intimamente che dalla semplice congiunzione». Ma questa è una sorta di
richiesta di semplicità che assicurerebbe la continuità nella successione di teorie che nella terminologia lakatosiana costituisce un unico slittamento di problema.
L'osservazione di Lakatos mette a fuoco quel che è uno dei punti deboli
della concezione di Popper, la questione della continuità: se la « logica della scoperta» popperiana riesce a realizzare che è una successione di teorie e non un'unica
teoria che va valutata come scientifica o pseudoscientiftca, ancora le sfugge che gli elementi di tali successioni sono usualmente connessi da una notevole continuità,
«reminiscenza della "scienza normale" di Kuhn », che svolge un ruolo essenziale nella storia della scienza.
Per Lakatos questa continuità si sviluppa da un «programma di ricerca » adombrato all'inizio: ,esso consiste di regole metodologiche che indicano o quali vie
evitare («euristica negativa») o quali vie perseguire («euristica positiva»). Certo,
osserva il nostro autore, « anche la scienza intesa come un tutto unico può essere
considerata come un enorme programma di ricerca se si adotta la regola euristica
di Popper- escogitare congetture che abbiano maggior contenuto empirico
delle precedenti - e regole metodologiche del genere possono essere formulate,
come lo stesso Popper ha messo in evidenza, come principi metafisici ». Ma
Lakatos non pensa tanto alla scienza come un tutto unico, bensì a programmi di
ricerca particolari, come per esempio la « metafisica cartesiana ». Questa, cioè la
teoria secondo cui l'universo è un enorme meccanismo con un impulso come unica
causa di movimento, « funzionava come un potente principio euristico: scoraggiava il lavoro sulle teorie scientifiche - come la versione " essenzialista" della
teoria dell'azione a distanza di Newton - che erano incompatibili con essa
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
(euristica negativa). D'altra parte, incoraggiava il lavoro su ipotesi ausiliari, che
avrebbero potuto salvarla da un'apparente evidenza contraria- come le ellissi
di Keplero (euristica positiva) ». Per certi versi Lakatos riprende qui, dunque, le
idee sulla «metafisica influente» o sui «quadri metafisici » care a Popper, Watkins, Agassi. Lo stesso termine « programma di ricerca » è di origine popperiana.
Nell'Autobiografia Popper, alludendo all'inedito Postscript: after twenty years
(Poscritto: dopo vent'anni), ricorda che, già negli anni cinquanta, « uno dei [suoi]
scopi era mostrare che il realismo· della Logica [del 1934] era una posizione criticabile o discutibile [... ]. La Logica era il libro di un realista che a quel tempo
non osav[a] dire c\i più sull'argomento». E aggiunge: «La ragione "era che non avevo
ancora compreso che una posizione metafisica, benché non controllabile [testable],
può essere razionalmente criticabile [criticizable] o discutibile [arguable]. Avevo
dichiarato di essere un realista, ma avevo pensato che questa non fosse nulla più
che una professione di fede. Così, a proposito di una mia argomentazione circa
il realismo avevo scritto [nella Logica] che essa esprime la fede metafisica nella
esistenza di regolarità nel nostro mondo (fede che io condivido, e senza la quale
l'azione pratica è quasi inconcepibile) » [corsivi nostri]. Ma nel perseguire tale obbiettivo, Popper mirava anche « a una rivalutazione del ruolo giocato dai programmi
di ricerca metafisici » mostrando «con l'aiuto di un breve profilo storico che
c'erano stati mutamenti durante le epoche (nel corso dei secoli) nelle nostre idee, di cui era
auspicabile una soddisfacente spiegazione. Tali idee erano mutate sotto la pressione
della critica. Erano dunque criticabili, anche se non controllabili. Erano sì idee
metafisiche, ma idee metafisiche della massima importanza» [corsivi di Popper],
in quanto fornivano «un possibile quadro [Jramework] per teorie scientifiche
controllabili ».
Con Popper, Watkins, Agassi, ecc. Lakatos conviene che questa è la via
per articolare ulteriormente le esigenze di un Koyré o di un Burtt di rivalutare
la metafisica contro la « tradizione positivista ». Di più, passi come questo di
Popper evidenziano lo stretto legame che intercorre tra programmazione razionale dell'impresa scientifica, continuità e quadri « metafisici » (forse più di quanto
permetta una caratterizzazione dello sviluppo scientifico come ininterrotta sequenza di « congetture e confutazioni » !), ma, a detta di Lakatos, Popper, Agassi
e Watkins hanno «confuso» non confutabilità sintattica e metodologica, hanno
strettamente associato agli asserti della metafisica una particolare caratterizzazione linguistica.! Ma· ciò per Lakatos non è affatto necessario: non è interessante
classificare la concezione cartesiana come metafisica in quanto sintatticamente non
falsificabile, ma riconos.cere in essa della « cattiva scienza » se, poniamo, il tentativo di reinterpretare in tale quadro concettuale la teoria rivale dell'azione a
distanza ha dato luogo a uno slittamento di problema regressivo (nel senso di
P· 319). Per Lakatos non ci sono programmi di ricerca metafisici che forniscono
x Cfr. quanto detto delle teorie « metafisiche per la loro forma linguistica» nel paragrafo x.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
dall'esterno i quadri concettuali delle teorie scientifiche: la metafisica non è solo
un «catalizzatore», è invece il cuore dell'impresa scientifica.
Ci pare opportuno, vista la rilevanza che ha in tutta la presente opera il rapport~ scienza /metafisica, f~;nire alletto re un filo rosso su tale questione, di necessità schematico, ma che riteniamo utile al fine di cogliere i tratti specifici delle
concezioni delineate in questo capitolo. In un positivista come Comte lo «stadio»
metafisico precedeva (epistemologicamente e storicamente) quello della scienza matura (cioè
lo stadio « positivo »); per un «nuovo positivista » come Mach la metafisica compenetrava accreditate teorie scientifiche (come la meccanica di Newton) e costituiva una
pericolosa insidia nascosta da espellere, obbiettivo questo della stragrande maggioranza dei « posi tivisti logici », almeno nella fase iniziale del neoempirismo; per
Popper e gli altri teorici della metafisica influente essa è la «fonte» delle più prestigiose
teorie scientifiche, ma ha uno « status » che va attentamente distinto da quello delle teorie
scientifiche; per Kuhn è.una fondamentale componente (non certo l'unica, come ha brillantemente mostrato Margaret Masterman l) dei suoi paradigmi entro cui si svolge
la ricerca «normale»; per Lakatos, infine, costituisce il nucleo originario da cui muove
ogni serio programma di ricerca scientifico. Ci par opportuno aggiungere che tale
esito lakatosiano, per così dire, riabilita notevoli affermazioni in cui ci imbattiamo
nello scorrere i classici della scienza, come quando leggiamo in Lazare Carnot2
che la « metafisica del calcolo [infinitesimale] » è costituita da quelle « idee primitive che possono lasciare semp~e qualche nube nella nostra mente, ma le cui
conseguenze, una volta che siano state dedotte, aprono un campo vasto e facile
a percorrersi ».
Orbene, tali « nubi » possono offuscare « il limpido cielo » del falsificazionista popperiano, ma non deviare spregiudicati ricercatori dal seguire la direttiva
del loro programma di ricerca! N o n pochi studi di storia della scienza, sottolinea
Lakatos, hanno evidenziato che certe « differenze di fase » (per usare una locuzione di Feyerabend) accompagnano quasi sempre grandi svolte scientifiche: un
grandioso mutamento della cosmologia, come il passaggio dalla teoria geocentrica a quella eliocentrica non necessariamente si produce in accordo con lo sviluppo delle teorie ausiliari, anzi, si verifica spesso il contrario. (Così lo sviluppo
di un'adeguata ottica fisiologica è stato «fuori fase» rispetto all'avvento del copernicanesimo e all'utilizzazione del telescopio.) Ma per Lakatos gli scienziati
sono in grado, combinando « tenacia » (resistere a pretese confutazioni delle proprie teorie o addirittura procedere « in un mare di anomalie ») e « proliferazione »
(presentare sempre nuove alternative teoriche), di far fronte alle «differenze di
fase » del loro « ambiente », cioè del complesso di teorie, strumenti, linguaggi,
ecc. che la loro epoca offre. La metodologia dei programmi di ricerca accoglie
così istanze kuhniane - il cattivo esito di un esperimento non incrina necessaI
grafia.
Si rimanda al saggio citato nella biblio-
z L. Carnot, Réflexions sur !a métapf?ysique
du ca/eu! infìnitésima!, I 797.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
riamente la fiducia nel paradigma - e popperiane - è bene disporre di svariate
alternative teoriche. La proposta incessante di queste ultime rende « attraente
ed esaltante» l'impresa scientifica, come ha sottolineato Feyerabend nello sviluppare il tema della proliferazione; ma la stessa tenacia non è meno razionale. Ma
vediamo come Lakatos articola in una metodologia tenacia e proliferazione. Un
programma di ricerca muove necessariamente da alcune decisioni metodologiche
prese dagli scienziati che promuovono il programma; tali decisioni hanno il
compito di dividere una data collezione di ipotesi in due gruppi: un primo gruppo
costituisce il «nucleo metafisica» [metaphysical hard-core] del programma e in
esso rientrano le ipotesi che si vogliono difendere a ogni costo, le ipotesi cioè
che vanno considerate « non falsificabili » in forza di un vero e proprio decreto
metodologico. Condizioni iniziali e ipotesi ausiliari che permettono di fare predizioni applicando le ipotesi del nucleo costituiscono invece il secondo gruppo,
la « cintura protettiva » [protective bel!] del programma; solo quest'ultima può
venire modificata di fronte a confutazioni. Per esempio, l'astronomia copernicana, la teoria della gravitazione di Newton, la teoria della relatività di Einstein
sono tre rilevanti esempi di programmi di ricerca che hanno avuto un pieno successo: la tenacia nella difesa dei rispettivi « nuclei » e la proliferazione di teorie
nelle rispettive «cinture protettive» (cioè l'articolarsi delle due euristiche) non
solo hanno potentemente rinnovato astronomia e fisica, ma hanno gettato nuova
luce su altre discipline scientifiche, in primis sulla matematica impiegata in tali
teorie.
Aggiungiamo subito un altro esempio, in modo da completare quanto detto
alle pp. 290-29I e pS-319: il programma di Prout. Questi già in uno scritto
anonimo del I 8 I 5 sosteneva che il peso atomico di ogni elemento chimico puro
era un numero intero. « Sapeva benissimo, » fa notare Lakatos, « che le anomalie
abbondavano, ma diceva che ciò accadeva perché le sostanze chimiche, in cui ci
si imbatte di solito, erano non pure: ossia che le relative " tecniche sperimentali"
del tempo non erano attendibili, o, detto in altri termini, le teorie " osservative"
dell'epoca, alla luce delle quali veniva stabilito il valore di verità dell'asserto base
della teoria, erano false. » I difensori della teoria di Prout si gettavano così in
un'avventura« rischiosa»: demolire le teorie che fornivano l'evidenza contraria
alle loro tesi. Per ottenere questo dovevano rivoluzionare l'affermata ch}mica
analitica dell'epoca e modificare le tecniche sperimentali con le quali gli elementi
puri dovevano essere separati. Di fatto, aggiunge Lakatos, « la teoria di Prout
demolì, una dopo l'altra, le teorie che in precedenza venivano applicate nella
purificazione delle sostanze chimiche, [ma] anche così alcuni chimici si stancarono
del programma di ricerca e, poiché i successi erano ancora lungi dal conseguire
una vittoria definitiva, lo abbandonarono>>. Per esempio nel I 86o Stas, frustrato
da alcuni esempi recalcitranti, concluse che la teoria di Prout era « senza fondamento », ma altri « furono più incoraggiati dal progresso che scoraggiati dalla man323
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
canza di un successo completo », sicché illuminante appare un giudizio di Crookes
del r886: «Non pochi chimici di riconosciuta fama considerano che si abbia qui
[nella teoria di Prout] un'espressione della verità, mascherata da alcuni fenomeni
residui o collaterali che non siamo ancora riusciti a eliminare. » E glossa Lakatos:
« Ci dovevano essere alcuni altri presupposti falsi nascosti nelle teorie " osservative " sulle quali erano basate " le tecniche sperimentali" per la purificazione
chimica e con l'aiuto delle quali venivano calcolati i pesi atomici.» Orbene, per
Crookes « alcuni dei presenti pesi atomici rappresentano semplicemente un valore
medio » sicché appariva lecito proporre nuove teorie di « frazionamento ». Lakatos conclude il suo resoconto notando che « tali nuove teorie osservative si
rivelarono tanto false quanto audaci, e in quanto non erano in grado di anticipare
fatti nuovi, furono eliminate dalla scienza [... ]. Come risultò una generazione
dopo, c'era un assunto davvero di base nascosto [... ] che due elementi puri devono essere separati con metodi chimici. L'idea che due diversi elementi puri possano comportarsi identicamente in tutte le reazioni chimiche, ma che possano
essere separati con metodi fisici, richiedeva un mutamento, una " deformazione"
[stretching] del concetto di" elemento puro", che çostituiva un mutamento [... ]
del programma di ricerca stesso. Questo slittamento creativo altamente rivoluzionario fu accettato soltanto dalla scuola di Rutherford [... ]. Tuttavia, [esso] fu
in realtà solo un risultato collaterale di un diverso (e lontano) programma di
ricerca; i seguaci di Prout, in mancanza di questo stimolo esterno, non si sognarono mai, per esempio, di costruire potenti macchine centrifughe per separare gli
elementi ».
Se abbiamo ampiamente riportato questa lakatosiana ricostruzione razionale di un rilevante « caso storico » è perché non solo essa esemplifica adeguatamente cosa Lakatos intende per « programma che procede in un mare di anomalie », ma anche perché permette di confrontare su un terreno storico le idee di
fondo della metodologia dei programmi di ricerca con le tematiche emerse nei
paragrafi precedenti. Lakatos recupera e articola maggiormente la tematica delle
« premesse nascoste », prospetta un significativo approfondimento delle idee di
fondo circa la nozione di « elemento chimico », ripropone la « slittante » [shifting]
contrapposizione tra teorie interpretative ed esplicative alla luce di tenacia e
proliferazione; certo anche in tale caso chi guardi alla storia della scienza a un
primo sguardo vi coglie solo « la ridda » delle ipotesi contrastanti cara ad A gassi;
ma una metodologia più attenta alla «dialettica» (Lakatos) tra la componente
continuista (o conservatrice) e quella fratturista (o innovatrice) dell'impresa
scientifica (anche in prospettiva dei suoi agganci con lo sviluppo tecnologico)
permette di scorgere slittamenti razionali dietro mutamenti apparentemente
bruschi e di dar corpo a quella hegeliana « astuzia della ragione » evocata nell'articolo del 1964.
Le esemplificazioni storiche si potrebbero moltiplicare, come hanno mostrato
32·4
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
lo stesso Lakatos e altri (E. Zahar, C. Howson, J. Worrall, P. Urbach, ecc.),
spaziando dalla storia della matematica, della fisica, della chimica, ecc. - discipline ormai« mature» (anche nel senso di Kuhn, in cui cioè la« ricerca normale»
è una componente molto forte) - alla psicologia o alla sociologia (ove in molti
settori è assai vivo «il dibattito sulle nozioni di base», per usare un'altra locuzione kuhniana); né mancano esempi di «cattiva scienza», cioè di programmi cui
a detta di Lakatos spetta ancora l'attributo di« scientifici», ma regressivi (come
la stessa « metafisica» cartesiana, cfr. sopra p. 3zo, e il marxismo ). Esemplificheremo ulteriormente nei paragrafi successivi. Qui ci pare ora interessante riprendere quattro spunti, uno per ciascuno dei paragrafi precedenti.
Revisione del falsiftcazionismo popperiano. Una volta compreso quale sia il
peso delle componenti convenzionalistiche nel falsificazionismo sofisticato e caratterizzata in riferimento al « nucleo » non falsificabile « per decreto metodologico »la continuità della ricerca che sottende la proliferazione delle più diverse
teorie nella « cintura protettiva », i sostenitori della metodologia dei programmi
di ricerca oltre agli elementi ripresi dal falsificazionismo popperiano (accomodamenti di anomalie che aumentano il contenuto, predizioni di fatti nuovi che abbiano successo, ecc.) vi scorgono tratti nuovi e più specifici, quali la rilevanza
che assume in essa l'euristica di un programma. Mentre, osserva per esempio
Peter Urbach, «secondo la teoria popperiana della scoperta, la storia della scienza
consiste di una successione di teorie non connesse né sotto il profilo logico né
quello psicologico e nulla si può predire degli sviluppi futuri della scienza teorica », il « potere euristico » fornisce, per così dire, una misura « di quel che oggettivamente promette un programma di ricerca scientifico». L'idea di fondo è che
le « euristiche » possono variare sotto differenti aspetti: per la precisione con cui
guidano la costruzione delle teorie che una dopo l'altra realizzano uno slittamento di problema come per il numero di versioni controllabili che possono offrire di certe concezioni chiave, ecc. Di qui, senza addentrarci in una più dettagliata disamina della questione, l'interesse che, in un grande programma, vengono ad assumere certe componenti che prima facle possono parere puramente
collaterali: basterà, per chiarire la questione, far riferimento a uno degli esempi
preferiti da Lakatos, la gravitazione newtoniana, ove l'analisi infinitesimale è
l'elemento chiave che permette sia una sempre più precisa «costruzione di
teorie » sia la presentazione di versioni controllabili e per questo rappresenta
«una condizione decisiva del successo» (Lakatos). Di qui, sotto un profilo più
generale, quella che Lakatos chiama «l'autonomia relativa della scienza teorica:
un fatto storico la cui razionalità non può essere spiegata dai precedenti falsificazionisti », cioè dai popperiani più stretti. La ragione di ciò, per Lakatos, sta
nel fatto che qualunque problema gli scienziati che lavorano in importanti programmi di ricerca scelgano razionalmente, esso « è determinato dall'euristica
1.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
positiva del programma, più che da anomalie psicologicamente preoccupanti o
tecnologicamente urgenti [... ] soltanto quegli scienziati che sono impegnati in
esercizi di prova ed errore - oppure che lavorano in una fase regressiva di un
p~rogramma di ricerca devono fissare saldamente la loro attenzione sulle
anomalie ». La pratica scientifica non segue sempre la ricetta di Popper. Questa è per
Lakatos la ragione di fondo del fatto che « la ricostruzione del progresso scientifico come proliferazione di programmi di ricerca rivali e slittamenti di problema
progressivi e regressivi, dà un'immagine dell'impresa scientifica per vari aspetti
ben diversa dall'immagine che ne fornisce la sua ricostruzione come successione
di audaci teorie e del loro drammatico rovesciamento. [... ]. La differenza più
importante dalla versione originaria di Popper consiste [... ] nel fatto che nella
[nuova] concezione la critica non liquida- e non deve liquidare [kill]- con la
rapidità che immaginava Popper. La critica puramente negativa e distruttiva, come
la " confutazione" o la dimostrazione di una incoerenza, non elimina un programma. La
critica a un programma è un processo lungo e spesso frustrante e bisogna trattare con indulgenza i programmi al momento del loro nascere. Si può ovviamente smascherare la
degenerazione di un programma di ricerca, ma solo la critica costruttiva, appoggiata da un programma di ricerca rivale, può riportare un successo reale; e risultati drammatici e spettacolari diventano visibili soltanto con uno sguardo
all'indietro mediante una ricostruzione razionale ».
2. La tesi di Duhem-Quine. Per Lakatos «vi è addirittura, purché si sia dotati
della giusta dose d'immaginazione, un numero infinito [corsivi nostri] di possibili modi
in cui sostituire una qualsiasi delle premesse (nel modello deduttivo) ricorrendo a
una modificazione in qualche lontana regione della conoscenza globale Uuori
del modello deduttivo)» qualora si produca quello che il falsificazionista ingenuo eti-
chetta come conflitto tra una « teoria » e un « fatto »; questa « banale considerazione » può addirittura venir riformulata come la tesi per cui « ogni controllo
mette alla prova l'intera nostra conoscenza »; ciò non pertanto questa caratterizzazione dei« controlli» (che Popper bollerebbe come« olistica »)non costituisce
una difficoltà per « il falsificazionista sofisticato »; la tesi di Duhem-Quine nella
sua versione debole (cfr. p. 285) è compatibile con tale concezione: in questa prospettiva la « mossa » razionale di fronte a una « esperienza recalcitrante » non consiste tanto. nell'eliminare una ben definita premessa utilizzando il modus tollens, ma
nel modificare l'originario modello deduttivo. Ma Lakatos ha ammesso (tessendo, di fatto, l'elogio della «immaginazione creativa») che in ogni caso rilevante disponiamo in realtà di un numero infinito di mosse del genere: come può
allora pretendere di recuperare il meglio dell'insegnamento di Duhem o di
Popper? Come, in altri termini, può giustificare nell'ottica di un falsificazionismo
sia pure 1 sofisticato » l'inevitabile riduzione di tale infinita gamma di possibilità
a un insieme finito di alternative che una data équipe di ricercatori via via im-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
bocca, senza fare concessioni a un pragmatismo à la Quine (che per Lakatos non
è altro che una forma di irrazionalismo)? Qui interviene, col suo carattere specifico e distintivo rispetto alle concezioni di Popper, una delle idee di fondo della
metodologia dei programmi di ricerca: la ricerca delle alternative non è lasciata
a un cieco tirar ad indovinare [guess] ma si articola in un definito « quadro concettuale » e, se questa è una formulazione che ancora risente della « metafisica
influente », si deve ribadire, con un altro protagonista della « rivoluzione convenzionalista» di fine Ottocento (della quale Lakatos proclama di aver assimilato
nella propria metodologia «l'eredità migliore»), Gaston Milhaud, che se la
contraddizione di una « teoria» con un « fatto » « mostra semplicemente la necessità di modificare almeno uno degli elementi » di un insieme di premesse
« più complesso » di quanto non paia a una considerazione ingenua, « nessuno
di tali elementi è però direttamente designato e, in particolare, l'idea guida
[l'idée maftresse] della nostra ipotesi, quella che la caratterizza in modo essenziale,
può essere conservata per tutto il tempo che ci si permetterà di indirizzare le correzioni su elementi [da essa] differenti »; Lakatos non fa altro, a nostro avviso,
che seguire la strada imboccata da Milhaud di fronte agli argomenti di Duhem,
con un'importante conseguenza per la tradizione Jalsificazionista di stampo popperiano: nella metodologia dei programmi di ricerca, infatti, « è consentito sostituire una parte qualsiasi del corpo della scienza, ma solo a condizione che venga
sostituita in modo " progressivo ", in modo cioè che la sostituzione anticipi con
successo " fatti nuovi "; nella ricostruzione razionale della falsificazione [che
tale metodologia consente] gli " esperimenti cruciali negativi" non hanno ruolo
alcuno »: un gruppo di ricercatori può « con ostinazione » restare aderente a una
« idea guida », tentare di riassorbire anomalie nel proprio programma, difendere
contro controesempi il nucleo, purché tutto ciò « avvenga in modo progressivo ». In questa prospettiva, eliminare un programma, chiarisce Lakatos, significa
solo decidere di non lavorare più con esso e passare a uno che promette maggior successo empirico, significa cioè adottare un quadro concettuale più flessibile per
l'incessante proliferazione delle nostre alternative teoriche. Riqualificando in
questo modo la falsificazione Lakatos ritiene non solo di poter assimilare la versione debole della tesi di Duhem-Quine, ma anche di paterne eludere la versione
forte (cfr. p. 28 5) (« questa si incompatibile con ogni forma di falsificazionismo »i,;
il prezzo che si deve pagare è la rinuncia alla « razionalità istantanea » implicita
nella concezione popperiana della confutazione.
3· Matematica e discipline non empiriche. Nei contributi di Lakatos analizzati
nel paragrafo 111 l'idea di fondo era che «le teorie della matematica pura dovessero essere soggette a criteri di valutazione metodologica analoghi a quelli cui
sono sottoposte le teorie delle discipline empiriche » (C. Howson); gli strumenti
concettuali e la terminologia stessa non erano però quelli dell'articolazione ma327
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
tura della metodologia dei programmi di ricerca; in questa, per altro, i criteri
che dovrebbero permettere di riconoscere il carattere «progressivo» di un programma sono ancora « di pretto stampo popperiano » (accettabilità!, e accettabilità~, cfr. p. 319 e fanno essenziale riferimento al «contenuto empirico» (l'insieme dei falsificatori potenziali) delle singole teorie prese in considerazione.
Ma un « contenuto empirico » è definibile anche per le teorie matematiche? La
risposta negativa tradizionale è che la base empirica presente nelle scienze fisiche,
biologiche, sociali, ecc. manca in matematica: il mondo reale, in quanto può venir
localmente indagato con tecniche sperimentali, impone dei vincoli all'accettabilità delle teorie nelle discipline empiriche, ma un termine di confronto del
genere non può essere invocato per una teoria matematica, a meno di non assumere il punto di vista radicale dell'induttivismo milliano circa « i principi »
della matematica! Ma tale risposta è per Lakatos schemati ca e non tiene conto
della possibilità di delineare un tipo di « empirismo matematico » sofisticato lontano dall'induttivismo almeno quanto lo è, per le scienze empiriche, il falsificazionismo sofisticato. La prospettiva indicata da Lakatos (riprendendo e riutilizzando liberamente spunti sia del platonismo che dell'intuizionismo matematico,
cfr. in particolare p. 300) già negli anni sessanta, è stata ripresa da altri sostenitori della metodologia dei programmi di ricerca negli anni settanta. Per esempio,
secondo Colin Howson, « c'è poca differenza epistemologica tra osservare la
deviazione della lancetta di un galvanometro e affermare, per esempio, un principio di induzione nella teoria dei numeri »: in entrambi i casi si forniscono degli
« asserti di controllo » che sono « impregnati di teorie », anche se in un caso
l'oggetto del controllo è una teoria fisica, poniamo elettromagnetica, e nell'altro
una teoria matematica dai cui principi si ottengono conseguenze aritmetiche
come, poniamo, una particolare teoria degli insiemi. Orbene, conclude Howson,
« il fatto che già nel controllare una teoria empirica universale sia necessario
accettare come vere (seppur provvisoriamente) certe teorie ausiliari mostra che la
" base empirica" delle stesse discipline empiriche non differisce neppure sintatticamente da quella che è stata indicata come " base empirica" delle teorie matematiche: nessuna delle due " basi" è in realtà caratterizzabile sintatticamente, dal
momento che consiste di un misto di proposizioni esistenziali e universali». Se
la celebre immagine neurathianal della nave che viene riparata in mare aperto rappresenta efii cacemente la ricerca empirica, essa si adatta altrettanto bene anche a quella matematica.
Ciò premesso, la metodologia dei programmi di ricerca diviene in via di
principio applicabile alla matematica: anche in tale contesto dovrà essere possibile specificare « nuclei » e « cinture protettive » dei vari programmi e applicare
quei criteri che permettono di valutarne il carattere progressivo o regressivo.
In particolare, in matematica, saranno le teorie più affermate, accettate pacifiI
Cfr. capitolo
XIV
del volume settimo, p. 467.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
camente dalla comunità matematica e la costellazione di tutte quelle concezioni
ritenute « intuitivamente plausibili» (Polya) a fornire i riferimenti « empirici»
o « quasi-empirici» per i programmi di ricerca matematici. Un tipico sviluppo sarà, poniamo, il seguente: un programma che con successo risolve i problemi
alla cui soluzione originariamente era destinato, introdurrà nuovi linguaggi e
nuove teorie, in cui dovrà tradurre discipline già esistenti e formatesi autonomamente, in modo che il programma le possa proficuamente assimilare (possa cioè
utilizzare le traduzioni dei teoremi « tradizionali » di tali teorie): l'interesse si
focaliz2:erà sulle traduzioni non banali ave lo sviluppo del programma apre nuovi
problemi; e la misura in cui l'euristica del programma fornisce soluzione a
quest'ultimi permetterà una prima valutazione del programma stesso, ecc. Come
il lettore ormai si aspetta, coloro che adottano anche in matematica (ed eventualmente anche in altre discipline non empiriche) 1 la metodologia lakatosiana, andranno alla ricerca di « casi storici » che svolgano in questo contesto un ruolo
analogo a quello svolto dal « programma di Prout » da noi riportato sopra per
la metodologia dei programmi di ricerca riferita alle scienze empiriche: quello
di mostrare, come già la storia della congettura sui poliedri analizzata da Lakatos
in Dimostrazioni e confutazioni, che tali canoni sono al contempo più vicini alla
effettiva pratica della ricerca di quelli strettamente popperiani (cfr. del resto i
punti r e 2) e più soddisfacenti per una prospettiva « oggettivista » (nel senso
di Popper) delle considerazioni nello stesso tempo «descrittive e normative »
(Feyerabend) di Kuhn.
4· Il «programma di ricerca» di Kuhn. Violando il «codice d'onore» popperiano, nota Lakatos, gli scienziati di frequente («e razionalmente») affermano
« che non ci si può fidare dei risultati sperimentali, o che le discrepanze che si
afferma esistano tra i risultati sperimentali e le teorie sono solo apparenti e svaniranno col progredire della nostra comprensione» (Popper 1934). Nel far ciò
essi adottano davvero « l'opposto di quell'atteggiamento critico che secondo
[Popper] è l'unico veramente adatto a uno scienziato» [ibidem]? Nella Logica
del '34, osservava già Neurath, Popper ha attribuito a dei filosofi- i convenzionalisti - una forma di conservatorismo intellettuale che si riscontra invece nella
pratica effettiva degli scienziati. Le osservazioni kuhniane circa « la funzione del
dogma » e il ruolo essenziale svolto nell'impresa scientifica dalla « ricerca normale >~ rappresentano dunque, in ultima analisi, una conferma della ragionevolezza del rifiuto neurathiano del tàlsificazionismo? O possono suonare addirittura come una riabilitazione del vecchio convenzionalismo conservatore, una dottrina «filosofica» dopo tutto più vicina alla pratica degli scienziati dell'astratto « ideale » (Neurath) popperiano? Si può ancora rispondere negativamente, per
, Per esempio nell'etica o anche, come ve-
dremo tra poche pagine, nella stessa metodologia
scientifica.
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Lakatos, a tali domande, se si tiene conto che « dogmatismo » o « ricerca normale» (per usare le locuzioni favorite di Kuhn in La funzione del dogma e in
La struttura delle rivoluzioni scientifiche rispettivamente) sono componenti di progresso finché si riconosce, come più volte abbiamo ricordato nelle pagine precedenti, che esiste una scienza normale «buona» (progressiva) e che esiste una
scienza normale « cattiva» (regressiva) e si conserva « la determinazione di eliminare in certe condizioni oggettivamente definite alcuni programmi di ricerca». Per Lakatos, dunque, Kuhn ha ragione: 1) nel criticare il falsificazionismo
«ingenuo »; z) nel porre in risalto la continuità del progresso scientifico e la tenacia di alcune teorie scientifiche; ma ha torto nel ritenere che una volta demolito
il falsificazionismo « ingenuo » abbia demolito con questo ogni tipo di falsificazionismo e nell'opporsi a tutto il programma dì ricerca popperiano. Dice Lakatos:
« confrontando Hume, Carnap e Popper, John Watkins fa osservare che la crescita della scienza, secondo Hume, è induttiva e non razionale, secondo Carnap,
induttiva e razionale, non induttiva e razionale secondo Popper. Ma il confronto
di Watkins può essere esteso aggiungendo che tale crescita è, secondo Kuhn,
non induttiva e non razionale. Secondo il modo di vedere di Kuhn, non ci può essere
logica, ma solo psicologia della scoperta ». Per Kuhn, anomalie e anche incoerenze
abbondano sempre nella scienza, ma nei periodi «normali» il paradigma dominante assicura un modello di sviluppo che può essere rovesciato solo da una
« crisi». Ma, obbietta Lakatos, « crisi è un concetto psicologico »; di più, quando,
dopo la crisi, è emerso un nuovo « paradigma » kuhniano, questi « offre una
razionalità totalmente nuova. Non ci sono standards metaparadigmatici. Il mutamento consiste nell'accodarsi al carro del vincitore. Cosi, secondo la concezione
di Kuhn la rivoluzione scientifica è irrazionale, è materiale per la psicologia della folla».
Ma, se è vero che Popper ha sostituito al vecchio problema dei fondamenti il nuovo
problema della crescita critica e fallibile, un « miglioramento » del programma popperiano in grado di rendere razionalmente conto della continuità nella rivoluzione,
come quello che la metodologia dei programmi di ricerca ritiene di poter fornire,
è per Lakatos sufficiente a eludere tutte le critiche kuhniane. La kuhniana psicologia della scienza può « rivelare importanti verità » sia al metodologo che allo
storico, ma occorre ricordare che essa « non è autonoma », in quanto « la crescita
della scienza razionalmente ricostruita, ha luogo essenzialmente nel mondo delle idee, nel
"terzo mondo" di Platone e di Popper, nel mondo della conoscenza [... ] indipendente dai soggetti conoscenti ». Se il programma di Popper mira a una descrizione
di questa oggettiva crescita scientifica, quello di Kuhn sembra mirare invece alla
descrizione del mutamento del pensiero scientifico («normale») (sia individuale
che comunitario).« Ma,>> conclude Lakatos, «l'immagine del terzo mondo riflessa
nello spirito dei singoli scienziati [... ] è in genere una caricatura dell'originale:
e descrivere questa caricatura senza metterla in relazione col suo originale nel
terzo mondo può diventare la caricatura di una caricatura. »
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Di qui, per lo stesso storico della scienza, l'importanza della ricostruzione
razionale. Per Lakatos la filosofia della scienza fornisce « metodologie normative »
nei cui termini lo storico ricostruisce quella che usualmente è chiamata « storia
interna », offrendo una spiegazione razionale della crescita della conoscenza oggettiva. Il nostro autore non nega che «qualsiasi ricostruzione razionale della
storia abbia poi bisogno di essere integrata da una storia "esterna" empirica>>,
ma ribadisce il carattere preliminare della storia «interna», che seleziona, per
cosl dire, quei problemi che in una prospettiva più ampia riprenderà lo storico
« esternista ». Com'è noto, fiumi d'inchiostro sono stati spesi sulla distinzione
storia interna fstoria esterna e non è qui possibile accennare a tutti quegli autori
- filosofi, metodologi, scienziati, storici della scienza, della filosofia,. della
cultura, ecc. - che hanno argomentato pro o contro questa « grande divisione ».
Basti dire che ancora nel I968 Kuhn definisce, prescindendo dal riferimento a
metodologie particolari, la storia interna come « storia intellettuale » e quella
esterna come « storia sociale », risolvendo, sulla scia di M. Polanyi, il problema
della valutazione delle teorie in quello delle motivazioni che spingono i membri
di una comunità scientifica ad accettare una data autorità. La novità dell'approccio di Lakatos sta invece nel presentare la dicotomia interno /esterno in modo dinamico e non statico, in quanto la demarcazione tra storia della scienza « normativainterna » ed « empirica-esterna » differisce a seconda della metodologia. È proprio
in questo modo che per Lakatos I) si può evitare il pericolo di una risoluzione
della storia della scienza sia nell'epistemologia sia, al polo opposto, nella storia
delle istituzioni scientifiche senza alcun riferimento all'analisi delle teorie o dei
programmi di ricerca; z) si può far fronte a quella separazione tra« ontogenesi »
e « filogenesi » del pensiero scientifico che A gassi nel suo contributo del I 96 3
(cfr. paragrafo 1) lamentava e assimilare al contempo molte istanze presenti nei
critici della reichenbachiana distinzione tra contesto della scoperta e contesto
della giustificazione (cfr. paragrafo IV) senza nulla concedere però alle tesi « auto.ritaristiche » di Polanyi e di Kuhn. Se nel citato lavoro di Agassi, lo storico della
scienza si rivolgeva al metodologo (nella fattispecie a Popper), qui invece il metodolago controlla alla luce della storia le varie metodologie fornendo i« problemi rilevanti»
allo storico. Come ha osservato nel I97I Y. Elkana, un raffinato studioso dello
svilup.po della fisica dell'Ottocento, Lakatos ha così « brillantemente riformulato
un [classico problema], come la filosofia della scienza[ ... ] possa essere una guida
naturale per la storia della scienza » e al contempo « ha sfidato gli storici sul loro
stesso terreno ». Il compito della storia esterna è dunque quello di giustificare il
« residuo non razionale » (alla luce della particolare teoria della razionalità adottata) dell'impresa scientifica e per Lakatos è auspicabile ridurre il più possibile
tale residuo, sicché risulteranno preferibili teorie della razionalità che consentono
ricostruzioni razionali più ampie e articolate. Lakatos esempl':fica con quattro di
tali teorie o « logiche della scoperta »: le tradizionali « logiche » dell'induttivi-
331
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
smo e del convenzionalismo, già affrontate a suo tempo da Agassi, la popperiana
« logica » falsificazionista e infine la stessa metodologia dei programmi di ricerca
scientifici. L'induttivismo, sia nella forma classica («baconiana») che in quella
neo classica (propria di empiristi logici come Reichenbach o anche Carnap ), riconosce a detta di Lakatos solo due tipi di genuine scoperte, le mere proposizioni
fattuali e le generalizzazioni induttive (assolutamente certe per l'induttivista classico; altamente probabili per il neoinduttivista); conseguentemente le rivoluzioni
scientifiche consistono essenzialmente nello smascherare errori, pregiudizi, anticipazioni infondate. Ne scende immediatamente che, dopo ogni rivoluzione,
si deve riscrivere la storia: la storia di una teoria sconfitta non è storia di una teoria
scientifica, ma di una teoria (che si è rivelata) pseudoscientiftca e rientra quindi« in
una storia di mere credenze». Tra i « paradigmi vittoriosi» l dell'induttivismo
spicca, come di fatto accade in molte tradizionali storie della fisica, la gravitazione newtoniana, intesa come generalizzazione (per induzione) dalle leggi di Keplero e di Galileo. La seconda teoria è quella convenzionalistica, per cui l'impresa
scientifica consiste nella costruzione di sistemi di reti in cui imprigionare i fatti:
il convenzionalista decide di tenere intatto il centro di tale sistema il più a lungo
possibile; quando sorgono difficoltà (cioè emergono anomalie), cambia le disposizioni periferiche. Non necessariamente .si deve aderire per sempre a un certo
sistema di reti; piuttosto si deve abbandonarlo se diventa troppo pesante e se
viene proposto come sostitutivo uno più semplice. Per entrambe le versioni, comunque, a livello teorico, la scoperta è una semplificazione: le rivoluzioni scientifiche sono mutamenti di carattere meramente strumentale. Ne consegue che,
dopo ogni «rivoluzione», non occorre riscrivere la storia; più tollerante dell'induttivismo, il convenzionalismo non relega nella pseudoscienza i sistemi che
via via sono stati abbandonati. Anche la storiografia convenzionalista ha i suoi
paradigmi, tra cui spicca la rivoluzione copernicana. La terza teoria della razionalità, il falsificazionismo di Popper, Watkins, Agassi, ecc., intende una scoperta
come la proposta di un'audace congettura, la rivoluzione come il rifiuto, via falsificazione di tale proposta: conseguentemente « lo storico popperiano va in cerca di
teorie tàlsificabili e di esperimenti cruciali negativi: questo è lo scheletro della sua
ricostruzione razionale ». I paradigmi preferiti dalla ricostruzione popperiana
sono, non a caso, teorie come quelle p re-einsteiniane dell'etere e l'esperimento di
Michelson e Morley, o le formule di Rayleigh, Jeans e Wien per il corpo nero
e gli esperimenti di Lummer e Pringsheim, ecc. Infine, al popperiano non tocca
l'oneroso compito di riscrivere la storia dopo ogni rivoluzione; di più, se l'insistenza sulla falsificazione può indurre il pessimista che guardi a posteriori alla
storia della scienza a vedervi solo « un cimitero di morte teorie », la popperiana
insistenza sulla crescita della conoscenza ci lascia l'ottimistica assicurazione di
I
Naturalmente in questo contesto il ter-
mine « paradigma » è impiegato nell'usuale accezione (e non in quella kuhniana).
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
«poter imparare dagli errori». Un progresso, dopo tutto, è possibile; il popperiano mantiene, grazie alla teoria della verisimilitudine, l'ideale « regolativo »
dell'approssimazione alla verità. La quarta teoria della razionalità è la metodologia dei programmi di ricerca; come abbiamo già detto, essa fa proprie non
poche istanze popperiane e kuhniane, rielabora spunti del convenzionalismo di
Duhem e di Milhaud, cerca i suoi paradigmi in grandi progetti scientifici difficilmente ricostruibili come « sconnesse catene di congetture e confutazioni »:
quel che per Popper, Watkins, Agassi, ecc. resta «esterno», a cominciare dal
« nucleo metafisica » diventa qui « internÒ », viene sottolineato il ruolo dell'euristica nella scelta dei problemi, si pretende infine di cogliere appieno quella
« continuità » che costituiva invece il punto debole, anche sul piano storico,
dell'approccio di Popper. Come il convenzionalismo ha demolito la «logica
della scoperta» induttivista mostrando, con un'analisi storica, che i suoi paradigmi preferiti erano scelti male, e come non poche ricerche storiche hanno a
loro volta mostrato i punti deboli di una applicazione storiografica della teoria
convenzionalistica della semplicità sul terreno della storia della scienza, così, per
Lakatos, lo storico può con pieno diritto ribattere al popperiano che, se di fronte
a una miriade di anomalie, di controesempi, addirittura di incoerenze logiche,
una teoria deve essere abbandonata in ossequio al «codice d'onore falsificazionista », di tàtto ben pochi scienziati hanno seguito tale direttiva. Di fronte al
mare di anomalie che i cartesiani opponevano loro non si sono mostrati irrimediabilmente dogmatici i seguaci di Newton che hanno tenacemente difeso
la teoria della gravitazione? E nel calcolo infinitesimale, sviluppatosi addirittura
su fondamenti incoerenti, l' Allez en avant, la Joi vous viendra di d' Alembert non
rappresenta forse per il popperiano il non plus ultra dell'insensatezza? E infine,
i Michelson, i Morley, o i Lummer e i Pringsheim erano davvero consapevoli di
eseguire degli esperimenti cruciali falsificanti? Ricostruiti razionalmente alla luce
della metodologia dei programmi di ricerca, tutti « i casi storici » qui invocati
depongono contro la popperiana teoria della falsificazione; gli scienziati (matematici inclusi) non si lasciano turbare da « anomalie » e un esperimento si rivela
«cruciale» solo «retrospettivamente». Non c'è, come già abbiamo accennato,
« razionalità istantanea »: la nottola di Minerva spicca il volo al crepuscolo.
~orge però un dubbio. Se la teoria della razionalità dell'induttivismo, del
convenzionalismo e dello stesso falsificazionismo sono state tutte « falsificate »
dalla storia, non sarà possibile falsificare anche la stessa teoria della razionalità
che Lakatos propone? E, più in generale, se la storia smentisce le sue « ricostruzioni razionali », ha ancora senso parlare di « teoria della razionalità », « logica
della scoperta», «storia interna», ecc.? Non si deve dopotutto adottare quella
idea « della verità per consenso » continuamente mutevolé; proposta a più riprese da Polanyi? Per Lakatos la via da seguire non è questa, che porterebbe a
333
www.scribd.com/Baruhk
Filoso~ della scienza e storia della scienza nella cultura di lingua inglese
una forma di conservatorismo intellettuale (e, conseguentemente, anche a una
politica culturale conservatrice): le teorie della razionalità via via proposte danno
invece luogo a veri e propri « programmi di ricerca » in campo storiograftco, a cui
può essere applicata l'analisi fin qui delineata per i programmi scientifici. Dobbiamo
allora, di nuovo, farci intimorire da « anomalie » o non piuttosto valutarne il
carattere « progressivo » o « regressivo » a seconda dei « fatti nuovi » che predicono o meglio retro-dicono (trattandosi di ricerca storica, e quindi ovviamente,
rivolta al passato)? La storia non solo falsifica, ma anche « corrobora le sue ricostruzioni razionali »: più è audace e più è corroborata (in questa accezione particolare), più una ricostruzione razionale della storia del pensiero scientifico è accettabile (accettabile1 e accettabile 2). Di più, se davvero, come vogliono Popper
e Watkins, Agassi e Medawar, la storia vuoi essere il banco di prova delle varie
metodologie, la riflessione metodologica non può concernere solo un gioco, il
popperiano « gioco della scienza »; le valutazioni metodologiche stesse, nonostante l'orrore popperiano per l'induzione, vanno collegate all'idea regolativa
della verisimilitudine, della approssimazione alla verità, mediante « principi induttivi sintetici » che riconferiscano a tali valutazioni un autentico significato
epistemologico.! Le considerazioni di « metodo » non sono solo flessibili e fallibili, come Popper stesso riconosce; possono essere or:ganizzate in programmi
di ricerca metodologici (o « metaprogrammi ») a loro volta controllabili alla luce
di quei particolari « falsificatori potenziali » forniti dai normative Basissatze, dagli
asserti base normativi, « impregnati di valori » più o meno condivisi dalla comunità dei ricercatori nel tortuoso cammino della scoperta scientifica.
VI· INCOMMENSURABILITÀ DELLE TEORIE E DIFFICOLTÀ
DI COMUNICAZIONE
Abbiamo visto articolarsi il progetto lakatosiano in tre direttive, programmi
di ricerca scientifici, storiograftci e metodologici movendo sia dalla revisione del modello di Popper del mutamento scientifico sia dalla versione oggettivistica di
certi temi kuhniani. Ma vari critici, e in particolare l'« ex popperiano » Pau l
Feyerabend, trovano tutto ciò compromesso da un grave ostacolo, rappresentato
dalla questione della « varianza di significato» [meaning variance] e dalla conseguente «esistenza di teorie incommensurabili ». Non è nostra intenzione affrontare qui nella sua generalità tale complessa problematica che: i) ha ormai
una storia relativamente lunga, in quanto risale alla contrapposizione del convenzionalismo fratturista e radicale di Le Roy a quello continuista e moderato di
1 Un tale principio per Lakatos sarebbe
per esempio quello che fa del grado di corroborazione di Popper (cioè di una valutazione di carattere convenzionale) la misura della verisimili-
tudine. Un altro « principio induttivo » potrebbe
essere questo: « quel che la comunità degli scienziati professionisti decide di accettare come vero,
è vero» ecc.
334
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Poincaré e di Duhem; ii) ha conosciuto una significativa ripresa con l'empirismo
logico negli anni trenta, quando si trattava di sottolineare la « novità» e la sostanziale « incompat:bilità » delle nuove conquiste della fisica - in particolare relatività e teorie quantistiche - rispetto alle concezioni tradizionali difese dalle
componenti più conservatrici della comunità scientifica; iii) è riemersa negli anni
sessanta nel contesto della cultura epistemologica di lingua inglese come potente tesi ausiliare per molte concezioni che più o meno direttamente si opponevano alla «concezione canonica» dell'empirismo logico; iv) infine appare strettamente connessa a quelle tesi circa l'osservazione impregnata di teorie e la dipendenza dei significati dei termini dal contesto che abbiamo visto (paragrafo Iv)
svolgere un ruolo essenziale nelle concezioni di Hanson e di Toulmin, nonché
nello stesso Kuhn dei primi anni sessanta. Ciò premesso, in questo paragrafo
ci limiteremo a riprendere certi spunti del paragrafo IV e a dare una sintetica
formulazione della varianza di significato utilizzando alcuni contributi di Mary
Hesse e di Jerzy Giedymin1 in cui la questione è stata esposta con notevole lucidità; dedicheremo quindi alcune pagine all'« anarchismo metodologico » di
Feyerabend che insiste sulla incommensurabilità di teorie, programmi, paradigmi rivali e alla revisione della concezione « per paradigmi » della scienza che
Kuhn è venuto sviluppando dal I965, revisione in cui Kuhn riformula la propria tesi circa le « difficoltà di comunicazione » tra sostenitori di paradigmi
rivali.
1. Varianza di significato. Non c'è linguaggio osservativo «neutro»; i termini « teorici » dipendono strettamente dal contesto: non possiamo da queste
due premesse dedurre la tesi secondo cui «i significati [meanings] di tutti i termini extralogici di una teoria emp'irica sono determinati dall'intero contesto teorico e cambiano a qualsiasi cambiamento in tale contesto »? Se la risposta è affermativa, questo appare l'esito inevitabile cui portano le premesse di Hanson e
di Toulmin. Prima di domandarci (come faremo tra poche pagine) di che natura
siano tali premesse e se tale deduzione sia corretta, riteniamo opportuno dare
un esempio già utilizzato nei dibattiti degli anni trenta e tornato negli anni
sessanta al centro dell'attenzione come rilevante esempio di «rivoluzione scientifica»: il conflitto tra la meccanica classica (MC) e la relatività speciale (RS).
Orbene: « forza », « massa », ecc. in M C significano qualcosa di diverso da
«forza», «massa», ecc. in RS, se applichiamo la tesi della varianza di significato
nella formulazione su accennata. Meglio sarebbe, tra l'altro, se si vuol ancora
parlare di «conflitto» tra MC e RS, premettere a questo termine l'aggettivo
« apparente »: date due teorie prima facie incompatibili nessun termine della prima ha lo stesso significato nella seconda e dunque nessun enunciato (nemmeno
(
1
Cfr. la bibliografia del presente capitolo posta alla fine del volume.
335
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
osservati v o) in cui compaia un tale termine può essere in una relazione logica
come conseguenza, contraddizione, compatibilità, ecc. con alcun enunciato della
seconda teoria in cui compaia quel termine; in particolare neanche il ricorso all' osservazione può decidere tra due teorie prima facie in conflitto: a rigore, più
che incompatibili, esse sono « incommensurabili >>.
Dobbiamo da ciò immediatamente dedurre che Einstein non ha mai criticato
la meccanica classica dal nuovo punto di vista perché non poteva farlo o che i difensori di questa hanno vaneggiato nel formulare argomentazioni contro la relatività ispirate al vecchio punto di vista? Prima di accettare simili drastiche conclusioni (che implicherebbero una rottura totale della comunicazione tra sostenitori di concezioni diverse e che farebbero della vittoria di una concezione sull'altra solo «una vittoria della propaganda», riducendo a «falsa coscienza» la
pretesa dei sostenitori e degli oppositori di avere argomenti razionali pro o contro), ci pare opportuno puntualizzare alcuni aspetti seguendo alcune argomentazioni di Giedymin che ci paiono estremamente convincenti:
a) L'approccio tradizionale (dai convenzionalisti agli empiristi logici) è di
tipo essenzialmente logico; quello degli anni sessanta è invece molto più preciso
nei particolari storici. Tuttavia il problema della comparabilità delle teorie, ribadiamo con Giedymin, resta « un problema logico, semantico, e non storico,
sociologico e psicologico». Con ciò non si vuole negare che le soluzioni di tale problema
concernino la storia delle scienze, ma solo sottolineare che, senza le adeguate mediazioni, trasferire tali soluzioni dal piano logico a quello storico può portare a situazioni
paradossali o a schematismi non sostenibili alla luce di una ricerca storica sufficientemente
approfondita. Il problema della comparabilità è un problema storico nella misura
in cui può venir riferito a teorie storicamente determinate, come MN e RS;
ma è illusorio aspettarci una soluzione univoca del problema se le teorie in questione
siano o no commensurabili dal solo esame delle fonti.
b) Infatti il problema è formulato in maniera incompleta se non si precisano
a livello logico nozioni tradizionalmente ambigue, come « significato », « interpretazione », « sinonimia », ecc. Per chi « fugge dall'intensione » (come Quine,
Scheffier) la via è quella di sostituire ai « significati » le « denotazioni »; questa è,
per altro, la procedura seguita anche dagli autori che hanno affrontato il problema
via teoria dei modelli. La situazione è ancor più complicata se l'approccio è di
tipo intensionale e se si ammettono differenti logiche per definire relazioni tra
espressioni e vengono prese in considerazione teorie basate su logiche differenti.
Infine se si esaminano teorie storicamente determinate, queste nella maggior parte
dei casi sono formulate in modo che non vi è un metodo effettivo per decidere
se un'espressione arbitraria appartiene o no al linguaggio della teoria. Sicché a
domande come « MN e RS hanno qualche espressione in comune? », « MN e
RS sono logicamente confrontabili? » non si può rispondere senza decisioni che
permettano di esplicare termini metalogici come « significato », « interpreta-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
zione », « sinonimo », ecc. e di riformulare le teorie in questione in opportuni
linguaggi logici. Certe scelte renderanno le teorie logicamente confrontabili, altre no. Le risposte alle nostre domande, per dirla ancora con Giedymin, sono
« risposte sub condicione ».
c) Riprendiamo il caso di MN e RS con un riferimento esemplificativo al
« positivista » Philipp Frank. Questi, come Kazimierz Ajdukiewicz e altri prima di lui, era consapevole della disparità concettuale tra MN e RS; nel suo Foundations of physics (Fondamenti di fisica, 1938) si discutono dettagliatamente le differenze sintattiche e semantiche tra i concetti fondamentali delle due teorie
(«massa», «lunghezza», «forza», ecc.) su cui si basano le asserzioni di nontraducibilità e non-comparabilità di MN e RS. La tesi cui Frank perviene in
quest'opera è che, nonostante la «disparità concettuale», MN e RS sono logicamente confrontabili: anzi, la tesi di Frank è che la loro parziale disparità concettuale risulta dalla loro incompatibilità logica (quindi a ragione sono considerate due teorie rivali); con il che Frank poco concede alla tesi dell'incommensurabilità a livello logico; ma la sua può essere anche interpretata come una lezione
di cautela per lo storico troppo incline a riscontrare nella dinamica delle teorie
scientifiche insanabili fratture.
d) Che non ci sia dunque una risposta univoca alla questione della comparabilità logica di due teorie viene evidenziato per altro dal fatto che un linguaggio
può venir esteso in più modi arricchendo il suo vocabolario con nuove espressioni extralogiche e con regole per il loro uso; l'intera questione va quindi relativizzata alle estensioni dei linguaggi che si è disposti a prendere in considerazione
(come già Ajdukiewicz sottolinea nel 1934 e Giedymin riprende alla fine degli
anni sessanta); alcune estensioni lasceranno i significati (o Je le denotazioni) di
tutti i termini primitivi inalterati mentre altre estensioni modificheranno i significati (o Je le denotazioni) di certi termini primitivi; se poi non vengono imposte
restrizioni alle estensioni e alle regole allora due qualsiasi linguaggi (e rispettivamente due qualsiasi teorie) potranno sempre venir trasformati in linguaggi (rispettivamente teorie) logicamente confrontabili. In Lakatos ci si imbatte nell' osservazione che si possono sempre rendere due teorie logicamente compatibili
fornendo «un opportuno dizionario». Non sempre tale operazione è sterile;
essà va inquadrata nella pianificazione del confronto (o dello scontro) con le
teorie precedenti o rivali; «dizionari», «prescrizioni metodologiche », «scelte
di particolari linguaggi », sono elementi che assicurano la possibilità della critica
tra le varie teorie (e non solo all'interno di una singola teoria, possibilità che,
come vedremo, anche Feyerabend concede) e possono perciò aver una loro funzione, sia nella pianificazione razionale (a livello metodologico), sia nella ricostruzione razionale (a livello storico), purché si individui l'unità dello sviluppo
non in teorie, ma in serie di teorie o, se si vuole, in progranfmi di ricerca.
e) Un approccio « razionalistico »(come quelli di Popper e di Lakatos) sem337
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
bra certo richiedere un linguaggio in cui si possono formulare argomentazioni
critiche; ma non necessariamente tale linguaggio dev'essere rappresentato dal
linguaggio oggetto di una teoria presa in considerazione: può essere, per esempio, un
metalinguaggio comune; né pare necessario assumere tesi olistiche radicali che
non lasciano spazio agli enunciati più caratteristicamente metalinguistici.
f) La tesi della varianza di significato è dunque, come si è visto in a) e in b),
una tesi logica; di più, anche le premesse-condivise da Hanson e da Toulminda cui scenderebbe tale tesi sono, come ha chiarito in un lucido intervento Karl
Popper, di carattere logico; infine si può sottolineare che da esse non è affatto
derivabile, senza opportune tesi ausiliari, la varianza di significato nella forma radicale che abbiamo dato all'inizio di questo paragrafo. Significatamente infatti
Hanson ha ripetutamente sottolineato che vi sono « parole non impregnate di
teoria» [non theory-laden words] che possono venir intese come termini di «un
linguaggio puramente sensistico » (pur negando che tali parole possano svolgere
un qualche ruolo nella spiegazione scientifica) e che dipende essenzialmente dal
contesto se un termine vada riguardato come appartenente a un linguaggio teorico o a quello sensistico; e da parte sua Toulmin nel richiamare la specificità di
certe « componenti intellettuali » ha più volte insistito che tempi e modalità
del mutamento concettuale possono variare a seconda del particolare settore preso
in considerazione: per esempio le intelaiature matematiche utilizzate in teorie
fisiche possono mutare più· lentamente delle nozioni fisiche i vi implicate (un
sostenitore della meccanica classica e uno della relatività speciale verisimilmente
usano « forza » o « massa » in accezioni diverse, ma « numero » o « funzione »
nella stessa accezione) e l'apparato logico ancor più lentamente dell'intelaiatura
matematica; d'altra parte il mutamento teorico [theory change] in logica e in matematica può avere aspetti del tutto differenti da quello in fisica, in chimica, in
biologia o in altre scienze empiriche. Ciò premesso, non deve stupirei che Toulmin concluda che restano « zone )) e « modalità )) di confronto tra sostenitori di
concezioni prima facie rivali, e, dopo aver attribuito a Kuhn la tesi della rottura
totale della comunicazione, imputi a questo autore sia un errore logico che una
deformazione della storia reale.
In a)j) abbiamo dato, per così dire, un sommario degli argomenti di coloro
che tendono a ridurre in maniera notevole o addirittura a eliminare la rilevanza
della varianza di significato per le ricostruzioni razionali. Orbene, qui non possiamo discutere fino a che punto sia corretto giustificare su tali argomenti atteggiamenti del genere: ci pare lecito tuttavia concludere dal nostro pur schematico elenco che ci sono buoni motivi per ritenere che il problema (reale) che
Toulmìn, Hanson, Kuhn, Feyerabend e altri assertori dell'incommensurabilità
delle teorie sollevano (con argomentazioni differenti e spesso tra loro in polemica) nel contesto della possibilità e dei limiti della « ricostruzione razionale »,
se deve avere interesse per lo storico (sulla base dell'interscambio prospettato
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
nei paragrafi IV e vi) va allora riformulato nel modo seguente: che ragioni vi
sono per adottare e Jo preferire ricostruzioni che portano all'incommensurabilità
piuttosto che quelle che portano alla confrontabilità delle teorie? In quanto
segue è alle ragioni che Kuhn e Feyerabend adducono, specie in polemica con
Popper e Lakatos, che rivolgeremo l'attenzione.
2. L'Anarchismo metodologico. Cominciamo con Paul Feyerabend. Nei primi
anni sessanta questo autore si muove lungo una linea per molti versi vicina alla
critica dello strumentalismo e alla ripresa di istanze realistiche articolate in un
« programma di ricerca metafisica » (cfr. paragrafo v) che divengono tratti sem,.
pre più marcati della riflessione di Popper. Col Popper degli anni sessanta Feyerabend condivide in particolare l'ostilità al riduzionismo. Feyerabend rifiuta infatti
non solo la riduzione di tipo classico, propria, per esempio, di certo « mecca-nicismo » ottocentesco, bollata come « metafisica » dai positivisti logici e come
« essenzialistica » dai popperiani, ma anche quella « metodologica » tipica della
filosofia della scienza di impostazione neoempiristica sia nella versione usualmente legata al nome di Ernst Nagel o riduzione «diretta» (una teoria t1 è « ridotta» a un'altra teoria t 2 se si è stabilito un dizionario che correla i termini primitivi di t 1 a quelli di t2 in modo che assiomi e leggi di II possono opportunamente venir tradotti in teoremi di t2), sia nella versione che abbiamo già visto
(capitolo XIV del volume settimo, paragrafo n) formulata con-notevole maturità
nella cornice del fisicalismo neurathiano ed è stata ripresa da vari autori (J.G. Kemeny, P. Oppenheim, ecc.) o riduzione «indiretta» (t1 è «ridotta» a t2 se l'insieme di predizioni riuscite A fornite da t 1 è incluso nell'insieme B di predizioni
. riuscite fornite da t 2). La tesi della varianza di significato, con le opportune tesi
ausiliari, può venir utilizzata contro- entrambi gli schemi di riduzione metodo logica (e a fortiori contro la riduzione di tipo « essenzialistico »): i) contro la riduzione « diretta », sfruttando tutte le difficoltà della traduzione radicale tra linguaggi differenti (quelli rispettivamente di II e t 2 ) emerse già nella riflessione dei
convenzionalisti e riprese dagli stessi empiristi logici più critici degli anni trenta e oltre; ii) contro la riduzione « indiretta », sfruttando tutte le implicazioni
della tesi circa l'osservazione impregnata di teoria contro un linguaggio « neutrale » atto a formulare le predizioni delle varie teorie in modo da consentirne il
confronto (cioè a formulare gli elementi di A e di B in modo che sia ragionevole
utilizzare la relazione di inclusione per confrontare i oue insiemi di predizioni
riuscite). Spiegazione scientifica non è sinonimo di riduzione, in particolare di teorie non
familiari o anche di poco successo a teorie più familiari o di maggior successo:
i riduzionisti hanno torto, conclude Feyerabend, e Popper ha ragione. Ma fino a
che punto? La critica di Feyerabend si inserisce in un'ampia polemica contro
l'empirismo: verso la metà degli anni sessanta il nostro autore fntroduce due condizioni indispensabili per il riduzionismo e più in generale per la visione empi-
339
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
ristica della scienza: una condizione di coerenza jconsistenry condition] e una condizione
di invarianza di significato [condition of meaning invariance] e, per mostrare l'insosteni':
bilità dell'empirismo, argomenta a favore di due tesi che implicano che tali condizioni non possono venir soddisfatte: la tesi della proliferazione di teorie mutualmente incompatibili (uno spunto per certi esempi implicito in Popper e a
cui un particolare respiro, come si è già detto nel paragrafo v, conferirà Lakatos)
e la tesi, appunto, della varianza di significato. Ma, sempre più nettamente (e, a
partire dal 1968, con una polemica che ìnveste in pieno i «valori di base» del
programma popperiano) Feyerabend viene individuando « un residuo empirista )>
anche in Popper che, pur avendo fatto della tradizionale base empirica più « una
palude » che « una roccia », sembra ammettere la possibilità di un linguaggio osservativo neutro in cui vengono formulati gli asserti della base che forniscono
gli opportuni falsificatori della teoria. E, più in generale, lo stesso Popper ha
sottolineato che il suo « razionalismo » presuppone almeno l'esistenza di un linguaggio comune in cui formulare le argomentazioni ed esprimere i risultati
delle osservazioni; concetti metodo logici come «falsificazione », « falsificabilità »,
« corroborazione », ecc. sarebbero altrimenti inapplicabili e incomprensibile diverrebbe anche l'assegnazione di una minor o maggior « verisimilitudine » alle
teorie e la connessa « idea regolativa » di approssimazione alla verità. Ma per
Feyerabend il presupposto che le varie teorie prese in considerazione abbiano
qualche espressione logica ed extralogica in comune e che le loro classi di conseguenze non siano disgiunte, è negato proprio dalle tesi della varianza di significato.
Nei lavori dopo il 1968, e in particolare in Against method (Contro il metodo
tre differenti stesure, 1970, 1972, 1975), Feyerabend è venuto articolando obbiezioni di questo tipo in una critica di più ampio respiro del « razionalismo critico »
di Popper e dei suoi seguaci. Questa resta « la metodologia positivista più liberale
oggi esistente« [corsivo nostro]: ma, nella misura in cui ancora propone« regole»
metastoriche, ha senso chiedersi: i) se sia desiderabile che la comunità scientifica
proceda in accordo con tali regole; ii) se sia possibile che queste abbiano un peso
effettivo nella scienza come di fatto viene praticata. Le analisi di Kuhn e di Lakatos, nota a questo punto Feyerabend, hanno mostrato che la concezione popperiana è: i) r(f!,ida in modo ben poco desiderabile (se, con Lakatos e con lo stesso
Popper, è la « ingegnosità » o la « creatività'>r il valore che si vuole privilegiare
nelle nostre ricostruzioni; razionali) ii) schematica e irrealistica, se si guarda alla
storia «non imbalorditi» dagli« occhiali »1 di Popper. Questi nello sviluppo del
suo programma metodologico « ha troppo risentito dell'influenza del circolo di
Vienna » nel costruirne la cintura protettiva, sì da assorbire la rigidità e l'astorir L'espressione è ricalcata sulla celebre
battuta di Cesare Cremonini circa l'impiego del
canocchiale (appunto «gli occhiali che J . . . J im-
balordiscono la testa») riferita a Galileo da Paolo
Gualdo in una lettera del 29 luglio r61 l.
340
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
cità dei canoni proposti dal neoempirismo almeno nella sua prima fase, soffocando
così la forza dirompente delle sue intuizioni circa la crescita della conoscenza e
le origini dell'atteggiamento critico: un tipico programma « regressivo »! E,
soggiunge Feyerabend, « qualsiasi caso storico consideriamo, vediamo che i
principi del razionalismo critico (prendi sul serio le falsificazioni, aumenta il contenuto, elimina ipotesi ad hoc, sii " onesto " - qualunque cosa significhi mai
questa parola) e, a fortiori, i principi dell'empirismo logico (sii preciso, basa le
tue teorie sulle misurazioni, elimina le idee confuse e non esprimibili in modo
definito) danno un'immagine inadeguata dello sviluppo della scienza nel passato
e possono incepparlo nel futuro». C'è più «opportunismo» nell'impresa scientifica (come in molte altre imprese umane, dalle arti alle tecniche) di quanto la
moralità neoempirista o popperiana vogliano ammettere: le « deviazioni » dai
«codici d'onestà intellettuale sono le condizioni preliminari del progresso>>.
Ma nemmeno i« critici della [popperiana] teoria della critica» come Kuhn
e Lakatos offrono delle alternative per Feyerabend soddisfacenti. L'insistenza
kuhniana sulla funzione del dogma e sulla ricerca normale fanno della ricerca
un'impresa prima facie poco interessante; una disamina più attenta mostra però
che oltre a essere « poco attraente », il quadro che Kuhn dà nella Struttura delle
rivoluzioni scientifiche è falso: la scienza, dice Feyerabend, non è una successione di
periodi di ricerca « straordinaria » e di periodi di « monismo >>- ove si impone
sovrano un paradigma: se ogni giorno constatiamo l'attività «normale» di coloro che «di continuo si impegnano in " minuti rompicapo"», è «con l'attività della minoranza che si dà alla proliferazione delle teorie » che cresce la conoscenza; d'altra parte, anche durante una rivoluzione la «palude» insisterà ottusamente sui vecchi rompicapo! Riducendo la scienza in larghissima misura a
semplice « soluzione di rompicapo » Kuhn ha fornito solo « consolazioni agli
specialisti » più gretti nelle scienze mature e ha imbaldanzito i dilettanti meno
preparati nelle scienze relativamente nuove, « incoraggiando coloro che non
hanno un'idea delle ragioni per cui una pietra cade al suolo a parlare con sufficienza del metodo scientifico ». A Lakatos sembra toccare un trattamento migliore: per Feyerabend la metodologia dei programmi di ricerca « è incomparabilmente più raffinata » della concezione kuhniana per paradigmi, in quanto,
anche se a prima vista si può sostenere « che quelli che Lakatos chiama programmi di ricerca altro non siano che i paradigmi di Kuhn », essa ha articolato le due
componenti della ricerca («tenacia» e « proliferazione ») non come due fasi temporalmente distinte (come, secondo Feyerabend, farebbe il Kuhn degli anni sessanta), ma come due elementi compresenti in una medesima «dialettica». Grazie « alla sua ottima educazione hegeliana » Lakatos « ha innestato sul tronco
della filosofia anglosassone il frutto proibito del leninismo »yspezzando « il cerchio magico» della epistemologia tradizionale, «dei Carnap e dei Nagel come
dei Popper e dei Kuhn » e realizzando una proficua fusione della tradizione di
341
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
Mill e di Whewell con gli spunti più vivi « del materialismo dialettico ». Queste
sono le premesse del modello lakatosiano « del mutamento scientifico », col suo
insistere (contro Popper non meno che contro i posi tivisti logici) sulla contraddizione come forza motrice dello sviluppo storico, « banco di prova » di ogni
seria impresa intellettuale che delimita i propri problemi e l'ambito delle soluzioni (tenacia, che solo le prospettive « regressive » di Popper e di Kuhn potrebbero confondere col « dogmatismo », sia pure l'una per condannarla come « frode
disonesta» e l'altra per riconoscerne «la funzione insostituibile ») ma anche
vuol saggiare la flessibilità delle proprie categorie (proliferazione, che la critica
popperiana, fin da Cos'è la dialettica?, avrebbe con poca fondatezza negato a Hegel,
a Marx ed Engels e ai loro seguaci). Ma con l'insistere su standards, accettabilità,
falsificazione, ecc. Lakatos troppo ancora concede « all'ortodossia popperiana »
e con ciò riduce drasticamente la portata rivoluzionaria del suo modello. La disamina delle teorie articolate in programmi di ricerca trova dunque consenziente
Feyerabend non foss'altro per il continuo confronto che Lakatos istituisce tra
epistemologia e storia della scienza (un abisso lo separa, osserva Feyerabend,
da, chi, come il Carnap degli anni cinquanta, considera ancora l'appello a considerazioni di tipo storico «un metodo estremamente poco efficiente»): ma è
proprio tale programmatica aderenza alle effettive vicende storiche che fa sì
che i criteri della metodologia dei programmi di ricerca « possono sì descrivere
la situazione in cui lo scienziato si trova; ma non gli dicono come procedere». Se il
riscontro con l'ausilio di opportuni casi storici del carattere empiricamente progressivo Q regressivo di un programma è un fatto empirico, per l'accertamento
del quale occorre «uno sguardo all'indietro» dopo «un lungo periodo» (come
Lakatos ammette, ma senza specificare quanto lungo!), non ci si deve stupire che
Lakatos conceda che un'équipe di ricercatori « può razionalmente difendere un
programma regressivo fino a che è superato da uno rivale e anche dopo ». Ma
quando un programma può venir razionalmente eliminato? Come può venir giustificata « la decisione metodologica di non lavorare più con esso »? Orbene, osserva Feyerabend, Lakatos è dotato di troppo senso storico per fissare « limiti
temporali »; ma proprio per questo « gli standards [della metodologia dei programmi di ricercal non sono in grado di vietare, presi di per sé, il comportamento
più testardo. Solo se vengono uniti a una sorta di conservatori.rmo [... ] possono in
modo sottile condizionare il ricercatore. Ed è proprio così che Lakatos li vuoi vedere
usati »: Feyerabend ricorda che a proposito di programmi « regressivi » Lakatos
consiglia «alle redazioni delle riviste scientifiche di rifiutare gli articoli [dei loro
sostenitori]: le stesse fondazioni dovrebbero bloccare i finanziamenti». È un esito « per lo meno curioso »: il sostenitore della priorità (metodologica) della storia interna viene in ultima analisi a lasciare il settore delle decisioni finali alla
storia esterna; il rivoluzionario a livello intellettuale si svela un conservatore a
livello istituzionale; lo « scopritore » dei vantaggi che offre il materialismo dia-
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
lettico rispetto alle concezioni « statiche » dei filosofi analisti o neoempiristi per
la scienza «pura» si muta in poliziotto quando si tratta di politica della ricerca.
Questo esito- con cui Lakatos, non certo meno di Kuhn, verrebbe a consegnare « la verità » scientifica nelle mani del «potere » (a cominciare dalle varie
istituzioni della ricerca) - può essere evitato secondo Feyerabend solo sottolineando che gli standards lakatosiani sono compatibili anche con atteggiamenti intellettuali meno conservatori, e questo proprio perché essi in sé « legittimano
tanto un comportamento [per esempio abbandonare un programma] quanto il
suo opposto »; come norme, essi, in realtà, sono vuoti; sono « ornamenti verbali »,
semplice retoriCa per una posizione del tipo « tutto va bene ». Quello di Lakatos
appare allora « un anarchismo mascherato »; ritenendosi « più spregiudicato »,
Feyerabend opta, sul piano epistemologico, per un anarchismo più esplicito. Per
Feyerabend « l'idea di un metodo fisso, di una rigida razionalità sorge da una
visione troppo ingenua dell'uomo e del suo ambiente sociale. [Un residuo di tale
impostazione resterebbe anche in Lakatos.] A quanti guardano al ricco materiale
fornito dalla storia e non intendono impoverirlo per compiacere i propri meschini istinti, la propria brama di quelle che vengono spacciate per chiarezza e precisione: a costoro sembrerà che esista un unico principio da salvaguardare in tutte
·le circostanze e in tutti gli stadi dello sviluppo umano. Il principio è [... ] tutto
va bene». L'unico principio « metodologico » ammissibile è dunque un'istruzione
contro il metodo. Per Feyerabend si può motivare tale scelta con la constatazione
lakatosiana che « nessuna singola teoria è mai in accordo con tutti i " fatti noti "
del suo campo »; ma, più risolutamente che in Lakatos, occorre abbandonare
«l'assunto per cui sarebbe possibile far corrispondere completamente le teorie
ai fatti noti» e «l'uso del livello di accordo raggiunto come principio di
valutazione»! Nel Seicento, esemplifica Feyerabend, la teoria copernicana era
incompatibile « con fatti talmente chiari e ovvi » che perfino Galileo nel Saggiatore la proclamava « sicuramente falsa » e nel Dialogo sopra i due massimi sistemi
del mondo si meravigliava di « come abbia possuto in Aristarco e nel Copernico
far la ragione tanta violenza al senso, che contro a questo ella si sia fatta padrona
della loro credulità»; lo stesso si potrebbe ripetere per la gravitazione di Newton,
per la relatività speciale e generale di Einstein, per il modello di Bohr e in genere
per la stragrande maggioranza delle teorie quantistiche; né c'è ragione di pensare che situazioni analoghe non si siano presentate, e ancora non si presentino,
nella chimica, nella biologia, nell'economia, nelle scienze sociali, ecc. Quelle di
Galileo possono certo venir interpretate anche come mosse per accattivarsi la
autorità ecclesiastica o il pubblico scientifico più tradizionalista; Bohr può aver
impiegato artifizi ad hoc nel suo modello e, in seguito, gli stessi principi di corrispondenza e di complementarità possono avere avuto anche la funzione di
ridurre il contenuto [nel senso di Popper] delle teorie, ecc. ~e Lakatos, allora,
può temere la « polluzione intellettuale» dei vari «stratagemmi», Feyerabend
343
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
ribatte che né Galileo né Bohr la temevano. La loro« ricetta» non era l'induzione,
enumerativa o eliminativa che fosse, e nemmeno la retroduzione cara ad Hanson,
ma una sorta di « controinduzione »: elaborare e diffondere ipotesi « incompatibili sia con le teorie acquisite sia coi fatti altrettanto. acquisiti ».
Abbandonata la «razionalità» neoempirista e popperiana, la controinduzione appare a Feyerabend « sia un fatto - la scienza non potrebbe esistere senza
di essa - sia una mossa nel gioco della scienza » che si deve compiere se si vuole
nell'impresa scientifica «conservare quella che potremmo chiamare libertà di
creazione artistica c usarla appieno, non solo come via di fuga, ma anche come
mezzo necessario per scoprire e perfino per mutare le proprietà del mondo in
cui viviamo »; a ciò ci spinge la stessa storia della scienza nonostante il peso della
tradizione epistemologica (sotto questo ultimo profilo optare per la controinduzione è una mossa« a sua volta controinduttiva >>).Gli elementi che Reichenbach
e Carnap e ancora Popper e Lakatos tendono a espellere dall'impresa scientifica
.re impresa « razionale » secondo i loro canoni di razionalità sono componenti
ineliminabili di quelle « visioni del mondo », di quelle « cosmologie » entro i
cui quadri hanno preso forma le intuizioni scientifiche di un Galileo, di un
Newton, di un Einstein o di un Bohr. E se si guarda alla grande rivoluzione
scientifica da cui prende l'avvio l'età moderna, evento, per dirla con lo storico
Butterfield, che « supera per importanza ogni avvenimento dal sorgere del cristianesimo e riduce il rinascimento e la riforma al livello di semplici episodi », il
sostenitore dell'« anarchismo metodologico » scopre che tale sviluppo («dal
mondo chiuso all'universo infinito » per usare la celebre frase di Koyré) « si è
prodotto solo grazie al fatto che gli scienziati spesso inconsapevolmente facevano uso di questa filosofia entro la loro ricerca, in quanto [... ] non si vincolavano a " leggi della ragione ", " standards di razionalità " o " immutabili leggi della
natura"», ma nei fatti realizzavano quello che il pittore Hans Richter secoli
dopo ha individuato come «il messaggio centrale del dadaismo», per cui « ragione e anti-ragione, senso e non-senso, progettazione e caso, consapevolezza e
non-consapevolezza [umanesimo e anti-umanesimo, aggiunta di Fryerabend] sono
inestricabilmente fusi come parti necessarie di un tutto ». Ciò premesso, ci appare conseguente che Feyerabend si allinei in Contro il metodo del 1975 con quegli
studiosi (basterà qui fare i nomi di F. A. Y ates e P. M. Rattansi) che, nella controversia degli anni sessanta tra gli storici di lingua inglese sul peso della tradizione
ermetica e magica, hanno insistito sugli elementi di continuità tra la tradizione
ermetica e la moderna immagine della scienza e che ne recepisca le tesi più estreme, per cui « nel nostro tipo di scienza » e « nel nostro tipo di razionalità » (le
locuzioni sono di Rattansi) non vi è maggior « obbiettività» e «razionalità» che
nel comportamento intellettuale del mago o del mistico. I vari standards che la
tradizione della cultura occidentale dal rinascimento in poi ha fornito, con Bacone, Descartes, Locke, Kant, Comte e ancora con gli « induttivisti » dell'Ot344
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
tocento e i « convenzionalisti» dell'inizio del secolo, fino a Carnap e Reichenbach,
come a Popper e Agassi, per quanto diversi siano tra loro, sono sempre elementi
interni a particolari « cosmologie » ed è arbitrario per Feyerabend elevarli a criteri di demarcazione tra pensiero « scientifico » e « magico », tra « scienza » e
« pseudoscienza », tra « razionale » e « irrazionale »; e vani saranno pure gli « espedienti » o la « retorica » degli ultimi epigoni di tale tradizione, Kuhn e Lakatos,
convinti il primo che « la crescita della conoscenza » sia ancora un processo « irreversibile » e il secondo addirittura che esso possa venir « razionalmente » ricostruito « nel mondo delle idee, nel terzo mondo di Platone e di Popper »!
Anche gli aristotelici e gli scolastici o gli alchimisti e i maghi avevano, dice
Feyerabend, i loro standards: su che basi decidere allora che quelli di Bacone o
quelli di Comte, o quelli di Popper sono migliori? Su che basi privilegiare gli
uni come « razionali » e disprezzare gli altri come « irrazionali »? I canoni di
« razionalità scientifica », argomenta Feyerabend, sono simili ai canoni dei poeti
o degli artisti; elementi «influenti» all'interno di una particolare ricerca o esperienza intellettuale (e spesso con un ruolo abbastanza marginale: lo scienziato
è vincolato dalla propria metodologia tanto poco quanto il poeta lo è dalla sua
poetica!) non possono tramutarsi in pietre di paragone che giudichino tali esperienze dall'esterno: « ricostruire » la storia della scienza sulla base di una prefissata
metodologia è « razionale » come intestardirsi, poniamo, a « ricostruire » la storia delle arti dal medioevo ai giorni nostri adottando canoni rinascimentali.
Ciò posto, si può intuire quale sia il ruolo della tesi della varianza di significato nel Feyerabend degli anni settanta e <:ome egli si distacchi da una parte
dai popperiani e dallo stesso Lakatos, dall'altra da Kuhn nonché da Hanson e
da Toulmin. Serviamoci, come di un filo rosso dei punti a)j) delle pp. 336-338.
Non è tanto nella ripresa delle dottrine dell'osservazione «modellata dalle
teorie » e della dipendenza contestuale dei termini quanto nella loro utilizzazione
che sta l'interesse e la novità della posizione « anarchica » di Feyerabend. È ben
vero- cfr. punti a) e b)- che tali tesi sono tesi logiche e quindi, in casi storici, le
risposte alla domanda circa la comparabilità o l'incommensurabilità di due teorie
sono « sub condicione »: ma che ragioni ci sono - cfr. punto c) - di privilegiare
ricostruzioni à la Frank, tipiche di un positivismo più accorto (che ammette
la « disparità concettuale » di teorie rivali e non la semplice crescita per accumulazione) e non altre, più radicalmente fratturiste? In base a quali standards considerare le prime delle ricostruzioni «buone>> (cioè «razionali») e le seconde
delle ricostruzioni «cattive» (cioè «non razionali»)? Un'argomentazione analoga può venir utilizzata in relazione al punto e): perché dev'essere considerato
«non razionale» l'atteggiamento di chi sostiene che il linguaggio in cui si formulano le obbiezioni critiche possa presentare un muta~ento di significato
[meaning change] dei termini drastico e repentino almeno quanto quello dei termini
teorici cui si appunta la «critica» (o la «propaganda»), tanto più che i canoni
345
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
della critica appaiono spesso difficilmente scindibili dalle idee di fondo di una data
concezione (essi rientrano, a detta di Watkins, nella «metafisica influente» o addirittura a detta di Lakatos, nel « nucleo metafisica » di un programma scientifico)?
Se poi componenti logiche, matematiche, tecnologiche, ecc. rientrano in modo essenziale vuoi nel « nucleo » vuoi nella « cintura protettiva » di un programma di
ricerca (sia esso etichettato come «metafisica» o come «scientifico») hanno ancora senso le specificità delle varie componenti delle « trame della scoperta » e le
zone di confronto «locale» invocate- cfr. punto f)- da Hanson e da Toulmin? Per quanto riguarda infine il punto d), ci pare che contro Lakatos, Zahar
e gli altri sostenitori della metodologia dei programmi di ricerca, su tale specifica questione Feyerabend, a partire dal suo Consolations Jor the specialist (Consolazioni per lo specialista, 197o), abbia seguito, entro la medesima strategia, due
diverse tattiche: la prima, a nostro avviso poco producente, consiste nell'identificare sommariamente « teorie » e « programmi di ricerca », prescindendo dalla
distinzione che Lakatos ritiene essenziale per poter concludere che è possibile
solo la critica entro una teoria, ma non tra diverse teorie; la seconda, ben più sottile,
consiste nell'accettare, in prima istanza, la distinzione tra teorie e programmi e
ammettere, entro un programma, la possibilità del confronto tra varie teorie, per
domandarsi quali possibilità di confronto vi siano tra dù;ersi programmi e se non
si debba invece parlare di « programmi incommensurabili »? Chi difende la prospettiva di Lakatos può certo osservare che così facendo Feyerabend ripropone
a un livello più sofisticato il vecchio argomento dell'incommensurabilità delle
teorie e obbiettare che Lakatos ha più volte fornito esempi storici di «programmi
innestati [grafted] su programmi più vecchi », in cui condizione necessaria per
la riuscita di tale « innesto » si è rivelata la costituzione di un buon « dizionario ».
Pure, a nostro avviso, là critica feyerabendiana nel seguire questa seconda tattica individua un problema reale e un effettivo punto debole del !ltodello di Lakatos: questi
infatti, sia nei casi tratti dalla storia delle matematiche che in quelli tratti dalla
storia delle scienze empiriche, ammette che tali dizionari sono gli strumenti con
cui si realizza una vera e propria « deformazione dei concetti » [concept stretching]
che sarà, a seconda dei casi, «progressiva» o « regressiva », ma che apparirà
totalmente arbitraria o addirittura incomprensibile ai sostenitori « ortodossi » del
vecchio programma c naturale o utile o necessaria, ccc. agli «eretici» promotori
del nuovo. Ci sia lecito aggiungere, utilizzando le parole di uno storico italiano
della fisica dell'Ottocento, Enrico Bellone, che spesso tali dizionari si rivelano
« complessi, instabili e internamente sfasati » e che quindi, lungi dal costituire la
zona meno problematica del programma, si rivelano di fatto ricchi di questioni
e anche di insidie. L'argomento feyerabendiano e queste ultime sommarie considerazioni ci permettono dunque un primo giudizio critico su Lakatos: questi
ha fatto sue non poche delle obbiezioni alla popperiana «logica della scoperta» e ne ha proposto un (( mzglioramento »; ma se la critica kuhniana al falsiftcazionismo concludeva con
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
un appello a una « r~(orma », la posizione di Lakatos è stata una tipica strategia « controriformistica» (l'accettazione di certe obbiezioni dei critici non ha significato
affatto convergenza sulle loro tesi di fondo, ma solo delle « mosse » nello spregiudicato tentativo di « salvare il salvabile » del razionalismo critico); sulla questione della varianza di significato e della incotmmnsurabilità, in particolare, ha diviso
la questione in due, prospettando il problema del mutamento concettuale sia come transizione da una teoria all'altra entro un programn;a sia come transizione da un programma
a un altro; ha infine fornito una soluzione alla prima questione in termini di « logica della
scoperta», ma non alla seconda: poiché la costituzione dei « dizionari» è un fatto
interno a un programma, resta aperta, proprio alla luce dell'abbiezione di Feyerabend, per dirla con lo studioso polacco Stefan Amsterdamski, « la questione
del passaggio da un programma a un altro, [in sostanza] la questione se tale
passaggio può venir spiegato in termini puramente metodologici [... ]. Finché
tale domanda non ha una risposta, la stessa tesi che la logica della scoperta può
costituire una base soddisfacente per la ricostruzione del processo dell'evoluzione
della conoscenza resta priva di giustificazione ».
Nel paragrafo· vn prenderemo in considerazione altri limiti del modello
lakatosiano; qui vogliamo ancora aggiungere che, come mostra lo stesso rilievo
di Amsterdamski, studioso ben critico anche dell'anarchismo metodologico, la
realizzazione che certe osservazioni di Feyerabend enucleano delle autentiche
difficoltà della metodologia dei programmi di ricerca non porta necessariamente
a condividere gli obbiettivi globali della strategia dell'autore di Contro il ntetodo.
Questi ha come bersaglio non solo l'oggettivismo di Popper o di Lakatos, ma
ogni forma di oggettività della conoscenza scientifica: una scienza cui venga conferita una qualsiasi forma di oggettività è, sotto il profilo politico e morale, pericolosa quanto « una tigre» e il nostro autore esplicitamente preferisce « aver
per compagna non una belva feroce, ma una gattina compiacente)>. Questa, che
per Feyerabend è dopo tutto una « scelta di gusto », yiene in Contro il metodo
motivata da una vasta gamma di riferimenti filosofici, alcuni dei quali certo poco
abituali nell'epistemologia di lingua inglese. Vediamone alcuni.
Per Feyerabend Hegel è il filosofo della tradizione occidentale a cui occorre
guardare per compiere il primo passo in direzione della « riforma delle scienze >>
contro l'empirismo. Come abbiamo visto, anche il Popper degli anni sessanta
recupera alcuni aspetti dell'hegelismo, ma Feyerabend va ben oltre la cauta rivalutazione popperiana e si appella a quella ragione « negativa e dialettica » che
« dissolve in nulla le determinazioni dell'intelletto ». Feyerabend pare dunque
dimenticarsi che «il contenuto della scienza pura è [... ] il pensare oggettivo»
come è scritto nella Scienza della logica, anche se Hegel amm~;tte che prima facie
quella di «pensare» è un'espressione che attribuisce la determinazione in essa
contenuta soprattutto alla coscienza. È legittimo però trarre da quest'ultima ammissione la tesi feyerabendiana che « ciò che resta sono i giudizi estetici, i giu347
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
dizi di gusto e i nostri desideri soggettivi »? Per H e gel « l'uso delle forme del
concetto [... ] riposa in generale sulla base che coteste non siano semplicemente
forme del pensiero autocosciente, ma anche dell'intelletto oggettivo »; solo parzialmente dunque Feyerabend trae la propria « lezione metodologica » dall'hcgelismo: se occorre « non lavorare mai con concetti fissi; non lasciarsi sedurre
dall'idea di aver finalmente trovato l'esatta descrizione dei" fatti", mentre guello
che si è verificato è soltanto l'adattamento di alcune nuove categorie a vecchie
forme di pensiero, ormai tanto familiari da farci prendere le loro strutture per le
strutture del mondo stesso», non è ridotta l'efficacia di queste stesse prescrizioni
dall'intenzionale riduzione della critica a gusto o a propaganda? Infine Feyerabend
respinge « la continuità dei concetti »: il fisico relativista « dovrebbe interessarsi
al destino della meccanica classica » soltanto « per un'esercitazione storica »!
Pure anche chi « abbia la minima conoscenza della filosofia hegeliana » (Feyerabend) può ribattere che il sistema dei concetti per Hegel deve « costruir se
stesso» con un andamento «irresistibile, puro, senz'accoglier nulla dal di fuori»
e che la dialettica in Hegel è inseparabile dall' oggettivismo: di conseguenza, può
sostenere che gli appelli di Feyerabend a tale dialettica sono semplici espedienti
retorici!
Questa impressione è, a nostro avviso, consolidata dal contesto in cui
Feyerabend inquadra i suoi numerosi riferimenti a Marx a proposito del concetto
di alienazione. La pretesa all'oggettività cela per Feyerabend il fatto che « il risultato della nostra stessa attività viene da essa separato, assume un'esistenza
indipendente»: la scienza moderna« da strumento umano variabile, con cui esplorare e cambiare il mondo » si è trasformata in un blocco di conoscenze, « inaccessibile ai sogni, ai desideri, alle· aspettative degli uomini »: lo sviluppo « da Galileo a Laplace >> ha dunque progressivamente « posto in ombra » quella Lebenswelt che pure costituiva iÌ fondamento originale della scienza galileana. Con la
sua astrazione, generalizzazione, formalizzazione, ecc. la scienza « alienata » maschera dunque la struttura prescientifica, tecnica, ecc.: il recupero della « realtà»
è affidato «al pensiero negativo». Questo in Contro il metodo si trova come alleato una forma di convenzionalismo radicale che richiede a una teoria o un
programma solo di dare « una spiegazione corretta del mondo, cioè della totalità dei fatti così come essi vengono visti attraverso i suoi concetti»: sicché il « mondo »
sarà (o apparirà, se si preferisce) volta per volta aristotelico, newtoniano, einsteiniano, quantistico senza alcuna possibile mediazione! L'esito dell'epistemologia
« anarchica » è quindi, a parer nostro, agli antipodi del razionalismo che costituisce il nucleo della logica hegeliana e della stessa concezione di Marx e di
Engels.
Con uno slittamento abituale per alcune correnti di pensiero (certe versioni
della fenomenologia di Husserl, varie tendenze dell'esistenzialismo, la «scuola
di Francoforte», ecc.) Feyerabend viene ad attribuire la causa profonda della
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
«alienazione» alla scienza moderna e a contrapporre alla «ristretta razionalità»
di questa (il termine è di Theodor Roszak) dei nuovi modelli culturali che, come
ha proclamato in una. conversazione all'università del Sussex (novembre 1974),
hanno il compito « di difendere la società contro la scienza ». Facendo propri
non pochi motivi della protesta tardoromantica contro la scienza e la tecnologia
moderna e avvicinandosi a quella « letteratura della contestazione » che in modo
esasperato e unilaterale sul finire degli anni sessanta ha insistito sul fatto che
l'impresa scientifica, priva di qualsiasi presa sulla realtà, trova solo in fattori
extrascientifici le proprie motivazioni, Feyerabend perviene alla conclusione che
la scienza « è oggi tanto oppressiva quanto le ideologie contro cui ha dovuto
combattere» nella sua storia da Galileo in poi. Non più la metafisica, ma gran
parte della ricerca scientifica merita l'etichetta humeana di «sofisticheria e inganno »! Coerente nella sua radicale svalutazione, Feyerabend riduce drasticamente anche la portata dei suoi rimandi al materialismo dialettico c non è un
caso che, nella conversazione sopra ricordata, egli includa nella scienza da cui
ci si deve difendere « anche la scienza di Karl Marx », suscitando lo stupore e
la rabbia dei suoi ascoltatori della New Left delusi di tale franchezza e forse
troppo illusi di poter conciliare una qualche forma di « materialismo storico »
(avulsa da quell'« oggettivismo » di cui anche Marx, Engels o Lenin risultano
colpevoli!) con una tradizione epistemologica che, risalendo oltre i consensi o
i dissensi con Popper, Lakatos e Kuhn, ritrova le sue radici nel convem:ionalismo
radicale del bergsoniano Le Roy ..
3. Matrici disciplinari, esemplari e difficoltà di cotnunicazione. La risposta che
Feyerabend offre al problema del passaggio da un « programma » a un altro
«ha [dunque] tutte le caratteristiche della fede religiosa», come sottolinea P.
K. Machamer, critico sia della prospettiva generale di Feyerabend sia della presentazione c dell'utilizzazione dei casi storici che questi invoca a sostegno dell'anarchismo metodologico. Per esempio, Galileo, nota Machamer, a detta di
Feyerabend « ebbe fede nel copernicanesimo grazie a un colpo di genio, in assenza di ogni evidenza e a dispetto di tutto ciò che è razionale »; orbene: una
tale « fede » è senza dubbio « molto vicina ai più tradizionali punti di vista con-'
cerne~ti il genio della scoperta »! La « riforma » epistemologica invocata da
Hanson, Toulmin, Kuhn sia contro la tradizione dell'empirismo logico che contro il razionalismo critico si riduce allora a un ritorno a più vecchie concezioni
che privilegiano in modo unilaterale la psicologia individuale e collettiva?
Alla fine del paragrafo rv abbiamo accennato alla prospettiva di S. Toulmin
articolata ampiamente in La comprensione umana, in polemica d~ una parte con le
«logiche della scoperta>> di tipo popperiano o lakatosiano, ma, dall'altra, con le
tesi « anarchiche » di Feyerabend; in questo paragrafo dedichiamo ancora qualche pagina alle concezioni di Kuhn, concezioni che nella seconda metà degli anni
349
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
sessanta questo autore ha sottoposto a una considerevole revisione, mirando a
distinguersi nettamente dall'apologia feyerabendiana del «tutto va bene».
In questa esposizione di necessità breve e schematica prendiamo le mosse
dall'ammissione di Kuhn che la nozione chiave di « paradigma » in La struttura
delle rivoluzioni scientifiche resta « piuttosto ambigua » e diciamo subito che Kuhn
è venuto via via precisando che lo storico della scienza può individuare i paradigmi esamiuando il comportamento dei membri di una comunità scientifica
determinata in precedenza servendosi di altri criteri. Ciò premesso, in questa
« accezione sociologica », come dice Margaret Masterman, un paradigma o, come preferisce chiamarlo ora Kuhn, una« matrice disciplinare» [discip!inary matrix]
è costituito dall'intera « costellazione » delle credenze, dei valori, delle tecniche,
ecc. condivise dai membri di una data comunità. Una siffatta « matrice» ha
« elementi» di almeno quattro tipi differenti: « generalizzazioni simboliche »
(non leggi, ma piuttosto schemi di leggi), credenze metafisiche (corrispondenti
in qualche modo, nello schema kuhniano, alla « metafisica influente » o al « nucleo metafisica»), giudizi di valore riferiti alle teorie (quelli che Lakatos chiama
«asserzioni base normative ») e infine «le concrete soluzioni dei rompicapo
[puzzles] impiegate come modelli o esempi». Queste ultime svolgono un ruolo
essenziale in una matrice, in quanto permettono di organizzare l'esperienza e di
riconoscervi in essa delle « reiterazioni »: un ruolo per certi versi analogo a quello che nell'insegnamento della grammatica di una lingua svolge, poniamo, un
particolare verbo nel fornire il « paradigma » della coniugazione di altri. Ne
consegue l'importanza che viene a rivestire nell'impresa scientifica «l'abilità a
riconoscere una data situazione come simile a certe cose di quelle già viste, ma
come dissimile a certe altre»: la preparazione dei professionisti della ricerca (attraverso manuali, esercitazioni di laboratorio, letture di classici, ecc.) mira in una
comunità scientifica efficiente a stimolare tale abilità di « riconoscimento » di
rassomiglianze e diversità nel contesto della « costellazione » condivisa. Anche
se utile, la familiare analogia con l'apprendimento delle forme verbali non va
però estesa oltre un certo limite. Questo processo di riconoscimento, infatti, è
una sorta di «programmazione degli stimoli»: ora, se nella Struttura delle rivoluzioni scientifiche, citando Hanson si faceva riferimento a organizzazioni gestaltiche delle percezioni, Kuhn tende ora a distinguere attentamente tra processi
« percettivi » e « interpretativi », aggiungendo che « quel che la percezione lascia
all'interpretazione dipende in modo essenziale dalla natura e dalla quantità della
precedente esperienza e formazione»; sottolinea poi che l'abilità che si acquista con gli esemplari a « programmare gli stimoli» non può venir inculcata insegnando regole esplicite: è un tipo di processo spesso inconscio, che non può
venir caratterizzato in modo adeguato « interpretando gli stimoli alla luce di
regole di generalizzazione ». È un tipo di processo, aggiungiamo noi, che può
a buon diritto rientrare in quella che M. Polanyi chiama « conoscenza silenziosa»
www.scribd.com/Baruhk
Filosofia della scienza e storia della scienza nella cultura di lingua inglese
[tacit knowledge], la «zona», per Polanyi piuttosto estesa, in cui «l'euristica»
non può avvalersi di strumenti linguistici.
Ciò premesso, Kuhn ritiene per questa via di poter evitare gli esiti « che
personalmente gli ripugnano » cui perviene Feyerabend e nello stesso tempo eludere le critiche mossegli da continuatori della tradizione empiristica e da popperiani che gli rinfacciano che la vittoria di una nuova teoria è segnata in parte
da una propaganda irrazionale, in parte dalla dipartita per cause naturali della
vecchia guardia, mentre un modo di vedere il mondo e di concepire la pratica
scientifica viene sostituito da uno con esso « incommensurabile ». Kuhn ora non
insiste più sul carattere « istantaneo » del mutamento scientifico e raccomanda
maggior cautela allo storico nello sfruttare la categoria, proveniente da vari contesti culturali (si pensi a Bachelard e a Koyré) di «rottura» nelle visioni del
mondo, nell'epistemologia, ecc.; allo stesso modo ammette come componenti
della ricerca normale anche « i controlli delle teorie » raccogliendo istanze neoempiristiche e popperiane, pur senza attribuire loro la funzione centrale che Popper vi scorgeva nel «rovesciamento» delle teorie. Né Kuhn ritiene che si possa
rivolgere alla sua prospettiva un'accusa del tipo di quella che Machamer rivolge
a Feyerabend circa il riportare in auge vecchi schemi della psicologia della scoperta. L'appello alla psicologia dei gruppi, più che del singolo ricercatore e, su
scala più ampia, alla sociologia per Kuhn corrisponde al fatto che la popolazione
dei ricercatori scientifici nel passato e ancor di più nel presente si articola in comunità a vari livelli e che corrispondentemente termini come «scoperta», « rovesciamento di una teoria», « rivoluzione scientifica » per essere più di mere
etichette vanno sempre riferite a una o più comunità e alle relazioni che ai vari
livelli si sono stabilite diacronicamente e sincronicamente tra tali comunità. È
in questo contesto che Kuhn prospetta anche la questione delle difficoltà di
comunicazione. Membri di una stessa comunità, ma appartenenti a sotto-comunità diverse, spesso pur essendo d'accordo in astratto, non concordano in concreto e proprio tali divergenze nell'applicare «valori condivisi» possono rivestire
una funzione «essenziale» per la scienza, possono, per esempio, permettere fruttuosi recuperi di linee di ricerca che la maggioranza dei membri di una comunità altrimenti tralascerebbe, o addirittura, diventare un fenomeno relativamente
di massa e porre così le condizi
Scarica