Maria Luisa Dalla Chiara, Logica, ISEDI, 1974.

Maria Luisa Dalla Chiara, Logica, ISEDI, 1974.
Capitolo 4, pp. 97-106.
4. Il problema dei fondamenti della matematica
4.1. Matematica e logica
Gli anni ’60 hanno segnato nel campo della critica dei fondamenti della matematica una svolta di cui non siamo ancora in grado di valutare tutto il significato.
Per la sua importanza tale svolta sembra paragonabile ad altri due grandi momenti della storia della logica del ’900: il 1902 (scoperta della antinomia di Russell) e il 1931 (dimostrazione del teorema di Gödel). In fondo (se lasciamo provvisoriamente da parte il fenomeno del costruttivismo matematico che per molto
tempo ha avuto una sua storia indipendente), con una certa semplificazione, la
storia delle moderne ricerche sui fondamenti della matematica si lascia suddividere in tre grandi periodi trentennali, separati ciascuno da un risultato esplosivo, che ha la caratteristica di mettere in crisi il programma generale del periodo
precedente. Curiosamente, le svolte che hanno segnato rispettivamente la fine del
primo periodo (1902) e del secondo periodo (1931) si possono entrambe descrivere
come un “brutto tiro” giocato da quello schema di paradosso logico che prende
il nome di paradosso per autoriferimento. Come già sappiamo una situazione
logica di autoriferimento (che si verifica quando un termine o un concetto viene
applicato a se stesso) in molti casi, anche se non sempre, può portare a contraddizione. L’esempio conosciuto più antico di contraddizione per autoriferimento è
rappresentato dalla celebre antinomia del mentitore scoperta dai Greci (di cui ci
siamo occupati nel capitolo 2).
L’antinomia di Russell tramite un caso particolare di autoriferimento (il principio cantoriano di comprensione esemplificato nel caso di un concetto che si
riferisce a se stesso), aveva dimostrato l’incoerenza di quella “logica generale” a
cui i grandi logicisti dell’800, in particolare Cantor e Frege, avevano ridotto i concetti fondamentali della matematica. La teoria cantoriana dei concetti, fondata
sui due principi di comprensione e di estensionalità godeva di due caratteristiche
entrambe assai significative:
I) era una teoria estremamente potente da un punto di vista matematico, in
quanto riusciva a definire al suo interno i concetti primitivi e a dimostrare al
suo interno i teoremi di tutte le più importanti teorie matematiche conosciute.
L’aritmetica, l’analisi, la geometria ecc., diventavano pertanto rami particolari
della teoria degli insiemi.
1
II) era una teoria straordinariamente semplice e naturale per il suo contenuto: i
suoi due postulati apparivano dei principi universalmente validi e indiscutibili.
Apparentemente dunque c’erano tutte le condizioni per poter parlare di una
“logica generale” estremamente potente: ridurre alla teoria degli insiemi tutte le
principali teorie matematiche significava risolvere il problema della fondazione
logica della matematica. Tutto ciò comportava naturalmente alcune conseguenze
filosofiche assai significative. Per esempio, diventava corretto, su questa base,
concludere: la matematica è logica, e come tale non fa ipotesi sul mondo, non
ha contenuto. Lo scienziato empirico usa la matematica esattamente allo stesso
modo in cui usa la logica e ogni essere pensante con la nostra stessa logica,
avrebbe, almeno in potenza, la nostra stessa matematica.
La scoperta dell’incoerenza di questa “logica generale” metteva evidentemente
in crisi le basi stesse di quel programma di fondazione della matematica che era
stato faticosamente realizzato nella seconda metà dell’800. In realtà, come ci si
accorse presto, è possibile indebolire tale logica in modo da evitare le difficoltà
messe in luce da Russell e nello stesso tempo garantire una fondazione soddisfacente per la matematica. Le teorie assiomatiche degli insiemi (per esempio la
teoria di Zermelo-Fraenkel descritta nella tavola 7) assolvono appunto a tale compito. In questo modo però si ottiene un tipo di teoria che non assomiglia più,
come nel caso precedente, ad una “vera logica” fondata su semplici principi che
possono apparire universalmente validi. Si tratta piuttosto di complesse teorie
matematiche, i cui postulati hanno, nella maggior parte dei casi, la forma di speciali ipotesi esistenziali e, come tali non possono essere ritenuti delle verità logiche.
È caduta insomma la seconda componente della teoria cantoriana degli insiemi
che garantiva la realizzazione del programma logicistico di fondazione logica della
matematica.
Quale può essere il significato filosofico di una riduzione in cui la teoria fondante appaia per molti aspetti più problematica delle stesse teorie che si intendeva
fondare? Storicamente a questa grossa difficoltà si è reagito con la “scappatoia”
filosofica del formalismo, che propone una riduzione logica più sottile rispetto alla
precedente. Mentre il logicismo ha cercato una riduzione diretta del più complicato (matematica) al più semplice (logica) e su questo piano ha, come abbiamo
visto, fallito, il formalismo si accontenta di una riduzione indiretta. Una volta
accettata la riducibilità di tutta la matematica ad una teoria assiomatica degli
insiemi, si tratta di dimostrare la correttezza (ossia la coerenza) di quest’ultima
attraverso ragionamenti sintattici che siano giustificabili all’interno della stessa
teoria.
Questa possibilità di autogiustificazione sintattica non è una pretesa a prima
vista irragionevole, visto che la coerenza di una teoria è una proprietà di un
2
sistema di “cose concrete”, i segni della teoria; e la teoria degli insiemi è stata
ideata allo scopo di poter descrivere le proprietà di tutti gli insiemi possibili.
Naturalmente una situazione logica del genere ha tutti i caratteri di un caso di
autoriferimento. Fino al 1931 però la scuola di David Hilbert (ideatore, come
sappiamo, del programma formalistico) era convinta di poter eludere per questa
via il “fantasma del mentitore”: pazientemente furono elaborate dimostrazioni
parziali di coerenza con la prospettiva di giungere infine ad una fondazione sintattica per l’intera matematica (riduzione del più complicato (matematica) al più
semplice (sintassi)). Ma, come abbiamo visto, nel 1931 “il mentitore colpisce
ancora”: Gödel dimostra che la teoria degli insiemi, se è coerente, non è in grado
di dimostrare la propria coerenza. La catena riduttiva delle teorie matematiche
non ha un elemento ultimo, capace di autogiustificarsi; è inevitabile il regresso
all’infinito delle teorie.
4.2. Recenti mutamenti di prospettiva nella problematica fondazionale
Diversamente dai due casi precedenti, la svolta degli anni ’60 non è caratterizzata da un unico risultato esplosivo, ma piuttosto da una rivoluzione di metodi
connessi ad antichi problemi.
Nel 1963, il matematico americano Paul Cohen ottiene una soluzione relativa
per un grande problema insoluto di Cantor, il problema della cardinalità del continuo. Egli dimostra l’impossibilità di risolvere nelle usuali teorie elementari degli
insiemi il problema “quanti sono i numeri reali?”. E questo con la creazione di
un metodo nuovo, il metodo cosiddetto del forcing (costrizione) che inizialmente
appare alquanto misterioso al mondo dei logici.
In un certo senso il risultato di Cohen si realizza in un clima inverso rispetto
a quello del 1902 e a quello del 1931. I risultati di Russell e di Gödel erano giunti
entrambi del tutto inaspettati, e nello stesso tempo la loro dimostrazione era
stata ottenuta con metodi certi e indiscutibili (nel caso di Russell si era trattato
addirittura, come abbiamo visto, di pochi e semplici passaggi logici). Viceversa
invece il risultato di Cohen era atteso, ma strano appariva il suo tipo di soluzione.
Le reazioni naturali dopo Russell e dopo Gödel erano state di crisi, di necessità
di un ripensamento generale. La reazione a Cohen fu invece una proliferazione di
risultati nuovi, di sviluppi del misterioso forcing.
A questo punto torna opportuno accennare brevemente alla storia del problema del continuo. Nell’ambito della sua teoria generale degli insiemi, Cantor
aveva creato una nuova “aritmetica del transfinito” che costituiva una generalizzazione al caso infinito dell’usuale aritmetica, dei numeri naturali (finiti).
In questo quadro teorico egli aveva dimostrato che il numero (transfinito) che
spetta all’insieme dei numeri reali (o equivalentemente all’insieme dei punti della
3
retta) è maggiore del numero (transfinito) che spetta all’insieme dei numeri naturali; contravvenendo cosı̀ ad un’idea intuitiva profondamente radicata secondo cui
l’infinito rappresenterebbe una sorta di limite per le nostre misure e non avrebbe
senso “andare oltre l’infinito”. Era convinzione di Cantor che non ci fossero numeri transfiniti più piccoli del numero dei reali (numero che viene chiamato anche
“cardinalità del continuo” e indicato con la lettera ebraica ℵ) e più grandi del
numero dei naturali (chiamato anche cardinalità del numerabile e indicato con
ℵ0 ). In altri termini: ℵ sarebbe l’immediato successore transfinito di ℵ0 . Questo
è il contenuto della celebre “ipotesi del continuo” che Cantor cercò vanamente di
dimostrare.
Nel 1938 Gödel dimostra la coerenza relativa dell’ipotesi cantoriana del continuo rispetto alle usuali teorie assiomatiche degli insiemi (per esempio la teoria di
Zermelo-Fraenkel): se ZF con l’aggiunta dell’ipotesi del continuo fosse incoerente
allora sarebbe incoerente già la stessa ZF. Naturalmente ciò non significa aver
dimostrato l’ipotesi del continuo! La nostra ipotesi diventa tuttavia dimostrabile
qualora si aggiunga a ZF un nuovo assioma (chiamato da Gödel assioma di costruibilità), secondo cui ogni insieme è costruibile, ossia è definibile linguisticamente
tramite una definizione in cui si faccia riferimento soltanto a insiemi costituiti
precedentemente nella gerarchia dei tipi ideata da Russell. Intuitivamente possiamo illustrare la situazione nel modo seguente. Secondo un’idea avanzata per la
prima volta da Russell l’universo naturale della teoria degli insiemi è una gerarchia
stratificata in tipi (o livelli ) che possiamo visualizzare come un cono rovesciato e
senza base.
A
A
A
A
A
A
A
A
A
A
A A
II vertice del cono rappresenta l’insieme vuoto. I diversi piani rappresentano i
diversi livelli della gerarchia: il primo livello contiene tutti i possibili sottoinsiemi
dell’insieme vuoto, il secondo tutti i sottoinsiemi del primo livello, e cosı̀ via
4
per tante volte quanti sono i numeri naturali. Una volta esauriti tutti i numeri
naturali si costituisce un nuovo livello i cui elementi sono tutti gli insiemi costituiti
precedentemente, e quindi si ricomincia da capo costituendo al livello successivo
tutti i sottoinsiemi del livello precedente. Per quante volte viene iterato questo
processo? Per tante volte quanti sono i numeri (finiti e transfiniti) la cui esistenza
è dimostrabile nella teoria, degli insiemi. Ora, l’assioma di costruibilità afferma
che ogni insieme di questa gerarchia è descrivibile tramite una definizione in cui
si faccia riferimento soltanto a livelli della gerarchia costituiti precedentemente (e
mai a livelli successivi né tanto meno all’intera gerarchia!).
L’idea gödeliana di costruibilità rappresenta uno sviluppo insiemistico-astratto
dei principi filosofici che hanno guidato un importante filone del costruttivismo
matematico moderno: l’indirizzo predicativistico, avanzato per la prima volta da
Henri Poincaré. Come abbiamo ricordato nell’ “Introduzione”, secondo i predicativisti hanno esistenza matematica soltanto quegli enti astratti i quali siano
definibili tramite una definizione predicativa; una definizione cioè in cui non si
faccia riferimento alla totalità degli enti a cui l’ente da definire appartiene (un
esempio di definizione impredicativa è la seguente “il più piccolo numero reale
il cui quadrato sia maggiore o uguale a 2”, che fa √
riferimento alla totalità dei
numeri reali a cui l’ente da definire, ossia il numero 2, appartiene).
In realtà, riconoscere esistenza matematica a tutto il cono degli insiemi costruibili, è molto di più di quanto i predicativisti tradizionali non sarebbero disposti
a concedere. Nulla assicura infatti che quei numeri transfiniti che abbiamo usato
essenzialmente nella costruzione del nostro cono siano a loro volta definibili predicativamente. Supponiamo però di voler “liberalizzare” una famosa affermazione
del matematico costruttivista Leopold Kronecker, secondo cui “il buon Dio ha
creato i numeri naturali, e tutto il resto è opera dell’uomo”, e immaginiamo un
Padre eterno più generoso che ci abbia fatto dono non solo dei numeri finiti ma
anche di tutti i numeri transfiniti. In tal caso l’intero cono degli insiemi costruibili
diventerebbe “opera dell’uomo” e come tale accettabile anche per un matematico
costruttivista. Da un punto di vista filosofico si tratterebbe di una forma di
“costruttivismo debole”, che verrebbe a dipendere da un’ipotesi straordinaria (e
non giustificabile secondo i principi del costruttivismo tradizionale) di esistenza
dei numeri transfiniti.
Mentre Gödel ha dimostrato che questa forma di costruttivismo debole permetterebbe di risolvere il problema cantoriano del continuo (senza peraltro affermarne la validità), Cohen ha dimostrato come sia possibile falsificare non solo
questa forma di costruttivismo (descritta dall’assioma di costruibilità) ma anche
la stessa ipotesi cantoriana del continuo. Congiuntamente i due risultati di Gödel
e di Cohen vengono pertanto ad affermare l’indecidibilità dell’ipotesi del continuo
5
nelle teorie elementari degli insiemi; ossia l’incapacità di queste teorie di risolvere
il problema “quanti sono i numeri reali?”. Il risultato di Cohen si può ottenere
attraverso la costruzione di un modello per ZF, che è molto simile al cono dei
costruibili, e nel quale però sono stati inseriti a un certo punto degli insiemi di
tipo speciale, i cosiddetti insiemi generici. L’immissione di questi insiemi nel cono
dei costruibili ha un’azione alquanto perturbatrice: non si riesce più a contare il
continuo come si faceva prima (e questo permette di falsificare l’ipotesi del continuo); nello stesso tempo gli insiemi generici non risultano definibili tramite una
definizione predicativa (e questo permette di falsificare l’assioma di costruibilità).
Intuitivamente le caratteristiche di un insieme generico si possono cosı̀ descrivere:
si tratta di un insieme infinito, tale che però la verità o falsità di ogni proposizione che lo riguardi dipende sempre soltanto da una conoscenza finita della sua
composizione. Per esempio, l’insieme di tutti i numeri naturali (chiamato anche
ω) non è un insieme generico: è necessario conoscere tutta la composizione di ω
per poter decidere la verità di molte proposizioni su ω. Nel caso di un insieme
generico invece per ogni proposizione α esiste un’informazione finita che costringe
α o ¬α ad essere vera. Proprio perché non è mai rilevante la conoscenza completa
della loro composizione per decidere quali sono le proprietà di cui godono, gli insiemi generici risultano godere solo di proprietà di cui gode quasi ogni insieme.
E questo spiega l’origine del loro nome.
L’idea che sta alla base del concetto di insieme generico è di origine intuizionistica. È ai matematici intuizionisti infatti che si deve lo sviluppo sistematico di
una teoria delle “totalità in fieri” contrapposta a quella teoria delle “totalità in
atto”, che costituiva il fondamento dell’approccio di tipo cantoriano. La contrapposizione nasceva dalla spinosa questione relativa al carattere attuale o potenziale dell’infinito matematico: mentre per Cantor e per i logicisti il concetto di
infinito attuale è un’idea non solo legittima ma addirittura necessaria allo scopo
di fondare logicamente il corpo della matematica classica; per gli intuizionisti si
tratta solo di una scorretta estrapolazione dal mondo del finito, priva di un senso
matematico preciso. Usando l’idea di “totalità in fieri” (invece che di “totalità
in atto”) e nello stesso tempo la logica intuizionistica (anziché la logica classica),
gli intuizionisti hanno creato una teoria dei numeri reali alternativa rispetto a
quella classica: l’analisi classica e quella intuizionistica risultano inconfrontabili
dal punto di vista della relazione di inclusione teoretica, nel senso che nessuna
delle due è sottosistema dell’altra.
Il concetto fondamentale dell’analisi intuizionistica è quello di successione di
numeri naturali tale che ogni proprietà della successione dipenda esclusivamente
da un segmento iniziale finito della successione (successioni di questo tipo vengono chiamate “a libere scelte”). Balza subito agli occhi una chiara connes6
sione fra questa idea intuizionistica di “successione a libere scelte” e il concetto
coheniano di insieme generico. E la connessione appare ancora più profonda
quando si rifletta sulla seguente circostanza: il metodo dei forcing che entra nella
definizione di “insieme generico” coinvolge quella stessa relazione di affermazione
(o costrizione) di cui abbiamo fatto uso quando abbiamo descritto la semantica
kripkiana per la logica intuizionistica. Le ragioni profonde per cui si verificano
connessioni come queste sono ancora alquanto oscure. Da un punto di vista storico
si ha comunque l’impressione di aver assistito ad una significativa “vendetta” di
Brouwer nei confronti del cantorismo: ancora nel 1925 il logicista Ramsey parlava
degli intuizionisti come di una “minaccia bolscevica”. A posteriori oggi dobbiamo
dire che in fondo Ramsey aveva ragione: certo egli non avrebbe mai immaginato
che proprio dall’intuizionismo doveva venire uno strumento cosi “rivoluzionario”
come il forcing, capace di offrire, sul terreno classico, una soluzione relativa per
un grande problema insoluto di Cantor.
Un metodo alternativo al forcing che permette la costruzione di modelli per
la teoria degli insiemi capaci di falsificare l’assioma di costruibilità e l’ipotesi del
continuo, è fondato sull’uso di semantiche polivalenti. Modelli di questo tipo sono
stati proposti per la prima volta dall’americano Dana Scott e vengono comunemente chiamati “modelli booleani della teoria degli insiemi”.
Il forcing e l’applicazione di metodi polivalenti hanno rappresentato l’ingresso
nella teoria classica degli insiemi di una sorta di “conoscenza approssimata”,
che le era essenzialmente estranea. Ed è significativo che questo tipo di approssimazione possa venire indifferentemente interpretata come espressione di un punto
di vista intuizionistico (con il forcing) o probabilistico (con i modelli booleani).
Intuitivamente, in entrambi i casi si tratta di una situazione logica in cui bisogna
trasformare un tipo di conoscenza incerta in una conoscenza certa. Nel caso del
forcing, come abbiamo visto, si ha a che fare con certi insiemi (gli insiemi generici)
relativamente ai quali si ha sempre un’informazione finita e limitata (anche se indefinitamente estendibile). Tuttavia la situazione e tale per cui ogni proposizione
su questi insiemi è costretta ad esser vera o falsa da una di queste informazioni. È
come se pur non conoscendo tutto, pretendessimo di decidere tutto! Nel caso dei
modelli booleani invece accade che, a un certo punto della costruzione, si viene
a contrarre in un unico valore di verità certo tutto un sistema di valori di probabilità. È come se pretendessimo di conoscere con certezza quello che in realtà
conosciamo solo approssimativamente!
Questa applicazione su vasta scala di metodi non classici sul terreno classico
ha un significato da un punto di vista fondazionale? Oppure si tratta solo di una
mera questione di scelta di mezzi tecnici? In fondo la teoria degli insiemi si trova
oggi in una strana situazione: vista dall’esterno essa rappresenta ancora (secondo
7
lo spirito dell approccio cantoriano) la teoria della totalità in atto (o, se si vuole,
la teoria dei concetti oggettivi), caratterizzata da due componenti:
1) oggettività dei concetti, nel senso di indipendenza dalla nostra conoscenza (per
il principio di estensionalità le totalità sono determinate dai loro elementi);
2) determinismo, che viene dall’uso della logica classica: non si ammettono situazioni di appartenenza incerta o sfumata.
Apparentemente ogni contesto di tipo indeterministico, o intensionale o concettualistico dovrebbe risultare incompatibile con i principi-base della teoria degli
insiemi. Quello che accade è esattamente l’opposto: non solo la teoria degli insiemi fa uso di principi antagonistici per la costruzione di suoi propri modelli, ma
addirittura si rivela capace di fondare al suo interno questi stessi principi antagonistici. Pensiamo per esempio alla teoria “semiestensionale” dell’intensione, o
alla descrizione kripkiana della logica intuizionistica, o alla fondazione insiemistica
delle logiche polivalenti e della stessa teoria delle probabilità.
Tutto questo significa solo massima generalità e grandissimo potere fondazionale della teoria degli insiemi? È una possibile conclusione. Tuttavia, sappiamo
che “i giochi non sono fatti” per la teoria degli insiemi; per la incapacità della
teoria di risolvere alcuni suoi fondamentali problemi (come per esempio quello del
continuo) oggi gli insiemisti ritengono di non sapere ancora esattamente “che cosa
sia un insieme”. Con tutta probabilità questa grande mescolanza di concetti e di
metodi apparentemente antagonistici dipende anche dalla situazione di incertezza
generale della teoria.
Indubbiamente lo status delle ricerche fondazionali di questi ultimi quindici
anni dà l’impressione di una sorta di feconda confusione. È una situazione che per
certi aspetti ricorda quella dell’Analisi nel 1700: grande libertà nell’applicazione
di metodi anche quando questi non sono perfettamente dominati e conosciuti.
L’incredibile scambio di metodi e di strumenti concettuali fra approcci fondazionali diversi, a cui stiamo assistendo oggi, significa certo la fine di ogni forma di
“ideologismo”. Ma forse anche qualcosa di più: l’impossibilità di descrivere le diverse vie fondazionali come lo sviluppo coerente e sistematico di un unico punto
di vista generale. In altri termini, una maggior complessità delle teorie rispetto
ai punti di partenza filosofici.
In fondo la filosofia della matematica del ’900 era stata prevalentemente dibattuta intorno ad un unico grande tema: una versione moderna dell’antico problema
degli universali. Fondamentalmente erano in gioco tre concezioni antagonistiche:
una concezione descrittiva della matematica (a cui si rifacevano i logicisti e la
maggior parte degli insiemisti) secondo cui l’attività matematica descrive un tipo
di realtà che, da un punto di vista puramente logico, non è molta diversa dalla
8
realtà di cui si occupano le scienze empiriche. Una concezione costitutiva della
matematica (fatta proprio dalle diverse forme di costruttivismo: intuizionistico,
predicativistico ecc.) secondo cui l’attività matematica crea gli enti e le strutture
di cui tratta. Ed infine una concezione formalistica secondo cui l’attività matematica si può identificare con l’elaborazione di un complesso di sistemi formali.
È proprio questa rigida tripartizione filosofica che oggi, come abbiamo visto, in
molti casi sembra superata dalle ricerche concrete sui fondamenti della matematica. Tutto ciò non significa necessariamente decadenza o regresso della filosofia
della matematica ad una condizione di mera “preistoria” rispetto ai risultati tecnici. Come accade anche nel caso di altre scienze, si ha oggi spesso l’impressione
di una certa discrepanza fra le categorie filosofiche di cui si fa uso e le questioni
concrete che sorgono all’interno delle ricerche fondazionali. Con tutta probabilità
il problema è quello di trovare delle nuove e più adeguate categorie generali nelle
quali poter inquadrare i risultati nuovi.
9