Maria Luisa Dalla Chiara, Logica, ISEDI, 1974. Capitolo 4, pp. 97-106. 4. Il problema dei fondamenti della matematica 4.1. Matematica e logica Gli anni ’60 hanno segnato nel campo della critica dei fondamenti della matematica una svolta di cui non siamo ancora in grado di valutare tutto il significato. Per la sua importanza tale svolta sembra paragonabile ad altri due grandi momenti della storia della logica del ’900: il 1902 (scoperta della antinomia di Russell) e il 1931 (dimostrazione del teorema di Gödel). In fondo (se lasciamo provvisoriamente da parte il fenomeno del costruttivismo matematico che per molto tempo ha avuto una sua storia indipendente), con una certa semplificazione, la storia delle moderne ricerche sui fondamenti della matematica si lascia suddividere in tre grandi periodi trentennali, separati ciascuno da un risultato esplosivo, che ha la caratteristica di mettere in crisi il programma generale del periodo precedente. Curiosamente, le svolte che hanno segnato rispettivamente la fine del primo periodo (1902) e del secondo periodo (1931) si possono entrambe descrivere come un “brutto tiro” giocato da quello schema di paradosso logico che prende il nome di paradosso per autoriferimento. Come già sappiamo una situazione logica di autoriferimento (che si verifica quando un termine o un concetto viene applicato a se stesso) in molti casi, anche se non sempre, può portare a contraddizione. L’esempio conosciuto più antico di contraddizione per autoriferimento è rappresentato dalla celebre antinomia del mentitore scoperta dai Greci (di cui ci siamo occupati nel capitolo 2). L’antinomia di Russell tramite un caso particolare di autoriferimento (il principio cantoriano di comprensione esemplificato nel caso di un concetto che si riferisce a se stesso), aveva dimostrato l’incoerenza di quella “logica generale” a cui i grandi logicisti dell’800, in particolare Cantor e Frege, avevano ridotto i concetti fondamentali della matematica. La teoria cantoriana dei concetti, fondata sui due principi di comprensione e di estensionalità godeva di due caratteristiche entrambe assai significative: I) era una teoria estremamente potente da un punto di vista matematico, in quanto riusciva a definire al suo interno i concetti primitivi e a dimostrare al suo interno i teoremi di tutte le più importanti teorie matematiche conosciute. L’aritmetica, l’analisi, la geometria ecc., diventavano pertanto rami particolari della teoria degli insiemi. 1 II) era una teoria straordinariamente semplice e naturale per il suo contenuto: i suoi due postulati apparivano dei principi universalmente validi e indiscutibili. Apparentemente dunque c’erano tutte le condizioni per poter parlare di una “logica generale” estremamente potente: ridurre alla teoria degli insiemi tutte le principali teorie matematiche significava risolvere il problema della fondazione logica della matematica. Tutto ciò comportava naturalmente alcune conseguenze filosofiche assai significative. Per esempio, diventava corretto, su questa base, concludere: la matematica è logica, e come tale non fa ipotesi sul mondo, non ha contenuto. Lo scienziato empirico usa la matematica esattamente allo stesso modo in cui usa la logica e ogni essere pensante con la nostra stessa logica, avrebbe, almeno in potenza, la nostra stessa matematica. La scoperta dell’incoerenza di questa “logica generale” metteva evidentemente in crisi le basi stesse di quel programma di fondazione della matematica che era stato faticosamente realizzato nella seconda metà dell’800. In realtà, come ci si accorse presto, è possibile indebolire tale logica in modo da evitare le difficoltà messe in luce da Russell e nello stesso tempo garantire una fondazione soddisfacente per la matematica. Le teorie assiomatiche degli insiemi (per esempio la teoria di Zermelo-Fraenkel descritta nella tavola 7) assolvono appunto a tale compito. In questo modo però si ottiene un tipo di teoria che non assomiglia più, come nel caso precedente, ad una “vera logica” fondata su semplici principi che possono apparire universalmente validi. Si tratta piuttosto di complesse teorie matematiche, i cui postulati hanno, nella maggior parte dei casi, la forma di speciali ipotesi esistenziali e, come tali non possono essere ritenuti delle verità logiche. È caduta insomma la seconda componente della teoria cantoriana degli insiemi che garantiva la realizzazione del programma logicistico di fondazione logica della matematica. Quale può essere il significato filosofico di una riduzione in cui la teoria fondante appaia per molti aspetti più problematica delle stesse teorie che si intendeva fondare? Storicamente a questa grossa difficoltà si è reagito con la “scappatoia” filosofica del formalismo, che propone una riduzione logica più sottile rispetto alla precedente. Mentre il logicismo ha cercato una riduzione diretta del più complicato (matematica) al più semplice (logica) e su questo piano ha, come abbiamo visto, fallito, il formalismo si accontenta di una riduzione indiretta. Una volta accettata la riducibilità di tutta la matematica ad una teoria assiomatica degli insiemi, si tratta di dimostrare la correttezza (ossia la coerenza) di quest’ultima attraverso ragionamenti sintattici che siano giustificabili all’interno della stessa teoria. Questa possibilità di autogiustificazione sintattica non è una pretesa a prima vista irragionevole, visto che la coerenza di una teoria è una proprietà di un 2 sistema di “cose concrete”, i segni della teoria; e la teoria degli insiemi è stata ideata allo scopo di poter descrivere le proprietà di tutti gli insiemi possibili. Naturalmente una situazione logica del genere ha tutti i caratteri di un caso di autoriferimento. Fino al 1931 però la scuola di David Hilbert (ideatore, come sappiamo, del programma formalistico) era convinta di poter eludere per questa via il “fantasma del mentitore”: pazientemente furono elaborate dimostrazioni parziali di coerenza con la prospettiva di giungere infine ad una fondazione sintattica per l’intera matematica (riduzione del più complicato (matematica) al più semplice (sintassi)). Ma, come abbiamo visto, nel 1931 “il mentitore colpisce ancora”: Gödel dimostra che la teoria degli insiemi, se è coerente, non è in grado di dimostrare la propria coerenza. La catena riduttiva delle teorie matematiche non ha un elemento ultimo, capace di autogiustificarsi; è inevitabile il regresso all’infinito delle teorie. 4.2. Recenti mutamenti di prospettiva nella problematica fondazionale Diversamente dai due casi precedenti, la svolta degli anni ’60 non è caratterizzata da un unico risultato esplosivo, ma piuttosto da una rivoluzione di metodi connessi ad antichi problemi. Nel 1963, il matematico americano Paul Cohen ottiene una soluzione relativa per un grande problema insoluto di Cantor, il problema della cardinalità del continuo. Egli dimostra l’impossibilità di risolvere nelle usuali teorie elementari degli insiemi il problema “quanti sono i numeri reali?”. E questo con la creazione di un metodo nuovo, il metodo cosiddetto del forcing (costrizione) che inizialmente appare alquanto misterioso al mondo dei logici. In un certo senso il risultato di Cohen si realizza in un clima inverso rispetto a quello del 1902 e a quello del 1931. I risultati di Russell e di Gödel erano giunti entrambi del tutto inaspettati, e nello stesso tempo la loro dimostrazione era stata ottenuta con metodi certi e indiscutibili (nel caso di Russell si era trattato addirittura, come abbiamo visto, di pochi e semplici passaggi logici). Viceversa invece il risultato di Cohen era atteso, ma strano appariva il suo tipo di soluzione. Le reazioni naturali dopo Russell e dopo Gödel erano state di crisi, di necessità di un ripensamento generale. La reazione a Cohen fu invece una proliferazione di risultati nuovi, di sviluppi del misterioso forcing. A questo punto torna opportuno accennare brevemente alla storia del problema del continuo. Nell’ambito della sua teoria generale degli insiemi, Cantor aveva creato una nuova “aritmetica del transfinito” che costituiva una generalizzazione al caso infinito dell’usuale aritmetica, dei numeri naturali (finiti). In questo quadro teorico egli aveva dimostrato che il numero (transfinito) che spetta all’insieme dei numeri reali (o equivalentemente all’insieme dei punti della 3 retta) è maggiore del numero (transfinito) che spetta all’insieme dei numeri naturali; contravvenendo cosı̀ ad un’idea intuitiva profondamente radicata secondo cui l’infinito rappresenterebbe una sorta di limite per le nostre misure e non avrebbe senso “andare oltre l’infinito”. Era convinzione di Cantor che non ci fossero numeri transfiniti più piccoli del numero dei reali (numero che viene chiamato anche “cardinalità del continuo” e indicato con la lettera ebraica ℵ) e più grandi del numero dei naturali (chiamato anche cardinalità del numerabile e indicato con ℵ0 ). In altri termini: ℵ sarebbe l’immediato successore transfinito di ℵ0 . Questo è il contenuto della celebre “ipotesi del continuo” che Cantor cercò vanamente di dimostrare. Nel 1938 Gödel dimostra la coerenza relativa dell’ipotesi cantoriana del continuo rispetto alle usuali teorie assiomatiche degli insiemi (per esempio la teoria di Zermelo-Fraenkel): se ZF con l’aggiunta dell’ipotesi del continuo fosse incoerente allora sarebbe incoerente già la stessa ZF. Naturalmente ciò non significa aver dimostrato l’ipotesi del continuo! La nostra ipotesi diventa tuttavia dimostrabile qualora si aggiunga a ZF un nuovo assioma (chiamato da Gödel assioma di costruibilità), secondo cui ogni insieme è costruibile, ossia è definibile linguisticamente tramite una definizione in cui si faccia riferimento soltanto a insiemi costituiti precedentemente nella gerarchia dei tipi ideata da Russell. Intuitivamente possiamo illustrare la situazione nel modo seguente. Secondo un’idea avanzata per la prima volta da Russell l’universo naturale della teoria degli insiemi è una gerarchia stratificata in tipi (o livelli ) che possiamo visualizzare come un cono rovesciato e senza base. A A A A A A A A A A A A II vertice del cono rappresenta l’insieme vuoto. I diversi piani rappresentano i diversi livelli della gerarchia: il primo livello contiene tutti i possibili sottoinsiemi dell’insieme vuoto, il secondo tutti i sottoinsiemi del primo livello, e cosı̀ via 4 per tante volte quanti sono i numeri naturali. Una volta esauriti tutti i numeri naturali si costituisce un nuovo livello i cui elementi sono tutti gli insiemi costituiti precedentemente, e quindi si ricomincia da capo costituendo al livello successivo tutti i sottoinsiemi del livello precedente. Per quante volte viene iterato questo processo? Per tante volte quanti sono i numeri (finiti e transfiniti) la cui esistenza è dimostrabile nella teoria, degli insiemi. Ora, l’assioma di costruibilità afferma che ogni insieme di questa gerarchia è descrivibile tramite una definizione in cui si faccia riferimento soltanto a livelli della gerarchia costituiti precedentemente (e mai a livelli successivi né tanto meno all’intera gerarchia!). L’idea gödeliana di costruibilità rappresenta uno sviluppo insiemistico-astratto dei principi filosofici che hanno guidato un importante filone del costruttivismo matematico moderno: l’indirizzo predicativistico, avanzato per la prima volta da Henri Poincaré. Come abbiamo ricordato nell’ “Introduzione”, secondo i predicativisti hanno esistenza matematica soltanto quegli enti astratti i quali siano definibili tramite una definizione predicativa; una definizione cioè in cui non si faccia riferimento alla totalità degli enti a cui l’ente da definire appartiene (un esempio di definizione impredicativa è la seguente “il più piccolo numero reale il cui quadrato sia maggiore o uguale a 2”, che fa √ riferimento alla totalità dei numeri reali a cui l’ente da definire, ossia il numero 2, appartiene). In realtà, riconoscere esistenza matematica a tutto il cono degli insiemi costruibili, è molto di più di quanto i predicativisti tradizionali non sarebbero disposti a concedere. Nulla assicura infatti che quei numeri transfiniti che abbiamo usato essenzialmente nella costruzione del nostro cono siano a loro volta definibili predicativamente. Supponiamo però di voler “liberalizzare” una famosa affermazione del matematico costruttivista Leopold Kronecker, secondo cui “il buon Dio ha creato i numeri naturali, e tutto il resto è opera dell’uomo”, e immaginiamo un Padre eterno più generoso che ci abbia fatto dono non solo dei numeri finiti ma anche di tutti i numeri transfiniti. In tal caso l’intero cono degli insiemi costruibili diventerebbe “opera dell’uomo” e come tale accettabile anche per un matematico costruttivista. Da un punto di vista filosofico si tratterebbe di una forma di “costruttivismo debole”, che verrebbe a dipendere da un’ipotesi straordinaria (e non giustificabile secondo i principi del costruttivismo tradizionale) di esistenza dei numeri transfiniti. Mentre Gödel ha dimostrato che questa forma di costruttivismo debole permetterebbe di risolvere il problema cantoriano del continuo (senza peraltro affermarne la validità), Cohen ha dimostrato come sia possibile falsificare non solo questa forma di costruttivismo (descritta dall’assioma di costruibilità) ma anche la stessa ipotesi cantoriana del continuo. Congiuntamente i due risultati di Gödel e di Cohen vengono pertanto ad affermare l’indecidibilità dell’ipotesi del continuo 5 nelle teorie elementari degli insiemi; ossia l’incapacità di queste teorie di risolvere il problema “quanti sono i numeri reali?”. Il risultato di Cohen si può ottenere attraverso la costruzione di un modello per ZF, che è molto simile al cono dei costruibili, e nel quale però sono stati inseriti a un certo punto degli insiemi di tipo speciale, i cosiddetti insiemi generici. L’immissione di questi insiemi nel cono dei costruibili ha un’azione alquanto perturbatrice: non si riesce più a contare il continuo come si faceva prima (e questo permette di falsificare l’ipotesi del continuo); nello stesso tempo gli insiemi generici non risultano definibili tramite una definizione predicativa (e questo permette di falsificare l’assioma di costruibilità). Intuitivamente le caratteristiche di un insieme generico si possono cosı̀ descrivere: si tratta di un insieme infinito, tale che però la verità o falsità di ogni proposizione che lo riguardi dipende sempre soltanto da una conoscenza finita della sua composizione. Per esempio, l’insieme di tutti i numeri naturali (chiamato anche ω) non è un insieme generico: è necessario conoscere tutta la composizione di ω per poter decidere la verità di molte proposizioni su ω. Nel caso di un insieme generico invece per ogni proposizione α esiste un’informazione finita che costringe α o ¬α ad essere vera. Proprio perché non è mai rilevante la conoscenza completa della loro composizione per decidere quali sono le proprietà di cui godono, gli insiemi generici risultano godere solo di proprietà di cui gode quasi ogni insieme. E questo spiega l’origine del loro nome. L’idea che sta alla base del concetto di insieme generico è di origine intuizionistica. È ai matematici intuizionisti infatti che si deve lo sviluppo sistematico di una teoria delle “totalità in fieri” contrapposta a quella teoria delle “totalità in atto”, che costituiva il fondamento dell’approccio di tipo cantoriano. La contrapposizione nasceva dalla spinosa questione relativa al carattere attuale o potenziale dell’infinito matematico: mentre per Cantor e per i logicisti il concetto di infinito attuale è un’idea non solo legittima ma addirittura necessaria allo scopo di fondare logicamente il corpo della matematica classica; per gli intuizionisti si tratta solo di una scorretta estrapolazione dal mondo del finito, priva di un senso matematico preciso. Usando l’idea di “totalità in fieri” (invece che di “totalità in atto”) e nello stesso tempo la logica intuizionistica (anziché la logica classica), gli intuizionisti hanno creato una teoria dei numeri reali alternativa rispetto a quella classica: l’analisi classica e quella intuizionistica risultano inconfrontabili dal punto di vista della relazione di inclusione teoretica, nel senso che nessuna delle due è sottosistema dell’altra. Il concetto fondamentale dell’analisi intuizionistica è quello di successione di numeri naturali tale che ogni proprietà della successione dipenda esclusivamente da un segmento iniziale finito della successione (successioni di questo tipo vengono chiamate “a libere scelte”). Balza subito agli occhi una chiara connes6 sione fra questa idea intuizionistica di “successione a libere scelte” e il concetto coheniano di insieme generico. E la connessione appare ancora più profonda quando si rifletta sulla seguente circostanza: il metodo dei forcing che entra nella definizione di “insieme generico” coinvolge quella stessa relazione di affermazione (o costrizione) di cui abbiamo fatto uso quando abbiamo descritto la semantica kripkiana per la logica intuizionistica. Le ragioni profonde per cui si verificano connessioni come queste sono ancora alquanto oscure. Da un punto di vista storico si ha comunque l’impressione di aver assistito ad una significativa “vendetta” di Brouwer nei confronti del cantorismo: ancora nel 1925 il logicista Ramsey parlava degli intuizionisti come di una “minaccia bolscevica”. A posteriori oggi dobbiamo dire che in fondo Ramsey aveva ragione: certo egli non avrebbe mai immaginato che proprio dall’intuizionismo doveva venire uno strumento cosi “rivoluzionario” come il forcing, capace di offrire, sul terreno classico, una soluzione relativa per un grande problema insoluto di Cantor. Un metodo alternativo al forcing che permette la costruzione di modelli per la teoria degli insiemi capaci di falsificare l’assioma di costruibilità e l’ipotesi del continuo, è fondato sull’uso di semantiche polivalenti. Modelli di questo tipo sono stati proposti per la prima volta dall’americano Dana Scott e vengono comunemente chiamati “modelli booleani della teoria degli insiemi”. Il forcing e l’applicazione di metodi polivalenti hanno rappresentato l’ingresso nella teoria classica degli insiemi di una sorta di “conoscenza approssimata”, che le era essenzialmente estranea. Ed è significativo che questo tipo di approssimazione possa venire indifferentemente interpretata come espressione di un punto di vista intuizionistico (con il forcing) o probabilistico (con i modelli booleani). Intuitivamente, in entrambi i casi si tratta di una situazione logica in cui bisogna trasformare un tipo di conoscenza incerta in una conoscenza certa. Nel caso del forcing, come abbiamo visto, si ha a che fare con certi insiemi (gli insiemi generici) relativamente ai quali si ha sempre un’informazione finita e limitata (anche se indefinitamente estendibile). Tuttavia la situazione e tale per cui ogni proposizione su questi insiemi è costretta ad esser vera o falsa da una di queste informazioni. È come se pur non conoscendo tutto, pretendessimo di decidere tutto! Nel caso dei modelli booleani invece accade che, a un certo punto della costruzione, si viene a contrarre in un unico valore di verità certo tutto un sistema di valori di probabilità. È come se pretendessimo di conoscere con certezza quello che in realtà conosciamo solo approssimativamente! Questa applicazione su vasta scala di metodi non classici sul terreno classico ha un significato da un punto di vista fondazionale? Oppure si tratta solo di una mera questione di scelta di mezzi tecnici? In fondo la teoria degli insiemi si trova oggi in una strana situazione: vista dall’esterno essa rappresenta ancora (secondo 7 lo spirito dell approccio cantoriano) la teoria della totalità in atto (o, se si vuole, la teoria dei concetti oggettivi), caratterizzata da due componenti: 1) oggettività dei concetti, nel senso di indipendenza dalla nostra conoscenza (per il principio di estensionalità le totalità sono determinate dai loro elementi); 2) determinismo, che viene dall’uso della logica classica: non si ammettono situazioni di appartenenza incerta o sfumata. Apparentemente ogni contesto di tipo indeterministico, o intensionale o concettualistico dovrebbe risultare incompatibile con i principi-base della teoria degli insiemi. Quello che accade è esattamente l’opposto: non solo la teoria degli insiemi fa uso di principi antagonistici per la costruzione di suoi propri modelli, ma addirittura si rivela capace di fondare al suo interno questi stessi principi antagonistici. Pensiamo per esempio alla teoria “semiestensionale” dell’intensione, o alla descrizione kripkiana della logica intuizionistica, o alla fondazione insiemistica delle logiche polivalenti e della stessa teoria delle probabilità. Tutto questo significa solo massima generalità e grandissimo potere fondazionale della teoria degli insiemi? È una possibile conclusione. Tuttavia, sappiamo che “i giochi non sono fatti” per la teoria degli insiemi; per la incapacità della teoria di risolvere alcuni suoi fondamentali problemi (come per esempio quello del continuo) oggi gli insiemisti ritengono di non sapere ancora esattamente “che cosa sia un insieme”. Con tutta probabilità questa grande mescolanza di concetti e di metodi apparentemente antagonistici dipende anche dalla situazione di incertezza generale della teoria. Indubbiamente lo status delle ricerche fondazionali di questi ultimi quindici anni dà l’impressione di una sorta di feconda confusione. È una situazione che per certi aspetti ricorda quella dell’Analisi nel 1700: grande libertà nell’applicazione di metodi anche quando questi non sono perfettamente dominati e conosciuti. L’incredibile scambio di metodi e di strumenti concettuali fra approcci fondazionali diversi, a cui stiamo assistendo oggi, significa certo la fine di ogni forma di “ideologismo”. Ma forse anche qualcosa di più: l’impossibilità di descrivere le diverse vie fondazionali come lo sviluppo coerente e sistematico di un unico punto di vista generale. In altri termini, una maggior complessità delle teorie rispetto ai punti di partenza filosofici. In fondo la filosofia della matematica del ’900 era stata prevalentemente dibattuta intorno ad un unico grande tema: una versione moderna dell’antico problema degli universali. Fondamentalmente erano in gioco tre concezioni antagonistiche: una concezione descrittiva della matematica (a cui si rifacevano i logicisti e la maggior parte degli insiemisti) secondo cui l’attività matematica descrive un tipo di realtà che, da un punto di vista puramente logico, non è molta diversa dalla 8 realtà di cui si occupano le scienze empiriche. Una concezione costitutiva della matematica (fatta proprio dalle diverse forme di costruttivismo: intuizionistico, predicativistico ecc.) secondo cui l’attività matematica crea gli enti e le strutture di cui tratta. Ed infine una concezione formalistica secondo cui l’attività matematica si può identificare con l’elaborazione di un complesso di sistemi formali. È proprio questa rigida tripartizione filosofica che oggi, come abbiamo visto, in molti casi sembra superata dalle ricerche concrete sui fondamenti della matematica. Tutto ciò non significa necessariamente decadenza o regresso della filosofia della matematica ad una condizione di mera “preistoria” rispetto ai risultati tecnici. Come accade anche nel caso di altre scienze, si ha oggi spesso l’impressione di una certa discrepanza fra le categorie filosofiche di cui si fa uso e le questioni concrete che sorgono all’interno delle ricerche fondazionali. Con tutta probabilità il problema è quello di trovare delle nuove e più adeguate categorie generali nelle quali poter inquadrare i risultati nuovi. 9