Piccola storia della logica - Euclide. Giornale di matematica per i

annuncio pubblicitario
Giovanni Salmeri
Piccola
storia della logica
I. Dall’antichità a Leibniz
Roma 1999
Presentazione ................................................................................................ 3
1. L’analitica di Aristotele .............................................................................. 5
1.1. Il tema dell’analitica ............................................................................... 5
1.2. I termini e la proposizione...................................................................... 7
1.3. Le categorie ............................................................................................ 8
1.4. La quantificazione .................................................................................. 9
1.5. Figure e modi del sillogismo................................................................. 10
1.6. La dimostrazione dei sillogismi ............................................................ 12
1.7. Il procedimento scientifico................................................................... 13
1.8. Il procedimento dialettico .................................................................... 16
2. La logica megarico-stoica......................................................................... 19
2.1. Il concetto di logica .............................................................................. 19
2.2. La logica proposizionale ....................................................................... 20
2.3. I discorsi conclusivi ............................................................................... 22
2.4. Gli indimostrabili .................................................................................. 23
2.5. L’antinomia del mentitore.................................................................... 23
3. L’arte combinatoria di Leibniz ................................................................. 25
3.1. La rifondazione della logica.................................................................. 25
3.2. La concezione della verità .................................................................... 26
4. La logica nel Novecento........................................................................... 30
4.1. Georg Cantor (1845-1918) ................................................................... 30
4.1.1. La teoria degli insiemi ............................................................ 30
4.1.2. La gerarchia dei transfiniti...................................................... 32
4.2. Gottlob Frege (1848-1925)................................................................... 34
4.2.1. La fondazione della matematica ............................................ 34
4.2.2. Funzione, senso, significato ................................................... 36
4.2.3. La logica proposizionale ......................................................... 38
4.2.4. La logica dei predicati............................................................. 41
4.3. David Hilbert (1862-1943).................................................................... 44
4.3.1. L’assiomatica.......................................................................... 44
4.3.2. Gli assiomi di Peano ............................................................... 46
4.4. Kurt Gödel (1906-1978)........................................................................ 48
4.4.1. Gödelizzazione e diagonalizzazione ....................................... 48
4.4.2. I due teoremi di limitazione ................................................... 49
4.5. Alan M. Turing (1912-1954) ................................................................. 52
4.5.1. Computabilità e tesi di Church............................................... 52
4.5.2. Il modello di Turing e Post...................................................... 53
4.5.3. Informatica e pensiero artificiale ........................................... 55
2
Presentazione
Le pagine seguenti, che ho riscoperto in un angolo del mio disco rigido,
sono un tentativo di presentare in maniera molto breve gli elementi fondamentali della storia della logica (e quindi dei suoi contenuti e problemi) con un linguaggio accessibile a studenti di scuola media superiore. Per spiegare il carattere di questo testo, credo che la cosa più semplice sia raccontarne la storia.
Comincio da lontano: il mio itinerario scolastico credo che sia stato simile
a quello dei miei coetanei. Nella scuola elementare lo studio dell’aritmetica era
accompagnato da «note di insiemistica» che ruotavano attorno alle collezioni di
giocattoli di Teo e Tea. Da quel che ricordo, tanto per il maestro quanto per noi
scolari rimaneva misterioso quale fosse per comprendere meglio la matematica
l’utilità di quei giochini, e presto li abbandonammo (non ricordo se prima o dopo di aver imparato che i giocattoli che Teo e Tea avevano in comune era un’«intersezione»). Nella scuola media studiai solo buona tradizionale algebra e geometria (forse perché programmi e libri erano differenti, forse perché il professore ne saltava saggiamente qualche capitolo). Ma negli scaffali di casa, complice
la passione di mio padre, trovavo molti libri che presentavano questa materia in
modo originale (per esempio la miniera dei cinque volumi di Enigmi e giochi matematici di Martin Gardner) e così mi convincevo che la matematica poteva essere divertente (e anche la logica, della quale avevo un’idea solo molto vaga).
Nel ginnasio-liceo invece un poco di logica e di teoria degli insiemi le studiai seriamente, ricavandone un’impressione molto positiva: il modo di descrivere fatti
matematici mi appariva più chiaro e preciso.
In quel periodo (gli anni ’80) iniziava a diffondersi l’informatica personale:
il primo computer che ebbi tra le mani fu il minuscolo Radio Shack TSR-80 PC-1
(http://oldcomputers.net/trs80pc1.html), con il quale iniziai i primi esperimenti
di programmazione. E negli stessi anni mio fratello maneggiava l’elettronica digitale, e a casa entravano, come libri preziosi, i databook dei circuiti integrati: fu
così che scoprii che ciò che io chiamavo «congiunzione», «disgiunzione» e «disgiunzione esclusiva» (o magari latineggiando «et», «vel» e «aut») lui lo chiavama AND, OR e XOR. Si cominciava a parlare anche dell’introduzione dell’informatica a scuola, e rimanevo scandalizzato quando sentivo discorsi che ruotavano sempre attorno a macchine da comprare: come se per studiare informatica ci
fosse bisogno di un computer! (Su ciò non ho cambiato idea, peraltro.)
Quando mi iscrissi al corso di laurea in filosofia, fuorviato da un foglio che
lo indicava come «fondamentale», cominciai a frequentare il corso di Propedeutica filosofica. In realtà il professore spiegò subito che l’esame non era obbligatorio, e che lui avrebbe trattato solo di logica formale. Alla terza lezione rimanemmo in due. È uno dei corsi che ricordo con più piacere, faticoso ma estrema3
mente formativo: la soddisfazione di fare cose difficili! Per l’esame, oltre a tutto
ciò che avevamo studiato di teoria (per verificare la quale noi due sopravvissuti
dovemmo sostenere un esame scritto dimostrando una ventina di teoremi), il
programma prevedeva i due volumi de La logica formale di Józef Maria Bocheński, in cui imparai a collegare ciò che avevo studiato con una storia della filosofia che conoscevo sì, ma della quale non avevo mai seriamente esaminato il versante logico.
Subito dopo la laurea tornai al mio liceo per insegnare filosofia e mi portai dietro tutto questo: per esempio l’idea che anche per le scienze «esatte» la
storia (con nomi e volti) fosse importante e potesse anche servire a collegare
meglio le materie tra di loro; o la consapevolezza che filosofia, matematica, logica, informatica fossero cose diverse, ma con molti intrecci; o la convinzione che
la chiarezza nel linguaggio e nel ragionamento è sempre una buona qualità.
Non sempre soddisfatto del libro di testo iniziai a riscrivere alcuni capitoli di storia della filosofia: mi preoccupavo soprattutto di essere preciso, evitando il più
possibile le affermazioni generiche e cercando invece di esporre le argomentazioni, senza le quali la filosofia non esiste. Fu così che mi venne l’idea di scrivere
anche un capitolo di storia della filosofia sulla logica del Novecento. Il mio scopo
era scegliere alcuni temi più importanti, semplificare il discorso in maniera che
fosse accessibile ad uno studente liceale, contemporaneamente dando un’idea
chiara dei concetti centrali e del procedimento effettivo del ragionamento logico.
Ciò che segue è la bozza di quel progetto (composta negli anni ’90), preceduto dalle parti dedicate alla logica di Aristotele, degli stoici e di Leibiniz, estratte dai relativi capitoli più o meno completi che scrissi (e che poi pubblicai nel sito
http://mondodomani.org/mneme/). Dico «bozza», perché il testo sicuramente
avrebbe bisogno di essere riveduto e corretto. Inoltre, considerando l’insieme,
sicuramente è sottostimata la logica medievale, qui ridotta solo a qualche complemento dell’analitica di Aristotele. Ma dopo poco lasciai l’insegnamento al liceo e cominciai a lavorare ad altre cose: una revisione non è dunque mai avvenuta, né sarei in grado di farla ora. Salvo piccole modifiche, ho preferito dunque
lasciare il testo com’era. D’altra parte non so neppure se gli attuali programmi
liceali prevedano quegli agganci che ai miei occhi rendevano sensato il progetto: per esempio ora l’informatica è nominata solo sotto forma di «strumento», e
nelle indicazioni sulla filosofia contemporanea non si cita mai espressamente la
logica. Chissà però se, anche così come sono, queste pagine possano servire a
qualcosa o a qualcuno.
4
1. L’analitica di Aristotele
1.1. Il tema dell’analitica
Secondo l’ordine tradizionale, si occupa di logica il primo gruppo di opere
di Aristotele (384-323 a.C.): Sulle categorie, Sull’interpretazione, Analitici primi,
Analitici secondi, Topici, Confutazioni sofistiche. Il nome «logica» è però assente
in Aristotele, che usa invece il nome di «analitica». Queste opere furono raccolte da Andronìco di Rodi sotto il titolo di Ὄργανον, cioè «strumento». Così facendo egli suggeriva che l’analitica fosse una tecnica al servizio della filosofia, piuttosto che una sua parte.
Che cosa ritenesse Aristotele stesso va desunto, più che da affermazioni
esplicite, dall’origine di tali indagini, che probabilmente datano dai primi anni di
presenza nell’Accademia di Platone. Qui l’ambiente molto aperto e libero favorì
senza dubbio l’elaborazione di sue posizioni originali, che diedero occasione alla
pubblicazione delle prime opere. Tra essi va classificato anche il Protrettico,
opera (perduta) di esortazione alla filosofia scritta in polemica con Isocrate, che
nella contemporanea Antidosi (353) si faceva sostenitore di una formazione culturale fondamentalmente letteraria. Aristotele vuole invece legare la retorica alla dialettica (l’arte platonica della discussione argomentata), e sul tema comincia anche a tenere corsi all’interno dell’Accademia. È verosimile che l’attività didattica sia accompagnata dalla stesura di trattati ad uso interno, che possono
coincidere in buona parte con le opere giunteci.
L’analitica di Aristotele nasce dunque dal desiderio di rendere più rigorosa la dialettica platonica fino a trasformarla in un metodo descrivibile e chiaramente differenziato dai procedimenti retorici (che vengono sì studiati da Aristotele, ma come rientranti nel campo della tecnica). L’impostazione che permette
questo progresso viene manifestata con esemplare chiarezza già nei Topici,
quello che probabilmente è il suo primo scritto sull’argomento:
5
Il fine che questo trattato si propone è di trovare un metodo con cui poter costruire,
per ogni problema proposto, dei sillogismi. [...] Sillogismo è propriamente un discorso
(λόγος) in cui, posti alcuni elementi, risulta per necessità, a causa degli elementi stabiliti,
qualcosa di differente da essi. Si ha così anzitutto dimostrazione, quando il sillogismo è costituito e deriva da elementi veri e primi. [...] Dialettico è poi il sillogismo che conclude da elementi plausibili (ἔνδοξα). [...] Eristico è infine il sillogismo costituito da elementi che sembrano plausibili, pur non essendolo, e anche quello che all’apparenza deriva da elementi plausibili o presentatisi come tali (Top. I 100 a18-b25).
Insomma, scopo ultimo della logica è individuare le leggi del ragionamento (συλλογισμοί). Una legge logica è quella che mi assicura che una certa connessione di proposizioni è sempre corretta, in virtù della sua semplice forma, a
prescindere dalla verità delle proposizioni che la compongono (per questo oggi
si usa parlare di «logica formale»). Per esempio, il ragionamento «se l’uomo è
un anfibio, allora può vivere nell’acqua» è corretto, anche se la conclusione in
sé è falsa, essendo falsa la premessa. Viceversa, il ragionamento che dalla stessa premessa concludesse che «l’uomo non può vivere nell’acqua», sarebbe
scorretto, benché la conclusione sia vera. Il sillogismo corretto non assicura
quindi che ci siano conclusioni vere, ma assicura che, quando siano poste premesse vere, anche la conclusione sia vera.
Tale nuova impostazione puramente formale, sganciata dai contenuti di
qualsivoglia scienza, spalanca in effetti ad Aristotele un campo di problemi molto grande, studiati con completezza e raffinatezza incomparabilmente superiori
a quelle usate da Platone. Questo è il motivo per cui l’effettiva esecuzione del
compito va molto oltre le originarie intenzioni, mentre viene in parte perso di
vista l’intento di chiarire il procedimento effettivo delle scienze. Ciò è tanto vero
che Aristotele stesso dovrà annotare che non si può imporre in ogni campo del
sapere (per esempio nell’etica) quell’esattezza dimostrativa messa in opera nella teoria del sillogismo.
È da notare che, anche se la definizione dell’analitica sembra richiamare alcuni aspetti della matematica (in particolare della geometria, della quale già all’epoca di Platone era
chiara quella struttura deduttiva che più tardi Euclide formalizzerà), Aristotele non stabilisce
nessun legame tra le due. Ciò si inquadra bene nella sua diffidenza nei confronti della matematica, che nell’Accademia platonica a lui contemporanea aveva preso un posto preponderante, a suo avviso abusivo e ingiustificato: la matematica per Aristotele è al massimo una
delle scienze teoretiche, che esamina la realtà astraendo dalla sua materia e mantenendone
solo gli aspetti quantitativi. L’analitica è invece lo studio preliminare di tutte le leggi del ragionamento, che si applicano a qualsiasi scienza.
6
1.2. I termini e la proposizione
Anzitutto Aristotele si rende conto che la teoria del sillogismo non può essere costruita se non cominciando ad analizzarne le componenti. Bisogna allora
dire che il sillogismo è composto di «proposizioni», e che queste sono costituite
da «termini». È questa una distinzione che avrà una grande fortuna nella storia
della logica e che si può dire mantenuta in buona parte fino ad oggi.
Riguardo ai termini, Aristotele conduce analisi dettagliate sulla struttura
del linguaggio e sulle parti del discorso, fermando la sua attenzione in particolare sul nome (ὄνομα) e sul verbo (ῥῆμα), inaugurando in questo modo anche
l’analisi logica del linguaggio. Il carattere principale che egli riconosce ai termini
è il loro carattere significativo ovvero simbolico: «I suoni della voce sono simboli
delle affezioni che hanno luogo nell’anima, e le lettere scritte sono simboli dei
suoni della voce» (De int. 16 a2). Tuttavia tale rapporto è solo convenzionale:
non c’è nessun rapporto necessario tra il suono ['hippɔs] e il concetto del cavallo, tant’è vero che altre lingue adoperano suoni differenti. Importante è però
notare che, malgrado il rapporto solo convenzionale, il linguaggio esprime tuttavia realmente il pensiero dell’uomo, e in quanto tale può essere il punto di partenza di un’analisi della forma e della struttura del ragionamento.
Entra più decisamente nel campo della logica l’analisi della proposizione.
Essa viene anzitutto definita così:
La proposizione (πρότασις) è un discorso che afferma o che nega qualcosa rispetto a
qualcosa. [...] Chiamo d’altra parte termine (ὅρος) l’elemento cui si riduce la proposizione,
ossia ciò che è predicato e ciò di cui è predicato [cioè il soggetto], con l’aggiunta di essere o
di non essere [cioè della copula] (Anal. pr. I 24 a16-b16).
Come nei termini ciò che conta è il loro significato, così nelle proposizioni
è la loro verità o falsità. Anzitutto per Aristotele è evidente che il vero e il falso
non si trovano nelle cose, ma soltanto nel pensiero dell’uomo: non è questa
mela vera o falsa, ma solo ciò che io penso di essa. Inoltre:
Come nell’anima talvolta sussiste una nozione che prescinde dal vero e dal falso, e talvolta sussiste invece qualcosa cui spetta necessariamente o di essere vero o di essere falso,
così avviene pure per quanto si trova nel suono della voce. In effetti, il falso e il vero consistono nella congiunzione e nella separazione. In sé, i nomi e verbi assomigliano dunque alle nozioni, quando queste non siano congiunte a nulla né separate da nulla. [...] Dichiarativi sono,
però, non tutti i discorsi, ma quelli in cui sussiste un’enunciazione vera oppure falsa. Tale
enunciazione non sussiste certo in tutti: la preghiera, ad esempio, è un discorso, ma non risulta né vera né falsa (De int. 16 a9 - 17 a7).
Ma che cosa significa che una proposizione è vera?
7
Se è vero dire che una cosa è bianca (oppure che non è bianca), essa sarà necessariamente bianca (oppure non sarà bianca), e d’altra parte, se una cosa è bianca (oppure
non è bianca), era vero affermare oppure negare la cosa (De int. 18 a40-b1).
Malgrado l’apparente banalità, questa definizione della verità come corrispondenza tra la proposizione e la realtà eserciterà — condivisa o contestata —
un’influenza decisiva sulla storia della filosofia.
1.3. Le categorie
Un’attenzione particolare è dedicata da Aristotele al verbo «essere» che
realizza la connessione grazie alla quale la proposizione può essere vera o falsa.
Come si è visto, per Aristotele ogni proposizione può infatti assumere fondamentalmente solo le due forme «x è y» oppure «x non è y». Ciò è in effetti vero
almeno per la lingua greca, in cui anche i predicati verbali possono essere sempre riespressi sotto forma di copula e participio (osserva Aristotele: «Infatti non
c’è nessuna differenza tra “l’uomo è vivente” e “l’uomo vive”, né tra “l’uomo è
camminante” o “tagliante” e “l’uomo cammina” o “taglia”, e ugualmente anche
per gli altri casi», Metaph., V.7 1017 a 27-30). Questa era la scoperta che già
aveva fatto Parmenide.
Ciò che però viene continuamente contestato a Parmenide è la pretesa
che «ente» abbia un unico significato. Bisogna invece dire che «l’ente si dice in
molti significati diversi» (τὸ ὄν πολλαχῶς λέγεται, Metaph. IV 1003 a33 e altrove). Quando si considera, come stiamo appunto facendo, il verbo «essere» usato nelle proposizioni, bisogna dire che esso non ha un significato autonomo e
unico, ma assume tutti i possibili significati dei termini che connette. Tali significati vengono classificati in alcuni gruppi principali (otto o dieci secondo i testi),
chiamati «generi delle predicazioni» o in breve «predicazioni» (κατηγορίαι). Ecco il testo più schematico al riguardo:
Delle cose dette secondo nessun collegamento [= termini] ciascuna significa o esistenza o di una quantità o di una qualità o in relazione a qualcosa o in un luogo o in un tempo o
giacere o avere o fare o subire. Ed è esistenza (per fare un caso) ad esempio «uomo», «cavallo»; di una quantità per esempio «di due cùbiti», «di tre cùbiti»; di una qualità per esempio
«bianco», «grammatico»; in relazione a qualcosa per esempio «doppio», «maggiore»; in un
luogo ad esempio «nel liceo», «in piazza»; in un tempo ad esempio «ieri», «un anno fa»; giacere per esempio «è disteso», «siede»; avere per esempio «è calzato», «è armato»; fare per
esempio «tagliare», «bruciare»; subire per esempio «venir tagliato», «venir bruciato» (Categorie, 1.4 1 b 25 — 2 a 4).
La distinzione più netta è tra la prima categoria e tutte le altre. La prima
(in greco ousía, in italiano tradizionalmente reso con sostanza) indica infatti il
soggetto primo, ciò che «esistendo» permette l’attribuzione di altri predicati:
una considerazione questa che svolgerà un ruolo centrale nella Metafisica.
8
All’interno dell’analitica, la teoria delle predicazioni adempie invece ad una funzione solo preliminare: mostrare come la riduzione di tutte le proposizioni alla
forma soggetto-predicato nominale non pregiudica le possibilità espressive ed è
perciò perfettamente accettabile.
Se le categorie abbiano un valore anche ontologico, se indichino cioè non solo i
generi dei predicati ma anche i generi della realtà stessa, è un problema che è stato
molto dibattuto. In linea generale si può notare che l’analisi linguistica è per Aristotele
un punto di partenza costante, ma in numerose occasioni egli mette in guardia da una
meccanica trasposizione dal piano del linguaggio a quello della realtà. Ecco uno dei
passi più significativi:
Dato che non è possibile discutere presentando gli oggetti come tali, e che ci serviamo invece
dei nomi come di simboli che sostituiscono gli oggetti, noi riteniamo allora che i risultati osservabili a
proposito dei nomi si verifichino anche nel campo degli oggetti, come avviene a coloro che fanno calcoli usando dei ciottoli. Eppure le cose non stanno allo stesso modo nei due casi: in effetti, il numero
dei nomi è limitato, mentre gli oggetti sono numericamente infiniti (Confutazioni sofistiche I, 1652 a510).
1.4. La quantificazione
La classificazione delle proposizioni più importante per l’analitica riguarda invece quella che modernamente è chiamata «quantificazione dei predicati»:
La proposizione è dunque un discorso che afferma o nega qualcosa rispetto a qualcosa. Tale discorso, poi, è universale o particolare. [...] Con discorso universale intendo quello
che esprime l’appartenenza ad ogni cosa o a nessuna cosa; con discorso particolare, intendo
quello che esprime l’appartenenza a qualche cosa o la non appartenenza a qualche cosa
(Anal. pr. I 24 a16-20).
«Qualche» va inteso nel senso del moderno quantificatore esistenziale,
cioè «almeno uno», assumendo che la classe individuata dal termine non sia
vuota. Si osservi che Aristotele non cita qui le proposizioni singolari, in cui cioè il
soggetto indica un solo oggetto, né le considera mai esplicitamente nella trattazione dell’analitica. Tale esclusione non conduce però a nessuna grave deficienza teorica, giacché, come è facile mostrare, nella teoria del sillogismo esse risulterebbero formalmente equivalenti a proposizioni universali. In conclusione, si
hanno solo i seguenti quattro modelli di proposizioni (rappresentate dai logici
medioevali con le lettere indicate a sinistra, che sono le prime vocali di affirmo
e nego):
a: ogni x è y
i: qualche x è y
e: nessun x è y
9
o: qualche x non è y
Tra i quattro modelli di proposizioni Aristotele individua dei rapporti che nel
Medioevo vennero rappresentati nel «quadrato logico»:
Le proposizioni contrarie non possono essere contemporaneamente vere; quelle subcontrarie non possono essere contemporaneamente false; delle contraddittorie
la verità dell'una equivale alla falsità dell’altra; le subalterne (i, o) sono sempre vere
quando la subalternante (a, e) è vera.
1.5. Figure e modi del sillogismo
Dopo averne esaminato gli elementi costitutivi, si può infine considerare
il sillogismo in sé. Quale ne sarà la forma generale? Bisogna anzitutto dire che il
sillogismo deve avere due premesse e una conclusione: da una sola premessa
non si potrebbero trarre infatti conclusioni corrette. In generale, dunque, esso
assumerà la forma: «se p e q, allora r», dove le tre lettere p, q, r stanno per tre
diverse proposizioni. Che cosa si può dire dei termini delle proposizioni? Condizione necessaria perché sia possibile trarre una conclusione corretta è che le
due premesse abbiano in comune un termine (detto «medio»), che serva per
così dire da «ponte» per poter connettere gli altri due (detti «estremi»). In sostanza, sono possibili quattro «figure» del sillogismo, differenti solo per l’ordine
dei termini (quello medio è indicato con y, gli estremi con x e z):
1. se ... y ... z e ... x ... y, allora ... x ... z
2. se ... z ... y e ... x ... y, allora ... x ... z
3. se ... y ... z e ... y ... x, allora ... x ... z
4. se ... z ... y e ... y ... x, allora ... x ... z
Ora, secondo ciascuna di queste quattro figure possono essere costruiti
sillogismi connettendo i termini secondo uno dei quattro tipi di proposizione
prima considerati: affermativa universale, affermativa particolare, negativa universale, negativa particolare. Un elementare calcolo combinatorio mostra che in
questo modo è possibile costruire 256 differenti sillogismi (4 figure × 4 prime
premesse × 4 seconde premesse × 4 conclusioni). Ma quali di questi sillogismi
sono validi? quali cioè rappresentano ragionamenti corretti? Questo è il proble10
ma fondamentale dell’analitica. Per riassumere la risposta di Aristotele, useremo la simbologia elaborata nel Medioevo soprattutto da Pietro Ispano (1219
ca.-1277) e ancor oggi celebre. In essa ogni sillogismo è indicato da una parola
mnemonica, in cui le tre vocali indicano nell’ordine la quantità delle premesse e
della conclusione. Ecco dunque la tavola completa dei sillogismi (o «modi») validi:
1ª figura
barbara
darii
celarent
ferio
[barbari]
[celaront]
2ª figura
cesare
camestres
baroco
festino
[cesaro]
[camestrop]
3ª figura
darapti
datisi
disamis
felapton
ferison
bocardo
4ª figura
[bamalip]
[camenes]
[fesapo]
[fresison]
[dimaris]
[camelop]
Tra parentesi quadre sono indicati i sillogismi che Aristotele analizza con
minore dettaglio degli altri. I sillogismi validi sono comunque, dei 256 possibili,
solo ventiquattro. Un esempio per ciascuna delle quattro figure:
1. barbara
2. camestres
3. felapton
4. fresison
se ogni y è z e ogni x è y, allora ogni x è z
se ogni z è y e nessun x è y, allora nessun x è z
se nessun y è z e ogni y è x, allora qualche x non è z
se nessuno z è y e qualche y è x, allora qualche x non è z
A questo punto, ovviamente, è possibile sostituire alle lettere qualsiasi
nome universale: il ragionamento sarà sempre corretto, e, se le premesse saranno vere, si otterrà una conclusione vera (ovvero un «sillogismo dimostrativo»).
Ecco il celeberrimo esempio di un sillogismo barbara: «se ogni uomo è mortale
e ogni ateniese è uomo, allora ogni ateniese è mortale» (spesso quest’esempio
viene citato usando come termine «Socrate» anziché «ateniese»: si tratta di un
anacronismo di quasi due millenni, giacché i termini singolari saranno introdotti
nella sillogistica solo da Guglielmo di Occam [1280-1349]). È opportuno notare
che, a parte l’enunciazione un po’ differente da quella qui usata, anche Aristotele discute i sillogismi in una forma estremamente concisa ed esatta, che diventerà tipica per tutti gli scritti di logica della storia. Ecco per esempio come enuncia il sillogismo barbara: «Se A si predica di ogni B, e se B si predica di ogni Γ, è
necessario che A venga predicato di ogni Γ» (Anal. pr. I 25 b32-35). Ciò che va
soprattutto notato è l’uso delle variabili per indicare i termini. È superfluo dire
che si tratta di una delle scoperte più feconde di tutti i tempi, che ha reso possibile lo sviluppo tanto della logica quanto della matematica: solo tramite esse si
possono infatti formulare in maniera semplice leggi universali, proprio quelle di
cui Aristotele andava alla ricerca nella sua analitica.
11
In una parte successiva della sua opera Aristotele compie un’importante estensione della sillogistica, cui accenniamo soltanto. Si tratta della «sillogistica modale», in
cui, oltre alle semplici affermazioni considerate finora («assertorie») vengono considerate anche quelle che contengono le espressioni «dev’essere» e «può essere». Ai sillogismi prima considerati, in cui entrambe le premesse sono assertorie, se ne aggiungono quindi altre otto classi, secondo le varie combinazioni dei tre tipi di proposizioni.
Dei possibili sillogismi risultanti, Aristotele ne studia esplicitamente non meno di 137,
in pagine che sono tra le più complesse della sua opera e che saranno molto spesso incomprese o fraintese.
1.6. La dimostrazione dei sillogismi
Aristotele non si limita ad individuare quali siano le forme corrette di sillogismo: egli si preoccupa anche di darne una dimostrazione. Riguardo ad essa,
egli è cosciente che essa deve necessariamente fermarsi a premesse indimostrabili, che possano essere accettate per la loro evidenza:
È ignoranza non sapere di quali cose si debba ricercare una dimostrazione e di quali,
invece, non si debba cercare. Infatti, in generale, è impossibile che ci sia dimostrazione di tutto: in tal caso si procederebbe all’infinito, e in questo modo, di conseguenza, non ci sarebbe
affatto dimostrazione (Metaph. IV 1006 a5-9).
Nel caso dei sillogismi, gli sembra che quelli della prima figura possano
svolgere tale compito. Essi costituiscono quindi, nella terminologia odierna, gli
«assiomi» del sistema sillogistico. Agli assiomi bisogna tuttavia aggiungere delle
regole di derivazione. Aristotele individua come sufficienti le seguenti leggi di
sostituzione:
s: nessun x è y = nessun y è x
s: qualche x è y = qualche y è x
p: ogni x è y = qualche y è x
m: se p e q allora r = se q e p allora r
c: se p e q allora r = se non-r e q allora non-p
In tutti e cinque i casi, l’espressione a sinistra deve essere sostituita con
quella a destra. Le prime tre leggi sono regole di «conversione» delle premesse,
la quarta (non esplicitamente enunciata da Aristotele) stabilisce la possibilità
d’invertire le premesse del sillogismo, l’ultima rappresenta la riduzione all’assurdo. Le lettere indicate a fianco sono anche qui i simboli medioevali, che si ritrovano nei nomi dei sillogismi della seconda, terza e quarta figura: quando s o
p seguono una vocale, significa dunque che la proposizione corrispondente va
convertita, quando compare una m le premesse vanno invertite, quando compare all’interno una c che bisogna effettuare la riduzione all’assurdo, eventualmente invertendo prima le premesse. (Tutte le altre consonanti sono sem12
plicemente riempitive.) In questo modo si giungerà alla forma della prima figura
che inizia con la stessa consonante. Per esempio, per dimostrare disamis bisogna: convertire la prima premessa (disamis); convertire la conclusione (disamis); invertire le premesse (disamis); così si ottiene un sillogismo darii (disamis).
Basteranno i successivi sviluppi della logica megarico-stoica per mettere in luce
come nell’analitica di Aristotele sia contenuto solo un piccolo sottoinsieme di leggi logiche (in termini moderni, l’intera sillogistica è solo una porzione del calcolo dei predicati monadici del primo ordine). Ciò nonostante, i meriti di Aristotele sono enormi:
con lui non soltanto viene fondata — partendo quasi dal nulla — la logica formale,
della quale vengono riconosciuti e delimitati chiaramente i compiti, ma viene anche
costruito in maniera pressoché impeccabile un sistema in sé completo, che costituirà
per secoli la base di innumerevoli speculazioni (talvolta acute, talaltra di nessun valore). Questo risultato è tanto più degno di ammirazione quanto più si veda il naufragio
che la logica dovrà subire lungo diversi secoli, soprattutto a partire dal Rinascimento:
affinché in epoca moderna gli scritti di Aristotele possano essere di nuovo correttamente interpretati e discussi, bisognerà aspettare l’opera del polacco Jan Łukasiewicz
(1878-1956).
1.7. Il procedimento scientifico
Negli Analitici secondi Aristotele considera il problema dell’applicazione
dei procedimenti logici alla ricerca scientifica (ἐπιστήμη). Qui non interessa più
solo la validità formale del sillogismo, ma anche la verità delle conclusioni che
esso raggiunge. Ciò spiega la grande attenzione che viene dedicata al problema
dei princìpi della dimostrazione. Come già si è visto su un altro piano, anche nelle scienze è impossibile un regresso all’infinito, e vanno quindi individuati dei
fondamenti indimostrabili:
È necessario che la scienza dimostrativa si costituisca sulla base di premesse vere, prime, immediate, più note della conclusione, anteriori ad essa, e che siano cause di essa: a
questo modo, infatti, pure i princìpi risulteranno propri dell’oggetto provato. In realtà, un sillogismo potrà sussistere anche senza tali premesse, ma una dimostrazione non potrebbe sussistere, poiché allora non produrrebbe scienza (An. post. I.2 71 b20-25).
Le premesse prime di cui si serve la scienza hanno un legame molto stretto con la teoria metafisica della definizione. Detto in breve, i princìpi devono
esprimere ciò che in ciascun àmbito della realtà è più generale e causa di ciò
che è particolare: ma questi sono proprio i caratteri che a diverso livello vengono espressi nella definizione di ciascuna cosa. Ciò è coerente con la ripetuta affermazione (di palese origine platonica) che la scienza si occupa solo dell’universale e necessario e non del singolare e accidentale:
13
Dell’accidente non c’è scienza. Ogni scienza, infatti, riguarda ciò che è sempre o [almeno] per lo più: come sarebbe possibile, altrimenti, imparare o insegnare ad altri? Infatti
ciò che è oggetto di scienza deve potersi determinare come esistente sempre o per lo più: come, per esempio, che l’acqua e miele ai febbricitanti per lo più giova. Altrimenti nemmeno
sarà possibile enumerare i casi in cui ciò non avviene: per esempio nel novilunio, perché anche questo accade o sempre o per lo più, mentre l’accidente non fa così (Metaph. VI 1027
a19-26).
Lo spirito di quest’affermazione è giunto in una buona misura fino alla scienza
moderna, che si preoccupa appunto di formulare leggi universalmente valide. In Aristotele però questo punto di vista è sostenuto in una forma esclusiva: come conseguenza per esempio la storia, trattando di episodi singolari, non può essere una scienza, e viene in ciò paradossalmente superata dalla poesia che tende a considerare situazioni ideali e dunque potenzialmente universali.
La pratica della scienza quindi non coincide con la semplice deduzione da
premesse già date, ma piuttosto consiste in gran parte in altre due operazioni:
la connessione dei princìpi per giungere ad una spiegazione soddisfacente dei
fenomeni, e la scoperta dei princìpi stessi. Riguardo alla prima, nella terminologia dell’analitica ciò significa scoprire del termine «medio», cioè quello che giustifica la connessione dei due estremi che è già data nell’esperienza:
La prontezza deduttiva è una certa abilità di cogliere istantaneamente il medio. Tale
abilità si presenta, ad esempio, nel caso in cui, vedendo che la parte illuminata della luna sta
sempre rivolta verso il sole, qualcuno coglie d’un tratto il perché della cosa, ossia comprende
che ciò si verifica poiché la luna riceve la sua luce dal sole; o nel caso in cui, quando si vede
una persona che parla con un ricco, si comprende che ciò avviene poiché questa persona si
fa prestare del denaro; o anche, nel caso in cui si coglie il perché due persone siano amiche,
comprendendo che ciò deriva dalla loro inimicizia per un medesimo individuo. In tutto questi
casi, infatti, nel vedere gli estremi qualcuno cogli tutti i medi, cioè le cause (An. post. I.34 89
b10-16).
In termini più espliciti, il primo esempio porta al seguente sillogismo: «Se
la luna è un corpo che riceve la luce dal sole e tutti i corpi che ricevono la luce
dal sole hanno la parte illuminata verso il sole, allora la luna ha la parte illuminata verso il sole» (si noti che in questo sillogismo un termine, «la luna», è singolare, contrariamente a quanto viene teorizzato nell’analitica da Aristotele
stesso). Da questa formulazione è chiaro che in assenza del termine medio non
verrebbe detto il perché di un dato fenomeno, ciò che invece costituisce un elemento essenziale della scienza. La correttezza del termine medio è mostrata
dunque da nient’altro che la maggiore o minore capacità di spiegare i fenomeni
in maniera semplice e completa.
Riguardo alla scoperta dei princìpi stessi, Aristotele assegna un ruolo fondamentale all’esperienza. Questa è la celebre discussione in proposito che termina gli Analitici secondi:
14
Ci si può domandare se [...] le facoltà dei princìpi si sviluppino senza sussistere in noi
sin dall’inizio, oppure se esse siano innate, senza che ce ne avvediamo. In verità, se le possedessimo sin dall’inizio, si andrebbe incontro a conseguenze assurde, poiché si dovrebbe concludere che, pur possedendo conoscenze superiori alla dimostrazione, noi non ci accorgiamo
di ciò. D’altra parte, se noi acquistiamo queste facoltà, senza averle possedute in precedenza, come potremmo render noto un qualcosa e come potremmo imparare, quando non si
parta da una conoscenza preesistente? Tutto ciò è infatti impossibile, come dicevamo già a
proposito della dimostrazione. È dunque evidente che non è possibile possedere tali facoltà
sin dall’inizio, e che non è neppur possibile che esse si sviluppino in coloro che sono del tutto
ignoranti e non posseggono alcuna facoltà. Di conseguenza, è necessario che noi siamo in
possesso di una qualche capacità, non però di una capacità tale da essere più pregevole delle
suddette facoltà, quanto ad acutezza.
Pare d’altronde che questa capacità appartenga effettivamente a tutti gli animali. In
effetti, tutti gli animali hanno un’innata capacità discriminante, che viene chiamata sensazione. [...] Dalla sensazione si sviluppa dunque ciò che chiamiamo ricordo, e dal ricordo
spesso rinnovato di un medesimo oggetto si sviluppa poi l’esperienza. [...] In seguito, sulla
base dell’esperienza, ossia dell’intero oggetto universale che si è acquietato nell’anima,
dell’unità al di là della molteplicità, il quale è contenuto come uno e identico in tutti gli oggetti molteplici, si presenta il principio della tecnica e della scienza. [...] Le suddette facoltà
non ci sono dunque immanenti nella loro determinatezza, né provengono in noi da altre facoltà più produttive di conoscenza, ma vengono suscitate piuttosto dalla sensazione. [...]
È dunque evidentemente necessario che noi giungiamo a conoscere gli elementi primi con l’induzione. In effetti, già la sensazione produce a questo modo l’universale. Ora, tra i
possessi che riguardano il pensiero e con i quali cogliamo la verità, alcuni risultano sempre
veraci, altri invece possono accogliere l’errore; tra questi ultimi sono, ad esempio, l’opinione
e il ragionamento, mentre i possessi sempre veri sono la scienza e l’intelligenza, e non sussiste alcun altro genere di conoscenza superiore alla scienza, all’infuori dell’intelligenza. Ciò
posto, e dato che i princìpi risultano più evidenti delle dimostrazioni, e che, d’altro canto,
ogni scienza si presenta congiunta alla ragione discorsiva, in tal caso i princìpi non saranno
oggetto di scienza; e poiché non può sussistere nulla di più verace della scienza, se non l’intelligenza, sarà invece l’intelligenza ad avere come oggetto i princìpi (An. post. II.19 99 b22 —
100 b12).
I due termini «induzione» (ἐπαγωγή) e «intelligenza» (νοῦς) non vanno
quindi contrapposti: il primo indica il procedimento tramite cui grazie all’esperienza viene individuato il carattere essenziale di qualcosa, che costituisce principio della scienza; il secondo la capacità individuale di compiere effettivamente
tale procedimento, che quando è corretto (cosa peraltro sulla quale è facile ingannarsi) assicura una conoscenza più fondamentale di quella «scientifica», la
quale è derivata per dimostrazione.
L’appello all’esperienza mette in luce quell’irriducibile pluralismo che per
Aristotele sussiste nella costruzione della scienza. Sia per quanto riguarda i princìpi, sia per quanto riguarda le dimostrazioni, le diverse scienze si distinguono le
une dalle altre:
15
Risulta evidente che, se viene a mancare qualche senso, necessariamente viene pure
a mancare qualche scienza, che sarà impossibile acquisire, dal momento che noi impariamo
o per induzione o mediante dimostrazione. Orbene, la dimostrazione parte da proposizioni
universali, mentre l’induzione si fonda su proposizioni particolari; non è tuttavia possibile cogliere le proposizioni universali se non attraverso l’induzione, poiché anche le nozioni ottenute per astrazione saranno rese note mediante l’induzione, quando cioè si provi che alcune
determinazioni appartengono ad un singolo genere in quanto tale, sebbene non risultino separabili dagli oggetti della sensazione (An. post. I.18 81 a38-b5).
Non è possibile condurre la dimostrazione passando da un genere all’altro: per esempio, non si può dimostrare una proposizione geometrica mediante l’aritmetica. Tre sono infatti gli elementi costitutivi delle dimostrazioni: in primo luogo ciò che si dimostra, ossia la
conclusione (la quale esprime l’appartenenza di una determinazione per sé ad un qualche genere); in secondo luogo gli assiomi (gli assiomi sono le proposizioni da dove prende le mosse
la dimostrazione); in terzo luogo, il genere sottoposto, le cui affezioni e determinazioni per sé
sono rivelate dalla dimostrazione (An. post. I.7 75 a38-b2).
Qualsiasi giudizio sulla teoria aristotelica della scienza deve necessariamente
prescindere dalle vicende storiche dell’aristotelismo, e in particolare dal fatto che la
scienza moderna si è affermata proprio in polemica verso di esso. È infatti evidente
che molte delle polemiche sollevate lungo la storia nei confronti di Aristotele riguardano in realtà una ripetizione dei risultati da lui raggiunti e non le esigenze di metodo
che egli avanzava. In linea generale va poi osservato che le riflessioni di Aristotele tutto suggeriscono fuorché la presunzione di raggiungere facilmente un’assoluta certezza, priva di possibilità di correzione: «Determinare se la conoscenza sussista o no è difficile. È infatti arduo precisare se la nostra conoscenza parta o no dai princìpi propri di
qualsiasi oggetto, il che costituisce appunto il sapere» (An. post. I.9 76 a26-28).
1.8. Il procedimento dialettico
Accanto al procedimento scientifico, Aristotele conserva anche uno spazio per la «dialettica», che continua ad avere in lui il senso platonico di «tecnica
della discussione». Per questo — come abbiamo visto — il ragionamento dialettico è presentato come quello che «conclude da elementi plausibili (ἔνδοξα)», i
quali a loro volta sono definiti come quelli «che paiono a tutti o alla maggior
parte o ai sapienti» (Top. I 100 b21). Non si intende con ciò dire che la dialettica
è confinata nel campo della probabilità, ma piuttosto che essa prende le mosse
dalle opinioni sostenuti dall’interlocutore (reale o immaginario), per vagliarle e
giudicare se esse siano vere o false. Proprio perché non ha bisogno di punti di
partenza veri e necessari, la dialettica risulta utile sia per affrontare i problemi
che superano l’ambito di una singola scienza, sia per accertare (in concorrenza
con il metodo induttivo) i princìpi di una determinata scienza discutendo le opinioni fino a quel momento espresse. Ciò non toglie che lo spazio della dialettica
pare in Aristotele restringersi man mano che viene sviluppata la tecnica del sillogismo, e la sua opera dedicata al tema (i Topici) è senza dubbio giovanile.
16
Come già in Zenone, il metodo dialettico è essenzialmente quello della
confutazione (in termini moderni dimostrazione per assurdo): quando da
un’opinione si deduce una contraddizione, risulta dimostrata la tesi contraria.
Perché tale metodo possa essere applicato, sono necessari due princìpi: i cosiddetti princìpi di non contraddizione e del terzo escluso. Essi vengono discussi
non nell’Órganon, ma in una sezione presumibilmente giovanile della Metafisica, con la giustificazione che essi riguardano «ciò che è in quanto è», oggetto
proprio della metafisica. Eccone la formulazione:
Lo stesso [attributo] non può contemporaneamente dirsi e non dirsi dello stesso [soggetto] e nello stesso tempo (Metaph. IV 1005 b19-20).
Non è possibile che tra due proposizioni contraddittorie ci sia una via di mezzo, ma è
necessario o affermarne o negarne una sola, qualunque essa sia (Metaph. IV 1011 b23-24).
Il primo di essi viene qualificato da Aristotele «il più forte di tutti i princìpi» e il punto di partenza per qualsiasi dimostrazione (cioè più esattamente:
confutazione). Proprio per questo, ne è impossibile — come sappiamo — una
dimostrazione vera e propria. È possibile però una sorta di dimostrazione indiretta, realizzata confutando l’avversario che lo neghi:
Il punto di partenza consiste nell’esigere che l’avversario [...] dica qualcosa che abbia
un significato per sé e per gli altri; e questo è pur necessario, se egli intende dire qualcosa. Se
non facesse questo, costui non potrebbe in alcun modo discorrere, né con sé stesso né con
altri; se l’avversario concede questo, allora sarà possibile una dimostrazione. [...] Se relativamente ad un medesimo soggetto fossero vere, ad un tempo, tutte le affermazioni contraddittorie, è evidente che tutte quante le cose si ridurrebbero ad una sola. Infatti, saranno la medesima cosa e una nave e una parete e un uomo, se di tutte le cose un determinato predicato si può tanto affermare tanto negare. [...] Infatti, se a qualcuno sembra che un uomo non
sia una nave, è evidente che non è una nave; tuttavia sarà anche una nave, dal momento che
il contraddittorio è vero. Allora tutte le cose saranno confuse insieme (Metaph. IV 1006 a18 1007 b26).
In sostanza: soltanto per il fatto di discutere, usando quindi parole cui attribuisce un significato determinato, l’avversario fa uso del principio di non-contraddizione e quindi ne ammette implicitamente la validità. Questa discussione
è molto importante soprattutto dal punto di vista della semantica (cioè della
teoria del significato).
Tuttavia Aristotele può affermare che il principio è necessario e che ad esso si
riducono tutte le altre leggi logiche solo perché sta pensando alle dimostrazioni per
assurdo; nella sillogistica invece egli ne fa un uso molto limitato, e mostra che è possibile costruire sillogismi validi che tuttavia lo vìolano. Benché Aristotele più tardi notò
la cosa e precisò le sue affermazioni («nessuna dimostrazione assume espressamente
l’assioma secondo cui non è possibile affermare e al tempo stesso negare qualcosa di
un oggetto», Anal. post. I 77 a10-12), il passo della Metafisica trarrà spesso in ingan17
no: ancora Kant (1724-1804) chiamerà il principio di non contraddizione «il sommo
principio di tutti i giudizi analitici» (KrV A 150/B 189).
In modo simile stanno le cose con il principio del terzo escluso, che afferma che non c’è una terza possibilità tra il vero e il falso (tertium non datur), e
che dunque la negazione della negazione è eguale all’affermazione. Anch’esso
non è necessario in senso assoluto: lo stesso Aristotele si rese conto di ciò, e limitò la portata di questo principio nel caso delle proposizioni «future contingenti» (per esempio «domani ci sarà una battaglia navale»), che non sono né
vere né false:
Dal momento che i discorsi sono veri analogamente a come lo sono gli oggetti, è chiaro che a proposito di tutti gli oggetti, costituiti così da accadere indifferentemente in due modi secondo delle possibilità contrarie, anche la contraddizione si comporterà necessariamente in maniera simile. È appunto ciò che avviene riguardo agli oggetti che non sono sempre,
oppure a quelli che non sempre non sono. In tali casi è infatti necessario che una delle due
parti della contraddizione sia vera e l’altra falsa, ma non è tuttavia necessario che una determinata parte sia vera oppure falsa; sussiste piuttosto un’indifferenza tra le due possibilità, e
quand’anche uno dei due casi risulti più vero, la verità e la falsità non saranno tuttavia già decise sin da principio (De int. 9 19a33-39).
Applicare il principio del terzo escluso in questi casi equivarrebbe insomma ad ammettere che tutte le cose avvengono per necessità: «In tal modo, non
occorrerebbe più che noi prendessimo delle decisioni, né che ci sforzassimo laboriosamente» (De int. 9 18b30-31).
Il fatto che tali due princìpi sono indispensabili solo nell’ambito dialettico non
toglie nulla alla loro enorme importanza storica e teorica. Ancora oggi sono utilizzati
come criterio per distinguere i possibili generi di logica proposizionale. Così, le logiche
che assumono tanto il principio di non contraddizione quanto quello del terzo escluso
vengono chiamate «classiche», quelle che assumono solo il primo «intuizionistiche»,
quelle che non assumono né il primo né il secondo «minimalistiche».
18
2. La logica megarico-stoica
2.1. Il concetto di logica
Dopo l’analitica di Aristotele, la filosofia greca può vantare un secondo
grande contributo alla costituzione della logica. Si tratta delle teorie che, sviluppate originariamente dai Megarici e dai «Dialettici» (particolarmente Eubulide
di Mileto, Diodoro Crono e Filone di Megara) furono poi riprese e ordinate dagli
Stoici, in particolare da Crisippo (277-204 a.C). La conoscenza di questo contributo è purtroppo molto frammentario: nessuna opera originale ci è rimasta. Ciò
è un segno chiaro del minore interesse con cui questa forma di logica venne studiata lungo i secoli, fino a venire quasi del tutto dimenticata (salvo poi essere
«reinventata» nell’Ottocento).
I contributi della scuola megarico-stoica sono di due tipi: il primo comprende approfondimenti o chiarimenti di idee già presenti in Aristotele ma in
forma ancora implicita o imprecisa; il secondo vere e proprie novità che compiono una netta estensione rispetto all’analitica aristotelica. Sicuramente più
preciso rispetto ad Aristotele è il concetto stesso di «logica» (questa denominazione venne messa in uso proprio dagli Stoici). Essa viene considerata senza alcun dubbio una parte della filosofia piuttosto che un suo strumento:
[Gli Stoici] rappresentano la filosofia come un animale, paragonando la parte logica
alle ossa e ai nervi, l’etica ai muscoli, la fisica all’anima. O anche come un uovo: la logica è il
guscio, dopo viene l’etica, la parte più interna è la fisica. O anche come un campo fertile, del
quale la siepe di recinzione è la logica, il frutto è l’etica, il terreno o gli alberi la fisica. O infine
ad una città ben costruita e amministrata secondo ragione (SVF II, 38).
Con molta chiarezza viene anche introdotta una distinzione che ad Aristotele era in parte ignota:
19
Gli Stoici dicono che questi tre elementi sono connessi fra di loro: il significato
(σημαινόμενον), il significante (σημαῖνον) e l’evento (τυγχάνον). Il significante è il suono stesso, ad esempio «Dione»; il significato è l’entità manifestata e che apprendiamo in quanto
coesiste con il nostro pensiero, e che gli stranieri non capiscono, sebbene odano il suono;
l’evento è ciò che esiste all’esterno, ad esempio Dione stesso. Di questi, due sono corporei, e
cioè il suono e l’evento, e una è incorporea, e cioè l’entità significata, il senso (λεκτόν), che
[solo] è vero o falso (SVF II, 166 = FL 19.04).
L’oggetto proprio della logica è costituito per gli Stoici solo dai sensi
(λεκτά). La distinzione stabilita tra «eventi» e «sensi» corrisponde sostanzialmente a quella moderna tra «estensione» e «intensione» (chiarita soprattutto
da Gottlob Frege [1848-1925]). Per mostrarne la differenza, prendiamo come
esempio la proposizione «Gli uomini sono mortali». Da un punto di vista estensionale, essa viene interpretata così: «L’insieme degli uomini è incluso nell’insieme dei mortali». Da un punto di vista intensionale viene invece spiegata così: «Il
concetto di uomo comprende il concetto di mortale». Gli Stoici, ritenendo che
la proposizione in sé non abbia alcun corrispondente «reale» (al contrario dei
suoi termini), ma sia solo un λεκτόν, scelsero senza incertezze per la loro logica
un’interpretazione intensionale. (Oggi si ritiene che entrambe le alternative siano lecite, e che in particolare quella che intensionalmente è una logica dei predicati diventi estensionalmente una logica delle classi.)
2.2. La logica proposizionale
Dove la logica stoica supera nettamente l’analitica aristotelica, creando
praticamente un campo nuovo, è nello studio della proposizione (chiamata
ἀξίωμα). Una prima distinzione fondamentale è tra proposizioni semplici e complesse. Semplice è la proposizione che contiene solo un predicato (per esempio
«è giorno»), complessa è quella costituita dal collegamento di più proposizioni
tramite connettivi logici (per esempio «è giorno e piove»). Ovviamente, i connettivi possono unire proposizioni a loro volta complesse. Si osservi che la negazione di una proposizione semplice (per esempio «non è giorno»), che oggi viene classificata tra le proposizioni complesse, era invece considerata semplice
dagli Stoici.
Ora, la loro intuizione fondamentale è che i connettivi logici (non, e, o, se
... allora, ecc.) vanno considerati operatori, simili, per esempio, ai comuni operatori aritmetici (+, –, ×, /). Mentre però questi ultimi operano su valori numerici, i
connettivi logici operano sui valori di verità che le proposizioni possiedono in
quanto λεκτά. Il caso più semplice è quello della negazione logica: quando essa
è applicata ad una proposizione vera genera una proposizione falsa, e viceversa.
Riguardo ai connettivi che collegano due proposizioni bisognerà considerare
quattro casi: due proposizioni entrambe vere, due entrambe false, la prima vera
e la seconda falsa, e viceversa. Definire una connessione logica equivale così a
20
scrivere la sua «tavola di verità», cioè precisare quale sia il valore di verità della
proposizione complessa in corrispondenza dei quattro casi ora detti. Per esempio, una proposizione congiuntiva («è giorno e piove») sarà complessivamente
vera solo quando entrambe le proposizioni congiunte sono vere. In questo modo gli Stoici vennero definite diverse connessioni. Eccone le più importanti, delle quali diamo a sinistra il nome e a destra, sulla stessa riga, la tavola di verità:
proposizione 1
proposizione 2
congiuntiva (... e ...)
disgiuntiva inclusiva (... o ...)
alternativa (o solo ... o solo ...)
condizionale (se ... allora ...)
condizionale doppia (solo se ... allora ...)
vera
vera
vera
vera
falsa
vera
vera
vera
falsa
falsa
vera
vera
falsa
falsa
falsa
vera
falsa
vera
vera
vera
falsa
falsa
falsa
falsa
falsa
falsa
vera
vera
Un paio di osservazioni importanti. La prima riguarda le due differenti disgiunzioni, che né in greco né in italiano sono chiaramente distinte nel linguaggio naturale.
Quella esclusiva (o «alternativa») esclude, appunto, la verità di entrambe le proposizioni disgiunte (per esempio: «partirò lunedì o martedì», ma non i due giorni contemporaneamente); quella inclusiva invece no (per esempio: «se c’è pioggia o neve bisogna guidare con prudenza», e anche se ci sono le due cose contemporaneamente). La
distinzione tra le due è facile in latino, dove l’esclusiva s’indica con aut e l’inclusiva
con vel. Come si vedrà, gli Stoici, contrariamente all’uso moderno, usavano per lo più
la disgiunzione esclusiva.
Una seconda osservazione riguarda la proposizione condizionale (o implicazione). La tavola definisce la cosiddetta «implicazione materiale» o «filoniana», dal nome
del logico megarico Filone. Essa risulta falsa solo nel caso che ad un antecedente vero
segua un conseguente falso, e ciò indipendentemente dal senso delle proposizioni
connesse. Per esempio, tutte e tre queste proposizioni risultano vere: «se 2 è pari, allora è un numero primo», «se la luna è verde, allora il cielo è azzurro», «se Aristotele
è cinese, allora Platone è turco». Tale uso è molto più ampio di quello del linguaggio
naturale, in cui invece una proposizione condizionale viene considerata vera solo
quando in più c’è un nesso reale tra le due proposizioni (come per esempio nei sillogismi aristotelici). Questa è detta «implicazione formale», e di essa due varianti furono
definite da Diodoro Crono e da Crisippo. Il problema era molto dibattuto, al punto che
un bibliotecario di Alessandria del II sec. riferisce: «Anche i corvi gracchiano sui tetti
su quali implicazioni siano corrette» (FL 20.06). La discussione continuerà nel Medioevo, quando Paolo Veneto (1368-1429) elencherà ben dieci significati differenti
dell’implicazione, e arriverà fino ai giorni nostri.
Con la definizione dei connettivi logici viene così iniziata quella che oggi è
chiamata logica proposizionale e che in età moderna venne rifondata da diversi
logici, tra i quali spicca Gottlob Frege. In essa, al contrario della logica dei predicati (di cui la sillogistica aristotelica costituisce una parte), non viene considerata la struttura interna delle proposizioni, ma solo il loro valore di verità. Tramite
21
le tavole è possibile «calcolare» una proposizione comunque complessa, ovviamente una volta che sia noto il valore di verità delle proposizioni semplici.
2.3. I discorsi conclusivi
Questa chiara nozione permise di formulare una distinzione che ad Aristotele era sfuggita: quella tra discorsi conclusivi e proposizioni vere (in linguaggio moderno: tra deduzioni corrette e leggi logiche):
Un discorso (λόγος) è un sistema costituito da premesse e da una conclusione. Le premesse sono le proposizioni accettate per la dimostrazione della conclusione, la conclusione è
la proposizione dimostrata a partire dalle premesse. Prendiamo ad esempio il seguente discorso:
Se è giorno allora c’è luce;
ma è giorno;
dunque c’è luce.
In esso c’è luce è la conclusione, le altre proposizioni sono le premesse (FL 21.01 =
Pyrrh. Hyp. B 135).
Alcuni discorsi sono conclusivi, altri non conclusivi. Sono conclusivi quando la proposizione condizionale che inizia con la congiunzione delle premesse del discorso e finisce con la
conclusione è vera. Ad esempio, il discorso citato è conclusivo, perché è vera la connessione
della congiunzione delle sue premesse con c’è luce, in questa proposizione condizionale: se è
giorno e se è giorno allora c’è luce, allora c’è luce. Non conclusivi sono i discorsi non costruiti
in questo modo (FL 21.02 = Pyrrh. Hyp. B 137).
Più esplicitamente, un discorso conclusivo corrisponde ad una proposizione condizionale sempre vera, qualunque sia il valore di verità delle proposizioni
semplici che la compongono. In generale, oggi viene chiamata legge logica una
proposizione complessa (anche non condizionale) che è vera indipendentemente dai valori di verità delle proposizioni semplici. Per esempio, «p o non p» è
una legge logica. Più chiara che in Aristotele è anche la distinzione tra discorsi
conclusivi e conclusioni vere:
Fra i discorsi conclusivi alcuni sono veri [nella conclusione], altri falsi. Sono veri quando, oltre alla proposizione condizionale costituita dalla congiunzione delle premesse e dalla
conclusione, anche la congiunzione delle premesse, cioè l’antecedente della proposizione
condizionale, è vera (FL 21.07 = Pyrrh. Hyp. B 138).
22
2.4. Gli indimostrabili
Come Aristotele aveva costruito la sua sillogistica a partire dai modi della
prima figura, ritenuti evidenti, così anche gli Stoici stabilirono cinque discorsi
«indimostrabili». Li enumeriamo, indicando con p e q due generiche proposizioni, mentre tra parentesi riportiamo i nomi che saranno assegnati nel Medioevo
e che sono ancor oggi talvolta usati:
1. Se p allora q; ma p; dunque q (modus ponendo ponens).
2. Se p allora q; ma non q; dunque non p (modus tollendo tollens).
3. Non (p e q); ma p; dunque non q (modus ponendo tollens).
4. O solo p o solo q; ma p; dunque non q (modus ponendo tollens).
5. O solo p o solo q; ma non p; dunque q (modus tollendo ponens). (cfr. SVF II, 241)
Le idee sul ruolo di questi princìpi erano molto chiare:
Gli indimostrabili sono quelli di cui gli Stoici dicono che non hanno bisogno di dimostrazione per essere sostenuti. [...] Essi ne immaginano molti, ma ne pongono particolarmente cinque, da cui pare che si possano dedurre tutti gli altri (FL 22.03 = Pyrrh. Hyp. B 156).
Non sapendo quali regole venissero ammesse per dedurre nuovi «discorsi» (a causa della frammentarietà delle fonti), non possiamo giudicare se venne
effettivamente costruita una logica proposizionale completa, in cui cioè tutte le
proposizioni vere siano dimostrabili. Pare certo però che venne almeno chiaramente intuìto il concetto di completezza di un sistema logico. Esso svolgerà un
ruolo fondamentale nella logica contemporanea, quando Kurt Gödel (19061978) riuscirà sorprendentemente a dimostrare che nessun sistema logico che
raggiunga una certa potenza espressiva può essere completo.
Ci si potrebbe domandare quale sia l’utilità di stabilire indimostrabili e regole di
deduzione se — come già detto — l’uso delle tavole è sufficiente per accertare la verità o falsità di qualsiasi proposizione. In realtà, le tavole di verità diventano inutilizzabili appena si esce dal dominio della logica proposizionale e si entra in quello della logica dei termini. Per esempio, i sillogismi di Aristotele non potrebbero essere dimostrati così. Ciò significa che a partire da un certo livello di complessità non esiste più
nessun modo puramente meccanico per dimostrare teoremi.
2.5. L’antinomia del mentitore
Un ulteriore campo dove la logica megarico-stoica diede importanti contributi è nello studio delle cosiddette «antinomie logiche». La più importante è
quella nota come «antinomia del mentitore», formulata per la prima volta dal
megarico Eubulide:
23
Il cretese che afferma che i cretesi mentono sempre, mente o dice la verità?
Lo spunto per questo paradosso sembra essere stato offerto da un esametro del sapiente cretese Epimenide (VI sec. a.C.), testimoniato nel Nuovo Testamento: «I Cretesi sono sempre mentitori, cattive bestie, pigri ghiottoni»
(Κρῆτες ἀεὶ ψευσταί, κακὰ θηρία, γαστέρες ἀργαί [Tit. 1,12]). È evidente che si
giunge in ogni caso ad una contraddizione: se il Cretese dicesse la verità, ciò significherebbe che sta mentendo; se stesse mentendo, ciò significherebbe che
dice la verità. Crisippo scrisse sull’argomento ventotto libri, ma qualcuno fece di
peggio; ecco la lapide di Filita di Cos (340 ca.-285 a.C.): «Viandante, io sono Filita; l’argomento chiamato “il mentitore” e le profonde meditazioni notturne mi
condussero alla morte» (FL 23.08). Sfortunatamente non conosciamo bene le
soluzioni elaborate. Pare che Crisippo sostenesse che l’antinomia del mentitore
non è neanche una proposizione, essendo impossibile stabilire se è vera o falsa.
Questo problema accompagnerà comunque l’intera storia della logica. Paolo Veneto nel Medioevo discuterà ben quindici soluzioni differenti dell’antinomia,
che è rimasta al centro dell’attenzione fino ai tempi moderni.
24
3. L’arte combinatoria di Leibniz
3.1. La rifondazione della logica
Benché le ricerche di Leibniz (1646-1716) nel campo della logica siano in
sé molto importanti, la loro importanza storica è purtroppo molto limitata: egli
infatti non pubblicò praticamente nulla di ciò che scoprì, e si dovette attendere
la fine dell’Ottocento perché ciò che per lui era già cosa nota venisse gradualmente riscoperto. Lo studio della logica è visto da Leibniz in gran parte come alternativa al Discorso sul metodo di Descartes, giudicato troppo vago nei
suoi criteri della «chiarezza e distinzione»:
Vedo che gli uomini del nostro tempo abusano molto di quel famoso principio continuamente ripetuto: qualsiasi cosa percepisco chiaramente e distintamente di qualcosa, è vero, ovvero può essere enunciato di essa. Spesso infatti agli uomini che giudicano frettolosamente sembrano chiare e distinte cosa oscure e confuse. Dunque l’assioma è inutile se non
vengono usati dei criteri del chiaro e del distinto [...] e se non consta la verità delle idee. Del
resto non sono da disprezzare quei criteri di verità degli enunciati che sono le regole della logica comune, che anche i geometri usano, che cioè nulla va ammesso come certo se non è
provato da un’accurata esperienza o da una solida dimostrazione; e solida dimostrazione è
quella che rispetta la forma prescritta dalla logica, non come se fossero necessari i sillogismi
ordinati al modo scolastico [...] , ma almeno in modo che l’argomentazione sia conclusiva in
virtù della forma (come esempio di un’argomentazione nella forma debita potresti dire anche un qualsiasi calcolo legittimo); così né bisogna omettere qualche premessa necessaria, e
tutte le premesse o devono essere già da prima dimostrate, o almeno vanno assunte a mo’
d’ipotesi, nel qual caso anche la conclusione è ipotetica. Coloro che osserveranno attentamente queste norme facilmente si proteggeranno da idee ingannevoli (Meditationes de cognitione, veritate et ideis).
Leibniz non intende però semplicemente riprendere la logica antica e medioevale, ma concepisce l’idea di una sua radicale rifondazione, che viene da lui
25
posta sotto il nome di «arte combinatoria» e che eserciterà una certa influenza
anche sui posteri. In tale denominazione è implicito un netto progresso rispetto
alle idee precedenti in materia:
Chiamo arte combinatoria quella scienza (che si può dire anche in generale caratteristica, o speciosa), in cui si tratta di tutte le forme o formule delle cose, cioè della qualità in
genere, o del simile e dissimile, a, b, c, ecc. (che possono rappresentare quantità o altro), in
quanto dalla loro combinazione nascono via via altre formule; essa si distingue dall’algebra
che concerne le formule applicate alla quantità, ovvero l’eguale e l’ineguale. L’algebra, pertanto, si subordina alla combinatoria, e si serve continuamente delle sue regole, che peraltro
sono di gran lunga più generali, e valgono non solo per l’algebra soltanto, ma anche per l’arte
decifratoria, per vari generi di giochi, per la stessa geometria trattata linearmente al modo
degli antichi, insomma, dovunque entri in gioco la similitudine (SAU, fine).
Leibniz concepisce insomma l’«arte combinatoria» come una scienza
puramente formale, che offre una base universale per tutte le altre. Il modello
di tale scienza è offerto dalla matematica: in essa infatti il linguaggio naturale,
di sua natura soggetto ad ambiguità e fraintendimenti, è abbandonato in favore
di un linguaggio artificiale, che permette di effettuare la deduzione come un
semplice «calcolo» di natura meccanica, cioè tramite la combinazione degli elementi del linguaggio; la stessa cosa deve avvenire nella logica, che dunque assume l’aspetto di una sorta di matematica generalizzata (e che perciò viene chiamata da Leibniz anche «mathesis universalis»). Anche il nome «caratteristica»
allude allo stesso fatto: la logica deve operare su simboli («caratteri») indipendentemente dal loro significato. Quest’idea, benché in parte ispirata dalla lettura di Hobbes e di Lullo, è in realtà di gran lunga più profonda; tra l’altro, essa rispecchia esattamente la concezione di logica che si affermerà nel Novecento, e
che per questi motivi viene spesso chiamata «logica matematica».
3.2. La concezione della verità
Esiste una nozione logica che assume un’importanza fondamentale per
l’intera filosofia di Leibniz. Si tratta del concetto di verità, evidentemente legato
alla comprensione della logica come «arte combinatoria» e dunque puramente
formale. Ecco uno dei numerosi testi in cui Leibniz si pronuncia con chiarezza al
riguardo:
È palese che ogni predicazione vera ha qualche fondamento nella natura delle cose, e
quando una proposizione non è identica, vale a dire quando il predicato non è compreso
espressamente nel soggetto, bisogna che vi sia compreso virtualmente, e questo è ciò che i
filosofi chiamano in-esse, dicendo che il predicato è nel soggetto. Così bisogna che il termine
del soggetto racchiuda sempre quello del predicato, di modo che colui che intendesse perfettamente la nozione del soggetto, giudicherebbe anche che il predicato gli appartiene. [...]
Dio, vedendo la nozione individuale o ecceità di Alessandro [Magno], vi vede in pari tempo il
26
fondamento e la ragione di tutti i predicati che si possono dire di lui con verità, come per
esempio che egli vincerà Dario e Poro, fino a conoscere a priori (e non per esperienza) se è
morto di una morte naturale o avvelenato, il che noi possiamo sapere solo grazie alla storia
(DM 8).
In sintesi: la ragione della verità di una proposizione va trovata sempre e
solo all’interno della proposizione stessa, e cioè nell’inclusione del predicato nel
soggetto; questa inclusione può essere o evidente («il triangolo equilatero è un
triangolo») o soltanto virtuale, nel qual caso è necessaria un’analisi completa
del soggetto per mostrarvi la presenza del predicato, benché quest’analisi alla
mente limitata dell’uomo possa risultare di fatto impossibile. Tutte le proposizioni vere hanno dunque di per sé la loro dimostrazione a priori, cioè
indipendentemente dall’esperienza, anche se la maggior parte vengono conosciute dall’uomo solo a posteriori, e cioè dall’esperienza: che il 1º gennaio del
2000 a Roma faccia un certo tempo di per sé ha la sua dimostrazione a priori, in
séguito cioè ad un’analisi del concetto di atmosfera terrestre; ma di fatto noi lo
verremo a sapere solo quando giungerà quel giorno, dunque per esperienza. Tale concezione di verità non identifica però la realtà con la necessità, come avviene in Spinoza? Leibniz rifiuta esplicitamente questa conseguenza:
Sembra che in questo modo sarà distrutta la differenza tra le verità contingenti e necessarie, che la libertà umana non avrà più alcun luogo, e che una fatalità assoluta regnerà su
tutte le nostre azioni così come su tutti gli altri avvenimenti del mondo. [...] Io dico che la
connessione o conseguenza è di due tipi: una è assolutamente necessaria, e il suo contrario
implica contraddizione, e questa deduzione ha luogo nelle verità eterne, come sono quelle
della geometria; l’altra è necessaria solo ex hypothesi, e per così dire per accidente, ma essa
è contingente in sé, quando il contrario non implica affatto contraddizione. E questa connessione è fondata non sulle idee del tutto pure e sul semplice intelletto di Dio, ma ancora sui
suoi liberi decreti e sulla connessione dell’universo (DM 13).
Si tratta di un punto di estrema importanza nella filosofia di Leibniz, che
dunque va ben chiarito. Le due proposizioni «il triangolo ha gli angoli interni
eguali a due retti» e «Alessandro Magno vince Dario» hanno entrambe il motivo della loro verità in sé stesse, cioè i predicati sono presenti nei rispettivi soggetti. La loro differenza è chiara però quando si esaminano le proposizioni contrarie: «il triangolo non ha gli angoli interni eguali a due retti» e «Alessandro
Magno non vince Dario». La prima è una proposizione certamente falsa, perché
il concetto di «triangolo con gli angoli interni non eguali a due retti» è contraddittorio, come può essere facilmente dimostrato nella geometria euclidea.
Ma il concetto di «Alessandro Magno che non vince Dario» non è in sé contraddittorio: benché nel nostro mondo esso non abbia esistenza, è immaginabile un
mondo diverso in cui Alessandro Magno perda. Le verità necessarie (o di ragione) sono quindi quelle valide in tutti i mondi possibili (e cioè non contraddittori),
le verità contingenti (o di fatto) sono quelle valide nel mondo reale ma non in
27
tutti i mondi possibili. Esse sono dunque necessarie solo sulla base di una premessa (ex hypothesi): dato che questo è il mondo esistente, allora necessariamente Alessandro vince Dario. Ciò si può esprimere anche dicendo che le verità
necessarie sono fondate sull’intelletto di Dio, che pensa tutti i mondi possibili,
mentre quelle contingenti sono fondate sulla volontà di Dio, che ha deciso quale di questi mondi possibili creare, cioè rendere reale.
Da ciò si ricava anche che ci sono in realtà proposizioni contingenti che, contro
la regola generale, non hanno una prova a priori, o perlomeno non nel senso in cui la
posseggono le altre: le proposizioni esistenziali, che affermano se qualcosa esiste o
no. Nel concetto di Alessandro Magno non è compresa la sua esistenza. Ciò avviene —
eccezione dell’eccezione — solo nel caso di Dio, come si vedrà.
Da questa concezione della verità discende la supremazia di due princìpi
logici:
I nostri ragionamenti sono fondati su due grandi princìpi:
il principio di contraddizione, in virtù del quale giudichiamo falso ciò che la includa, e
vero ciò che è opposto al contraddittorio o falso;
e il principio di ragion sufficiente, in virtù del quale consideriamo che nessun fatto potrebbe essere vero, o esistente, nessuna enunciazione vera, senza che vi sia una ragione sufficiente perché sia così e non altrimenti, benché queste ragioni il più delle volte possano non
esserci affatto note.
[...] La ragione sufficiente si deve trovare anche nelle verità contingenti o di fatto, cioè
nella sequenza delle cose distribuite nell’universo delle creature, dove la risoluzione in ragioni particolari potrebbe andare fino ad un dettaglio senza limiti, a causa della varietà immensa delle cose della natura e della divisione dei corpi all’infinito (M 31-32, 36).
I due princìpi sono in gran parte complementari: se infatti il principio di
contraddizione (detto anche «di non contraddizione») afferma che le proposizioni in cui il predicato è incluso nel soggetto sono vere, il principio di ragion sufficiente afferma che nelle proposizioni vere dev’esserci una ragione della loro
verità, e cioè anzitutto l’inclusione del predicato nel soggetto. Leibniz si preoccupa di far notare che questo principio si applica anche alle verità contingenti,
in cui l’analisi del soggetto potrebbe dover andare all’infinito e dunque essere
di fatto impossibile all’uomo (un’idea questa evidentemente ispirata dal calcolo
infinitesimale).
Ciò non significa — come spesso è stato affermato — che il principio di non
contraddizione riguardi solo le verità necessarie e quello di ragion sufficiente solo le
verità contingenti: entrambi riguardano ogni verità. È però vero che il principio di ragion sufficiente ha un’estensione maggiore di quello di non contraddizione, perché si
estende anche alle proposizioni contingenti esistenziali, sebbene mutando leggermente di significato: lì la ragion sufficiente della verità non può consistere certo
nella presenza del predicato nel soggetto. Proprio quest’uso del principio di ragion suf28
ficiente è in grado secondo Leibniz di condurre alla metafisica, che s’interroga sull’esistenza delle cose e sulla sua causa.
29
Giovanni Salmeri
Piccola
storia della logica
II. Il Novecento
Roma 1999
4. La logica nel Novecento
4.1. Georg Cantor (1845-1918)
4.1.1. La teoria degli insiemi
L’opera di Georg Cantor si situa nel complesso di ricerche che vennero
dedicate tra la fine dell’Ottocento e l’inizio del Novecento al problema della fondazione della matematica. Si trattava del tentativo di darle una base assolutamente solida, che non facesse ricorso né a considerazioni psicologiche, né a dati
«intuitivi» come venivano presentati dai neokantiani. Questo nuovo punto di
partenza è offerto secondo Cantor dalla teoria degli insiemi. Eccone i concetti
fondamentali:
Con insieme (Menge) intendiamo ogni riunione I in un tutto di determinati e ben distinti oggetti i della nostra intuizione o del nostro pensiero (che vengono chiamati elementi
di I). In simboli esprimiamo ciò così:
I = {i}.
[...]
Ad ogni insieme I spetta una determinata potenza (Mächtigkeit), che chiamiamo anche il suo numero cardinale (Kardinalzahl). Chiamiamo potenza o numero cardinale di I il concetto generale che con l’aiuto della nostra facoltà attiva di pensiero scaturisce dall’insieme I
astraendo dalle fattezze dei suoi distinti elementi e dall’ordine nel quale essi sono dati. Il risultato di questo duplice atto di astrazione, il numero cardinale o la potenza di I, lo indichiamo
con |I|.
Giacché da ogni singolo elemento i se si prescinde dalla sua fattezza, deriva un’unità,
allora lo stesso numero cardinale |I| è un determinato insieme composto di semplici unità,
che possiede esistenza nella nostra mente come immagine intellettuale o proiezione dell’insieme dato I.
Due insiemi I e J li chiamiamo equivalenti e indichiamo ciò con
I ~ J oppure J ~ I
30
se è possibile porli secondo una legge in una relazione reciproca tale che ad ogni elemento di uno di essi corrisponda uno e solo un elemento dell’altro.
[...]
È di significato fondamentale che due insiemi I e J hanno lo stesso numero cardinale
se e solo se essi sono equivalenti:
da I ~ J segue |I| = |J|,
e da |I| = |J| segue I ~ J.
L’equivalenza di insiemi costituisce dunque il necessario e infallibile criterio per l’uguaglianza dei loro numeri cardinali (Contributi alla fondazione della teoria degli insiemi transfiniti, 1897, § 1 [simbologia modificata]).
Così si è raggiunta secondo Cantor una soddisfacente caratterizzazione
del numero: anzitutto del numero naturale, e tramite questo del numero relativo, razionale e infine reale (un passo quest’ultimo meno facile, che venne compiuto da Cantor stesso). In questo modo l’aritmetica diventa una scienza edificata sulla base della teoria degli insiemi, che pare rispondere a quelle doti di semplicità e solidità che dovrebbe richiedere una teoria di fondazione. La teoria degli insiemi mostra però un’ulteriore particolare duttilità: essa permette di
considerare anche numeri che non avevano fino ad allora trovato spazio nella
matematica: i numeri infiniti, o, come preferisce dire Cantor (per riservare la
qualifica d’infinito a Dio solo) transfiniti:
Gli insiemi con numero cardinale finito si chiamano insiemi finiti; tutti gli altri li vogliamo denominare insiemi transfiniti, e i numeri cardinali che spettano loro numeri cardinali
transfiniti.
La totalità di tutti i numeri cardinali finiti n ci offre il più vicino esempio di insieme
transfinito; il numero cardinale che gli spetta lo chiamiamo áleph zero, in simboli c0; definiamo dunque
c0 = |{n}|.
Che c0 sia un numero transfinito, che cioè non sia eguale a nessun numero finito m,
deriva dal semplice dato di fatto che quando all’insieme {n} viene aggiunto un nuovo elemento e0, l’insieme unione ({n}, e0) è equivalente a quello originale {n}. Infatti è possibile pensare
tra i due insiemi la relazione biunivoca secondo la quale all’elemento e0 del primo corrisponde l’elemento 1 del secondo, all’elemento n del primo l’elemento n + 1 dell’altro (Contributi
alla fondazione della teoria degli insiemi transfiniti, § 6 [simbologia modificata]).
Dunque, la teoria degli insiemi rende inevitabile l’introduzione anche
dell’infinito attuale, e non solo dell’infinito potenziale (considerato cioè come
un limite irraggiungibile), cosa che Cantor discusse esplicitamente citando il precedente di Leibniz. Si osservi anzi che come caratteristica definitoria viene scelto proprio quell’aspetto paradossale che fin da Aristotele era stato usato come
confutazione dell’esistenza dell’infinito attuale: l’infinito è ciò in cui una parte
può essere equivalente al tutto. Questo è un chiaro indizio della portata che
Cantor attribuiva all’idea secondo cui «l’essenza della matematica sta nella sua
31
libertà», libertà dunque anche di concepire e trattare oggetti apparentemente
contraddittori.
4.1.2. La gerarchia dei transfiniti
È possibile, malgrado ciò che si è detto, parlare di differenti numeri transfiniti? In un primo momento Cantor pensò di no: riuscì infatti a mostrare che
l’insieme Ä dei numeri razionali ha anch’esso potenza c0. Il risultato è molto significativo, perché Ä possiede una caratteristica peculiare, la densità, che lo distingue chiaramente da Á (dati due numeri razionali q1 e q3 tali che q1 > q3, esiste sempre un numero razionale q2, per esempio la loro media aritmetica, tale
che q1 > q2 > q3). La dimostrazione dell’equivalenza di Á e Ä è abbastanza semplice: si tratta solo di descrivere un metodo tramite cui ordinare tutti i numeri
razionali, in modo che ad ognuno sia assegnato un posto univoco, e sia possibile
così stabilire una corrispondenza con il numero naturale che indica quella determinata posizione. (Il nucleo del metodo trovato da Cantor consiste nell’elencare
i numeri razionali, scritti sotto forma di frazione, ordinandoli per gruppi in cui
sia uguale la somma del numeratore e del numeratore.)
Ma esistono insiemi con una potenza maggiore di c0, in cui cioè gli infiniti
elementi non possano essere messi in un qualsivoglia elenco ordinato che permetta una relazione biunivoca con Á? Ciò è quanto Cantor alla fine dimostrò
per l’insieme dei reali Å. La dimostrazione più semplice e celebre è per assurdo:
prima si ipotizza che i numeri reali (cioè costituiti da una sequenza di infinite cifre decimali a1, a2, ..., an, ...) possano essere messi in una sequenza ordinata
(r1, r2, ..., rn, ...); poi si mostra come è possibile costruire un numero reale (r0)
che non appartiene a tale sequenza:
Se r1, r2, ..., rn, ... è una qualsiasi sequenza semplicemente infinita di elementi dell’insieme Å, allora c’è sempre un elemento r0 di Å che non coincide con alcun rn.
Per dimostrarlo, sia
r1 = (a1,1, a1,2, ..., a1,n, ...),
r2 = (a2,1, a2,2, ..., a2,n, ...),
...
rm = (am,1, am,2, ..., am,n, ...),
...
[...]
Siano r e s due caratteri mutuamente esclusivi [per esempio pari e dispari]. [...] Qui gli
am,n sono in una determinata maniera r oppure s. Ci sia ora una sequenza b1, b2, ..., bn, ...,
definita cosicché il carattere r o s di bn sia diverso da quello di an,n. Se dunque an,n è r, allora
bn è s, e se an,n è s, allora bn è r.
Se ora consideriamo l’elemento di Å
32
r0 = (b1, b2, ..., bn, ...)
si vede senz’altro che l’uguaglianza r0 = rm non può essere soddisfatta per nessun valore positivo di una riga m, perché altrimenti per il rispettivo m, per tutti i valori della riga, sarebbe
bn = am,n
dunque anche in particolare
bm = am,m
il che è escluso per la definizione di bn. Da questa conclusione segue immediatamente che la totalità di tutti gli elementi di Å non può essere messa nella sequenza r1,
r2, ..., rn, .... altrimenti ci troveremmo di fronte alla contraddizione che r0 sarebbe e non sarebbe elemento di Å (Su un problema elementare della teoria degli insiemi, 1890-1).
La tecnica usata in questa dimostrazione è il primo esempio del «metodo diagonale» che sarà ripetutamente usato nel campo della logica e della matematica. Il
numero decisivo viene infatti ottenuto invertendo l’attributo r o s delle cifre che sono
individuate da una linea «diagonale» tracciata dall’alto a sinistra nella sequenza dei
numeri razionali. In termini più astratti, il nocciolo consiste nell’attribuire ad uno stesso numero m una doppia funzione: individuare l’m-esimo elemento della sequenza e
l’m-esima cifra di tale elemento.
L’insieme Å è particolarmente importante perché esso è un insieme
«continuo»: intuitivamente, i punti di una retta possono essere messi in corrispondenza biunivoca con l’insieme dei numeri reali. Si è dunque dimostrato che
l’infinito della continuità non è l’infinito «numerabile», ovvero c0, ma è di entità maggiore. Più precisamente, Cantor dimostrò che il cardinale dell’insieme
Å può essere espresso come 2c0.
Ma esiste un numero transfinito maggiore della potenza di Á e minore
della potenza di Å? oppure il secondo è l’immediato successore del primo? (Il
concetto di «immediato successore di un numero transfinito» venne esattamente definito da Cantor, che mostrò in qual modo esso fosse concretamente costruibile). Indicando la successione dei numeri transfiniti con indici, si tratta insomma di appurare la giustezza dell’equivalenza c1 = 2c0 (ipotesi del continuo)
o, in termini più ampi, cn = 2cn-1 (ipotesi generalizzata del continuo). Cantor non
riuscì a dare risposta, e il problema rimase a lungo aperto. Esso venne risolto solo nel 1963 dall’americano Paul Cohen, che dimostrò che l’ipotesi del continuo
è «indecidibile» nell’ambito delle normali teorie degli insiemi: essa non può essere cioè né dimostrata né confutata.
Tra gli ulteriori e sorprendenti risultati di Cantor è da citare la dimostrazione —
semplicissima — che l’insieme Ån (con n naturale qualsiasi) è equivalente ad Å. Ad
esempio infatti la coppia di numeri reali a = (a1, a2, ..., an, ...) e b = (b1, b2, ..., bn, ...)
può essere posta in corrispondenza biunivoca con il numero reale c = (a1, b1, a2, b2, ...,
33
an, bn, ...). In termini geometrici, ciò significa che una retta ha tanti punti quanti ne
hanno un piano o lo spazio!
4.2. Gottlob Frege (1848-1925)
4.2.1. La fondazione della matematica
Attorno all’inizio del Novecento sono diversi gli studiosi che presentano
contributi importanti alla fondazione della logica formale. Tra i più importanti,
vanno citati almeno George Boole (1815-1864), Charles S. Peirce (1839-1914),
Giuseppe Peano (1858-1932). Su tutti spicca però la personalità di Gottlob Frege, che più degli altri elabora un sistema logico formalmente perfetto, esprimendo con estrema chiarezza idee che altrove si possono trovare in modo ancora solo approssimativo. La sua opera logica si inscrive — come in buona parte
quella di Cantor — nella ricerca di una fondazione rigorosa della matematica.
Ecco l’opinione di Frege al riguardo:
Nei miei Fondamenti dell’aritmetica ho tentato di rendere plausibile la tesi che l’aritmetica sia una branca della logica e che non abbia bisogno di prendere i fondamenti delle
sue dimostrazioni né dall’esperienza né dall’intuizione. Nel presente volume questa tesi sarà
confermata dal fatto che le leggi più semplici dei numeri possono essere dedotte con mezzi
esclusivamente logici. Ciò dimostra, tuttavia, che si debbono porre sui procedimenti di dimostrazione condizioni notevolmente più forti di quanto si sia soliti fare in aritmetica. Si deve
delimitare preventivamente un insieme di pochi modi di inferenza e deduzione e non fare alcun passo che non sia in accordo con uno di questi. Nel passaggio ad un nuovo giudizio, quindi, non ci si deve accontentare, come hanno quasi sempre fatto finora i matematici, della circostanza che esso sia evidentemente corretto, ma lo si deve analizzare nei suoi passaggi logici più semplici, che spesso non sono affatto pochi (FL 38.23).
Tale punto di vista, che verrà chiamato «logicista», tende quindi a subordinare la matematica alla logica, cercando in quest’ultima la precisazione dei
concetti e dei procedimenti fondamentali della prima. Dal punto di vista pratico
34
vale però per Frege in un certo senso un rapporto inverso: e cioè la logica deve
ispirarsi, per perseguire un ideale di assoluto rigore e trasparenza, alla matematica, e più in particolare al metodo «assiomatico» della geometria di Euclide:
L’ideale di un metodo rigorosamente scientifico in matematica, quale io ho qui tentato di realizzare e che potrebbe giustamente essere intitolato ad Euclide, potrebbe venire secondo me così delineato.
Che tutto venga dimostrato non si può certo pretendere, perché ciò è impossibile. Si
può però esigere che tutte le proposizioni che si usano senza dimostrazione vengano espressamente enunciate come tali, affinché si riconosca con chiarezza ove si fonda l’intero edificio.
Bisogna quindi cercare di restringere il loro numero al minimo possibile, dimostrando tutto
ciò che risulta possibile.
Si può esigere in secondo luogo — e in ciò io compio un passo ulteriore rispetto ad
Euclide — che vengano espressamente elencati, prima di costruire l’edificio matematico, i
metodi di deduzione e di dimostrazione che si applicheranno. In caso contrario, è impossibile
garantire che la stessa esigenza precedente sia davvero soddisfatta. Io ritengo di avere sostanzialmente raggiunto questo ideale (FL 38.24).
Il «passo ulteriore» che Frege cita va effettivamente ascritto tra i suoi
maggiori contributi: la prima consapevole distinzione tra regole di deduzione e
assiomi. Tale distinzione è parallela ad un’altra importantissima, che Frege ha
ben chiara: quella tra il linguaggio simbolico che viene costruito (in questo caso
il linguaggio matematico, del quale fanno parte gli assiomi), e il linguaggio che
descrive il funzionamento del primo (successivamente chiamato metalinguaggio, del quale fanno parte le regole).
Tali distinzioni (così come in generale un efficace modello di sistema logico)
possono essere embrionalmente già trovate nella sillogistica aristotelica. Che in questo contesto essa non venga citata è dovuto esclusivamente alla dimenticanza e all’incomprensione in cui essa era caduta da secoli. Ciò tuttavia aumenta ancora il merito
di Frege, che quasi partendo da zero riesce ad elaborare una logica che risulterà in effetti molto più rigorosa e completa di quella di Aristotele.
Bisogna inoltre porre attenzione ad un altro requisito che Frege esige pur
senza dichiararlo con tanta chiarezza: la preventiva ed esatta definizione dei
simboli che compongono il linguaggio e delle regole che conducono ad espressioni sensate. È infatti impossibile contentarsi del linguaggio naturale, data la
sua imperfezione ed ambiguità, ma bisogna elaborare un linguaggio completamente univoco e artificiale, in modo che i procedimenti dimostrativi si riducano
di fatto ad un’elaborazione meccanica di simboli. Solo in questo modo il linguaggio logico potrà ritenersi perfettamente «formalizzato». Frege crea perciò quella che denomina «ideografia» (Begriffsschrift: questo anche il titolo della sua
opera fondamentale del 1879), un linguaggio cioè di tipo grafico che rappresenta senza ambiguità i nessi concettuali. Nel seguito però tradurremo per sem35
plicità la logica di Frege nella notazione contemporanea, che deriva con piccole
varianti da quella elaborata da Giuseppe Peano.
Per curiosità ecco un teorema nella notazione originaria di Frege, seguito dalla
sua traduzione nella notazione di Peano:
([a(f(x,a)  F(a))  (f(x,y)  F(y)))  ([b(F(b) [a(f(b,a)  F(a)))  (F(x)  (f(x,y) 
F(y))))
4.2.2. Funzione, senso, significato
La costruzione della logica da parte di Frege ha come presupposto l’elaborazione di alcuni concetti di base, che vengono discussi con una precisione
mai prima raggiunta. Il primo è il concetto di funzione, per il quale la spiegazione di Frege è sostanzialmente rimasta immutata fino ad oggi:
L’essenza della funzione si esprime [...] nella corrispondenza che essa stabilisce fra i
numeri i cui segni vengono sostituiti a x e i numeri che si ottengono di conseguenza come significati della nostra espressione. [...] L’essenza della funzione sta quindi in quella parte
dell’espressione che rimane quando si prescinde da x. L’espressione di una funzione è bisognosa di completamento, o non saturata. La lettera x serve soltanto a tenere liberi i posti in
cui si può sostituire un segno numerico che completi l’espressione, e permette quindi di riconoscere lo speciale tipo di bisogno di completamento che costituisce il carattere peculiare
della funzione descritto più sopra. Nel seguito, invece della lettera x sarà usata a questo scopo la lettera ξ.
Questo tener liberi deve essere inteso nel senso che in tutti i posti in cui compare ξ si
deve sostituire sempre lo stesso segno e mai segni diversi. Questi posti li chiamo posti di argomento e ciò il cui segno (nome) occupa questi posti in un dato caso lo chiamo argomento
della funzione per questo caso. La funzione è completata dall’argomento; ciò che essa diviene dopo essere stata completata lo chiamo valore della funzione corrispondente a quell’argomento. Otteniamo quindi un nome del valore di una funzione corrispondente ad un argomento sostituendo nei posti di argomento del nome della funzione il nome dell’argomento.
36
Così, ad esempio, (2 + 3 · 12) · 1 è un nome del numero 5 composto mediante il nome di funzione (2 + 3 · ξ2) · ξ e 1 (FL 42.03).
Si noti in tale discussione il livello di astrazione che viene raggiunto nel caratterizzare la funzione come una «corrispondenza»: essa non è un’espressione
numerica, ma un rapporto tra due serie numeriche, rappresentanti rispettivamente l’argomento e il valore. Questo concetto di funzione può essere evidentemente esteso considerando più argomenti («x + 2y» è per esempio una funzione a due argomenti). Più importante però e anzi fondamentale per la costruzione della logica una seconda estensione, riguardante il tipo di valori della funzione:
Il dominio dei valori delle funzioni non può rimanere limitato ai numeri; se prendo infatti come successivi argomenti della funzione ξ2 = 4 i numeri 0, 1, 2, 3, non ottengo come valori dei numeri. 02 = 4, 12 = 4, 22 = 4, 32 = 4 sono espressioni di pensieri ora veri, ora falsi.
Esprimo ciò dicendo che il valore della funzione ξ2 = 4 è il valore di verità di ciò che è vero oppure di ciò che è falso. Da ciò si vede che, scrivendo semplicemente un’equazione, io non intendo asserire nulla, ma soltanto designare un valore di verità, allo stesso modo che non intendo asserire nulla scrivendo 22, ma soltanto designare un numero. Dico: i nomi 22 = 4 e 3 >
2 denotano lo stesso valore di verità, che chiamo per brevità il vero. Allo stesso modo, 32 = 4
e 1 > 2 denotano lo stesso valore di verità, che chiamo per brevità il falso, così come il nome
22 denota il numero 4. Dico perciò che il numero 4 è il significato di 4 e di 22, e che il vero è il
significato di 3 > 2 (FL 42.13).
La «funzione» diventa così un concetto molto ampio e flessibile in grado
di comprendere sotto di sé tutte le possibili corrispondenze univoche tra insiemi di qualsiasi tipo. Particolare importanza rivestono le funzioni (dette «logiche») che hanno sia il loro valore sia il loro argomento nei valori di verità. Consideriamo per esempio la proposizione complessa «3 > 2 e Roma si trova in Italia»: essa significa il vero perché entrambe le sue componenti significano il vero.
La funzione è quindi rappresentabile come «p e q», dove l’operatore (o «funtore», o «connettivo») è la congiunzione «e». Per definire il comportamento di tali funzioni, il modo più semplice consiste nel compilare le cosiddette «tavole di
verità», cioè indicare quale valore esse assumono in corrispondenza di ognuna
delle possibili combinazioni dei valori di verità degli argomenti. Ecco le tavole di
verità delle funzioni logiche più usate, cioè la congiunzione («p e q»), la disgiunzione («p o q»), l’implicazione («p implica q»), l’equivalenza («p equivale a q»),
la negazione («non p»):
37
congiunzione
p ‚ q
v
v
v
v
v
f
f
v
v
f
f
f
disgiunzione
p ƒ q
v
v
v
v
f
f
f
f
v
f
f
f
implicazione
p  q
v
v
v
v
f
f
f
v
v
f
v
f
equivalenza
p  q
v
v
v
v
f
f
f
f
v
f
v
f
negaz.
¬
p
f
v
v
f
La teoria secondo cui le funzioni «saturate» non sono altro che «nomi»
del valore assunto dalla funzione stessa può parere paradossale. Tale apparenza
svanisce quando si introduca un’ulteriore distinzione:
Distinguo tuttavia il senso di un nome dal suo significato. 22 e 2 + 2 non hanno lo stesso senso, così come non hanno lo stesso senso 22 = 4 e 2 + 2 = 4. Il senso del nome di un valore di verità lo chiamo pensiero. Dico inoltre che un nome esprime il suo senso e denota il suo
significato (FL 42.13).
Le nozioni di senso e significato (o, nella terminologia più comune, di intensione e estensione) furono oggetto di ampia riflessione da parte di Frege (Sul
senso e il significato, 1892), che pose così le basi di una dottrina importante non
solo per la logica ma anche per l’analisi del linguaggio comune. In maniera parallela agli esempi matematici, si deve per esempio dire che le due espressioni
«la stella del mattino» e «la stella della sera» hanno lo stesso significato, perché
denotano entrambi il pianeta Venere, ma esprimono sensi differenti, perché
contengono in sé differenti caratterizzazioni concettuali. In generale, per Frege
hanno significato eguale tutti i termini (semplici o complessi) che sostituiti l’un
con l’altro non mutano il valore di verità di una proposizione.
Deviazioni da questa norma si trovano però nei casi di riferimento indiretto: le
due proposizioni «Paolo sa che la stella del mattino è Venere» e «Paolo sa che la stella
della sera è Venere» potrebbero essere infatti l’una vera e l’altra falsa. Ciò si spiega secondo Frege ammettendo che in un contesto indiretto il significato di un termine è il
senso che esso assume in un contesto diretto.
4.2.3. La logica proposizionale
Il primo livello della logica è individuato dalle espressioni che hanno per
significato il vero o il falso, chiamate «proposizioni». Non sono però esse a costituire oggetto diretto di studio: ciò significherebbe infatti per Frege ritenere che
la logica si occupa solo di combinazioni meccaniche di simboli (i «nomi» del vero e del falso, come visto). Bisogna invece ritenere oggetto della logica il senso
di tali espressioni:
Ciò che viene dimostrato non è la proposizione (Satz), ma il pensiero (Gedanke). [...] Il
pensiero non è percepibile dai sensi, ma ne diamo una rappresentazione udibile o visibile
38
nella proposizione. [...] Ciò implica, inoltre, che i pensieri non siano qualche cosa di soggettivo prodotto dalla nostra attività mentale. Infatti, il pensiero che troviamo nel teorema di Pitagora è lo stessa per tutti e la sua verità è del tutto indipendente dal fatto che esso sia pensato o non pensato da questo o quell’uomo. Pensare non significa produrre pensieri, ma comprenderli (FL 39.01).
Con tali precisazioni, Frege si avvicina ad una dottrina stoica: quella che distingueva l’ἀξίωμα (la proposizione) dal suo senso oggettivo e immateriale, il λεκτόν (il
pensiero). E parimenti allineata con la posizione stoica è la concezione della logica come scienza dei «pensieri» e non delle «proposizioni». La terminologia contemporanea
è però differente, e oggi s’intende con «enunciato» ciò che Frege diceva «proposizione», e con «proposizione» ciò che Frege diceva «pensiero». Nel seguito parleremo
quindi di «proposizione» dove Frege parlava di «pensiero».
In generale, lo scopo della logica è dimostrare «teoremi» logici, vale a dire proposizioni che sono vere in virtù della loro sola forma, o più esattamente
funzioni logiche che hanno come valore il vero qualsiasi siano i loro argomenti.
Per esempio, la proposizione «p ƒ ¬ p» è sempre vera (essa esprima l’antico
principio logico del «terzo escluso»). Per dimostrare tali teoremi — come visto
— Frege stabilisce un insieme di assiomi, che servano da punto di partenza indimostrato, e un gruppo di regole che specifichi in qual modo è possibile procedere da un passaggio all’altro della dimostrazione. Assiomi e regole possono essere scelti in modo differente in maniera da portare agli stessi risultati, a rendere
dimostrabili cioè tutte e sole le proposizioni che risultano sempre vere. Questi
sono gli assiomi stabiliti originariamente da Frege:
1. p  (q  p)
2. (p  (q  r))  (q  (p  r))
3. (p  (q  r))  ((p  q)  (p  r))
4. (p  q)  (¬ q  ¬ p)
5. p  ¬ ¬ p
6. ¬ ¬ p  p
Come si nota, questi assiomi riguardano solo due funzioni logiche: l’implicazione e la negazione. Le altre vengono infatti introdotte da Frege per definizione a partire
da queste, e non hanno bisogno quindi di assiomi propri. In particolare:
p‚q =
pƒq =
pq =
¬ (p  ¬ q)
¬pq
(p  q) ‚ (q  p)
Le regole necessarie sono soltanto due. La prima è la regola di separazione: se si è affermata sia la proposizione α  β sia la proposizione α, si può affermare anche la proposizione β. Questa regola corrisponde all’antico «modus ponendo ponens» degli Stoici. La seconda è la regola di sostituzione: se si è affer39
mata la proposizione α, si può affermare anche la proposizione che risulta dalla
sostituzione in α di tutte le occorrenze di una variabile proposizionale p con una
stessa espressione β (tale regola assicura per esempio che dall’assioma 5 si può
banalmente ricavare «r  ¬ ¬ r»). In termini sintetici le due regole possono essere così espresse:
1. α  β, α L β
2. α L sost [α, p/β]
Diamo ora un semplice esempio di dimostrazione, indicando a destra la giustificazione di ciascun passaggio:
1.
2.
3.
4.
(p  q)  (¬ q  ¬ p)
(p  ¬ q)  (¬¬ q  ¬ p)
(p  (q  r))  (q  (p  r))
((p ¬ q)  (¬¬ q  ¬ p))  (¬¬ q  ((p ¬ q)  ¬ p))
ass 4
sost [1, q /¬ q]
ass 2
sost [3, p / (p ¬ q); q
/ ¬ ¬ q; r / ¬ p]
sep 2,4
5. ¬¬ q  ((p ¬ q)  ¬ p)
Esiste anche un altro modo per provare la verità del teorema: sostituire alle variabili proposizionali tutte le possibili combinazioni di valori di verità, e controllare che
la proposizione complessiva risulti sempre vera: questo sarà il sistema che proporrà
tra gli altri Ludwig Wittgenstein (1889-1951). Tale sistema è indubbiamente più semplice e inoltre puramente meccanico; esso però diventa inutilizzabile appena la logica
proposizionale è estesa in logica dei predicati, nella quale dunque un approccio assiomatico è indispensabile. Ecco comunque come la proposizione precedente verrebbe
dimostrata con il sistema della tavola di verità:
3a
¬
v
f
v
f
2a
¬
f
v
f
v
1a
q
v
f
v
f
5

v
v
v
v
1b
((p
v
v
f
f
3b

f
v
v
v
2b
¬
f
v
f
v
1c
q)
v
f
v
f
4

v
f
v
v
2c
¬
f
f
v
v
1d
p)
v
v
f
f
Le colonne vengono compilate nell’ordine numerico indicato in alto: nelle colonne 1 si scrivono le possibili combinazioni di valori di verità (che in questo caso sono
quattro, essendo due le variabili proposizionali coinvolte: a variabili uguali devono ovviamente corrispondere valori uguali, donde l’identità delle colonne 1a e 1c, e di 1b e
1d); le colonne con i numeri successivi indicano il valore delle rispettive funzioni applicate ai loro argomenti nel corretto ordine di precedenza (2a è applicato a 1a; 2b a 1c;
2c a 1d; 3a a 2a; 3b a 1b e 2b; 4 a 3b e 2c); la colonna 5 il valore finale dell’espressione (che è l’implicazione applicata alle colonne 3a e 4). Che in quest’ultima colonna sia
presente solo il valore v mostra che la proposizione è un teorema, cioè che è vera indipendentemente dal valore di p e q.
40
4.2.4. La logica dei predicati
Un fondamentale ampliamento del calcolo proposizionale viene effettuato quando le proposizioni vengono considerate nella loro struttura interna, cioè
distinte in soggetto e predicato. In questo modo una proposizione come «il libro
è bianco» non sarà più semplicemente simboleggiata da p, ma da B(l), in cui l è
il soggetto e B il predicato. Ciò è particolarmente utile perché permette l’uso di
variabili che riguardano individui (e non più, come prima, solo proposizioni). Si
potrà dunque scrivere B(x): essa non è propriamente una proposizione (è impossibile infatti dire se sia vera o falsa), ma una funzione o forma proposizionale, che diventa una proposizione appena il posto della variabile venga preso da
un nome individuale. C’è però anche un altro modo per trasformare una forma
proposizionale in proposizione, che è poi quello più interessante: quantificare la
variabile, cioè asserire che la proprietà in questione vale per tutti i possibili soggetti o almeno per uno. Così, la scrittura [x P(x) significa che qualsiasi soggetto
gode della proprietà P (o in altre parole che una proposizione di forma P(x) è
sempre vera), mentre la scrittura x P(x) significa che almeno un soggetto gode
della stessa proprietà. La variabile x che cade sotto l’influenza di un quantificatore viene detta «vincolata», in contrapposizione alle altre (eventuali) variabili «libere».
La sillogistica aristotelica può essere considerata un sottoinsieme della logica
dei predicati. Il sillogismo barbara per esempio risulta così formalizzato: ([x (P(x) 
Q(x)) ‚ [x (Q(x)  R(x)))  ([x (P(x)  R(x)), che letto dettagliatamente è: «se per
qualsiasi cosa l’essere P implica l’essere Q e per qualsiasi cosa l’essere Q implica l’essere R, allora per qualsiasi cosa l’essere P implica l’essere R». D’altra parte va detto
che lo sviluppo della logica dei predicati, piuttosto che «riscoprire» la sillogistica di Aristotele, ha mostrato proprio che essa riguardava solo alcuni casi particolari, e che dunque era ingiustificato il posto di assoluta supremazia che le era stato riconosciuto per
quasi due millenni.
L’ampliamento viene effettuato da Frege aggiungendo tre regole alle due
già stabilite. La prima è la regola di degeneralizzazione: essa stabilisce che se si
è affermata la proposizione [x α(x) si può ovviamente affermare anche α(a), intendendosi con «a» un termine individuale qualsiasi. La seconda è la regola di
generalizzazione: se si è affermato α  β(a), è possibile affermare anche α 
[x β(x), a condizione che il termine individuale «a» non compaia in α (o se vi
compaia sia vincolato da un quantificatore). Il senso di questa regola e il motivo
della restrizione possono essere così spiegati: se si è dimostrato qualcosa per un
termine individuale «a caso», la dimostrazione vale in universale; il passaggio
all’universale non vale però se su tale termine individuale vengono fatte particolari assunzioni. La terza regola è una regola di sostituzione analoga a quella
prima vista, questa volta valida però per i termini individuali: se si è affermata la
41
proposizione α, si può affermare anche la proposizione che si ottiene sostituendo in α tutte le occorrenze di un termine individuale x con un altro termine y,
purché y non occorra «vincolato» in α (ciò porterebbe infatti alla confusione degli ambiti di differenti quantificazioni). In sintesi:
3. [x α(x) L α(a)
4. α  β(a) L α  [x β(a/x)purché a non occorra libera in α
5. α(x) L sost [α(x), x/y]
purché y non occorra vincolata in α
Queste regole riguardano soltanto il quantificatore universale. Il quantificatore
esistenziale viene introdotto da Frege per definizione, analogamente a ciò che avveniva per le funzioni logiche diverse dall’implicazione:
x P(x)
¬ [x ¬ P(x)
Per quanto riguarda il compito di fondazione della matematica, la logica
dei predicati è importante soprattutto perché permette una definizione del concetto di numero. Il primo passo consiste nell’applicare anche al predicato la distinzione tra senso e significato. Il senso (o intensione) è ovviamente costituito
dal concetto che viene pensato in ciascun predicato. Il significato (o estensione)
coincide invece con la classe degli oggetti che godono della proprietà espressa
dal predicato. Il significato del predicato «essere pari» sarà per esempio la classe dei numeri pari {0, 2, 3, 4...}. In questo modo la logica dei predicati diventa
una traduzione «intensionale» della logica delle classi. Per ammettere questa
equivalenza basta ammettere il cosiddetto «assioma di comprensione»: che
cioè ogni proprietà individui effettivamente la classe di tutti e soli gli elementi
che godono di quella certa proprietà. Il numero naturale potrà a questo punto
essere definito — in maniera analoga alla «potenza» in Cantor — come il concetto che può essere attribuito a tutti i predicati che denotano una classe «equinumerosa». Con ciò, anche al concetto fondamentale della matematica viene
assicurata una base puramente logica.
L’illusione però di aver sostanzialmente terminato il compito di fondazione della matematica durò poco. Nel 1902 il giovane logico Bertrand Russel comunicò infatti a Frege di aver scoperto nel suo sistema un’«antinomia» (nota
appunto come «antinomia di Russel»), cioè una contraddizione dedotta dalle
premesse, che mostrava come la logica di Frege era in realtà difettosa. Eccola
nelle parole di Russel:
Sia w la classe di tutte le classi che non sono membri di sé stesse. Allora, qualunque
sia la classe x, «x è un w» è equivalente a «x non è un x». Quindi, dando a x il valore w, «w è
un w» è quivalente a «w non è un w» (FL 48.11).
42
In termini più semplici: la classe di tutte le classi che non hanno sé stesse
come elemento, ha o no sé stessa come elemento? È chiaro che qualsiasi risposta porta ad una contraddizione. Ciò mostrava che l’«assioma di comprensione», che svolgeva un ruolo essenziale di collegamento tra logica e matematica,
non poteva in realtà essere accettato. Frege riconobbe che ciò significava il fallimento del suo programma di fondazione, e in generale di tutti quelli che facevano uso di una qualche teoria degli insiemi («Ad uno scrittore di scienza — scrisse — ben poco può giungere più sgradito del fatto che, dopo aver completato
un lavoro, venga scosso uno dei fondamenti della sua costruzione»). Ciò non toglieva però evidentemente nulla al valore della logica di Frege in sé, che è rimasta per il Novecento un punto di riferimento fondamentale.
La scoperta dell’antinomia di Russel non significava neanche che la teoria degli
insiemi fosse da abbandonare in quanto irrimediabilmente contraddittoria. Era possibile infatti aggiungere condizioni aggiuntive che evitassero l’antinomia. Una prima soluzione venne elaborata dallo stesso Russel con la cosiddetta «teoria dei tipi»: secondo essa l’espressione «appartenere a sé stessi» è scorretta, in quanto ogni classe
dev’essere di «tipo» differente dai suoi elementi. Tale correzione venne integrata nei
Principia Mathematica (1910-13), l’opera di Russel (in collaborazione con Alfred North
Whitehead) che, ispirata da vicino a Frege, più di ogni altra si avvicinò all’ideale di
un’esposizione globale dei fondamenti della matematica dal punto di vista logicista.
Altre soluzioni si diressero invece verso l’«indebolimento» dell’assioma di comprensione (in questa direzione andò la successiva più importante sistemazione della teoria
degli insiemi, effettuata da Ernst Zermelo nel 1908). In questo modo però le pretese
«fondamenta» della matematica parevano diventare meno semplici e intuitive della
matematica stessa, e dunque quasi vanificate nel loro ruolo. Ma il seguito degli sviluppi del problema dei fondamenti porterà alla luce difficoltà ancora più gravi, come si
vedrà.
43
4.3. David Hilbert (1862-1943)
4.3.1. L’assiomatica
David Hilbert rappresenta, assieme a Frege, l’altro maggiore protagonista
della rifondazione della matematica e della logica all’inizio del Novecento. La
prima fondamentale opera di Hilbert è costituita dai Fondamenti della geometria (1900). In essa egli intraprende il compito di riesporre la geometria euclidea
dandole perfetto rigore. Tale compito era urgente per almeno due fatti nuovi:
anzitutto l’elaborazione, avvenuta verso la fine dell’Ottocento, delle «geometrie
non euclidee», che pur non accettando il quinto postulato («Per un punto passa
una ed una sola parallela ad una retta data») risultavano cionondimeno
perfettamente coerenti; poi la nascita della logica matematica. Entrambe queste circostanze attiravano l’attenzione sulla necessità di precisare nel modo migliore gli assiomi di una certa costruzione logica. In particolare, Hilbert mise in
evidenza tre caratteristiche cui questi dovevano soddisfare. La prima e più importante è la coerenza o non contraddittorietà: dagli assiomi dev’essere impossibile dedurre due teoremi contraddittori. La seconda era la completezza: gli assiomi devono permettere di dimostrare tutte le proposizioni vere e respingere
tutte quelle false (in altre parole, non devono esistere proposizioni «indecidibili»). La terza era l’indipendenza: gli assiomi devono essere ciascuno indipendente da tutti gli altri, o altrimenti detto nessun assioma deve poter essere dimostrato tramite gli altri. Obbedendo a questi criteri, Hilbert introdusse venti assiomi (contro i cinque originari di Euclide), formulando anche quelle proprietà che
parrebbero «evidenti» (per esempio: «Di tre punti qualsiasi di una retta ce n’è
al massimo uno che giace fra gli altri due»). In realtà, per Hilbert l’«evidenza»
non deve giocare alcun ruolo nella definizione degli assiomi: essi vanno considerati il punto di partenza per una costruzione puramente formale, indipendentemente dal fatto che essa abbia poi un qualche rapporto con la «realtà». Il che significa anche che è privo di senso richiedere che gli assiomi siano «veri» in sen-
44
so realistico: la loro verità consiste nella capacità di individuare oggetti ideali, e
ciò è assicurato dalla coerenza.
Tali stesse idee vengono applicate da Hilbert anche alla matematica e al
problema della sua fondazione, venendo a definire quella posizione chiamata
«formalismo»:
Tutto ciò che costituisce la matematica nel senso comunemente accettato del termine viene formalizzato rigorosamente, cosicché la matematica propriamente detta, o matematica nel senso più ristretto, diventa un insieme di formule. [...]
Oltre alla matematica propriamente detta, formalizzata in questo modo, c’è, per così
dire, una nuova matematica, una meta-matematica, che serve a fondare la prima su basi sicure. [...] Nella meta-matematica si opera con le dimostrazioni della matematica propriamente detta, che costituiscono esse stesse l’oggetto delle inferenze che tengono conto dell’argomento su cui vertono. In questo modo, lo sviluppo della scienza complessiva della matematica viene ottenuto mediante un continuo scambio, che è di due tipi: da una parte, l’acquisizione di nuove formule derivabili dagli assiomi mediante l’inferenza formale, dall’altra
l’aggiunta di nuovi assiomi parallelamente alla dimostrazione della loro non-contraddittorietà [...].
Gli assiomi e le proposizioni derivabili, cioè le formule, che nascono in questo processo di scambio sono rappresentazioni dei pensieri che costituiscono i procedimenti usuali della matematica quali sono stati finora concepiti, ma non esono essi stessi verità in senso assoluto. Sono piuttosto le informazioni fornite dalla mia teoria della dimostrazione riguardo alla
derivabilità e alla non contraddittorietà che devono essere considerate verità assolute (FL
38.28).
Anche Hilbert, così come Frege, vede quindi uno stretto rapporto tra logica e matematica; esso viene individuato però nel fatto che entrambe deducono
o derivano, a partire da un insieme di assiomi, delle «formule», cioè sequenze
di simboli, indipendentemente dall’interpretazione che se ne possa dare. Spetta
poi ad una «meta-matematica» giustificare la coerenza del sistema.
45
4.3.2. Gli assiomi di Peano
L’approccio assiomatico al problema della fondazione si mostrò particolarmente promettente dopo la scoperta dell’antinomia di Russel, che aveva
mostrato i gravi pericoli di un approccio «intuitivo» alla fondazione della matematica. Fu allora che Hilbert sostenne la necessità di ricorrere ad un vero e proprio sistema di assiomi da cui dedurre tutte le proposizioni matematiche. In ciò
egli trovò un fondamentale lavoro preparatorio nel lavoro di Giuseppe Peano, il
quale aveva costruito un sistema di questo tipo. La definizione di numero (naturale) che viene presupposta è la seguente: «zero è un numero; se x è un numero, è un numero anche il successore di x». Si tratta di una definizione puramente formalistica, che indica quale successioni di simboli vadano considerate numeri senza proporre alcuna loro identificazione intuitiva. Gli assiomi di Peano
possono essere così formalizzati (indicando con «´» la funzione di «successore»):
1. [x (¬ x´ = 0)
2. [x[y (x´ = y´  x = y)
3. α(0) ‚ [x (α(x)  α(x´))  [x α(x)
4. [x[y (x + 0 = x ‚ x + y´ = (x + y)´)
5. [x[y (x × 0 = 0 ‚ x × y´ = (x × y) + x)
In termini discorsivi gli assiomi affermano: 1. non esiste alcun numero naturale il cui successore sia 0; 2. due numeri naturali il cui successore è eguale
sono uguali; 3. se 0 gode di una certa proprietà e si può dimostrare che se un
numero naturale gode di quella proprietà ne gode anche il successore, allora
tutti i numeri naturali godono di quella proprietà (questo è l’importantissimo
«principio di induzione matematica»); 4. la somma di x con y è eguale a x se y è
0, altrimenti è eguale al successore della somma di x e del predecessore di y; 5.
il prodotto di x per y è eguale a 0 se y è 0, altrimenti è eguale alla somma di x
con il prodotto di x per il predecessore di y. Benché paiano estremamente pove-
46
ri, tali assiomi consentono effettivamente di derivare tutti i teoremi dell’aritmetica, e dunque di assicurare un sostegno all’intera matematica.
Si notino negli assiomi di Peano le definizioni della somma e del prodotto; esse
possono sembrare scorrette, in quanto citano al loro interno proprio l’operazione che
definiscono. Ma in realtà la circolarità è evitata dal fatto che esse «convergono» verso
il caso più elementare (in cui un argomento è 0) il cui valore viene direttamente indicato. Si tratta quindi di definizioni «ricorsive», o anche «induttive» in quanto sfruttano
un principio analogo a quello del principio d’induzione. Proprio tale tipo di definizione
avrà un’importanza centrale, come si vedrà, nello sviluppo della teoria della computabilità. Peraltro, definizioni ricorsive di funzioni sono lecite in quasi tutti i moderni linguaggi di programmazione per calcolatori (per esempio Pascal, C, Lisp). Ecco come
come possono essere rappresentati i due assiomi di Peano in Pascal, sotto forma di
funzioni:
function sum (x, y: integer): integer;
begin
if y = 0 then sum := x
else sum := succ (sum (x, pred (y)))
end;
function prod (x, y: integer): integer;
begin
if y = 0 then prod := 0
else prod := sum (prod (x, pred (y)), x)
end;
Il sistema assiomatico della matematica sarà in conclusione costituito dalla logica dei predicati «arricchita» con gli assiomi di Peano. Ma — come visto —
per Hilbert è un compito fondamentale dimostrare (in ambito meta-matematico) la coerenza e la completezza di tale sistema di assiomi: solo in questo modo
sarà scongiurato il pericolo di incontrare in futuro un’antinomia simile a quella
che ha fatto franare il programma di Frege, e solo in questo modo agli assiomi
poteva essere riconosciuta una loro «verità». L’antinomia di Russel, inoltre,
avendo messo in questione anche la teoria degli insiemi di Cantor, esigeva secondo Hilbert che tale dimostrazione non facesse alcun ricorso ai numeri «transfiniti» che di lì provenivano; nella terminologia di Hilbert, la dimostrazione doveva essere effettuata con mezzi esclusivamente «finitisti». In un certo senso,
bisognava effettuare la dimostrazione restando all’interno dell’aritmetica. Questo costituisce il nocciolo del celebre «programma di Hilbert».
Si noti che la coerenza e la completezza sono facili da dimostrare quando è in
questione la sola logica proposizionale, meno facili ma comunque appurate quando è
in questione la logica dei predicati. Il programma di Hilbert si presentava dunque come estremamente ragionevole.
47
4.4. Kurt Gödel (1906-1978)
4.4.1. Gödelizzazione e diagonalizzazione
È verso il programma di Hilbert che si dirige il rivoluzionario lavoro di Kurt
Gödel, «Sulle proposizioni formalmente indecidibili dei Principia mathematica e
di sistemi affini, I» (1931). I teoremi dimostrati da Gödel si basano su due scoperte preliminari, estremamente importanti quanto al loro significato logico. La
prima scoperta è questa: ogni proposizione matematica può essere rappresentata da un numero, e quindi ogni affermazione meta-matematica su proposizioni può essere tradotta in un’affermazione matematica su numeri:
Le formule di un sistema formale [...] sono successioni materiali finite di simboli primitivi (variabili, costanti logiche e parentesi o segni di interpunzione), ed è facile specificare
esattamente quali successioni di simboli primitivi sono formule dotate di significato e quali
non lo sono. Analogamente, dal punto di vista formale le dimostrazioni sono soltanto successioni finite di formule (con proprietà definite che si possono enunciare). Dal punto di vista
della meta-matematica è naturalmente indifferente quali oggetti siano scelti come simboli
primitivi, e noi optiamo per l’uso di numeri naturali [Cioè, associamo a ogni simbolo primitivo un numero naturale in modo biunivoco]. Di conseguenza, una formula diventa una successione finita di numeri naturali e una dimostrazione diventa una successione finita di successioni finite di numeri naturali. I concetti (teoremi) meta-matematici diventano così concetti
(teoremi) sui numeri naturali o su loro successioni, e sono quindi esprimibili (almeno in parte) coi simboli dello stesso sistema dei Principia Mathematica [In altre parole, la procedura
descritta fornisce un modello isomorfo del sistema PM nel dominio dell’aritmetica e tutte le
considerazioni meta-matematiche possono essere trattate altrettanto bene in questo modello isomorfo] (Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme, I).
Ciò equivale a dire che la matematica, una volta che siano state stabilite
le opportune convenzioni, è in grado di «parlare di sé stessa». Ciò non vìola affatto la distinzione di principio tra linguaggio e meta-linguaggio, in quanto il procedimento individuato da Gödel crea all’interno del linguaggio oggetto un mo48
dello del metalinguaggio. In questo modo sarà per esempio possibile definire
una proprietà matematica con argomento numerico che indichi se il suo argomento è un numero che rappresenta o no una formula dotata di significato per
la matematica stessa. Il procedimento tramite cui le proposizioni vengono tradotte in numeri venne successivamente chiamata, in ricordo del suo ideatore,
«gödelizzazione», e i numeri associati vengono detti «gödeliani».
Non c’è bisogno di dare esempi concreti della gödelizzazione, un procedimento
che può essere condotto in innumerevoli modi differenti e che oltretutto è concettualmente analogo ai familiari procedimenti di codifica degli attuali calcolatori (si
pensi per esempio ai codici ASCII o Unicode). È opportuno piuttosto attirare l’attenzione su una caratteristica particolare della gödelizzazione: in essa gli elementi di un certo sottoinsieme dei simboli matematici (i numeri, e probabilmente — secondo la particolare codifica scelta — neanche tutti) vengono posti in relazione biunivoca con gli
elementi dell’intero insieme delle espressioni matematiche, compresi i numeri stessi.
Questa — come già visto — è la caratteristica propria degli insiemi infiniti.
La seconda scoperta è costituita dalla dimostrazione di quello che è chiamato «teorema di diagonalizzazione» (in quanto sfrutta un metodo simile al
procedimento diagonale di Cantor). Esso afferma che, per ogni proprietà definibile nel linguaggio, è possibile costruire una proposizione che afferma che il suo
proprio gödeliano gode di quella proprietà. Insomma, non soltanto la matematica è in grado di parlare di sé stessa in generale, ma esistono anche proposizioni
che parlano proprio di sé stesse.
Vediamo come ciò è possibile, con un procedimento lievemente differente da
quello originario di Gödel. È anzitutto necessario definire una funzione numerica sost.
Essa ha come argomenti tre numeri e come valore il gödeliano della proposizione ottenuta sostituendo, nella proposizione rappresentata dal primo argomento, la variabile rappresentata dal secondo numero con il terzo numero (indichiamo con {φ} il
gödeliano della formula φ). Ad esempio: sost ({x > y}, {x}, 15) = {15 > y}.
Ora, data una qualsiasi proprietà propr, consideriamo anzitutto la seguente formula α: propr (sost (x, {x}, x)). Poi sostituiamovi la variabile x con il gödeliano {α}. Otteniamo così la proposizione β: propr (sost ({α}, {x}, {α})). (Si osservi che {x} non è una
variabile, ma un numero, e quindi non va sostituito.) Ora, qual è il gödeliano {β}? Basta controllare la definizione della funzione sost per comprendere che esso è uguale a
sost ({α}, {x}, {α}). La proposizione β è stata infatti ottenuta proprio sostituendo in α le
occorrenze di x con {α}. Dunque, la proposizione β afferma propr ({β}).
4.4.2. I due teoremi di limitazione
Poste le due premesse, possiamo ora comprendere il meccanismo dei
due teoremi di Gödel. Anzitutto si può mostrare facilmente che è possibile defi49
nire una proprietà dim ({α}) che indica se α è dimostrabile. Ma se è definibile
dim lo è ovviamente anche ¬ dim, e per il teorema di diagonalizzazione sarà
possibile costruire una proposizione γ che afferma ¬ dim ({γ}) (detto in termini
semplici, una proposizione che afferma: «io sono indimostrabile»). Ecco dunque
il punto cruciale:
Dimostriamo ora che l’enunciato γ è indecidibile in PM. Infatti, supponendo che
l’enunciato γ sia dimostrabile, esso sarebbe anche vero, cioè, per quel che è stato detto [...]
varrebbe ¬ dim ({γ}), contro l’ipotesi. Se però, al contrario, la negazione di γ fosse dimostrabile, allora [...] si avrebbe dim ({γ}). Quindi, sia γ sia la sua negazione sarebbero dimostrabili, il
che è di nuovo impossibile. [...]
Dall’osservazione che γ afferma la propria indimostrabilità segue immediatamente
che γ è vera, perché γ è effettivamente indimostrabile (in quanto indecidibile). L’enunciato
che afferma che essa è indecidibile nel sistema PM è stato così deciso mediante considerazioni meta-matematiche (Über formal unentscheidbare Sätze der Principia Mathematica und
verwandter Systeme, I [simbologia modificata]).
In questo modo si è mostrato che esiste almeno una proposizione vera
che tuttavia è indimostrabile: dunque il sistema della matematica è incompleto
(tutto ciò, ovviamente, sotto l’ipotesi che la matematica sia non-contraddittoria). Con il suo primo teorema Gödel dimostrò così che la nozione di verità andava distinta da quella di dimostrabilità nel caso della matematica e di tutti i sistemi formali di una simile «ricchezza»:
Il metodo di dimostrazione ora esposto può essere applicato ad ogni sistema formale
che, in primo luogo, disponga, una volta interpretato, di mezzi espressivi sufficienti a definire
i concetti che compaiono nelle precedenti considerazioni (in particolare, quello di «formula
dimostrabile») e in cui, in secondo luogo, ogni formula dimostrabile, una volta interpretata,
sia vera.
Ciò significa anche che la matematica è essenzialmente incompleta: l’incompletezza non deriva infatti da una «povertà» dei suoi assiomi, ma al contrario dalla sua «ricchezza» espressiva: un sistema è necessariamente incompleto appena esso (come abbiamo visto nei due passi preliminari) diventa in grado
di parlare di sé stesso. Per questo motivo, Gödel stesso riconobbe che il suo teorema poteva essere considerato una versione raffinata dell’antica «antinomia
del mentitore».
Il secondo teorema di Gödel riguarda la coerenza della matematica. Il primo passo consiste nel definire una proposizione coer che afferma la coerenza
(ovvero non contraddittorietà) della matematica. Ora, il ragionamento che prima abbiamo condotto per dimostrare l’indimostrabilità di γ può essere «tradotto» all’interno della matematica con questa implicazione: coer  γ. Si era infatti
concluso che se la matematica è coerente allora γ è indimostrabile, e γ afferma
appunto la propria indimostrabilità. Ma la verità di questa implicazione ci as50
sicura che, se coer fosse dimostrabile, allora lo sarebbe anche γ. Ma ciò è contro
l’ipotesi dell’indimostrabilità di γ e, in ultima analisi, della coerenza della matematica. Bisogna quindi concludere che, se la matematica è coerente, allora la
sua coerenza è indimostrabile all’interno della matematica stessa. Il programma
di Hilbert si mostrava quindi definitivamente illusorio.
Bisogna fare attenzione all’ultima precisazione: all’interno della matematica
stessa. Nulla infatti vieta che tale coerenza venga dimostrata al suo esterno, cioè facendo uso di ipotesi aggiuntive che non fanno parte della matematica così com’è fino
a quel momento definita. Questo è in effetti proprio ciò che venne fatto nel 1936 da
Gerhardt Gentzen (1909-1945) usando ipotesi aggiuntive tratte dalla teoria degli insiemi di Zermelo e Fraenkel, e dunque non più con i soli metodi «finitisti» che auspicava
Hilbert. Si noti però che, in maniera analoga a quanto abbiamo detto riguardo al primo teorema, non si può credere di aggirare del tutto il problema aggiungendo ulteriori ipotesi agli assiomi della matematica: la stessa difficoltà si ripresenta infatti ad un livello più alto, perché è impossibile dimostrare la coerenza di questo insieme «arricchito» di assiomi senza ammetterne ancora altri, e così all’infinito. I teoremi di Gödel sono stati per questo spesso invocati per sostenere la superiorità del pensiero umano
sui procedimenti di calcolo formale. Questa interpretazione pare in realtà arbitraria. I
teoremi di Gödel pongono infatti un limite di natura oggettiva: essi cioè dimostrano
che — raggiunto un certo livello di ricchezza espressiva — è oggettivamente impossibile costruire un sistema deduttivo in grado di giustificare sé stesso, ovvero tale che in
esso non esistano funzioni non computabili; e ciò non per limiti connessi a colui (o a
ciò) che calcola, ma per la contraddizione che altrimenti ne nascerebbe. Purtroppo (o
fortunatamente) le domande sull’uomo non possono ricevere risposta da un teorema
logico, neppure se il suo risultato è negativo come nel caso di quelli di Gödel.
51
4.5. Alan M. Turing (1912-1954)
4.5.1. Computabilità e tesi di Church
La dimostrazione del teorema di incompletezza di Gödel, tutt’altro che
frenare la ricerca logico-matematica, le diede un nuovo impulso. Una volta infatti accertato che la nozione di verità andava distinta da quella di deducibilità
— o che in altre parole esistevano funzioni non calcolabili — si apriva il problema di definire in maniera esatta il campo delle funzioni calcolabili o computabili, il cui valore cioè per ogni argomento o n-upla di argomenti fosse univocamente determinabile con una sequenza di passi finita. Gli studi si concentrarono intorno ad un’idea di base già intuìta negli anni ’20: definire la computabilità sulla
base della ricorsività, cioè del criterio che già negli assiomi di Peano era stato
usato per definire le operazioni di somma e prodotto. In poche parole, si dichiaravano cioè computabili tutte (e sole) le funzioni che fossero definibili stabilendo una condizione di partenza e una condizione induttiva. Tale definizione attraversò differenti tappe. In un primo momento si giunse alla definizione della cosiddetta ricorsività primitiva; quando però nel 1928 il matematico Wilhelm Ackermann scoprì una funzione evidentemente calcolabile ma non ricorsiva primitiva, il concetto di ricorsività venne esteso, ad opera di diversi matematici tra i
quali Kurt Gödel e Alonzo Church, con la formulazione della cosiddetta ricorsività generale (formulata in tempi successivi in alcune varianti tra loro equivalenti, note come ε-ricorsività, λ-ricorsività, μ-ricorsività, σ-ricorsività).
I particolari delle definizioni di ricorsività sono notevolmente complessi; intuitivamente e in termini informatici moderni, le funzioni ricorsive primitive sono quelle
calcolabili da un programma per calcolatore che dispone solo di cicli finiti (del tipo
«for i := 1 to n do ...», con n predeterminato all’esterno del ciclo); le funzioni ricorsive
generali sono quelle calcolabili con l’ausilio di cicli indefiniti (del tipo «while ... do ...»,
con condizione di uscita determinata all’interno del ciclo). Questa caratterizzazione
della ricorsività generale si avvicina particolarmente alla nozione di μ-ricorsività, in cui
μ è appunto l’operatore che indica la ricerca indefinita di un valore minimo. Si noti che
52
un ciclo «indefinito» è cosa ben diversa da un ciclo «infinito»: affermare l’esigenza di
quest’ultimo equivarrebbe infatti a dichiarare una funzione non computabile.
Diversamente da quanto era avvenuto con la ricorsività primitiva, nei confronti della ricorsività generale non si riuscì malgrado gli sforzi a scoprire alcun
controesempio: nessuna funzione cioè che rispondesse ai criteri intuitivi di computabilità senza però poter essere definita in maniera ricorsiva generale. Nel
1936 Alonzo Church formulò quindi la congettura nota appunto come «tesi di
Church»: la classe delle funzioni intuitivamente computabili coincide con la classe delle funzioni ricorsive generali. È chiaro che tale congettura è per principio
non passibile di dimostrazione giacché uno dei suoi concetti, quello di «computabilità», rimane formulato ad un livello solo intuitivo.
4.5.2. Il modello di Turing e Post
Nello stesso anno avvenne però un ulteriore passo decisivo: Alan Turing
ed Emil Post, indipendentemente l’uno dall’altro ma in termini pressoché identici, effettuarono un approccio del tutto differente al problema della computabilità. Piuttosto che cercare modelli matematici, essi elaborarono un modello
meccanico che rispondesse al concetto intuitivo di procedimento di calcolo. Intuitivamente, colui che calcola (per esempio una comune somma) ha a sua disposizione della carta, in quantità indefinita; usa un certo alfabeto di simboli (le
dieci cifre e qualche segno aggiuntivo); può spostare il suo occhio in un punto
qualsiasi, leggere e scrivere i simboli; segue nelle sue operazioni un insieme univoco e finito di istruzioni (che dicono appunto «come si fa» a sommare due
numeri); termina l’operazione quando ha scritto sulla carta il risultato. Turing e
Post cercarono dunque di semplificare il più possibile queste condizioni, creando un modello puramente meccanico di calcolo, tramite il quale sarebbe stato
più semplice studiare il concetto di computabilità. Tale modello è da allora noto
per lo più come «macchina di Turing». Seguiamo però la più semplice descrizione di Post:
Lo spazio dei simboli deve essere costituito da una sequenza di celle infinita da ambo
le parti, ordinalmente simile alla serie degli interi ..., -3, -2, -1, 0, 1, 2, 3, ... . Il risolutore del
problema o esecutore deve muoversi e lavorare in questo spazio dei simboli, avendo la capacità di trovarsi ed operare in una sola cella per volta. Inoltre, a prescindere dalla presenza
dell’esecutore, una cella deve potersi trovare solo in una di due possibili condizioni, cioè essere vuota o non contrassegnata oppure avere un singolo contrassegno, per esempio un tratto verticale. Una cella deve essere individuata e chiamata punto di partenza.
Assumiamo, inoltre, che un problema specifico debba essere assegnato in forma simbolica mediante un numero finito di celle contrassegnate da un tratto. Similmente, la risposta deve essere fornita mediante un’opportuna configurazione di celle contrassegnate. Per
essere precisi, la risposta deve essere la configurazione di celle contrassegnate lasciata alla
conclusione del processo di soluzione.
53
Si assuma che l’esecutore sia in grado di effettuare le seguenti azioni primitive:
(a) contrassegnare la cella in cui si trova (supposta vuota),
(b) cancellare il contrassegno nella cella in cui si trova (supposta contrassegnata),
(c) spostarsi nella cella alla sua destra,
(d) spostarsi nella cella alla sua sinistra,
(e) determinare se la cella in cui trova è o no contrassegnata.
L’insieme di istruzioni che, va notato, è lo stesso per tutti i problemi specifici e perciò
corrisponde al problema generale, deve essere della seguente forma. Deve essere intestato:
Parti dal punto di partenza ed esegui l’istruzione 1. Deve quindi essere costituito da
un numero finito di istruzioni che debbono essere numerate 1, 2, 3, ..., n. L’i-esima istruzione
deve avere una delle seguenti forme:
(α) esegui l’operazione Oi [ = (a), (b), (c) o (d)] e passa all’istruzione j,
(β) esegui l’operazione (e) e, a seconda che la risposta sia sì o no passa all’istruzione j'
o j",
(γ) fèrmati.
Chiaramente occorre solo un’istruzione di tipo (γ). Notiamo anche che lo stato dello
spazio dei simboli influenza direttamente il processo solo tramite istruzioni di tipo (β) (Finite
combinatory processes. Formulation 1).
Si noti che in tale modello viene supposto un alfabeto composto di soli
due simboli (casella vuota o contrassegnata). È evidente infatti che qualsiasi altro insieme di simboli più ricco può sempre essere «tradotto» in questo alfabeto minimo; tutti i numeri naturali per esempio possono essere scritti in sistema
binario anziché decimale. Si osservi inoltre l’importante distinzione tra problema generale e problema specifico: problema generale è per esempio «sommare
due numeri», problema specifico è «sommare 5 e 7»: il problema generale è individuato da un certo insieme di istruzioni (il procedimento è uguale per tutte le
somme), il problema specifico è contraddistinto da un diverso stato di partenza
dello spazio dei simboli (come sarebbe un foglio di carta su cui fosse scritto «5 +
7 =»). Ma a quale scopo elaborare tale modello meccanico? La spiegazione di
Post è molto chiara:
Lo scrivente si aspetta che la presente formulazione si riveli equivalente alla ricorsività nel senso dello sviluppo di Gödel e Church. La sua intenzione, comunque, è non solo di
presentare un sistema di una certa potenza logica, ma anche, nel suo campo ristretto, di fedeltà psicologica. In quest’ultimo senso sono contemplate formulazioni sempre più estese.
54
D’altra parte, sarebbe nostra intenzione mostrare che tutte queste sono logicamente riconducibili alla formulazione 1.
Noi offriamo questa conclusione, al momento attuale, come un’ipotesi di lavoro. E
per noi questo è il significato dell’identificazione di Church tra la calcolabilità effettiva e la ricorsività. [...]
Il successo del precedente programma dovrebbe, per noi, cambiare questa ipotesi
non tanto in una definizione o in un assioma, quanto in una legge naturale. Solo così, sembra
a chi scrive, il teorema di Gödel sull’incompletezza della logica simbolica di un certo tipo generale e i risultati di Church sull’irresolubilità ricorsiva di certi problemi possono essere trasformati in conclusioni riguardanti tutta la logica simbolica e tutti i metodi di risolubilità (Finite combinatory processes. Formulation 1).
L’anno successivo lo stesso Turing dimostrò appunto ciò che anche Post si
aspettava: la computabilità nel senso del loro modello meccanico (detta anche
τ-ricorsività) equivale alle definizioni di ricorsività generale. Ciò in effetti non significa ancora aver dimostrato la tesi di Church, ma perlomeno averla resa altamente plausibile: per contestarla bisognerebbe infatti anzitutto immaginare
una «maniera» di calcolo effettivo che sia essenzialmente differente e più ampio di quello schematicamente rappresentato dalla macchina di Post-Turing: il
che — come osserva Post — è almeno «psicologicamente» difficile (e di fatto
non è a tutt’oggi né avvenuto né ritenuto probabile). D’altra parte, la dimostrazione dell’equivalenza tra τ-ricorsività e ricorsività generale ha qualcosa di sorprendente: essa infatti significa che qualsiasi problema risolubile (sotto l’ipotesi
di Church) è risolubile da una macchina tanto semplice, purché ovviamente
provvista di un insieme di istruzioni adeguato, che potrà essere anche estremamente complesso (anzi, in generale è intuitivo che la complessità delle istruzioni
cresce contemporaneamente alla semplicità di una macchina). Ciò si può esprimere anche dicendo che la macchina di Post-Turing è in grado di «simulare»
qualsiasi altra macchina calcolatrice in senso lato.
4.5.3. Informatica e pensiero artificiale
Con gli studi di Church, Turing e Post furono in effetti inconsapevolmente
gettate le basi dell’informatica (o computer science). Con le loro macchine infatti Post e Turing prepararono il modello al quale negli anni ’40 ci si ispirò per costruire i primi calcolatori numerici (o «digitali», dall’inglese digit, «cifra»). Non si
trattava delle prime macchine calcolatrici in assoluto: già in secoli precedenti
erano stati progettati strumenti di questo tipo, a volte anche notevolmente raffinati e complessi (da ricordare le calcolatrici di Pascal [1642], Leibniz [1673] e
soprattutto la «macchina analitica» di Charles Babbage [1822], quest’ultima così complessa che solo nel 1991 potè essere costruita in base ai progetti originali,
con una spesa di 300 000 sterline, e trovata perfettamente funzionante). Si trattava però sempre di calcolatori destinati a risolvere un’unica classe di problemi
55
(tipicamente, certe operazioni matematiche). Fu solo con il modello teorico di
Turing e Post che si comprese la possibilità di costruire un calcolatore «universale», estremamente semplice nella sua architettura ma versatile al punto da poter effettuare qualsiasi calcolo (o più genericamente qualsiasi elaborazione di
dati) il cui algoritmo sia stato correttamente individuato e codificato. L’essenziale infatti sta nel distinguere la macchina in sé dalle istruzioni che essa esegue
e dai dati sui quali opera.
È evidente che il modello di Post e Turing lascia la più ampia libertà nelle modalità di realizzazione fisica di una macchina calcolatrice: qualsiasi risultato che sia «isomorfo» al modello originario è infatti accettabile. In effetti, molto differenti sono le
tecnologie finora usate: il primo calcolatore (Mark I, terminato nel 1943) era di tipo
elettromeccanico; successivamente si passò a circuiti elettronici a valvole («prima generazione», 1946-54); quindi le valvole furono sostituite da transistor («seconda
generazione», 1955-64); i transistor furono quindi riuniti nei circuiti integrati («terza
generazione», 1965-74, «quarta generazione», 1975-1980, «quinta generazione», dal
1981). Tutte queste differenti realizzazioni hanno incrementato la velocità di calcolo,
l’ampiezza della memoria, la facilità di programmazione e dunque la capacità pratica
di calcolo: ma dal punto di vista teorico sono equivalenti all’originario modello di Post
e Turing.
In comune tra le diverse generazioni di calcolatori è inoltre la scelta del sistema
binario (suggerito già da Post), di per sé per nulla obbligata, ma che rende molto più
semplice non solo la costruzione delle macchine, ma anche il loro progetto: in questo
modo infatti i circuiti di base della macchina (a prescindere dalle particolarità dei circuiti sequenziali, ovvero contenenti elementi di memoria) sono isomorfi alle operazioni della logica proposizionale, che opera anch’essa su due soli valori (vero e falso). Nella moderna «elettronica digitale» (in cui cioè sono previsti due soli possibili segnali,
«alto» e «basso») il funzionamento dei componenti di base («porte logiche») è in effetti descritto da tavole di verità e portano gli stessi nomi (in inglese) delle funzioni logiche corrispondenti. Una porta AND è per esempio un circuito che ha un’uscita «alta» solo se entrambi i suoi ingressi sono «alti». Ecco le porte praticamente usate con i
loro simboli (i tratti a sinistra equivalgono agli argomenti della funzione, il tratto a destra al suo valore, in modo che lo schema di circuiti complessi ricorda un po’ la Begriffsschrift di Frege):
56
nome
simbolo
funzione logica corrispondente
NOT
negazione
AND
congiunzione
OR
disgiunzione
XOR
alternativa
NAND
negazione della congiunzione
NOR
negazione della disgiunzione
XNOR
negazione dell’alternativa
L’elaborazione dei modelli meccanici di Post e Turing apriva implicitamente un problema che lo stesso Turing affrontò in modo pionieristico nel 1950: le
macchine possono pensare? Le macchine di Turing-Post sono infatti in grado di
eseguire qualsiasi procedura di elaborazione di simboli che sia stata definita e
programmata. Ma non è proprio questo ciò che si intende con «pensiero»? Per
fornire una risposta di principio a questo interrogativo, Turing descrive una prova immaginaria effettuata tramite un gioco, che da allora è nota come «test di
Turing»:
Vi sono tre giocatori: un uomo, una donna e l’interrogante, che può essere dell’uno o
dell’altro sesso. L’interrogante sta in una stanza da solo, separato dagli altri due. Scopo del
gioco per l’interrogante è determinare quale delle due persone sia l’uomo e quale la donna.
Egli le conosce tramite le etichette X e Y, e alla fine del gioco dirà X è uomo e Y è donna, oppure X è donna e Y è uomo. [...] Scopo dell’uomo nel gioco è quello d’ingannare l’interrogante e far sì che fornisca l’identificazione errata. [...] Per evitare che il tono della voce possa aiutare l’interrogante, le risposte dovrebbero essere scritte, o meglio ancora battute a
macchina. [...] Scopo del gioco per la donna è aiutare l’interrogante. [...]
Chiediamoci ora: Che cosa accadrà se in questo gioco una macchina prenderà il posto
dell’uomo? L’interrogante sbaglierà altrettanto spesso in questo caso di quando il gioco è effettuato fra un uomo e una donna? Queste domande sostituiscono la nostra domanda originaria: Le macchine possono pensare? (Computing Machinery and Intelligence).
In breve, Turing propone di chiamare «pensante» una macchina che riesce ad ingannare sulla propria identità, facendo appunto credere di essere un
uomo, a prescindere dall’aspetto fisico. Ma è possibile comprendere tanto bene
il concetto di pensiero (per lo meno in alcune sue componenti) da poterlo «programmare»? e se sì non bisognerà forse dire che la relativa macchina simula soltanto il pensiero? Queste sono alcune obiezioni che da allora vengono sollevate
contro l’adeguatezza del test di Turing, e la loro discussione è lungi dall’essere
esaurita. Questi interrogativi hanno contribuito a ridare vitalità a temi che a volte parevano isteriliti: per esempio il problema del rapporto tra la mente e il corpo. Ma è chiaro che a loro volta tali questioni superano nettamente il campo
57
della logica, perché esigono che prima sappiamo chi siamo noi che ci poniamo
queste domande.
58
59
Scarica