Giovanni Salmeri Piccola storia della logica I. Dall’antichità a Leibniz Roma 1999 Presentazione ................................................................................................ 3 1. L’analitica di Aristotele .............................................................................. 5 1.1. Il tema dell’analitica ............................................................................... 5 1.2. I termini e la proposizione...................................................................... 7 1.3. Le categorie ............................................................................................ 8 1.4. La quantificazione .................................................................................. 9 1.5. Figure e modi del sillogismo................................................................. 10 1.6. La dimostrazione dei sillogismi ............................................................ 12 1.7. Il procedimento scientifico................................................................... 13 1.8. Il procedimento dialettico .................................................................... 16 2. La logica megarico-stoica......................................................................... 19 2.1. Il concetto di logica .............................................................................. 19 2.2. La logica proposizionale ....................................................................... 20 2.3. I discorsi conclusivi ............................................................................... 22 2.4. Gli indimostrabili .................................................................................. 23 2.5. L’antinomia del mentitore.................................................................... 23 3. L’arte combinatoria di Leibniz ................................................................. 25 3.1. La rifondazione della logica.................................................................. 25 3.2. La concezione della verità .................................................................... 26 4. La logica nel Novecento........................................................................... 30 4.1. Georg Cantor (1845-1918) ................................................................... 30 4.1.1. La teoria degli insiemi ............................................................ 30 4.1.2. La gerarchia dei transfiniti...................................................... 32 4.2. Gottlob Frege (1848-1925)................................................................... 34 4.2.1. La fondazione della matematica ............................................ 34 4.2.2. Funzione, senso, significato ................................................... 36 4.2.3. La logica proposizionale ......................................................... 38 4.2.4. La logica dei predicati............................................................. 41 4.3. David Hilbert (1862-1943).................................................................... 44 4.3.1. L’assiomatica.......................................................................... 44 4.3.2. Gli assiomi di Peano ............................................................... 46 4.4. Kurt Gödel (1906-1978)........................................................................ 48 4.4.1. Gödelizzazione e diagonalizzazione ....................................... 48 4.4.2. I due teoremi di limitazione ................................................... 49 4.5. Alan M. Turing (1912-1954) ................................................................. 52 4.5.1. Computabilità e tesi di Church............................................... 52 4.5.2. Il modello di Turing e Post...................................................... 53 4.5.3. Informatica e pensiero artificiale ........................................... 55 2 Presentazione Le pagine seguenti, che ho riscoperto in un angolo del mio disco rigido, sono un tentativo di presentare in maniera molto breve gli elementi fondamentali della storia della logica (e quindi dei suoi contenuti e problemi) con un linguaggio accessibile a studenti di scuola media superiore. Per spiegare il carattere di questo testo, credo che la cosa più semplice sia raccontarne la storia. Comincio da lontano: il mio itinerario scolastico credo che sia stato simile a quello dei miei coetanei. Nella scuola elementare lo studio dell’aritmetica era accompagnato da «note di insiemistica» che ruotavano attorno alle collezioni di giocattoli di Teo e Tea. Da quel che ricordo, tanto per il maestro quanto per noi scolari rimaneva misterioso quale fosse per comprendere meglio la matematica l’utilità di quei giochini, e presto li abbandonammo (non ricordo se prima o dopo di aver imparato che i giocattoli che Teo e Tea avevano in comune era un’«intersezione»). Nella scuola media studiai solo buona tradizionale algebra e geometria (forse perché programmi e libri erano differenti, forse perché il professore ne saltava saggiamente qualche capitolo). Ma negli scaffali di casa, complice la passione di mio padre, trovavo molti libri che presentavano questa materia in modo originale (per esempio la miniera dei cinque volumi di Enigmi e giochi matematici di Martin Gardner) e così mi convincevo che la matematica poteva essere divertente (e anche la logica, della quale avevo un’idea solo molto vaga). Nel ginnasio-liceo invece un poco di logica e di teoria degli insiemi le studiai seriamente, ricavandone un’impressione molto positiva: il modo di descrivere fatti matematici mi appariva più chiaro e preciso. In quel periodo (gli anni ’80) iniziava a diffondersi l’informatica personale: il primo computer che ebbi tra le mani fu il minuscolo Radio Shack TSR-80 PC-1 (http://oldcomputers.net/trs80pc1.html), con il quale iniziai i primi esperimenti di programmazione. E negli stessi anni mio fratello maneggiava l’elettronica digitale, e a casa entravano, come libri preziosi, i databook dei circuiti integrati: fu così che scoprii che ciò che io chiamavo «congiunzione», «disgiunzione» e «disgiunzione esclusiva» (o magari latineggiando «et», «vel» e «aut») lui lo chiavama AND, OR e XOR. Si cominciava a parlare anche dell’introduzione dell’informatica a scuola, e rimanevo scandalizzato quando sentivo discorsi che ruotavano sempre attorno a macchine da comprare: come se per studiare informatica ci fosse bisogno di un computer! (Su ciò non ho cambiato idea, peraltro.) Quando mi iscrissi al corso di laurea in filosofia, fuorviato da un foglio che lo indicava come «fondamentale», cominciai a frequentare il corso di Propedeutica filosofica. In realtà il professore spiegò subito che l’esame non era obbligatorio, e che lui avrebbe trattato solo di logica formale. Alla terza lezione rimanemmo in due. È uno dei corsi che ricordo con più piacere, faticoso ma estrema3 mente formativo: la soddisfazione di fare cose difficili! Per l’esame, oltre a tutto ciò che avevamo studiato di teoria (per verificare la quale noi due sopravvissuti dovemmo sostenere un esame scritto dimostrando una ventina di teoremi), il programma prevedeva i due volumi de La logica formale di Józef Maria Bocheński, in cui imparai a collegare ciò che avevo studiato con una storia della filosofia che conoscevo sì, ma della quale non avevo mai seriamente esaminato il versante logico. Subito dopo la laurea tornai al mio liceo per insegnare filosofia e mi portai dietro tutto questo: per esempio l’idea che anche per le scienze «esatte» la storia (con nomi e volti) fosse importante e potesse anche servire a collegare meglio le materie tra di loro; o la consapevolezza che filosofia, matematica, logica, informatica fossero cose diverse, ma con molti intrecci; o la convinzione che la chiarezza nel linguaggio e nel ragionamento è sempre una buona qualità. Non sempre soddisfatto del libro di testo iniziai a riscrivere alcuni capitoli di storia della filosofia: mi preoccupavo soprattutto di essere preciso, evitando il più possibile le affermazioni generiche e cercando invece di esporre le argomentazioni, senza le quali la filosofia non esiste. Fu così che mi venne l’idea di scrivere anche un capitolo di storia della filosofia sulla logica del Novecento. Il mio scopo era scegliere alcuni temi più importanti, semplificare il discorso in maniera che fosse accessibile ad uno studente liceale, contemporaneamente dando un’idea chiara dei concetti centrali e del procedimento effettivo del ragionamento logico. Ciò che segue è la bozza di quel progetto (composta negli anni ’90), preceduto dalle parti dedicate alla logica di Aristotele, degli stoici e di Leibiniz, estratte dai relativi capitoli più o meno completi che scrissi (e che poi pubblicai nel sito http://mondodomani.org/mneme/). Dico «bozza», perché il testo sicuramente avrebbe bisogno di essere riveduto e corretto. Inoltre, considerando l’insieme, sicuramente è sottostimata la logica medievale, qui ridotta solo a qualche complemento dell’analitica di Aristotele. Ma dopo poco lasciai l’insegnamento al liceo e cominciai a lavorare ad altre cose: una revisione non è dunque mai avvenuta, né sarei in grado di farla ora. Salvo piccole modifiche, ho preferito dunque lasciare il testo com’era. D’altra parte non so neppure se gli attuali programmi liceali prevedano quegli agganci che ai miei occhi rendevano sensato il progetto: per esempio ora l’informatica è nominata solo sotto forma di «strumento», e nelle indicazioni sulla filosofia contemporanea non si cita mai espressamente la logica. Chissà però se, anche così come sono, queste pagine possano servire a qualcosa o a qualcuno. 4 1. L’analitica di Aristotele 1.1. Il tema dell’analitica Secondo l’ordine tradizionale, si occupa di logica il primo gruppo di opere di Aristotele (384-323 a.C.): Sulle categorie, Sull’interpretazione, Analitici primi, Analitici secondi, Topici, Confutazioni sofistiche. Il nome «logica» è però assente in Aristotele, che usa invece il nome di «analitica». Queste opere furono raccolte da Andronìco di Rodi sotto il titolo di Ὄργανον, cioè «strumento». Così facendo egli suggeriva che l’analitica fosse una tecnica al servizio della filosofia, piuttosto che una sua parte. Che cosa ritenesse Aristotele stesso va desunto, più che da affermazioni esplicite, dall’origine di tali indagini, che probabilmente datano dai primi anni di presenza nell’Accademia di Platone. Qui l’ambiente molto aperto e libero favorì senza dubbio l’elaborazione di sue posizioni originali, che diedero occasione alla pubblicazione delle prime opere. Tra essi va classificato anche il Protrettico, opera (perduta) di esortazione alla filosofia scritta in polemica con Isocrate, che nella contemporanea Antidosi (353) si faceva sostenitore di una formazione culturale fondamentalmente letteraria. Aristotele vuole invece legare la retorica alla dialettica (l’arte platonica della discussione argomentata), e sul tema comincia anche a tenere corsi all’interno dell’Accademia. È verosimile che l’attività didattica sia accompagnata dalla stesura di trattati ad uso interno, che possono coincidere in buona parte con le opere giunteci. L’analitica di Aristotele nasce dunque dal desiderio di rendere più rigorosa la dialettica platonica fino a trasformarla in un metodo descrivibile e chiaramente differenziato dai procedimenti retorici (che vengono sì studiati da Aristotele, ma come rientranti nel campo della tecnica). L’impostazione che permette questo progresso viene manifestata con esemplare chiarezza già nei Topici, quello che probabilmente è il suo primo scritto sull’argomento: 5 Il fine che questo trattato si propone è di trovare un metodo con cui poter costruire, per ogni problema proposto, dei sillogismi. [...] Sillogismo è propriamente un discorso (λόγος) in cui, posti alcuni elementi, risulta per necessità, a causa degli elementi stabiliti, qualcosa di differente da essi. Si ha così anzitutto dimostrazione, quando il sillogismo è costituito e deriva da elementi veri e primi. [...] Dialettico è poi il sillogismo che conclude da elementi plausibili (ἔνδοξα). [...] Eristico è infine il sillogismo costituito da elementi che sembrano plausibili, pur non essendolo, e anche quello che all’apparenza deriva da elementi plausibili o presentatisi come tali (Top. I 100 a18-b25). Insomma, scopo ultimo della logica è individuare le leggi del ragionamento (συλλογισμοί). Una legge logica è quella che mi assicura che una certa connessione di proposizioni è sempre corretta, in virtù della sua semplice forma, a prescindere dalla verità delle proposizioni che la compongono (per questo oggi si usa parlare di «logica formale»). Per esempio, il ragionamento «se l’uomo è un anfibio, allora può vivere nell’acqua» è corretto, anche se la conclusione in sé è falsa, essendo falsa la premessa. Viceversa, il ragionamento che dalla stessa premessa concludesse che «l’uomo non può vivere nell’acqua», sarebbe scorretto, benché la conclusione sia vera. Il sillogismo corretto non assicura quindi che ci siano conclusioni vere, ma assicura che, quando siano poste premesse vere, anche la conclusione sia vera. Tale nuova impostazione puramente formale, sganciata dai contenuti di qualsivoglia scienza, spalanca in effetti ad Aristotele un campo di problemi molto grande, studiati con completezza e raffinatezza incomparabilmente superiori a quelle usate da Platone. Questo è il motivo per cui l’effettiva esecuzione del compito va molto oltre le originarie intenzioni, mentre viene in parte perso di vista l’intento di chiarire il procedimento effettivo delle scienze. Ciò è tanto vero che Aristotele stesso dovrà annotare che non si può imporre in ogni campo del sapere (per esempio nell’etica) quell’esattezza dimostrativa messa in opera nella teoria del sillogismo. È da notare che, anche se la definizione dell’analitica sembra richiamare alcuni aspetti della matematica (in particolare della geometria, della quale già all’epoca di Platone era chiara quella struttura deduttiva che più tardi Euclide formalizzerà), Aristotele non stabilisce nessun legame tra le due. Ciò si inquadra bene nella sua diffidenza nei confronti della matematica, che nell’Accademia platonica a lui contemporanea aveva preso un posto preponderante, a suo avviso abusivo e ingiustificato: la matematica per Aristotele è al massimo una delle scienze teoretiche, che esamina la realtà astraendo dalla sua materia e mantenendone solo gli aspetti quantitativi. L’analitica è invece lo studio preliminare di tutte le leggi del ragionamento, che si applicano a qualsiasi scienza. 6 1.2. I termini e la proposizione Anzitutto Aristotele si rende conto che la teoria del sillogismo non può essere costruita se non cominciando ad analizzarne le componenti. Bisogna allora dire che il sillogismo è composto di «proposizioni», e che queste sono costituite da «termini». È questa una distinzione che avrà una grande fortuna nella storia della logica e che si può dire mantenuta in buona parte fino ad oggi. Riguardo ai termini, Aristotele conduce analisi dettagliate sulla struttura del linguaggio e sulle parti del discorso, fermando la sua attenzione in particolare sul nome (ὄνομα) e sul verbo (ῥῆμα), inaugurando in questo modo anche l’analisi logica del linguaggio. Il carattere principale che egli riconosce ai termini è il loro carattere significativo ovvero simbolico: «I suoni della voce sono simboli delle affezioni che hanno luogo nell’anima, e le lettere scritte sono simboli dei suoni della voce» (De int. 16 a2). Tuttavia tale rapporto è solo convenzionale: non c’è nessun rapporto necessario tra il suono ['hippɔs] e il concetto del cavallo, tant’è vero che altre lingue adoperano suoni differenti. Importante è però notare che, malgrado il rapporto solo convenzionale, il linguaggio esprime tuttavia realmente il pensiero dell’uomo, e in quanto tale può essere il punto di partenza di un’analisi della forma e della struttura del ragionamento. Entra più decisamente nel campo della logica l’analisi della proposizione. Essa viene anzitutto definita così: La proposizione (πρότασις) è un discorso che afferma o che nega qualcosa rispetto a qualcosa. [...] Chiamo d’altra parte termine (ὅρος) l’elemento cui si riduce la proposizione, ossia ciò che è predicato e ciò di cui è predicato [cioè il soggetto], con l’aggiunta di essere o di non essere [cioè della copula] (Anal. pr. I 24 a16-b16). Come nei termini ciò che conta è il loro significato, così nelle proposizioni è la loro verità o falsità. Anzitutto per Aristotele è evidente che il vero e il falso non si trovano nelle cose, ma soltanto nel pensiero dell’uomo: non è questa mela vera o falsa, ma solo ciò che io penso di essa. Inoltre: Come nell’anima talvolta sussiste una nozione che prescinde dal vero e dal falso, e talvolta sussiste invece qualcosa cui spetta necessariamente o di essere vero o di essere falso, così avviene pure per quanto si trova nel suono della voce. In effetti, il falso e il vero consistono nella congiunzione e nella separazione. In sé, i nomi e verbi assomigliano dunque alle nozioni, quando queste non siano congiunte a nulla né separate da nulla. [...] Dichiarativi sono, però, non tutti i discorsi, ma quelli in cui sussiste un’enunciazione vera oppure falsa. Tale enunciazione non sussiste certo in tutti: la preghiera, ad esempio, è un discorso, ma non risulta né vera né falsa (De int. 16 a9 - 17 a7). Ma che cosa significa che una proposizione è vera? 7 Se è vero dire che una cosa è bianca (oppure che non è bianca), essa sarà necessariamente bianca (oppure non sarà bianca), e d’altra parte, se una cosa è bianca (oppure non è bianca), era vero affermare oppure negare la cosa (De int. 18 a40-b1). Malgrado l’apparente banalità, questa definizione della verità come corrispondenza tra la proposizione e la realtà eserciterà — condivisa o contestata — un’influenza decisiva sulla storia della filosofia. 1.3. Le categorie Un’attenzione particolare è dedicata da Aristotele al verbo «essere» che realizza la connessione grazie alla quale la proposizione può essere vera o falsa. Come si è visto, per Aristotele ogni proposizione può infatti assumere fondamentalmente solo le due forme «x è y» oppure «x non è y». Ciò è in effetti vero almeno per la lingua greca, in cui anche i predicati verbali possono essere sempre riespressi sotto forma di copula e participio (osserva Aristotele: «Infatti non c’è nessuna differenza tra “l’uomo è vivente” e “l’uomo vive”, né tra “l’uomo è camminante” o “tagliante” e “l’uomo cammina” o “taglia”, e ugualmente anche per gli altri casi», Metaph., V.7 1017 a 27-30). Questa era la scoperta che già aveva fatto Parmenide. Ciò che però viene continuamente contestato a Parmenide è la pretesa che «ente» abbia un unico significato. Bisogna invece dire che «l’ente si dice in molti significati diversi» (τὸ ὄν πολλαχῶς λέγεται, Metaph. IV 1003 a33 e altrove). Quando si considera, come stiamo appunto facendo, il verbo «essere» usato nelle proposizioni, bisogna dire che esso non ha un significato autonomo e unico, ma assume tutti i possibili significati dei termini che connette. Tali significati vengono classificati in alcuni gruppi principali (otto o dieci secondo i testi), chiamati «generi delle predicazioni» o in breve «predicazioni» (κατηγορίαι). Ecco il testo più schematico al riguardo: Delle cose dette secondo nessun collegamento [= termini] ciascuna significa o esistenza o di una quantità o di una qualità o in relazione a qualcosa o in un luogo o in un tempo o giacere o avere o fare o subire. Ed è esistenza (per fare un caso) ad esempio «uomo», «cavallo»; di una quantità per esempio «di due cùbiti», «di tre cùbiti»; di una qualità per esempio «bianco», «grammatico»; in relazione a qualcosa per esempio «doppio», «maggiore»; in un luogo ad esempio «nel liceo», «in piazza»; in un tempo ad esempio «ieri», «un anno fa»; giacere per esempio «è disteso», «siede»; avere per esempio «è calzato», «è armato»; fare per esempio «tagliare», «bruciare»; subire per esempio «venir tagliato», «venir bruciato» (Categorie, 1.4 1 b 25 — 2 a 4). La distinzione più netta è tra la prima categoria e tutte le altre. La prima (in greco ousía, in italiano tradizionalmente reso con sostanza) indica infatti il soggetto primo, ciò che «esistendo» permette l’attribuzione di altri predicati: una considerazione questa che svolgerà un ruolo centrale nella Metafisica. 8 All’interno dell’analitica, la teoria delle predicazioni adempie invece ad una funzione solo preliminare: mostrare come la riduzione di tutte le proposizioni alla forma soggetto-predicato nominale non pregiudica le possibilità espressive ed è perciò perfettamente accettabile. Se le categorie abbiano un valore anche ontologico, se indichino cioè non solo i generi dei predicati ma anche i generi della realtà stessa, è un problema che è stato molto dibattuto. In linea generale si può notare che l’analisi linguistica è per Aristotele un punto di partenza costante, ma in numerose occasioni egli mette in guardia da una meccanica trasposizione dal piano del linguaggio a quello della realtà. Ecco uno dei passi più significativi: Dato che non è possibile discutere presentando gli oggetti come tali, e che ci serviamo invece dei nomi come di simboli che sostituiscono gli oggetti, noi riteniamo allora che i risultati osservabili a proposito dei nomi si verifichino anche nel campo degli oggetti, come avviene a coloro che fanno calcoli usando dei ciottoli. Eppure le cose non stanno allo stesso modo nei due casi: in effetti, il numero dei nomi è limitato, mentre gli oggetti sono numericamente infiniti (Confutazioni sofistiche I, 1652 a510). 1.4. La quantificazione La classificazione delle proposizioni più importante per l’analitica riguarda invece quella che modernamente è chiamata «quantificazione dei predicati»: La proposizione è dunque un discorso che afferma o nega qualcosa rispetto a qualcosa. Tale discorso, poi, è universale o particolare. [...] Con discorso universale intendo quello che esprime l’appartenenza ad ogni cosa o a nessuna cosa; con discorso particolare, intendo quello che esprime l’appartenenza a qualche cosa o la non appartenenza a qualche cosa (Anal. pr. I 24 a16-20). «Qualche» va inteso nel senso del moderno quantificatore esistenziale, cioè «almeno uno», assumendo che la classe individuata dal termine non sia vuota. Si osservi che Aristotele non cita qui le proposizioni singolari, in cui cioè il soggetto indica un solo oggetto, né le considera mai esplicitamente nella trattazione dell’analitica. Tale esclusione non conduce però a nessuna grave deficienza teorica, giacché, come è facile mostrare, nella teoria del sillogismo esse risulterebbero formalmente equivalenti a proposizioni universali. In conclusione, si hanno solo i seguenti quattro modelli di proposizioni (rappresentate dai logici medioevali con le lettere indicate a sinistra, che sono le prime vocali di affirmo e nego): a: ogni x è y i: qualche x è y e: nessun x è y 9 o: qualche x non è y Tra i quattro modelli di proposizioni Aristotele individua dei rapporti che nel Medioevo vennero rappresentati nel «quadrato logico»: Le proposizioni contrarie non possono essere contemporaneamente vere; quelle subcontrarie non possono essere contemporaneamente false; delle contraddittorie la verità dell'una equivale alla falsità dell’altra; le subalterne (i, o) sono sempre vere quando la subalternante (a, e) è vera. 1.5. Figure e modi del sillogismo Dopo averne esaminato gli elementi costitutivi, si può infine considerare il sillogismo in sé. Quale ne sarà la forma generale? Bisogna anzitutto dire che il sillogismo deve avere due premesse e una conclusione: da una sola premessa non si potrebbero trarre infatti conclusioni corrette. In generale, dunque, esso assumerà la forma: «se p e q, allora r», dove le tre lettere p, q, r stanno per tre diverse proposizioni. Che cosa si può dire dei termini delle proposizioni? Condizione necessaria perché sia possibile trarre una conclusione corretta è che le due premesse abbiano in comune un termine (detto «medio»), che serva per così dire da «ponte» per poter connettere gli altri due (detti «estremi»). In sostanza, sono possibili quattro «figure» del sillogismo, differenti solo per l’ordine dei termini (quello medio è indicato con y, gli estremi con x e z): 1. se ... y ... z e ... x ... y, allora ... x ... z 2. se ... z ... y e ... x ... y, allora ... x ... z 3. se ... y ... z e ... y ... x, allora ... x ... z 4. se ... z ... y e ... y ... x, allora ... x ... z Ora, secondo ciascuna di queste quattro figure possono essere costruiti sillogismi connettendo i termini secondo uno dei quattro tipi di proposizione prima considerati: affermativa universale, affermativa particolare, negativa universale, negativa particolare. Un elementare calcolo combinatorio mostra che in questo modo è possibile costruire 256 differenti sillogismi (4 figure × 4 prime premesse × 4 seconde premesse × 4 conclusioni). Ma quali di questi sillogismi sono validi? quali cioè rappresentano ragionamenti corretti? Questo è il proble10 ma fondamentale dell’analitica. Per riassumere la risposta di Aristotele, useremo la simbologia elaborata nel Medioevo soprattutto da Pietro Ispano (1219 ca.-1277) e ancor oggi celebre. In essa ogni sillogismo è indicato da una parola mnemonica, in cui le tre vocali indicano nell’ordine la quantità delle premesse e della conclusione. Ecco dunque la tavola completa dei sillogismi (o «modi») validi: 1ª figura barbara darii celarent ferio [barbari] [celaront] 2ª figura cesare camestres baroco festino [cesaro] [camestrop] 3ª figura darapti datisi disamis felapton ferison bocardo 4ª figura [bamalip] [camenes] [fesapo] [fresison] [dimaris] [camelop] Tra parentesi quadre sono indicati i sillogismi che Aristotele analizza con minore dettaglio degli altri. I sillogismi validi sono comunque, dei 256 possibili, solo ventiquattro. Un esempio per ciascuna delle quattro figure: 1. barbara 2. camestres 3. felapton 4. fresison se ogni y è z e ogni x è y, allora ogni x è z se ogni z è y e nessun x è y, allora nessun x è z se nessun y è z e ogni y è x, allora qualche x non è z se nessuno z è y e qualche y è x, allora qualche x non è z A questo punto, ovviamente, è possibile sostituire alle lettere qualsiasi nome universale: il ragionamento sarà sempre corretto, e, se le premesse saranno vere, si otterrà una conclusione vera (ovvero un «sillogismo dimostrativo»). Ecco il celeberrimo esempio di un sillogismo barbara: «se ogni uomo è mortale e ogni ateniese è uomo, allora ogni ateniese è mortale» (spesso quest’esempio viene citato usando come termine «Socrate» anziché «ateniese»: si tratta di un anacronismo di quasi due millenni, giacché i termini singolari saranno introdotti nella sillogistica solo da Guglielmo di Occam [1280-1349]). È opportuno notare che, a parte l’enunciazione un po’ differente da quella qui usata, anche Aristotele discute i sillogismi in una forma estremamente concisa ed esatta, che diventerà tipica per tutti gli scritti di logica della storia. Ecco per esempio come enuncia il sillogismo barbara: «Se A si predica di ogni B, e se B si predica di ogni Γ, è necessario che A venga predicato di ogni Γ» (Anal. pr. I 25 b32-35). Ciò che va soprattutto notato è l’uso delle variabili per indicare i termini. È superfluo dire che si tratta di una delle scoperte più feconde di tutti i tempi, che ha reso possibile lo sviluppo tanto della logica quanto della matematica: solo tramite esse si possono infatti formulare in maniera semplice leggi universali, proprio quelle di cui Aristotele andava alla ricerca nella sua analitica. 11 In una parte successiva della sua opera Aristotele compie un’importante estensione della sillogistica, cui accenniamo soltanto. Si tratta della «sillogistica modale», in cui, oltre alle semplici affermazioni considerate finora («assertorie») vengono considerate anche quelle che contengono le espressioni «dev’essere» e «può essere». Ai sillogismi prima considerati, in cui entrambe le premesse sono assertorie, se ne aggiungono quindi altre otto classi, secondo le varie combinazioni dei tre tipi di proposizioni. Dei possibili sillogismi risultanti, Aristotele ne studia esplicitamente non meno di 137, in pagine che sono tra le più complesse della sua opera e che saranno molto spesso incomprese o fraintese. 1.6. La dimostrazione dei sillogismi Aristotele non si limita ad individuare quali siano le forme corrette di sillogismo: egli si preoccupa anche di darne una dimostrazione. Riguardo ad essa, egli è cosciente che essa deve necessariamente fermarsi a premesse indimostrabili, che possano essere accettate per la loro evidenza: È ignoranza non sapere di quali cose si debba ricercare una dimostrazione e di quali, invece, non si debba cercare. Infatti, in generale, è impossibile che ci sia dimostrazione di tutto: in tal caso si procederebbe all’infinito, e in questo modo, di conseguenza, non ci sarebbe affatto dimostrazione (Metaph. IV 1006 a5-9). Nel caso dei sillogismi, gli sembra che quelli della prima figura possano svolgere tale compito. Essi costituiscono quindi, nella terminologia odierna, gli «assiomi» del sistema sillogistico. Agli assiomi bisogna tuttavia aggiungere delle regole di derivazione. Aristotele individua come sufficienti le seguenti leggi di sostituzione: s: nessun x è y = nessun y è x s: qualche x è y = qualche y è x p: ogni x è y = qualche y è x m: se p e q allora r = se q e p allora r c: se p e q allora r = se non-r e q allora non-p In tutti e cinque i casi, l’espressione a sinistra deve essere sostituita con quella a destra. Le prime tre leggi sono regole di «conversione» delle premesse, la quarta (non esplicitamente enunciata da Aristotele) stabilisce la possibilità d’invertire le premesse del sillogismo, l’ultima rappresenta la riduzione all’assurdo. Le lettere indicate a fianco sono anche qui i simboli medioevali, che si ritrovano nei nomi dei sillogismi della seconda, terza e quarta figura: quando s o p seguono una vocale, significa dunque che la proposizione corrispondente va convertita, quando compare una m le premesse vanno invertite, quando compare all’interno una c che bisogna effettuare la riduzione all’assurdo, eventualmente invertendo prima le premesse. (Tutte le altre consonanti sono sem12 plicemente riempitive.) In questo modo si giungerà alla forma della prima figura che inizia con la stessa consonante. Per esempio, per dimostrare disamis bisogna: convertire la prima premessa (disamis); convertire la conclusione (disamis); invertire le premesse (disamis); così si ottiene un sillogismo darii (disamis). Basteranno i successivi sviluppi della logica megarico-stoica per mettere in luce come nell’analitica di Aristotele sia contenuto solo un piccolo sottoinsieme di leggi logiche (in termini moderni, l’intera sillogistica è solo una porzione del calcolo dei predicati monadici del primo ordine). Ciò nonostante, i meriti di Aristotele sono enormi: con lui non soltanto viene fondata — partendo quasi dal nulla — la logica formale, della quale vengono riconosciuti e delimitati chiaramente i compiti, ma viene anche costruito in maniera pressoché impeccabile un sistema in sé completo, che costituirà per secoli la base di innumerevoli speculazioni (talvolta acute, talaltra di nessun valore). Questo risultato è tanto più degno di ammirazione quanto più si veda il naufragio che la logica dovrà subire lungo diversi secoli, soprattutto a partire dal Rinascimento: affinché in epoca moderna gli scritti di Aristotele possano essere di nuovo correttamente interpretati e discussi, bisognerà aspettare l’opera del polacco Jan Łukasiewicz (1878-1956). 1.7. Il procedimento scientifico Negli Analitici secondi Aristotele considera il problema dell’applicazione dei procedimenti logici alla ricerca scientifica (ἐπιστήμη). Qui non interessa più solo la validità formale del sillogismo, ma anche la verità delle conclusioni che esso raggiunge. Ciò spiega la grande attenzione che viene dedicata al problema dei princìpi della dimostrazione. Come già si è visto su un altro piano, anche nelle scienze è impossibile un regresso all’infinito, e vanno quindi individuati dei fondamenti indimostrabili: È necessario che la scienza dimostrativa si costituisca sulla base di premesse vere, prime, immediate, più note della conclusione, anteriori ad essa, e che siano cause di essa: a questo modo, infatti, pure i princìpi risulteranno propri dell’oggetto provato. In realtà, un sillogismo potrà sussistere anche senza tali premesse, ma una dimostrazione non potrebbe sussistere, poiché allora non produrrebbe scienza (An. post. I.2 71 b20-25). Le premesse prime di cui si serve la scienza hanno un legame molto stretto con la teoria metafisica della definizione. Detto in breve, i princìpi devono esprimere ciò che in ciascun àmbito della realtà è più generale e causa di ciò che è particolare: ma questi sono proprio i caratteri che a diverso livello vengono espressi nella definizione di ciascuna cosa. Ciò è coerente con la ripetuta affermazione (di palese origine platonica) che la scienza si occupa solo dell’universale e necessario e non del singolare e accidentale: 13 Dell’accidente non c’è scienza. Ogni scienza, infatti, riguarda ciò che è sempre o [almeno] per lo più: come sarebbe possibile, altrimenti, imparare o insegnare ad altri? Infatti ciò che è oggetto di scienza deve potersi determinare come esistente sempre o per lo più: come, per esempio, che l’acqua e miele ai febbricitanti per lo più giova. Altrimenti nemmeno sarà possibile enumerare i casi in cui ciò non avviene: per esempio nel novilunio, perché anche questo accade o sempre o per lo più, mentre l’accidente non fa così (Metaph. VI 1027 a19-26). Lo spirito di quest’affermazione è giunto in una buona misura fino alla scienza moderna, che si preoccupa appunto di formulare leggi universalmente valide. In Aristotele però questo punto di vista è sostenuto in una forma esclusiva: come conseguenza per esempio la storia, trattando di episodi singolari, non può essere una scienza, e viene in ciò paradossalmente superata dalla poesia che tende a considerare situazioni ideali e dunque potenzialmente universali. La pratica della scienza quindi non coincide con la semplice deduzione da premesse già date, ma piuttosto consiste in gran parte in altre due operazioni: la connessione dei princìpi per giungere ad una spiegazione soddisfacente dei fenomeni, e la scoperta dei princìpi stessi. Riguardo alla prima, nella terminologia dell’analitica ciò significa scoprire del termine «medio», cioè quello che giustifica la connessione dei due estremi che è già data nell’esperienza: La prontezza deduttiva è una certa abilità di cogliere istantaneamente il medio. Tale abilità si presenta, ad esempio, nel caso in cui, vedendo che la parte illuminata della luna sta sempre rivolta verso il sole, qualcuno coglie d’un tratto il perché della cosa, ossia comprende che ciò si verifica poiché la luna riceve la sua luce dal sole; o nel caso in cui, quando si vede una persona che parla con un ricco, si comprende che ciò avviene poiché questa persona si fa prestare del denaro; o anche, nel caso in cui si coglie il perché due persone siano amiche, comprendendo che ciò deriva dalla loro inimicizia per un medesimo individuo. In tutto questi casi, infatti, nel vedere gli estremi qualcuno cogli tutti i medi, cioè le cause (An. post. I.34 89 b10-16). In termini più espliciti, il primo esempio porta al seguente sillogismo: «Se la luna è un corpo che riceve la luce dal sole e tutti i corpi che ricevono la luce dal sole hanno la parte illuminata verso il sole, allora la luna ha la parte illuminata verso il sole» (si noti che in questo sillogismo un termine, «la luna», è singolare, contrariamente a quanto viene teorizzato nell’analitica da Aristotele stesso). Da questa formulazione è chiaro che in assenza del termine medio non verrebbe detto il perché di un dato fenomeno, ciò che invece costituisce un elemento essenziale della scienza. La correttezza del termine medio è mostrata dunque da nient’altro che la maggiore o minore capacità di spiegare i fenomeni in maniera semplice e completa. Riguardo alla scoperta dei princìpi stessi, Aristotele assegna un ruolo fondamentale all’esperienza. Questa è la celebre discussione in proposito che termina gli Analitici secondi: 14 Ci si può domandare se [...] le facoltà dei princìpi si sviluppino senza sussistere in noi sin dall’inizio, oppure se esse siano innate, senza che ce ne avvediamo. In verità, se le possedessimo sin dall’inizio, si andrebbe incontro a conseguenze assurde, poiché si dovrebbe concludere che, pur possedendo conoscenze superiori alla dimostrazione, noi non ci accorgiamo di ciò. D’altra parte, se noi acquistiamo queste facoltà, senza averle possedute in precedenza, come potremmo render noto un qualcosa e come potremmo imparare, quando non si parta da una conoscenza preesistente? Tutto ciò è infatti impossibile, come dicevamo già a proposito della dimostrazione. È dunque evidente che non è possibile possedere tali facoltà sin dall’inizio, e che non è neppur possibile che esse si sviluppino in coloro che sono del tutto ignoranti e non posseggono alcuna facoltà. Di conseguenza, è necessario che noi siamo in possesso di una qualche capacità, non però di una capacità tale da essere più pregevole delle suddette facoltà, quanto ad acutezza. Pare d’altronde che questa capacità appartenga effettivamente a tutti gli animali. In effetti, tutti gli animali hanno un’innata capacità discriminante, che viene chiamata sensazione. [...] Dalla sensazione si sviluppa dunque ciò che chiamiamo ricordo, e dal ricordo spesso rinnovato di un medesimo oggetto si sviluppa poi l’esperienza. [...] In seguito, sulla base dell’esperienza, ossia dell’intero oggetto universale che si è acquietato nell’anima, dell’unità al di là della molteplicità, il quale è contenuto come uno e identico in tutti gli oggetti molteplici, si presenta il principio della tecnica e della scienza. [...] Le suddette facoltà non ci sono dunque immanenti nella loro determinatezza, né provengono in noi da altre facoltà più produttive di conoscenza, ma vengono suscitate piuttosto dalla sensazione. [...] È dunque evidentemente necessario che noi giungiamo a conoscere gli elementi primi con l’induzione. In effetti, già la sensazione produce a questo modo l’universale. Ora, tra i possessi che riguardano il pensiero e con i quali cogliamo la verità, alcuni risultano sempre veraci, altri invece possono accogliere l’errore; tra questi ultimi sono, ad esempio, l’opinione e il ragionamento, mentre i possessi sempre veri sono la scienza e l’intelligenza, e non sussiste alcun altro genere di conoscenza superiore alla scienza, all’infuori dell’intelligenza. Ciò posto, e dato che i princìpi risultano più evidenti delle dimostrazioni, e che, d’altro canto, ogni scienza si presenta congiunta alla ragione discorsiva, in tal caso i princìpi non saranno oggetto di scienza; e poiché non può sussistere nulla di più verace della scienza, se non l’intelligenza, sarà invece l’intelligenza ad avere come oggetto i princìpi (An. post. II.19 99 b22 — 100 b12). I due termini «induzione» (ἐπαγωγή) e «intelligenza» (νοῦς) non vanno quindi contrapposti: il primo indica il procedimento tramite cui grazie all’esperienza viene individuato il carattere essenziale di qualcosa, che costituisce principio della scienza; il secondo la capacità individuale di compiere effettivamente tale procedimento, che quando è corretto (cosa peraltro sulla quale è facile ingannarsi) assicura una conoscenza più fondamentale di quella «scientifica», la quale è derivata per dimostrazione. L’appello all’esperienza mette in luce quell’irriducibile pluralismo che per Aristotele sussiste nella costruzione della scienza. Sia per quanto riguarda i princìpi, sia per quanto riguarda le dimostrazioni, le diverse scienze si distinguono le une dalle altre: 15 Risulta evidente che, se viene a mancare qualche senso, necessariamente viene pure a mancare qualche scienza, che sarà impossibile acquisire, dal momento che noi impariamo o per induzione o mediante dimostrazione. Orbene, la dimostrazione parte da proposizioni universali, mentre l’induzione si fonda su proposizioni particolari; non è tuttavia possibile cogliere le proposizioni universali se non attraverso l’induzione, poiché anche le nozioni ottenute per astrazione saranno rese note mediante l’induzione, quando cioè si provi che alcune determinazioni appartengono ad un singolo genere in quanto tale, sebbene non risultino separabili dagli oggetti della sensazione (An. post. I.18 81 a38-b5). Non è possibile condurre la dimostrazione passando da un genere all’altro: per esempio, non si può dimostrare una proposizione geometrica mediante l’aritmetica. Tre sono infatti gli elementi costitutivi delle dimostrazioni: in primo luogo ciò che si dimostra, ossia la conclusione (la quale esprime l’appartenenza di una determinazione per sé ad un qualche genere); in secondo luogo gli assiomi (gli assiomi sono le proposizioni da dove prende le mosse la dimostrazione); in terzo luogo, il genere sottoposto, le cui affezioni e determinazioni per sé sono rivelate dalla dimostrazione (An. post. I.7 75 a38-b2). Qualsiasi giudizio sulla teoria aristotelica della scienza deve necessariamente prescindere dalle vicende storiche dell’aristotelismo, e in particolare dal fatto che la scienza moderna si è affermata proprio in polemica verso di esso. È infatti evidente che molte delle polemiche sollevate lungo la storia nei confronti di Aristotele riguardano in realtà una ripetizione dei risultati da lui raggiunti e non le esigenze di metodo che egli avanzava. In linea generale va poi osservato che le riflessioni di Aristotele tutto suggeriscono fuorché la presunzione di raggiungere facilmente un’assoluta certezza, priva di possibilità di correzione: «Determinare se la conoscenza sussista o no è difficile. È infatti arduo precisare se la nostra conoscenza parta o no dai princìpi propri di qualsiasi oggetto, il che costituisce appunto il sapere» (An. post. I.9 76 a26-28). 1.8. Il procedimento dialettico Accanto al procedimento scientifico, Aristotele conserva anche uno spazio per la «dialettica», che continua ad avere in lui il senso platonico di «tecnica della discussione». Per questo — come abbiamo visto — il ragionamento dialettico è presentato come quello che «conclude da elementi plausibili (ἔνδοξα)», i quali a loro volta sono definiti come quelli «che paiono a tutti o alla maggior parte o ai sapienti» (Top. I 100 b21). Non si intende con ciò dire che la dialettica è confinata nel campo della probabilità, ma piuttosto che essa prende le mosse dalle opinioni sostenuti dall’interlocutore (reale o immaginario), per vagliarle e giudicare se esse siano vere o false. Proprio perché non ha bisogno di punti di partenza veri e necessari, la dialettica risulta utile sia per affrontare i problemi che superano l’ambito di una singola scienza, sia per accertare (in concorrenza con il metodo induttivo) i princìpi di una determinata scienza discutendo le opinioni fino a quel momento espresse. Ciò non toglie che lo spazio della dialettica pare in Aristotele restringersi man mano che viene sviluppata la tecnica del sillogismo, e la sua opera dedicata al tema (i Topici) è senza dubbio giovanile. 16 Come già in Zenone, il metodo dialettico è essenzialmente quello della confutazione (in termini moderni dimostrazione per assurdo): quando da un’opinione si deduce una contraddizione, risulta dimostrata la tesi contraria. Perché tale metodo possa essere applicato, sono necessari due princìpi: i cosiddetti princìpi di non contraddizione e del terzo escluso. Essi vengono discussi non nell’Órganon, ma in una sezione presumibilmente giovanile della Metafisica, con la giustificazione che essi riguardano «ciò che è in quanto è», oggetto proprio della metafisica. Eccone la formulazione: Lo stesso [attributo] non può contemporaneamente dirsi e non dirsi dello stesso [soggetto] e nello stesso tempo (Metaph. IV 1005 b19-20). Non è possibile che tra due proposizioni contraddittorie ci sia una via di mezzo, ma è necessario o affermarne o negarne una sola, qualunque essa sia (Metaph. IV 1011 b23-24). Il primo di essi viene qualificato da Aristotele «il più forte di tutti i princìpi» e il punto di partenza per qualsiasi dimostrazione (cioè più esattamente: confutazione). Proprio per questo, ne è impossibile — come sappiamo — una dimostrazione vera e propria. È possibile però una sorta di dimostrazione indiretta, realizzata confutando l’avversario che lo neghi: Il punto di partenza consiste nell’esigere che l’avversario [...] dica qualcosa che abbia un significato per sé e per gli altri; e questo è pur necessario, se egli intende dire qualcosa. Se non facesse questo, costui non potrebbe in alcun modo discorrere, né con sé stesso né con altri; se l’avversario concede questo, allora sarà possibile una dimostrazione. [...] Se relativamente ad un medesimo soggetto fossero vere, ad un tempo, tutte le affermazioni contraddittorie, è evidente che tutte quante le cose si ridurrebbero ad una sola. Infatti, saranno la medesima cosa e una nave e una parete e un uomo, se di tutte le cose un determinato predicato si può tanto affermare tanto negare. [...] Infatti, se a qualcuno sembra che un uomo non sia una nave, è evidente che non è una nave; tuttavia sarà anche una nave, dal momento che il contraddittorio è vero. Allora tutte le cose saranno confuse insieme (Metaph. IV 1006 a18 1007 b26). In sostanza: soltanto per il fatto di discutere, usando quindi parole cui attribuisce un significato determinato, l’avversario fa uso del principio di non-contraddizione e quindi ne ammette implicitamente la validità. Questa discussione è molto importante soprattutto dal punto di vista della semantica (cioè della teoria del significato). Tuttavia Aristotele può affermare che il principio è necessario e che ad esso si riducono tutte le altre leggi logiche solo perché sta pensando alle dimostrazioni per assurdo; nella sillogistica invece egli ne fa un uso molto limitato, e mostra che è possibile costruire sillogismi validi che tuttavia lo vìolano. Benché Aristotele più tardi notò la cosa e precisò le sue affermazioni («nessuna dimostrazione assume espressamente l’assioma secondo cui non è possibile affermare e al tempo stesso negare qualcosa di un oggetto», Anal. post. I 77 a10-12), il passo della Metafisica trarrà spesso in ingan17 no: ancora Kant (1724-1804) chiamerà il principio di non contraddizione «il sommo principio di tutti i giudizi analitici» (KrV A 150/B 189). In modo simile stanno le cose con il principio del terzo escluso, che afferma che non c’è una terza possibilità tra il vero e il falso (tertium non datur), e che dunque la negazione della negazione è eguale all’affermazione. Anch’esso non è necessario in senso assoluto: lo stesso Aristotele si rese conto di ciò, e limitò la portata di questo principio nel caso delle proposizioni «future contingenti» (per esempio «domani ci sarà una battaglia navale»), che non sono né vere né false: Dal momento che i discorsi sono veri analogamente a come lo sono gli oggetti, è chiaro che a proposito di tutti gli oggetti, costituiti così da accadere indifferentemente in due modi secondo delle possibilità contrarie, anche la contraddizione si comporterà necessariamente in maniera simile. È appunto ciò che avviene riguardo agli oggetti che non sono sempre, oppure a quelli che non sempre non sono. In tali casi è infatti necessario che una delle due parti della contraddizione sia vera e l’altra falsa, ma non è tuttavia necessario che una determinata parte sia vera oppure falsa; sussiste piuttosto un’indifferenza tra le due possibilità, e quand’anche uno dei due casi risulti più vero, la verità e la falsità non saranno tuttavia già decise sin da principio (De int. 9 19a33-39). Applicare il principio del terzo escluso in questi casi equivarrebbe insomma ad ammettere che tutte le cose avvengono per necessità: «In tal modo, non occorrerebbe più che noi prendessimo delle decisioni, né che ci sforzassimo laboriosamente» (De int. 9 18b30-31). Il fatto che tali due princìpi sono indispensabili solo nell’ambito dialettico non toglie nulla alla loro enorme importanza storica e teorica. Ancora oggi sono utilizzati come criterio per distinguere i possibili generi di logica proposizionale. Così, le logiche che assumono tanto il principio di non contraddizione quanto quello del terzo escluso vengono chiamate «classiche», quelle che assumono solo il primo «intuizionistiche», quelle che non assumono né il primo né il secondo «minimalistiche». 18 2. La logica megarico-stoica 2.1. Il concetto di logica Dopo l’analitica di Aristotele, la filosofia greca può vantare un secondo grande contributo alla costituzione della logica. Si tratta delle teorie che, sviluppate originariamente dai Megarici e dai «Dialettici» (particolarmente Eubulide di Mileto, Diodoro Crono e Filone di Megara) furono poi riprese e ordinate dagli Stoici, in particolare da Crisippo (277-204 a.C). La conoscenza di questo contributo è purtroppo molto frammentario: nessuna opera originale ci è rimasta. Ciò è un segno chiaro del minore interesse con cui questa forma di logica venne studiata lungo i secoli, fino a venire quasi del tutto dimenticata (salvo poi essere «reinventata» nell’Ottocento). I contributi della scuola megarico-stoica sono di due tipi: il primo comprende approfondimenti o chiarimenti di idee già presenti in Aristotele ma in forma ancora implicita o imprecisa; il secondo vere e proprie novità che compiono una netta estensione rispetto all’analitica aristotelica. Sicuramente più preciso rispetto ad Aristotele è il concetto stesso di «logica» (questa denominazione venne messa in uso proprio dagli Stoici). Essa viene considerata senza alcun dubbio una parte della filosofia piuttosto che un suo strumento: [Gli Stoici] rappresentano la filosofia come un animale, paragonando la parte logica alle ossa e ai nervi, l’etica ai muscoli, la fisica all’anima. O anche come un uovo: la logica è il guscio, dopo viene l’etica, la parte più interna è la fisica. O anche come un campo fertile, del quale la siepe di recinzione è la logica, il frutto è l’etica, il terreno o gli alberi la fisica. O infine ad una città ben costruita e amministrata secondo ragione (SVF II, 38). Con molta chiarezza viene anche introdotta una distinzione che ad Aristotele era in parte ignota: 19 Gli Stoici dicono che questi tre elementi sono connessi fra di loro: il significato (σημαινόμενον), il significante (σημαῖνον) e l’evento (τυγχάνον). Il significante è il suono stesso, ad esempio «Dione»; il significato è l’entità manifestata e che apprendiamo in quanto coesiste con il nostro pensiero, e che gli stranieri non capiscono, sebbene odano il suono; l’evento è ciò che esiste all’esterno, ad esempio Dione stesso. Di questi, due sono corporei, e cioè il suono e l’evento, e una è incorporea, e cioè l’entità significata, il senso (λεκτόν), che [solo] è vero o falso (SVF II, 166 = FL 19.04). L’oggetto proprio della logica è costituito per gli Stoici solo dai sensi (λεκτά). La distinzione stabilita tra «eventi» e «sensi» corrisponde sostanzialmente a quella moderna tra «estensione» e «intensione» (chiarita soprattutto da Gottlob Frege [1848-1925]). Per mostrarne la differenza, prendiamo come esempio la proposizione «Gli uomini sono mortali». Da un punto di vista estensionale, essa viene interpretata così: «L’insieme degli uomini è incluso nell’insieme dei mortali». Da un punto di vista intensionale viene invece spiegata così: «Il concetto di uomo comprende il concetto di mortale». Gli Stoici, ritenendo che la proposizione in sé non abbia alcun corrispondente «reale» (al contrario dei suoi termini), ma sia solo un λεκτόν, scelsero senza incertezze per la loro logica un’interpretazione intensionale. (Oggi si ritiene che entrambe le alternative siano lecite, e che in particolare quella che intensionalmente è una logica dei predicati diventi estensionalmente una logica delle classi.) 2.2. La logica proposizionale Dove la logica stoica supera nettamente l’analitica aristotelica, creando praticamente un campo nuovo, è nello studio della proposizione (chiamata ἀξίωμα). Una prima distinzione fondamentale è tra proposizioni semplici e complesse. Semplice è la proposizione che contiene solo un predicato (per esempio «è giorno»), complessa è quella costituita dal collegamento di più proposizioni tramite connettivi logici (per esempio «è giorno e piove»). Ovviamente, i connettivi possono unire proposizioni a loro volta complesse. Si osservi che la negazione di una proposizione semplice (per esempio «non è giorno»), che oggi viene classificata tra le proposizioni complesse, era invece considerata semplice dagli Stoici. Ora, la loro intuizione fondamentale è che i connettivi logici (non, e, o, se ... allora, ecc.) vanno considerati operatori, simili, per esempio, ai comuni operatori aritmetici (+, –, ×, /). Mentre però questi ultimi operano su valori numerici, i connettivi logici operano sui valori di verità che le proposizioni possiedono in quanto λεκτά. Il caso più semplice è quello della negazione logica: quando essa è applicata ad una proposizione vera genera una proposizione falsa, e viceversa. Riguardo ai connettivi che collegano due proposizioni bisognerà considerare quattro casi: due proposizioni entrambe vere, due entrambe false, la prima vera e la seconda falsa, e viceversa. Definire una connessione logica equivale così a 20 scrivere la sua «tavola di verità», cioè precisare quale sia il valore di verità della proposizione complessa in corrispondenza dei quattro casi ora detti. Per esempio, una proposizione congiuntiva («è giorno e piove») sarà complessivamente vera solo quando entrambe le proposizioni congiunte sono vere. In questo modo gli Stoici vennero definite diverse connessioni. Eccone le più importanti, delle quali diamo a sinistra il nome e a destra, sulla stessa riga, la tavola di verità: proposizione 1 proposizione 2 congiuntiva (... e ...) disgiuntiva inclusiva (... o ...) alternativa (o solo ... o solo ...) condizionale (se ... allora ...) condizionale doppia (solo se ... allora ...) vera vera vera vera falsa vera vera vera falsa falsa vera vera falsa falsa falsa vera falsa vera vera vera falsa falsa falsa falsa falsa falsa vera vera Un paio di osservazioni importanti. La prima riguarda le due differenti disgiunzioni, che né in greco né in italiano sono chiaramente distinte nel linguaggio naturale. Quella esclusiva (o «alternativa») esclude, appunto, la verità di entrambe le proposizioni disgiunte (per esempio: «partirò lunedì o martedì», ma non i due giorni contemporaneamente); quella inclusiva invece no (per esempio: «se c’è pioggia o neve bisogna guidare con prudenza», e anche se ci sono le due cose contemporaneamente). La distinzione tra le due è facile in latino, dove l’esclusiva s’indica con aut e l’inclusiva con vel. Come si vedrà, gli Stoici, contrariamente all’uso moderno, usavano per lo più la disgiunzione esclusiva. Una seconda osservazione riguarda la proposizione condizionale (o implicazione). La tavola definisce la cosiddetta «implicazione materiale» o «filoniana», dal nome del logico megarico Filone. Essa risulta falsa solo nel caso che ad un antecedente vero segua un conseguente falso, e ciò indipendentemente dal senso delle proposizioni connesse. Per esempio, tutte e tre queste proposizioni risultano vere: «se 2 è pari, allora è un numero primo», «se la luna è verde, allora il cielo è azzurro», «se Aristotele è cinese, allora Platone è turco». Tale uso è molto più ampio di quello del linguaggio naturale, in cui invece una proposizione condizionale viene considerata vera solo quando in più c’è un nesso reale tra le due proposizioni (come per esempio nei sillogismi aristotelici). Questa è detta «implicazione formale», e di essa due varianti furono definite da Diodoro Crono e da Crisippo. Il problema era molto dibattuto, al punto che un bibliotecario di Alessandria del II sec. riferisce: «Anche i corvi gracchiano sui tetti su quali implicazioni siano corrette» (FL 20.06). La discussione continuerà nel Medioevo, quando Paolo Veneto (1368-1429) elencherà ben dieci significati differenti dell’implicazione, e arriverà fino ai giorni nostri. Con la definizione dei connettivi logici viene così iniziata quella che oggi è chiamata logica proposizionale e che in età moderna venne rifondata da diversi logici, tra i quali spicca Gottlob Frege. In essa, al contrario della logica dei predicati (di cui la sillogistica aristotelica costituisce una parte), non viene considerata la struttura interna delle proposizioni, ma solo il loro valore di verità. Tramite 21 le tavole è possibile «calcolare» una proposizione comunque complessa, ovviamente una volta che sia noto il valore di verità delle proposizioni semplici. 2.3. I discorsi conclusivi Questa chiara nozione permise di formulare una distinzione che ad Aristotele era sfuggita: quella tra discorsi conclusivi e proposizioni vere (in linguaggio moderno: tra deduzioni corrette e leggi logiche): Un discorso (λόγος) è un sistema costituito da premesse e da una conclusione. Le premesse sono le proposizioni accettate per la dimostrazione della conclusione, la conclusione è la proposizione dimostrata a partire dalle premesse. Prendiamo ad esempio il seguente discorso: Se è giorno allora c’è luce; ma è giorno; dunque c’è luce. In esso c’è luce è la conclusione, le altre proposizioni sono le premesse (FL 21.01 = Pyrrh. Hyp. B 135). Alcuni discorsi sono conclusivi, altri non conclusivi. Sono conclusivi quando la proposizione condizionale che inizia con la congiunzione delle premesse del discorso e finisce con la conclusione è vera. Ad esempio, il discorso citato è conclusivo, perché è vera la connessione della congiunzione delle sue premesse con c’è luce, in questa proposizione condizionale: se è giorno e se è giorno allora c’è luce, allora c’è luce. Non conclusivi sono i discorsi non costruiti in questo modo (FL 21.02 = Pyrrh. Hyp. B 137). Più esplicitamente, un discorso conclusivo corrisponde ad una proposizione condizionale sempre vera, qualunque sia il valore di verità delle proposizioni semplici che la compongono. In generale, oggi viene chiamata legge logica una proposizione complessa (anche non condizionale) che è vera indipendentemente dai valori di verità delle proposizioni semplici. Per esempio, «p o non p» è una legge logica. Più chiara che in Aristotele è anche la distinzione tra discorsi conclusivi e conclusioni vere: Fra i discorsi conclusivi alcuni sono veri [nella conclusione], altri falsi. Sono veri quando, oltre alla proposizione condizionale costituita dalla congiunzione delle premesse e dalla conclusione, anche la congiunzione delle premesse, cioè l’antecedente della proposizione condizionale, è vera (FL 21.07 = Pyrrh. Hyp. B 138). 22 2.4. Gli indimostrabili Come Aristotele aveva costruito la sua sillogistica a partire dai modi della prima figura, ritenuti evidenti, così anche gli Stoici stabilirono cinque discorsi «indimostrabili». Li enumeriamo, indicando con p e q due generiche proposizioni, mentre tra parentesi riportiamo i nomi che saranno assegnati nel Medioevo e che sono ancor oggi talvolta usati: 1. Se p allora q; ma p; dunque q (modus ponendo ponens). 2. Se p allora q; ma non q; dunque non p (modus tollendo tollens). 3. Non (p e q); ma p; dunque non q (modus ponendo tollens). 4. O solo p o solo q; ma p; dunque non q (modus ponendo tollens). 5. O solo p o solo q; ma non p; dunque q (modus tollendo ponens). (cfr. SVF II, 241) Le idee sul ruolo di questi princìpi erano molto chiare: Gli indimostrabili sono quelli di cui gli Stoici dicono che non hanno bisogno di dimostrazione per essere sostenuti. [...] Essi ne immaginano molti, ma ne pongono particolarmente cinque, da cui pare che si possano dedurre tutti gli altri (FL 22.03 = Pyrrh. Hyp. B 156). Non sapendo quali regole venissero ammesse per dedurre nuovi «discorsi» (a causa della frammentarietà delle fonti), non possiamo giudicare se venne effettivamente costruita una logica proposizionale completa, in cui cioè tutte le proposizioni vere siano dimostrabili. Pare certo però che venne almeno chiaramente intuìto il concetto di completezza di un sistema logico. Esso svolgerà un ruolo fondamentale nella logica contemporanea, quando Kurt Gödel (19061978) riuscirà sorprendentemente a dimostrare che nessun sistema logico che raggiunga una certa potenza espressiva può essere completo. Ci si potrebbe domandare quale sia l’utilità di stabilire indimostrabili e regole di deduzione se — come già detto — l’uso delle tavole è sufficiente per accertare la verità o falsità di qualsiasi proposizione. In realtà, le tavole di verità diventano inutilizzabili appena si esce dal dominio della logica proposizionale e si entra in quello della logica dei termini. Per esempio, i sillogismi di Aristotele non potrebbero essere dimostrati così. Ciò significa che a partire da un certo livello di complessità non esiste più nessun modo puramente meccanico per dimostrare teoremi. 2.5. L’antinomia del mentitore Un ulteriore campo dove la logica megarico-stoica diede importanti contributi è nello studio delle cosiddette «antinomie logiche». La più importante è quella nota come «antinomia del mentitore», formulata per la prima volta dal megarico Eubulide: 23 Il cretese che afferma che i cretesi mentono sempre, mente o dice la verità? Lo spunto per questo paradosso sembra essere stato offerto da un esametro del sapiente cretese Epimenide (VI sec. a.C.), testimoniato nel Nuovo Testamento: «I Cretesi sono sempre mentitori, cattive bestie, pigri ghiottoni» (Κρῆτες ἀεὶ ψευσταί, κακὰ θηρία, γαστέρες ἀργαί [Tit. 1,12]). È evidente che si giunge in ogni caso ad una contraddizione: se il Cretese dicesse la verità, ciò significherebbe che sta mentendo; se stesse mentendo, ciò significherebbe che dice la verità. Crisippo scrisse sull’argomento ventotto libri, ma qualcuno fece di peggio; ecco la lapide di Filita di Cos (340 ca.-285 a.C.): «Viandante, io sono Filita; l’argomento chiamato “il mentitore” e le profonde meditazioni notturne mi condussero alla morte» (FL 23.08). Sfortunatamente non conosciamo bene le soluzioni elaborate. Pare che Crisippo sostenesse che l’antinomia del mentitore non è neanche una proposizione, essendo impossibile stabilire se è vera o falsa. Questo problema accompagnerà comunque l’intera storia della logica. Paolo Veneto nel Medioevo discuterà ben quindici soluzioni differenti dell’antinomia, che è rimasta al centro dell’attenzione fino ai tempi moderni. 24 3. L’arte combinatoria di Leibniz 3.1. La rifondazione della logica Benché le ricerche di Leibniz (1646-1716) nel campo della logica siano in sé molto importanti, la loro importanza storica è purtroppo molto limitata: egli infatti non pubblicò praticamente nulla di ciò che scoprì, e si dovette attendere la fine dell’Ottocento perché ciò che per lui era già cosa nota venisse gradualmente riscoperto. Lo studio della logica è visto da Leibniz in gran parte come alternativa al Discorso sul metodo di Descartes, giudicato troppo vago nei suoi criteri della «chiarezza e distinzione»: Vedo che gli uomini del nostro tempo abusano molto di quel famoso principio continuamente ripetuto: qualsiasi cosa percepisco chiaramente e distintamente di qualcosa, è vero, ovvero può essere enunciato di essa. Spesso infatti agli uomini che giudicano frettolosamente sembrano chiare e distinte cosa oscure e confuse. Dunque l’assioma è inutile se non vengono usati dei criteri del chiaro e del distinto [...] e se non consta la verità delle idee. Del resto non sono da disprezzare quei criteri di verità degli enunciati che sono le regole della logica comune, che anche i geometri usano, che cioè nulla va ammesso come certo se non è provato da un’accurata esperienza o da una solida dimostrazione; e solida dimostrazione è quella che rispetta la forma prescritta dalla logica, non come se fossero necessari i sillogismi ordinati al modo scolastico [...] , ma almeno in modo che l’argomentazione sia conclusiva in virtù della forma (come esempio di un’argomentazione nella forma debita potresti dire anche un qualsiasi calcolo legittimo); così né bisogna omettere qualche premessa necessaria, e tutte le premesse o devono essere già da prima dimostrate, o almeno vanno assunte a mo’ d’ipotesi, nel qual caso anche la conclusione è ipotetica. Coloro che osserveranno attentamente queste norme facilmente si proteggeranno da idee ingannevoli (Meditationes de cognitione, veritate et ideis). Leibniz non intende però semplicemente riprendere la logica antica e medioevale, ma concepisce l’idea di una sua radicale rifondazione, che viene da lui 25 posta sotto il nome di «arte combinatoria» e che eserciterà una certa influenza anche sui posteri. In tale denominazione è implicito un netto progresso rispetto alle idee precedenti in materia: Chiamo arte combinatoria quella scienza (che si può dire anche in generale caratteristica, o speciosa), in cui si tratta di tutte le forme o formule delle cose, cioè della qualità in genere, o del simile e dissimile, a, b, c, ecc. (che possono rappresentare quantità o altro), in quanto dalla loro combinazione nascono via via altre formule; essa si distingue dall’algebra che concerne le formule applicate alla quantità, ovvero l’eguale e l’ineguale. L’algebra, pertanto, si subordina alla combinatoria, e si serve continuamente delle sue regole, che peraltro sono di gran lunga più generali, e valgono non solo per l’algebra soltanto, ma anche per l’arte decifratoria, per vari generi di giochi, per la stessa geometria trattata linearmente al modo degli antichi, insomma, dovunque entri in gioco la similitudine (SAU, fine). Leibniz concepisce insomma l’«arte combinatoria» come una scienza puramente formale, che offre una base universale per tutte le altre. Il modello di tale scienza è offerto dalla matematica: in essa infatti il linguaggio naturale, di sua natura soggetto ad ambiguità e fraintendimenti, è abbandonato in favore di un linguaggio artificiale, che permette di effettuare la deduzione come un semplice «calcolo» di natura meccanica, cioè tramite la combinazione degli elementi del linguaggio; la stessa cosa deve avvenire nella logica, che dunque assume l’aspetto di una sorta di matematica generalizzata (e che perciò viene chiamata da Leibniz anche «mathesis universalis»). Anche il nome «caratteristica» allude allo stesso fatto: la logica deve operare su simboli («caratteri») indipendentemente dal loro significato. Quest’idea, benché in parte ispirata dalla lettura di Hobbes e di Lullo, è in realtà di gran lunga più profonda; tra l’altro, essa rispecchia esattamente la concezione di logica che si affermerà nel Novecento, e che per questi motivi viene spesso chiamata «logica matematica». 3.2. La concezione della verità Esiste una nozione logica che assume un’importanza fondamentale per l’intera filosofia di Leibniz. Si tratta del concetto di verità, evidentemente legato alla comprensione della logica come «arte combinatoria» e dunque puramente formale. Ecco uno dei numerosi testi in cui Leibniz si pronuncia con chiarezza al riguardo: È palese che ogni predicazione vera ha qualche fondamento nella natura delle cose, e quando una proposizione non è identica, vale a dire quando il predicato non è compreso espressamente nel soggetto, bisogna che vi sia compreso virtualmente, e questo è ciò che i filosofi chiamano in-esse, dicendo che il predicato è nel soggetto. Così bisogna che il termine del soggetto racchiuda sempre quello del predicato, di modo che colui che intendesse perfettamente la nozione del soggetto, giudicherebbe anche che il predicato gli appartiene. [...] Dio, vedendo la nozione individuale o ecceità di Alessandro [Magno], vi vede in pari tempo il 26 fondamento e la ragione di tutti i predicati che si possono dire di lui con verità, come per esempio che egli vincerà Dario e Poro, fino a conoscere a priori (e non per esperienza) se è morto di una morte naturale o avvelenato, il che noi possiamo sapere solo grazie alla storia (DM 8). In sintesi: la ragione della verità di una proposizione va trovata sempre e solo all’interno della proposizione stessa, e cioè nell’inclusione del predicato nel soggetto; questa inclusione può essere o evidente («il triangolo equilatero è un triangolo») o soltanto virtuale, nel qual caso è necessaria un’analisi completa del soggetto per mostrarvi la presenza del predicato, benché quest’analisi alla mente limitata dell’uomo possa risultare di fatto impossibile. Tutte le proposizioni vere hanno dunque di per sé la loro dimostrazione a priori, cioè indipendentemente dall’esperienza, anche se la maggior parte vengono conosciute dall’uomo solo a posteriori, e cioè dall’esperienza: che il 1º gennaio del 2000 a Roma faccia un certo tempo di per sé ha la sua dimostrazione a priori, in séguito cioè ad un’analisi del concetto di atmosfera terrestre; ma di fatto noi lo verremo a sapere solo quando giungerà quel giorno, dunque per esperienza. Tale concezione di verità non identifica però la realtà con la necessità, come avviene in Spinoza? Leibniz rifiuta esplicitamente questa conseguenza: Sembra che in questo modo sarà distrutta la differenza tra le verità contingenti e necessarie, che la libertà umana non avrà più alcun luogo, e che una fatalità assoluta regnerà su tutte le nostre azioni così come su tutti gli altri avvenimenti del mondo. [...] Io dico che la connessione o conseguenza è di due tipi: una è assolutamente necessaria, e il suo contrario implica contraddizione, e questa deduzione ha luogo nelle verità eterne, come sono quelle della geometria; l’altra è necessaria solo ex hypothesi, e per così dire per accidente, ma essa è contingente in sé, quando il contrario non implica affatto contraddizione. E questa connessione è fondata non sulle idee del tutto pure e sul semplice intelletto di Dio, ma ancora sui suoi liberi decreti e sulla connessione dell’universo (DM 13). Si tratta di un punto di estrema importanza nella filosofia di Leibniz, che dunque va ben chiarito. Le due proposizioni «il triangolo ha gli angoli interni eguali a due retti» e «Alessandro Magno vince Dario» hanno entrambe il motivo della loro verità in sé stesse, cioè i predicati sono presenti nei rispettivi soggetti. La loro differenza è chiara però quando si esaminano le proposizioni contrarie: «il triangolo non ha gli angoli interni eguali a due retti» e «Alessandro Magno non vince Dario». La prima è una proposizione certamente falsa, perché il concetto di «triangolo con gli angoli interni non eguali a due retti» è contraddittorio, come può essere facilmente dimostrato nella geometria euclidea. Ma il concetto di «Alessandro Magno che non vince Dario» non è in sé contraddittorio: benché nel nostro mondo esso non abbia esistenza, è immaginabile un mondo diverso in cui Alessandro Magno perda. Le verità necessarie (o di ragione) sono quindi quelle valide in tutti i mondi possibili (e cioè non contraddittori), le verità contingenti (o di fatto) sono quelle valide nel mondo reale ma non in 27 tutti i mondi possibili. Esse sono dunque necessarie solo sulla base di una premessa (ex hypothesi): dato che questo è il mondo esistente, allora necessariamente Alessandro vince Dario. Ciò si può esprimere anche dicendo che le verità necessarie sono fondate sull’intelletto di Dio, che pensa tutti i mondi possibili, mentre quelle contingenti sono fondate sulla volontà di Dio, che ha deciso quale di questi mondi possibili creare, cioè rendere reale. Da ciò si ricava anche che ci sono in realtà proposizioni contingenti che, contro la regola generale, non hanno una prova a priori, o perlomeno non nel senso in cui la posseggono le altre: le proposizioni esistenziali, che affermano se qualcosa esiste o no. Nel concetto di Alessandro Magno non è compresa la sua esistenza. Ciò avviene — eccezione dell’eccezione — solo nel caso di Dio, come si vedrà. Da questa concezione della verità discende la supremazia di due princìpi logici: I nostri ragionamenti sono fondati su due grandi princìpi: il principio di contraddizione, in virtù del quale giudichiamo falso ciò che la includa, e vero ciò che è opposto al contraddittorio o falso; e il principio di ragion sufficiente, in virtù del quale consideriamo che nessun fatto potrebbe essere vero, o esistente, nessuna enunciazione vera, senza che vi sia una ragione sufficiente perché sia così e non altrimenti, benché queste ragioni il più delle volte possano non esserci affatto note. [...] La ragione sufficiente si deve trovare anche nelle verità contingenti o di fatto, cioè nella sequenza delle cose distribuite nell’universo delle creature, dove la risoluzione in ragioni particolari potrebbe andare fino ad un dettaglio senza limiti, a causa della varietà immensa delle cose della natura e della divisione dei corpi all’infinito (M 31-32, 36). I due princìpi sono in gran parte complementari: se infatti il principio di contraddizione (detto anche «di non contraddizione») afferma che le proposizioni in cui il predicato è incluso nel soggetto sono vere, il principio di ragion sufficiente afferma che nelle proposizioni vere dev’esserci una ragione della loro verità, e cioè anzitutto l’inclusione del predicato nel soggetto. Leibniz si preoccupa di far notare che questo principio si applica anche alle verità contingenti, in cui l’analisi del soggetto potrebbe dover andare all’infinito e dunque essere di fatto impossibile all’uomo (un’idea questa evidentemente ispirata dal calcolo infinitesimale). Ciò non significa — come spesso è stato affermato — che il principio di non contraddizione riguardi solo le verità necessarie e quello di ragion sufficiente solo le verità contingenti: entrambi riguardano ogni verità. È però vero che il principio di ragion sufficiente ha un’estensione maggiore di quello di non contraddizione, perché si estende anche alle proposizioni contingenti esistenziali, sebbene mutando leggermente di significato: lì la ragion sufficiente della verità non può consistere certo nella presenza del predicato nel soggetto. Proprio quest’uso del principio di ragion suf28 ficiente è in grado secondo Leibniz di condurre alla metafisica, che s’interroga sull’esistenza delle cose e sulla sua causa. 29 Giovanni Salmeri Piccola storia della logica II. Il Novecento Roma 1999 4. La logica nel Novecento 4.1. Georg Cantor (1845-1918) 4.1.1. La teoria degli insiemi L’opera di Georg Cantor si situa nel complesso di ricerche che vennero dedicate tra la fine dell’Ottocento e l’inizio del Novecento al problema della fondazione della matematica. Si trattava del tentativo di darle una base assolutamente solida, che non facesse ricorso né a considerazioni psicologiche, né a dati «intuitivi» come venivano presentati dai neokantiani. Questo nuovo punto di partenza è offerto secondo Cantor dalla teoria degli insiemi. Eccone i concetti fondamentali: Con insieme (Menge) intendiamo ogni riunione I in un tutto di determinati e ben distinti oggetti i della nostra intuizione o del nostro pensiero (che vengono chiamati elementi di I). In simboli esprimiamo ciò così: I = {i}. [...] Ad ogni insieme I spetta una determinata potenza (Mächtigkeit), che chiamiamo anche il suo numero cardinale (Kardinalzahl). Chiamiamo potenza o numero cardinale di I il concetto generale che con l’aiuto della nostra facoltà attiva di pensiero scaturisce dall’insieme I astraendo dalle fattezze dei suoi distinti elementi e dall’ordine nel quale essi sono dati. Il risultato di questo duplice atto di astrazione, il numero cardinale o la potenza di I, lo indichiamo con |I|. Giacché da ogni singolo elemento i se si prescinde dalla sua fattezza, deriva un’unità, allora lo stesso numero cardinale |I| è un determinato insieme composto di semplici unità, che possiede esistenza nella nostra mente come immagine intellettuale o proiezione dell’insieme dato I. Due insiemi I e J li chiamiamo equivalenti e indichiamo ciò con I ~ J oppure J ~ I 30 se è possibile porli secondo una legge in una relazione reciproca tale che ad ogni elemento di uno di essi corrisponda uno e solo un elemento dell’altro. [...] È di significato fondamentale che due insiemi I e J hanno lo stesso numero cardinale se e solo se essi sono equivalenti: da I ~ J segue |I| = |J|, e da |I| = |J| segue I ~ J. L’equivalenza di insiemi costituisce dunque il necessario e infallibile criterio per l’uguaglianza dei loro numeri cardinali (Contributi alla fondazione della teoria degli insiemi transfiniti, 1897, § 1 [simbologia modificata]). Così si è raggiunta secondo Cantor una soddisfacente caratterizzazione del numero: anzitutto del numero naturale, e tramite questo del numero relativo, razionale e infine reale (un passo quest’ultimo meno facile, che venne compiuto da Cantor stesso). In questo modo l’aritmetica diventa una scienza edificata sulla base della teoria degli insiemi, che pare rispondere a quelle doti di semplicità e solidità che dovrebbe richiedere una teoria di fondazione. La teoria degli insiemi mostra però un’ulteriore particolare duttilità: essa permette di considerare anche numeri che non avevano fino ad allora trovato spazio nella matematica: i numeri infiniti, o, come preferisce dire Cantor (per riservare la qualifica d’infinito a Dio solo) transfiniti: Gli insiemi con numero cardinale finito si chiamano insiemi finiti; tutti gli altri li vogliamo denominare insiemi transfiniti, e i numeri cardinali che spettano loro numeri cardinali transfiniti. La totalità di tutti i numeri cardinali finiti n ci offre il più vicino esempio di insieme transfinito; il numero cardinale che gli spetta lo chiamiamo áleph zero, in simboli c0; definiamo dunque c0 = |{n}|. Che c0 sia un numero transfinito, che cioè non sia eguale a nessun numero finito m, deriva dal semplice dato di fatto che quando all’insieme {n} viene aggiunto un nuovo elemento e0, l’insieme unione ({n}, e0) è equivalente a quello originale {n}. Infatti è possibile pensare tra i due insiemi la relazione biunivoca secondo la quale all’elemento e0 del primo corrisponde l’elemento 1 del secondo, all’elemento n del primo l’elemento n + 1 dell’altro (Contributi alla fondazione della teoria degli insiemi transfiniti, § 6 [simbologia modificata]). Dunque, la teoria degli insiemi rende inevitabile l’introduzione anche dell’infinito attuale, e non solo dell’infinito potenziale (considerato cioè come un limite irraggiungibile), cosa che Cantor discusse esplicitamente citando il precedente di Leibniz. Si osservi anzi che come caratteristica definitoria viene scelto proprio quell’aspetto paradossale che fin da Aristotele era stato usato come confutazione dell’esistenza dell’infinito attuale: l’infinito è ciò in cui una parte può essere equivalente al tutto. Questo è un chiaro indizio della portata che Cantor attribuiva all’idea secondo cui «l’essenza della matematica sta nella sua 31 libertà», libertà dunque anche di concepire e trattare oggetti apparentemente contraddittori. 4.1.2. La gerarchia dei transfiniti È possibile, malgrado ciò che si è detto, parlare di differenti numeri transfiniti? In un primo momento Cantor pensò di no: riuscì infatti a mostrare che l’insieme Ä dei numeri razionali ha anch’esso potenza c0. Il risultato è molto significativo, perché Ä possiede una caratteristica peculiare, la densità, che lo distingue chiaramente da Á (dati due numeri razionali q1 e q3 tali che q1 > q3, esiste sempre un numero razionale q2, per esempio la loro media aritmetica, tale che q1 > q2 > q3). La dimostrazione dell’equivalenza di Á e Ä è abbastanza semplice: si tratta solo di descrivere un metodo tramite cui ordinare tutti i numeri razionali, in modo che ad ognuno sia assegnato un posto univoco, e sia possibile così stabilire una corrispondenza con il numero naturale che indica quella determinata posizione. (Il nucleo del metodo trovato da Cantor consiste nell’elencare i numeri razionali, scritti sotto forma di frazione, ordinandoli per gruppi in cui sia uguale la somma del numeratore e del numeratore.) Ma esistono insiemi con una potenza maggiore di c0, in cui cioè gli infiniti elementi non possano essere messi in un qualsivoglia elenco ordinato che permetta una relazione biunivoca con Á? Ciò è quanto Cantor alla fine dimostrò per l’insieme dei reali Å. La dimostrazione più semplice e celebre è per assurdo: prima si ipotizza che i numeri reali (cioè costituiti da una sequenza di infinite cifre decimali a1, a2, ..., an, ...) possano essere messi in una sequenza ordinata (r1, r2, ..., rn, ...); poi si mostra come è possibile costruire un numero reale (r0) che non appartiene a tale sequenza: Se r1, r2, ..., rn, ... è una qualsiasi sequenza semplicemente infinita di elementi dell’insieme Å, allora c’è sempre un elemento r0 di Å che non coincide con alcun rn. Per dimostrarlo, sia r1 = (a1,1, a1,2, ..., a1,n, ...), r2 = (a2,1, a2,2, ..., a2,n, ...), ... rm = (am,1, am,2, ..., am,n, ...), ... [...] Siano r e s due caratteri mutuamente esclusivi [per esempio pari e dispari]. [...] Qui gli am,n sono in una determinata maniera r oppure s. Ci sia ora una sequenza b1, b2, ..., bn, ..., definita cosicché il carattere r o s di bn sia diverso da quello di an,n. Se dunque an,n è r, allora bn è s, e se an,n è s, allora bn è r. Se ora consideriamo l’elemento di Å 32 r0 = (b1, b2, ..., bn, ...) si vede senz’altro che l’uguaglianza r0 = rm non può essere soddisfatta per nessun valore positivo di una riga m, perché altrimenti per il rispettivo m, per tutti i valori della riga, sarebbe bn = am,n dunque anche in particolare bm = am,m il che è escluso per la definizione di bn. Da questa conclusione segue immediatamente che la totalità di tutti gli elementi di Å non può essere messa nella sequenza r1, r2, ..., rn, .... altrimenti ci troveremmo di fronte alla contraddizione che r0 sarebbe e non sarebbe elemento di Å (Su un problema elementare della teoria degli insiemi, 1890-1). La tecnica usata in questa dimostrazione è il primo esempio del «metodo diagonale» che sarà ripetutamente usato nel campo della logica e della matematica. Il numero decisivo viene infatti ottenuto invertendo l’attributo r o s delle cifre che sono individuate da una linea «diagonale» tracciata dall’alto a sinistra nella sequenza dei numeri razionali. In termini più astratti, il nocciolo consiste nell’attribuire ad uno stesso numero m una doppia funzione: individuare l’m-esimo elemento della sequenza e l’m-esima cifra di tale elemento. L’insieme Å è particolarmente importante perché esso è un insieme «continuo»: intuitivamente, i punti di una retta possono essere messi in corrispondenza biunivoca con l’insieme dei numeri reali. Si è dunque dimostrato che l’infinito della continuità non è l’infinito «numerabile», ovvero c0, ma è di entità maggiore. Più precisamente, Cantor dimostrò che il cardinale dell’insieme Å può essere espresso come 2c0. Ma esiste un numero transfinito maggiore della potenza di Á e minore della potenza di Å? oppure il secondo è l’immediato successore del primo? (Il concetto di «immediato successore di un numero transfinito» venne esattamente definito da Cantor, che mostrò in qual modo esso fosse concretamente costruibile). Indicando la successione dei numeri transfiniti con indici, si tratta insomma di appurare la giustezza dell’equivalenza c1 = 2c0 (ipotesi del continuo) o, in termini più ampi, cn = 2cn-1 (ipotesi generalizzata del continuo). Cantor non riuscì a dare risposta, e il problema rimase a lungo aperto. Esso venne risolto solo nel 1963 dall’americano Paul Cohen, che dimostrò che l’ipotesi del continuo è «indecidibile» nell’ambito delle normali teorie degli insiemi: essa non può essere cioè né dimostrata né confutata. Tra gli ulteriori e sorprendenti risultati di Cantor è da citare la dimostrazione — semplicissima — che l’insieme Ån (con n naturale qualsiasi) è equivalente ad Å. Ad esempio infatti la coppia di numeri reali a = (a1, a2, ..., an, ...) e b = (b1, b2, ..., bn, ...) può essere posta in corrispondenza biunivoca con il numero reale c = (a1, b1, a2, b2, ..., 33 an, bn, ...). In termini geometrici, ciò significa che una retta ha tanti punti quanti ne hanno un piano o lo spazio! 4.2. Gottlob Frege (1848-1925) 4.2.1. La fondazione della matematica Attorno all’inizio del Novecento sono diversi gli studiosi che presentano contributi importanti alla fondazione della logica formale. Tra i più importanti, vanno citati almeno George Boole (1815-1864), Charles S. Peirce (1839-1914), Giuseppe Peano (1858-1932). Su tutti spicca però la personalità di Gottlob Frege, che più degli altri elabora un sistema logico formalmente perfetto, esprimendo con estrema chiarezza idee che altrove si possono trovare in modo ancora solo approssimativo. La sua opera logica si inscrive — come in buona parte quella di Cantor — nella ricerca di una fondazione rigorosa della matematica. Ecco l’opinione di Frege al riguardo: Nei miei Fondamenti dell’aritmetica ho tentato di rendere plausibile la tesi che l’aritmetica sia una branca della logica e che non abbia bisogno di prendere i fondamenti delle sue dimostrazioni né dall’esperienza né dall’intuizione. Nel presente volume questa tesi sarà confermata dal fatto che le leggi più semplici dei numeri possono essere dedotte con mezzi esclusivamente logici. Ciò dimostra, tuttavia, che si debbono porre sui procedimenti di dimostrazione condizioni notevolmente più forti di quanto si sia soliti fare in aritmetica. Si deve delimitare preventivamente un insieme di pochi modi di inferenza e deduzione e non fare alcun passo che non sia in accordo con uno di questi. Nel passaggio ad un nuovo giudizio, quindi, non ci si deve accontentare, come hanno quasi sempre fatto finora i matematici, della circostanza che esso sia evidentemente corretto, ma lo si deve analizzare nei suoi passaggi logici più semplici, che spesso non sono affatto pochi (FL 38.23). Tale punto di vista, che verrà chiamato «logicista», tende quindi a subordinare la matematica alla logica, cercando in quest’ultima la precisazione dei concetti e dei procedimenti fondamentali della prima. Dal punto di vista pratico 34 vale però per Frege in un certo senso un rapporto inverso: e cioè la logica deve ispirarsi, per perseguire un ideale di assoluto rigore e trasparenza, alla matematica, e più in particolare al metodo «assiomatico» della geometria di Euclide: L’ideale di un metodo rigorosamente scientifico in matematica, quale io ho qui tentato di realizzare e che potrebbe giustamente essere intitolato ad Euclide, potrebbe venire secondo me così delineato. Che tutto venga dimostrato non si può certo pretendere, perché ciò è impossibile. Si può però esigere che tutte le proposizioni che si usano senza dimostrazione vengano espressamente enunciate come tali, affinché si riconosca con chiarezza ove si fonda l’intero edificio. Bisogna quindi cercare di restringere il loro numero al minimo possibile, dimostrando tutto ciò che risulta possibile. Si può esigere in secondo luogo — e in ciò io compio un passo ulteriore rispetto ad Euclide — che vengano espressamente elencati, prima di costruire l’edificio matematico, i metodi di deduzione e di dimostrazione che si applicheranno. In caso contrario, è impossibile garantire che la stessa esigenza precedente sia davvero soddisfatta. Io ritengo di avere sostanzialmente raggiunto questo ideale (FL 38.24). Il «passo ulteriore» che Frege cita va effettivamente ascritto tra i suoi maggiori contributi: la prima consapevole distinzione tra regole di deduzione e assiomi. Tale distinzione è parallela ad un’altra importantissima, che Frege ha ben chiara: quella tra il linguaggio simbolico che viene costruito (in questo caso il linguaggio matematico, del quale fanno parte gli assiomi), e il linguaggio che descrive il funzionamento del primo (successivamente chiamato metalinguaggio, del quale fanno parte le regole). Tali distinzioni (così come in generale un efficace modello di sistema logico) possono essere embrionalmente già trovate nella sillogistica aristotelica. Che in questo contesto essa non venga citata è dovuto esclusivamente alla dimenticanza e all’incomprensione in cui essa era caduta da secoli. Ciò tuttavia aumenta ancora il merito di Frege, che quasi partendo da zero riesce ad elaborare una logica che risulterà in effetti molto più rigorosa e completa di quella di Aristotele. Bisogna inoltre porre attenzione ad un altro requisito che Frege esige pur senza dichiararlo con tanta chiarezza: la preventiva ed esatta definizione dei simboli che compongono il linguaggio e delle regole che conducono ad espressioni sensate. È infatti impossibile contentarsi del linguaggio naturale, data la sua imperfezione ed ambiguità, ma bisogna elaborare un linguaggio completamente univoco e artificiale, in modo che i procedimenti dimostrativi si riducano di fatto ad un’elaborazione meccanica di simboli. Solo in questo modo il linguaggio logico potrà ritenersi perfettamente «formalizzato». Frege crea perciò quella che denomina «ideografia» (Begriffsschrift: questo anche il titolo della sua opera fondamentale del 1879), un linguaggio cioè di tipo grafico che rappresenta senza ambiguità i nessi concettuali. Nel seguito però tradurremo per sem35 plicità la logica di Frege nella notazione contemporanea, che deriva con piccole varianti da quella elaborata da Giuseppe Peano. Per curiosità ecco un teorema nella notazione originaria di Frege, seguito dalla sua traduzione nella notazione di Peano: ([a(f(x,a) F(a)) (f(x,y) F(y))) ([b(F(b) [a(f(b,a) F(a))) (F(x) (f(x,y) F(y)))) 4.2.2. Funzione, senso, significato La costruzione della logica da parte di Frege ha come presupposto l’elaborazione di alcuni concetti di base, che vengono discussi con una precisione mai prima raggiunta. Il primo è il concetto di funzione, per il quale la spiegazione di Frege è sostanzialmente rimasta immutata fino ad oggi: L’essenza della funzione si esprime [...] nella corrispondenza che essa stabilisce fra i numeri i cui segni vengono sostituiti a x e i numeri che si ottengono di conseguenza come significati della nostra espressione. [...] L’essenza della funzione sta quindi in quella parte dell’espressione che rimane quando si prescinde da x. L’espressione di una funzione è bisognosa di completamento, o non saturata. La lettera x serve soltanto a tenere liberi i posti in cui si può sostituire un segno numerico che completi l’espressione, e permette quindi di riconoscere lo speciale tipo di bisogno di completamento che costituisce il carattere peculiare della funzione descritto più sopra. Nel seguito, invece della lettera x sarà usata a questo scopo la lettera ξ. Questo tener liberi deve essere inteso nel senso che in tutti i posti in cui compare ξ si deve sostituire sempre lo stesso segno e mai segni diversi. Questi posti li chiamo posti di argomento e ciò il cui segno (nome) occupa questi posti in un dato caso lo chiamo argomento della funzione per questo caso. La funzione è completata dall’argomento; ciò che essa diviene dopo essere stata completata lo chiamo valore della funzione corrispondente a quell’argomento. Otteniamo quindi un nome del valore di una funzione corrispondente ad un argomento sostituendo nei posti di argomento del nome della funzione il nome dell’argomento. 36 Così, ad esempio, (2 + 3 · 12) · 1 è un nome del numero 5 composto mediante il nome di funzione (2 + 3 · ξ2) · ξ e 1 (FL 42.03). Si noti in tale discussione il livello di astrazione che viene raggiunto nel caratterizzare la funzione come una «corrispondenza»: essa non è un’espressione numerica, ma un rapporto tra due serie numeriche, rappresentanti rispettivamente l’argomento e il valore. Questo concetto di funzione può essere evidentemente esteso considerando più argomenti («x + 2y» è per esempio una funzione a due argomenti). Più importante però e anzi fondamentale per la costruzione della logica una seconda estensione, riguardante il tipo di valori della funzione: Il dominio dei valori delle funzioni non può rimanere limitato ai numeri; se prendo infatti come successivi argomenti della funzione ξ2 = 4 i numeri 0, 1, 2, 3, non ottengo come valori dei numeri. 02 = 4, 12 = 4, 22 = 4, 32 = 4 sono espressioni di pensieri ora veri, ora falsi. Esprimo ciò dicendo che il valore della funzione ξ2 = 4 è il valore di verità di ciò che è vero oppure di ciò che è falso. Da ciò si vede che, scrivendo semplicemente un’equazione, io non intendo asserire nulla, ma soltanto designare un valore di verità, allo stesso modo che non intendo asserire nulla scrivendo 22, ma soltanto designare un numero. Dico: i nomi 22 = 4 e 3 > 2 denotano lo stesso valore di verità, che chiamo per brevità il vero. Allo stesso modo, 32 = 4 e 1 > 2 denotano lo stesso valore di verità, che chiamo per brevità il falso, così come il nome 22 denota il numero 4. Dico perciò che il numero 4 è il significato di 4 e di 22, e che il vero è il significato di 3 > 2 (FL 42.13). La «funzione» diventa così un concetto molto ampio e flessibile in grado di comprendere sotto di sé tutte le possibili corrispondenze univoche tra insiemi di qualsiasi tipo. Particolare importanza rivestono le funzioni (dette «logiche») che hanno sia il loro valore sia il loro argomento nei valori di verità. Consideriamo per esempio la proposizione complessa «3 > 2 e Roma si trova in Italia»: essa significa il vero perché entrambe le sue componenti significano il vero. La funzione è quindi rappresentabile come «p e q», dove l’operatore (o «funtore», o «connettivo») è la congiunzione «e». Per definire il comportamento di tali funzioni, il modo più semplice consiste nel compilare le cosiddette «tavole di verità», cioè indicare quale valore esse assumono in corrispondenza di ognuna delle possibili combinazioni dei valori di verità degli argomenti. Ecco le tavole di verità delle funzioni logiche più usate, cioè la congiunzione («p e q»), la disgiunzione («p o q»), l’implicazione («p implica q»), l’equivalenza («p equivale a q»), la negazione («non p»): 37 congiunzione p ‚ q v v v v v f f v v f f f disgiunzione p ƒ q v v v v f f f f v f f f implicazione p q v v v v f f f v v f v f equivalenza p q v v v v f f f f v f v f negaz. ¬ p f v v f La teoria secondo cui le funzioni «saturate» non sono altro che «nomi» del valore assunto dalla funzione stessa può parere paradossale. Tale apparenza svanisce quando si introduca un’ulteriore distinzione: Distinguo tuttavia il senso di un nome dal suo significato. 22 e 2 + 2 non hanno lo stesso senso, così come non hanno lo stesso senso 22 = 4 e 2 + 2 = 4. Il senso del nome di un valore di verità lo chiamo pensiero. Dico inoltre che un nome esprime il suo senso e denota il suo significato (FL 42.13). Le nozioni di senso e significato (o, nella terminologia più comune, di intensione e estensione) furono oggetto di ampia riflessione da parte di Frege (Sul senso e il significato, 1892), che pose così le basi di una dottrina importante non solo per la logica ma anche per l’analisi del linguaggio comune. In maniera parallela agli esempi matematici, si deve per esempio dire che le due espressioni «la stella del mattino» e «la stella della sera» hanno lo stesso significato, perché denotano entrambi il pianeta Venere, ma esprimono sensi differenti, perché contengono in sé differenti caratterizzazioni concettuali. In generale, per Frege hanno significato eguale tutti i termini (semplici o complessi) che sostituiti l’un con l’altro non mutano il valore di verità di una proposizione. Deviazioni da questa norma si trovano però nei casi di riferimento indiretto: le due proposizioni «Paolo sa che la stella del mattino è Venere» e «Paolo sa che la stella della sera è Venere» potrebbero essere infatti l’una vera e l’altra falsa. Ciò si spiega secondo Frege ammettendo che in un contesto indiretto il significato di un termine è il senso che esso assume in un contesto diretto. 4.2.3. La logica proposizionale Il primo livello della logica è individuato dalle espressioni che hanno per significato il vero o il falso, chiamate «proposizioni». Non sono però esse a costituire oggetto diretto di studio: ciò significherebbe infatti per Frege ritenere che la logica si occupa solo di combinazioni meccaniche di simboli (i «nomi» del vero e del falso, come visto). Bisogna invece ritenere oggetto della logica il senso di tali espressioni: Ciò che viene dimostrato non è la proposizione (Satz), ma il pensiero (Gedanke). [...] Il pensiero non è percepibile dai sensi, ma ne diamo una rappresentazione udibile o visibile 38 nella proposizione. [...] Ciò implica, inoltre, che i pensieri non siano qualche cosa di soggettivo prodotto dalla nostra attività mentale. Infatti, il pensiero che troviamo nel teorema di Pitagora è lo stessa per tutti e la sua verità è del tutto indipendente dal fatto che esso sia pensato o non pensato da questo o quell’uomo. Pensare non significa produrre pensieri, ma comprenderli (FL 39.01). Con tali precisazioni, Frege si avvicina ad una dottrina stoica: quella che distingueva l’ἀξίωμα (la proposizione) dal suo senso oggettivo e immateriale, il λεκτόν (il pensiero). E parimenti allineata con la posizione stoica è la concezione della logica come scienza dei «pensieri» e non delle «proposizioni». La terminologia contemporanea è però differente, e oggi s’intende con «enunciato» ciò che Frege diceva «proposizione», e con «proposizione» ciò che Frege diceva «pensiero». Nel seguito parleremo quindi di «proposizione» dove Frege parlava di «pensiero». In generale, lo scopo della logica è dimostrare «teoremi» logici, vale a dire proposizioni che sono vere in virtù della loro sola forma, o più esattamente funzioni logiche che hanno come valore il vero qualsiasi siano i loro argomenti. Per esempio, la proposizione «p ƒ ¬ p» è sempre vera (essa esprima l’antico principio logico del «terzo escluso»). Per dimostrare tali teoremi — come visto — Frege stabilisce un insieme di assiomi, che servano da punto di partenza indimostrato, e un gruppo di regole che specifichi in qual modo è possibile procedere da un passaggio all’altro della dimostrazione. Assiomi e regole possono essere scelti in modo differente in maniera da portare agli stessi risultati, a rendere dimostrabili cioè tutte e sole le proposizioni che risultano sempre vere. Questi sono gli assiomi stabiliti originariamente da Frege: 1. p (q p) 2. (p (q r)) (q (p r)) 3. (p (q r)) ((p q) (p r)) 4. (p q) (¬ q ¬ p) 5. p ¬ ¬ p 6. ¬ ¬ p p Come si nota, questi assiomi riguardano solo due funzioni logiche: l’implicazione e la negazione. Le altre vengono infatti introdotte da Frege per definizione a partire da queste, e non hanno bisogno quindi di assiomi propri. In particolare: p‚q = pƒq = pq = ¬ (p ¬ q) ¬pq (p q) ‚ (q p) Le regole necessarie sono soltanto due. La prima è la regola di separazione: se si è affermata sia la proposizione α β sia la proposizione α, si può affermare anche la proposizione β. Questa regola corrisponde all’antico «modus ponendo ponens» degli Stoici. La seconda è la regola di sostituzione: se si è affer39 mata la proposizione α, si può affermare anche la proposizione che risulta dalla sostituzione in α di tutte le occorrenze di una variabile proposizionale p con una stessa espressione β (tale regola assicura per esempio che dall’assioma 5 si può banalmente ricavare «r ¬ ¬ r»). In termini sintetici le due regole possono essere così espresse: 1. α β, α L β 2. α L sost [α, p/β] Diamo ora un semplice esempio di dimostrazione, indicando a destra la giustificazione di ciascun passaggio: 1. 2. 3. 4. (p q) (¬ q ¬ p) (p ¬ q) (¬¬ q ¬ p) (p (q r)) (q (p r)) ((p ¬ q) (¬¬ q ¬ p)) (¬¬ q ((p ¬ q) ¬ p)) ass 4 sost [1, q /¬ q] ass 2 sost [3, p / (p ¬ q); q / ¬ ¬ q; r / ¬ p] sep 2,4 5. ¬¬ q ((p ¬ q) ¬ p) Esiste anche un altro modo per provare la verità del teorema: sostituire alle variabili proposizionali tutte le possibili combinazioni di valori di verità, e controllare che la proposizione complessiva risulti sempre vera: questo sarà il sistema che proporrà tra gli altri Ludwig Wittgenstein (1889-1951). Tale sistema è indubbiamente più semplice e inoltre puramente meccanico; esso però diventa inutilizzabile appena la logica proposizionale è estesa in logica dei predicati, nella quale dunque un approccio assiomatico è indispensabile. Ecco comunque come la proposizione precedente verrebbe dimostrata con il sistema della tavola di verità: 3a ¬ v f v f 2a ¬ f v f v 1a q v f v f 5 v v v v 1b ((p v v f f 3b f v v v 2b ¬ f v f v 1c q) v f v f 4 v f v v 2c ¬ f f v v 1d p) v v f f Le colonne vengono compilate nell’ordine numerico indicato in alto: nelle colonne 1 si scrivono le possibili combinazioni di valori di verità (che in questo caso sono quattro, essendo due le variabili proposizionali coinvolte: a variabili uguali devono ovviamente corrispondere valori uguali, donde l’identità delle colonne 1a e 1c, e di 1b e 1d); le colonne con i numeri successivi indicano il valore delle rispettive funzioni applicate ai loro argomenti nel corretto ordine di precedenza (2a è applicato a 1a; 2b a 1c; 2c a 1d; 3a a 2a; 3b a 1b e 2b; 4 a 3b e 2c); la colonna 5 il valore finale dell’espressione (che è l’implicazione applicata alle colonne 3a e 4). Che in quest’ultima colonna sia presente solo il valore v mostra che la proposizione è un teorema, cioè che è vera indipendentemente dal valore di p e q. 40 4.2.4. La logica dei predicati Un fondamentale ampliamento del calcolo proposizionale viene effettuato quando le proposizioni vengono considerate nella loro struttura interna, cioè distinte in soggetto e predicato. In questo modo una proposizione come «il libro è bianco» non sarà più semplicemente simboleggiata da p, ma da B(l), in cui l è il soggetto e B il predicato. Ciò è particolarmente utile perché permette l’uso di variabili che riguardano individui (e non più, come prima, solo proposizioni). Si potrà dunque scrivere B(x): essa non è propriamente una proposizione (è impossibile infatti dire se sia vera o falsa), ma una funzione o forma proposizionale, che diventa una proposizione appena il posto della variabile venga preso da un nome individuale. C’è però anche un altro modo per trasformare una forma proposizionale in proposizione, che è poi quello più interessante: quantificare la variabile, cioè asserire che la proprietà in questione vale per tutti i possibili soggetti o almeno per uno. Così, la scrittura [x P(x) significa che qualsiasi soggetto gode della proprietà P (o in altre parole che una proposizione di forma P(x) è sempre vera), mentre la scrittura x P(x) significa che almeno un soggetto gode della stessa proprietà. La variabile x che cade sotto l’influenza di un quantificatore viene detta «vincolata», in contrapposizione alle altre (eventuali) variabili «libere». La sillogistica aristotelica può essere considerata un sottoinsieme della logica dei predicati. Il sillogismo barbara per esempio risulta così formalizzato: ([x (P(x) Q(x)) ‚ [x (Q(x) R(x))) ([x (P(x) R(x)), che letto dettagliatamente è: «se per qualsiasi cosa l’essere P implica l’essere Q e per qualsiasi cosa l’essere Q implica l’essere R, allora per qualsiasi cosa l’essere P implica l’essere R». D’altra parte va detto che lo sviluppo della logica dei predicati, piuttosto che «riscoprire» la sillogistica di Aristotele, ha mostrato proprio che essa riguardava solo alcuni casi particolari, e che dunque era ingiustificato il posto di assoluta supremazia che le era stato riconosciuto per quasi due millenni. L’ampliamento viene effettuato da Frege aggiungendo tre regole alle due già stabilite. La prima è la regola di degeneralizzazione: essa stabilisce che se si è affermata la proposizione [x α(x) si può ovviamente affermare anche α(a), intendendosi con «a» un termine individuale qualsiasi. La seconda è la regola di generalizzazione: se si è affermato α β(a), è possibile affermare anche α [x β(x), a condizione che il termine individuale «a» non compaia in α (o se vi compaia sia vincolato da un quantificatore). Il senso di questa regola e il motivo della restrizione possono essere così spiegati: se si è dimostrato qualcosa per un termine individuale «a caso», la dimostrazione vale in universale; il passaggio all’universale non vale però se su tale termine individuale vengono fatte particolari assunzioni. La terza regola è una regola di sostituzione analoga a quella prima vista, questa volta valida però per i termini individuali: se si è affermata la 41 proposizione α, si può affermare anche la proposizione che si ottiene sostituendo in α tutte le occorrenze di un termine individuale x con un altro termine y, purché y non occorra «vincolato» in α (ciò porterebbe infatti alla confusione degli ambiti di differenti quantificazioni). In sintesi: 3. [x α(x) L α(a) 4. α β(a) L α [x β(a/x)purché a non occorra libera in α 5. α(x) L sost [α(x), x/y] purché y non occorra vincolata in α Queste regole riguardano soltanto il quantificatore universale. Il quantificatore esistenziale viene introdotto da Frege per definizione, analogamente a ciò che avveniva per le funzioni logiche diverse dall’implicazione: x P(x) ¬ [x ¬ P(x) Per quanto riguarda il compito di fondazione della matematica, la logica dei predicati è importante soprattutto perché permette una definizione del concetto di numero. Il primo passo consiste nell’applicare anche al predicato la distinzione tra senso e significato. Il senso (o intensione) è ovviamente costituito dal concetto che viene pensato in ciascun predicato. Il significato (o estensione) coincide invece con la classe degli oggetti che godono della proprietà espressa dal predicato. Il significato del predicato «essere pari» sarà per esempio la classe dei numeri pari {0, 2, 3, 4...}. In questo modo la logica dei predicati diventa una traduzione «intensionale» della logica delle classi. Per ammettere questa equivalenza basta ammettere il cosiddetto «assioma di comprensione»: che cioè ogni proprietà individui effettivamente la classe di tutti e soli gli elementi che godono di quella certa proprietà. Il numero naturale potrà a questo punto essere definito — in maniera analoga alla «potenza» in Cantor — come il concetto che può essere attribuito a tutti i predicati che denotano una classe «equinumerosa». Con ciò, anche al concetto fondamentale della matematica viene assicurata una base puramente logica. L’illusione però di aver sostanzialmente terminato il compito di fondazione della matematica durò poco. Nel 1902 il giovane logico Bertrand Russel comunicò infatti a Frege di aver scoperto nel suo sistema un’«antinomia» (nota appunto come «antinomia di Russel»), cioè una contraddizione dedotta dalle premesse, che mostrava come la logica di Frege era in realtà difettosa. Eccola nelle parole di Russel: Sia w la classe di tutte le classi che non sono membri di sé stesse. Allora, qualunque sia la classe x, «x è un w» è equivalente a «x non è un x». Quindi, dando a x il valore w, «w è un w» è quivalente a «w non è un w» (FL 48.11). 42 In termini più semplici: la classe di tutte le classi che non hanno sé stesse come elemento, ha o no sé stessa come elemento? È chiaro che qualsiasi risposta porta ad una contraddizione. Ciò mostrava che l’«assioma di comprensione», che svolgeva un ruolo essenziale di collegamento tra logica e matematica, non poteva in realtà essere accettato. Frege riconobbe che ciò significava il fallimento del suo programma di fondazione, e in generale di tutti quelli che facevano uso di una qualche teoria degli insiemi («Ad uno scrittore di scienza — scrisse — ben poco può giungere più sgradito del fatto che, dopo aver completato un lavoro, venga scosso uno dei fondamenti della sua costruzione»). Ciò non toglieva però evidentemente nulla al valore della logica di Frege in sé, che è rimasta per il Novecento un punto di riferimento fondamentale. La scoperta dell’antinomia di Russel non significava neanche che la teoria degli insiemi fosse da abbandonare in quanto irrimediabilmente contraddittoria. Era possibile infatti aggiungere condizioni aggiuntive che evitassero l’antinomia. Una prima soluzione venne elaborata dallo stesso Russel con la cosiddetta «teoria dei tipi»: secondo essa l’espressione «appartenere a sé stessi» è scorretta, in quanto ogni classe dev’essere di «tipo» differente dai suoi elementi. Tale correzione venne integrata nei Principia Mathematica (1910-13), l’opera di Russel (in collaborazione con Alfred North Whitehead) che, ispirata da vicino a Frege, più di ogni altra si avvicinò all’ideale di un’esposizione globale dei fondamenti della matematica dal punto di vista logicista. Altre soluzioni si diressero invece verso l’«indebolimento» dell’assioma di comprensione (in questa direzione andò la successiva più importante sistemazione della teoria degli insiemi, effettuata da Ernst Zermelo nel 1908). In questo modo però le pretese «fondamenta» della matematica parevano diventare meno semplici e intuitive della matematica stessa, e dunque quasi vanificate nel loro ruolo. Ma il seguito degli sviluppi del problema dei fondamenti porterà alla luce difficoltà ancora più gravi, come si vedrà. 43 4.3. David Hilbert (1862-1943) 4.3.1. L’assiomatica David Hilbert rappresenta, assieme a Frege, l’altro maggiore protagonista della rifondazione della matematica e della logica all’inizio del Novecento. La prima fondamentale opera di Hilbert è costituita dai Fondamenti della geometria (1900). In essa egli intraprende il compito di riesporre la geometria euclidea dandole perfetto rigore. Tale compito era urgente per almeno due fatti nuovi: anzitutto l’elaborazione, avvenuta verso la fine dell’Ottocento, delle «geometrie non euclidee», che pur non accettando il quinto postulato («Per un punto passa una ed una sola parallela ad una retta data») risultavano cionondimeno perfettamente coerenti; poi la nascita della logica matematica. Entrambe queste circostanze attiravano l’attenzione sulla necessità di precisare nel modo migliore gli assiomi di una certa costruzione logica. In particolare, Hilbert mise in evidenza tre caratteristiche cui questi dovevano soddisfare. La prima e più importante è la coerenza o non contraddittorietà: dagli assiomi dev’essere impossibile dedurre due teoremi contraddittori. La seconda era la completezza: gli assiomi devono permettere di dimostrare tutte le proposizioni vere e respingere tutte quelle false (in altre parole, non devono esistere proposizioni «indecidibili»). La terza era l’indipendenza: gli assiomi devono essere ciascuno indipendente da tutti gli altri, o altrimenti detto nessun assioma deve poter essere dimostrato tramite gli altri. Obbedendo a questi criteri, Hilbert introdusse venti assiomi (contro i cinque originari di Euclide), formulando anche quelle proprietà che parrebbero «evidenti» (per esempio: «Di tre punti qualsiasi di una retta ce n’è al massimo uno che giace fra gli altri due»). In realtà, per Hilbert l’«evidenza» non deve giocare alcun ruolo nella definizione degli assiomi: essi vanno considerati il punto di partenza per una costruzione puramente formale, indipendentemente dal fatto che essa abbia poi un qualche rapporto con la «realtà». Il che significa anche che è privo di senso richiedere che gli assiomi siano «veri» in sen- 44 so realistico: la loro verità consiste nella capacità di individuare oggetti ideali, e ciò è assicurato dalla coerenza. Tali stesse idee vengono applicate da Hilbert anche alla matematica e al problema della sua fondazione, venendo a definire quella posizione chiamata «formalismo»: Tutto ciò che costituisce la matematica nel senso comunemente accettato del termine viene formalizzato rigorosamente, cosicché la matematica propriamente detta, o matematica nel senso più ristretto, diventa un insieme di formule. [...] Oltre alla matematica propriamente detta, formalizzata in questo modo, c’è, per così dire, una nuova matematica, una meta-matematica, che serve a fondare la prima su basi sicure. [...] Nella meta-matematica si opera con le dimostrazioni della matematica propriamente detta, che costituiscono esse stesse l’oggetto delle inferenze che tengono conto dell’argomento su cui vertono. In questo modo, lo sviluppo della scienza complessiva della matematica viene ottenuto mediante un continuo scambio, che è di due tipi: da una parte, l’acquisizione di nuove formule derivabili dagli assiomi mediante l’inferenza formale, dall’altra l’aggiunta di nuovi assiomi parallelamente alla dimostrazione della loro non-contraddittorietà [...]. Gli assiomi e le proposizioni derivabili, cioè le formule, che nascono in questo processo di scambio sono rappresentazioni dei pensieri che costituiscono i procedimenti usuali della matematica quali sono stati finora concepiti, ma non esono essi stessi verità in senso assoluto. Sono piuttosto le informazioni fornite dalla mia teoria della dimostrazione riguardo alla derivabilità e alla non contraddittorietà che devono essere considerate verità assolute (FL 38.28). Anche Hilbert, così come Frege, vede quindi uno stretto rapporto tra logica e matematica; esso viene individuato però nel fatto che entrambe deducono o derivano, a partire da un insieme di assiomi, delle «formule», cioè sequenze di simboli, indipendentemente dall’interpretazione che se ne possa dare. Spetta poi ad una «meta-matematica» giustificare la coerenza del sistema. 45 4.3.2. Gli assiomi di Peano L’approccio assiomatico al problema della fondazione si mostrò particolarmente promettente dopo la scoperta dell’antinomia di Russel, che aveva mostrato i gravi pericoli di un approccio «intuitivo» alla fondazione della matematica. Fu allora che Hilbert sostenne la necessità di ricorrere ad un vero e proprio sistema di assiomi da cui dedurre tutte le proposizioni matematiche. In ciò egli trovò un fondamentale lavoro preparatorio nel lavoro di Giuseppe Peano, il quale aveva costruito un sistema di questo tipo. La definizione di numero (naturale) che viene presupposta è la seguente: «zero è un numero; se x è un numero, è un numero anche il successore di x». Si tratta di una definizione puramente formalistica, che indica quale successioni di simboli vadano considerate numeri senza proporre alcuna loro identificazione intuitiva. Gli assiomi di Peano possono essere così formalizzati (indicando con «´» la funzione di «successore»): 1. [x (¬ x´ = 0) 2. [x[y (x´ = y´ x = y) 3. α(0) ‚ [x (α(x) α(x´)) [x α(x) 4. [x[y (x + 0 = x ‚ x + y´ = (x + y)´) 5. [x[y (x × 0 = 0 ‚ x × y´ = (x × y) + x) In termini discorsivi gli assiomi affermano: 1. non esiste alcun numero naturale il cui successore sia 0; 2. due numeri naturali il cui successore è eguale sono uguali; 3. se 0 gode di una certa proprietà e si può dimostrare che se un numero naturale gode di quella proprietà ne gode anche il successore, allora tutti i numeri naturali godono di quella proprietà (questo è l’importantissimo «principio di induzione matematica»); 4. la somma di x con y è eguale a x se y è 0, altrimenti è eguale al successore della somma di x e del predecessore di y; 5. il prodotto di x per y è eguale a 0 se y è 0, altrimenti è eguale alla somma di x con il prodotto di x per il predecessore di y. Benché paiano estremamente pove- 46 ri, tali assiomi consentono effettivamente di derivare tutti i teoremi dell’aritmetica, e dunque di assicurare un sostegno all’intera matematica. Si notino negli assiomi di Peano le definizioni della somma e del prodotto; esse possono sembrare scorrette, in quanto citano al loro interno proprio l’operazione che definiscono. Ma in realtà la circolarità è evitata dal fatto che esse «convergono» verso il caso più elementare (in cui un argomento è 0) il cui valore viene direttamente indicato. Si tratta quindi di definizioni «ricorsive», o anche «induttive» in quanto sfruttano un principio analogo a quello del principio d’induzione. Proprio tale tipo di definizione avrà un’importanza centrale, come si vedrà, nello sviluppo della teoria della computabilità. Peraltro, definizioni ricorsive di funzioni sono lecite in quasi tutti i moderni linguaggi di programmazione per calcolatori (per esempio Pascal, C, Lisp). Ecco come come possono essere rappresentati i due assiomi di Peano in Pascal, sotto forma di funzioni: function sum (x, y: integer): integer; begin if y = 0 then sum := x else sum := succ (sum (x, pred (y))) end; function prod (x, y: integer): integer; begin if y = 0 then prod := 0 else prod := sum (prod (x, pred (y)), x) end; Il sistema assiomatico della matematica sarà in conclusione costituito dalla logica dei predicati «arricchita» con gli assiomi di Peano. Ma — come visto — per Hilbert è un compito fondamentale dimostrare (in ambito meta-matematico) la coerenza e la completezza di tale sistema di assiomi: solo in questo modo sarà scongiurato il pericolo di incontrare in futuro un’antinomia simile a quella che ha fatto franare il programma di Frege, e solo in questo modo agli assiomi poteva essere riconosciuta una loro «verità». L’antinomia di Russel, inoltre, avendo messo in questione anche la teoria degli insiemi di Cantor, esigeva secondo Hilbert che tale dimostrazione non facesse alcun ricorso ai numeri «transfiniti» che di lì provenivano; nella terminologia di Hilbert, la dimostrazione doveva essere effettuata con mezzi esclusivamente «finitisti». In un certo senso, bisognava effettuare la dimostrazione restando all’interno dell’aritmetica. Questo costituisce il nocciolo del celebre «programma di Hilbert». Si noti che la coerenza e la completezza sono facili da dimostrare quando è in questione la sola logica proposizionale, meno facili ma comunque appurate quando è in questione la logica dei predicati. Il programma di Hilbert si presentava dunque come estremamente ragionevole. 47 4.4. Kurt Gödel (1906-1978) 4.4.1. Gödelizzazione e diagonalizzazione È verso il programma di Hilbert che si dirige il rivoluzionario lavoro di Kurt Gödel, «Sulle proposizioni formalmente indecidibili dei Principia mathematica e di sistemi affini, I» (1931). I teoremi dimostrati da Gödel si basano su due scoperte preliminari, estremamente importanti quanto al loro significato logico. La prima scoperta è questa: ogni proposizione matematica può essere rappresentata da un numero, e quindi ogni affermazione meta-matematica su proposizioni può essere tradotta in un’affermazione matematica su numeri: Le formule di un sistema formale [...] sono successioni materiali finite di simboli primitivi (variabili, costanti logiche e parentesi o segni di interpunzione), ed è facile specificare esattamente quali successioni di simboli primitivi sono formule dotate di significato e quali non lo sono. Analogamente, dal punto di vista formale le dimostrazioni sono soltanto successioni finite di formule (con proprietà definite che si possono enunciare). Dal punto di vista della meta-matematica è naturalmente indifferente quali oggetti siano scelti come simboli primitivi, e noi optiamo per l’uso di numeri naturali [Cioè, associamo a ogni simbolo primitivo un numero naturale in modo biunivoco]. Di conseguenza, una formula diventa una successione finita di numeri naturali e una dimostrazione diventa una successione finita di successioni finite di numeri naturali. I concetti (teoremi) meta-matematici diventano così concetti (teoremi) sui numeri naturali o su loro successioni, e sono quindi esprimibili (almeno in parte) coi simboli dello stesso sistema dei Principia Mathematica [In altre parole, la procedura descritta fornisce un modello isomorfo del sistema PM nel dominio dell’aritmetica e tutte le considerazioni meta-matematiche possono essere trattate altrettanto bene in questo modello isomorfo] (Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I). Ciò equivale a dire che la matematica, una volta che siano state stabilite le opportune convenzioni, è in grado di «parlare di sé stessa». Ciò non vìola affatto la distinzione di principio tra linguaggio e meta-linguaggio, in quanto il procedimento individuato da Gödel crea all’interno del linguaggio oggetto un mo48 dello del metalinguaggio. In questo modo sarà per esempio possibile definire una proprietà matematica con argomento numerico che indichi se il suo argomento è un numero che rappresenta o no una formula dotata di significato per la matematica stessa. Il procedimento tramite cui le proposizioni vengono tradotte in numeri venne successivamente chiamata, in ricordo del suo ideatore, «gödelizzazione», e i numeri associati vengono detti «gödeliani». Non c’è bisogno di dare esempi concreti della gödelizzazione, un procedimento che può essere condotto in innumerevoli modi differenti e che oltretutto è concettualmente analogo ai familiari procedimenti di codifica degli attuali calcolatori (si pensi per esempio ai codici ASCII o Unicode). È opportuno piuttosto attirare l’attenzione su una caratteristica particolare della gödelizzazione: in essa gli elementi di un certo sottoinsieme dei simboli matematici (i numeri, e probabilmente — secondo la particolare codifica scelta — neanche tutti) vengono posti in relazione biunivoca con gli elementi dell’intero insieme delle espressioni matematiche, compresi i numeri stessi. Questa — come già visto — è la caratteristica propria degli insiemi infiniti. La seconda scoperta è costituita dalla dimostrazione di quello che è chiamato «teorema di diagonalizzazione» (in quanto sfrutta un metodo simile al procedimento diagonale di Cantor). Esso afferma che, per ogni proprietà definibile nel linguaggio, è possibile costruire una proposizione che afferma che il suo proprio gödeliano gode di quella proprietà. Insomma, non soltanto la matematica è in grado di parlare di sé stessa in generale, ma esistono anche proposizioni che parlano proprio di sé stesse. Vediamo come ciò è possibile, con un procedimento lievemente differente da quello originario di Gödel. È anzitutto necessario definire una funzione numerica sost. Essa ha come argomenti tre numeri e come valore il gödeliano della proposizione ottenuta sostituendo, nella proposizione rappresentata dal primo argomento, la variabile rappresentata dal secondo numero con il terzo numero (indichiamo con {φ} il gödeliano della formula φ). Ad esempio: sost ({x > y}, {x}, 15) = {15 > y}. Ora, data una qualsiasi proprietà propr, consideriamo anzitutto la seguente formula α: propr (sost (x, {x}, x)). Poi sostituiamovi la variabile x con il gödeliano {α}. Otteniamo così la proposizione β: propr (sost ({α}, {x}, {α})). (Si osservi che {x} non è una variabile, ma un numero, e quindi non va sostituito.) Ora, qual è il gödeliano {β}? Basta controllare la definizione della funzione sost per comprendere che esso è uguale a sost ({α}, {x}, {α}). La proposizione β è stata infatti ottenuta proprio sostituendo in α le occorrenze di x con {α}. Dunque, la proposizione β afferma propr ({β}). 4.4.2. I due teoremi di limitazione Poste le due premesse, possiamo ora comprendere il meccanismo dei due teoremi di Gödel. Anzitutto si può mostrare facilmente che è possibile defi49 nire una proprietà dim ({α}) che indica se α è dimostrabile. Ma se è definibile dim lo è ovviamente anche ¬ dim, e per il teorema di diagonalizzazione sarà possibile costruire una proposizione γ che afferma ¬ dim ({γ}) (detto in termini semplici, una proposizione che afferma: «io sono indimostrabile»). Ecco dunque il punto cruciale: Dimostriamo ora che l’enunciato γ è indecidibile in PM. Infatti, supponendo che l’enunciato γ sia dimostrabile, esso sarebbe anche vero, cioè, per quel che è stato detto [...] varrebbe ¬ dim ({γ}), contro l’ipotesi. Se però, al contrario, la negazione di γ fosse dimostrabile, allora [...] si avrebbe dim ({γ}). Quindi, sia γ sia la sua negazione sarebbero dimostrabili, il che è di nuovo impossibile. [...] Dall’osservazione che γ afferma la propria indimostrabilità segue immediatamente che γ è vera, perché γ è effettivamente indimostrabile (in quanto indecidibile). L’enunciato che afferma che essa è indecidibile nel sistema PM è stato così deciso mediante considerazioni meta-matematiche (Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I [simbologia modificata]). In questo modo si è mostrato che esiste almeno una proposizione vera che tuttavia è indimostrabile: dunque il sistema della matematica è incompleto (tutto ciò, ovviamente, sotto l’ipotesi che la matematica sia non-contraddittoria). Con il suo primo teorema Gödel dimostrò così che la nozione di verità andava distinta da quella di dimostrabilità nel caso della matematica e di tutti i sistemi formali di una simile «ricchezza»: Il metodo di dimostrazione ora esposto può essere applicato ad ogni sistema formale che, in primo luogo, disponga, una volta interpretato, di mezzi espressivi sufficienti a definire i concetti che compaiono nelle precedenti considerazioni (in particolare, quello di «formula dimostrabile») e in cui, in secondo luogo, ogni formula dimostrabile, una volta interpretata, sia vera. Ciò significa anche che la matematica è essenzialmente incompleta: l’incompletezza non deriva infatti da una «povertà» dei suoi assiomi, ma al contrario dalla sua «ricchezza» espressiva: un sistema è necessariamente incompleto appena esso (come abbiamo visto nei due passi preliminari) diventa in grado di parlare di sé stesso. Per questo motivo, Gödel stesso riconobbe che il suo teorema poteva essere considerato una versione raffinata dell’antica «antinomia del mentitore». Il secondo teorema di Gödel riguarda la coerenza della matematica. Il primo passo consiste nel definire una proposizione coer che afferma la coerenza (ovvero non contraddittorietà) della matematica. Ora, il ragionamento che prima abbiamo condotto per dimostrare l’indimostrabilità di γ può essere «tradotto» all’interno della matematica con questa implicazione: coer γ. Si era infatti concluso che se la matematica è coerente allora γ è indimostrabile, e γ afferma appunto la propria indimostrabilità. Ma la verità di questa implicazione ci as50 sicura che, se coer fosse dimostrabile, allora lo sarebbe anche γ. Ma ciò è contro l’ipotesi dell’indimostrabilità di γ e, in ultima analisi, della coerenza della matematica. Bisogna quindi concludere che, se la matematica è coerente, allora la sua coerenza è indimostrabile all’interno della matematica stessa. Il programma di Hilbert si mostrava quindi definitivamente illusorio. Bisogna fare attenzione all’ultima precisazione: all’interno della matematica stessa. Nulla infatti vieta che tale coerenza venga dimostrata al suo esterno, cioè facendo uso di ipotesi aggiuntive che non fanno parte della matematica così com’è fino a quel momento definita. Questo è in effetti proprio ciò che venne fatto nel 1936 da Gerhardt Gentzen (1909-1945) usando ipotesi aggiuntive tratte dalla teoria degli insiemi di Zermelo e Fraenkel, e dunque non più con i soli metodi «finitisti» che auspicava Hilbert. Si noti però che, in maniera analoga a quanto abbiamo detto riguardo al primo teorema, non si può credere di aggirare del tutto il problema aggiungendo ulteriori ipotesi agli assiomi della matematica: la stessa difficoltà si ripresenta infatti ad un livello più alto, perché è impossibile dimostrare la coerenza di questo insieme «arricchito» di assiomi senza ammetterne ancora altri, e così all’infinito. I teoremi di Gödel sono stati per questo spesso invocati per sostenere la superiorità del pensiero umano sui procedimenti di calcolo formale. Questa interpretazione pare in realtà arbitraria. I teoremi di Gödel pongono infatti un limite di natura oggettiva: essi cioè dimostrano che — raggiunto un certo livello di ricchezza espressiva — è oggettivamente impossibile costruire un sistema deduttivo in grado di giustificare sé stesso, ovvero tale che in esso non esistano funzioni non computabili; e ciò non per limiti connessi a colui (o a ciò) che calcola, ma per la contraddizione che altrimenti ne nascerebbe. Purtroppo (o fortunatamente) le domande sull’uomo non possono ricevere risposta da un teorema logico, neppure se il suo risultato è negativo come nel caso di quelli di Gödel. 51 4.5. Alan M. Turing (1912-1954) 4.5.1. Computabilità e tesi di Church La dimostrazione del teorema di incompletezza di Gödel, tutt’altro che frenare la ricerca logico-matematica, le diede un nuovo impulso. Una volta infatti accertato che la nozione di verità andava distinta da quella di deducibilità — o che in altre parole esistevano funzioni non calcolabili — si apriva il problema di definire in maniera esatta il campo delle funzioni calcolabili o computabili, il cui valore cioè per ogni argomento o n-upla di argomenti fosse univocamente determinabile con una sequenza di passi finita. Gli studi si concentrarono intorno ad un’idea di base già intuìta negli anni ’20: definire la computabilità sulla base della ricorsività, cioè del criterio che già negli assiomi di Peano era stato usato per definire le operazioni di somma e prodotto. In poche parole, si dichiaravano cioè computabili tutte (e sole) le funzioni che fossero definibili stabilendo una condizione di partenza e una condizione induttiva. Tale definizione attraversò differenti tappe. In un primo momento si giunse alla definizione della cosiddetta ricorsività primitiva; quando però nel 1928 il matematico Wilhelm Ackermann scoprì una funzione evidentemente calcolabile ma non ricorsiva primitiva, il concetto di ricorsività venne esteso, ad opera di diversi matematici tra i quali Kurt Gödel e Alonzo Church, con la formulazione della cosiddetta ricorsività generale (formulata in tempi successivi in alcune varianti tra loro equivalenti, note come ε-ricorsività, λ-ricorsività, μ-ricorsività, σ-ricorsività). I particolari delle definizioni di ricorsività sono notevolmente complessi; intuitivamente e in termini informatici moderni, le funzioni ricorsive primitive sono quelle calcolabili da un programma per calcolatore che dispone solo di cicli finiti (del tipo «for i := 1 to n do ...», con n predeterminato all’esterno del ciclo); le funzioni ricorsive generali sono quelle calcolabili con l’ausilio di cicli indefiniti (del tipo «while ... do ...», con condizione di uscita determinata all’interno del ciclo). Questa caratterizzazione della ricorsività generale si avvicina particolarmente alla nozione di μ-ricorsività, in cui μ è appunto l’operatore che indica la ricerca indefinita di un valore minimo. Si noti che 52 un ciclo «indefinito» è cosa ben diversa da un ciclo «infinito»: affermare l’esigenza di quest’ultimo equivarrebbe infatti a dichiarare una funzione non computabile. Diversamente da quanto era avvenuto con la ricorsività primitiva, nei confronti della ricorsività generale non si riuscì malgrado gli sforzi a scoprire alcun controesempio: nessuna funzione cioè che rispondesse ai criteri intuitivi di computabilità senza però poter essere definita in maniera ricorsiva generale. Nel 1936 Alonzo Church formulò quindi la congettura nota appunto come «tesi di Church»: la classe delle funzioni intuitivamente computabili coincide con la classe delle funzioni ricorsive generali. È chiaro che tale congettura è per principio non passibile di dimostrazione giacché uno dei suoi concetti, quello di «computabilità», rimane formulato ad un livello solo intuitivo. 4.5.2. Il modello di Turing e Post Nello stesso anno avvenne però un ulteriore passo decisivo: Alan Turing ed Emil Post, indipendentemente l’uno dall’altro ma in termini pressoché identici, effettuarono un approccio del tutto differente al problema della computabilità. Piuttosto che cercare modelli matematici, essi elaborarono un modello meccanico che rispondesse al concetto intuitivo di procedimento di calcolo. Intuitivamente, colui che calcola (per esempio una comune somma) ha a sua disposizione della carta, in quantità indefinita; usa un certo alfabeto di simboli (le dieci cifre e qualche segno aggiuntivo); può spostare il suo occhio in un punto qualsiasi, leggere e scrivere i simboli; segue nelle sue operazioni un insieme univoco e finito di istruzioni (che dicono appunto «come si fa» a sommare due numeri); termina l’operazione quando ha scritto sulla carta il risultato. Turing e Post cercarono dunque di semplificare il più possibile queste condizioni, creando un modello puramente meccanico di calcolo, tramite il quale sarebbe stato più semplice studiare il concetto di computabilità. Tale modello è da allora noto per lo più come «macchina di Turing». Seguiamo però la più semplice descrizione di Post: Lo spazio dei simboli deve essere costituito da una sequenza di celle infinita da ambo le parti, ordinalmente simile alla serie degli interi ..., -3, -2, -1, 0, 1, 2, 3, ... . Il risolutore del problema o esecutore deve muoversi e lavorare in questo spazio dei simboli, avendo la capacità di trovarsi ed operare in una sola cella per volta. Inoltre, a prescindere dalla presenza dell’esecutore, una cella deve potersi trovare solo in una di due possibili condizioni, cioè essere vuota o non contrassegnata oppure avere un singolo contrassegno, per esempio un tratto verticale. Una cella deve essere individuata e chiamata punto di partenza. Assumiamo, inoltre, che un problema specifico debba essere assegnato in forma simbolica mediante un numero finito di celle contrassegnate da un tratto. Similmente, la risposta deve essere fornita mediante un’opportuna configurazione di celle contrassegnate. Per essere precisi, la risposta deve essere la configurazione di celle contrassegnate lasciata alla conclusione del processo di soluzione. 53 Si assuma che l’esecutore sia in grado di effettuare le seguenti azioni primitive: (a) contrassegnare la cella in cui si trova (supposta vuota), (b) cancellare il contrassegno nella cella in cui si trova (supposta contrassegnata), (c) spostarsi nella cella alla sua destra, (d) spostarsi nella cella alla sua sinistra, (e) determinare se la cella in cui trova è o no contrassegnata. L’insieme di istruzioni che, va notato, è lo stesso per tutti i problemi specifici e perciò corrisponde al problema generale, deve essere della seguente forma. Deve essere intestato: Parti dal punto di partenza ed esegui l’istruzione 1. Deve quindi essere costituito da un numero finito di istruzioni che debbono essere numerate 1, 2, 3, ..., n. L’i-esima istruzione deve avere una delle seguenti forme: (α) esegui l’operazione Oi [ = (a), (b), (c) o (d)] e passa all’istruzione j, (β) esegui l’operazione (e) e, a seconda che la risposta sia sì o no passa all’istruzione j' o j", (γ) fèrmati. Chiaramente occorre solo un’istruzione di tipo (γ). Notiamo anche che lo stato dello spazio dei simboli influenza direttamente il processo solo tramite istruzioni di tipo (β) (Finite combinatory processes. Formulation 1). Si noti che in tale modello viene supposto un alfabeto composto di soli due simboli (casella vuota o contrassegnata). È evidente infatti che qualsiasi altro insieme di simboli più ricco può sempre essere «tradotto» in questo alfabeto minimo; tutti i numeri naturali per esempio possono essere scritti in sistema binario anziché decimale. Si osservi inoltre l’importante distinzione tra problema generale e problema specifico: problema generale è per esempio «sommare due numeri», problema specifico è «sommare 5 e 7»: il problema generale è individuato da un certo insieme di istruzioni (il procedimento è uguale per tutte le somme), il problema specifico è contraddistinto da un diverso stato di partenza dello spazio dei simboli (come sarebbe un foglio di carta su cui fosse scritto «5 + 7 =»). Ma a quale scopo elaborare tale modello meccanico? La spiegazione di Post è molto chiara: Lo scrivente si aspetta che la presente formulazione si riveli equivalente alla ricorsività nel senso dello sviluppo di Gödel e Church. La sua intenzione, comunque, è non solo di presentare un sistema di una certa potenza logica, ma anche, nel suo campo ristretto, di fedeltà psicologica. In quest’ultimo senso sono contemplate formulazioni sempre più estese. 54 D’altra parte, sarebbe nostra intenzione mostrare che tutte queste sono logicamente riconducibili alla formulazione 1. Noi offriamo questa conclusione, al momento attuale, come un’ipotesi di lavoro. E per noi questo è il significato dell’identificazione di Church tra la calcolabilità effettiva e la ricorsività. [...] Il successo del precedente programma dovrebbe, per noi, cambiare questa ipotesi non tanto in una definizione o in un assioma, quanto in una legge naturale. Solo così, sembra a chi scrive, il teorema di Gödel sull’incompletezza della logica simbolica di un certo tipo generale e i risultati di Church sull’irresolubilità ricorsiva di certi problemi possono essere trasformati in conclusioni riguardanti tutta la logica simbolica e tutti i metodi di risolubilità (Finite combinatory processes. Formulation 1). L’anno successivo lo stesso Turing dimostrò appunto ciò che anche Post si aspettava: la computabilità nel senso del loro modello meccanico (detta anche τ-ricorsività) equivale alle definizioni di ricorsività generale. Ciò in effetti non significa ancora aver dimostrato la tesi di Church, ma perlomeno averla resa altamente plausibile: per contestarla bisognerebbe infatti anzitutto immaginare una «maniera» di calcolo effettivo che sia essenzialmente differente e più ampio di quello schematicamente rappresentato dalla macchina di Post-Turing: il che — come osserva Post — è almeno «psicologicamente» difficile (e di fatto non è a tutt’oggi né avvenuto né ritenuto probabile). D’altra parte, la dimostrazione dell’equivalenza tra τ-ricorsività e ricorsività generale ha qualcosa di sorprendente: essa infatti significa che qualsiasi problema risolubile (sotto l’ipotesi di Church) è risolubile da una macchina tanto semplice, purché ovviamente provvista di un insieme di istruzioni adeguato, che potrà essere anche estremamente complesso (anzi, in generale è intuitivo che la complessità delle istruzioni cresce contemporaneamente alla semplicità di una macchina). Ciò si può esprimere anche dicendo che la macchina di Post-Turing è in grado di «simulare» qualsiasi altra macchina calcolatrice in senso lato. 4.5.3. Informatica e pensiero artificiale Con gli studi di Church, Turing e Post furono in effetti inconsapevolmente gettate le basi dell’informatica (o computer science). Con le loro macchine infatti Post e Turing prepararono il modello al quale negli anni ’40 ci si ispirò per costruire i primi calcolatori numerici (o «digitali», dall’inglese digit, «cifra»). Non si trattava delle prime macchine calcolatrici in assoluto: già in secoli precedenti erano stati progettati strumenti di questo tipo, a volte anche notevolmente raffinati e complessi (da ricordare le calcolatrici di Pascal [1642], Leibniz [1673] e soprattutto la «macchina analitica» di Charles Babbage [1822], quest’ultima così complessa che solo nel 1991 potè essere costruita in base ai progetti originali, con una spesa di 300 000 sterline, e trovata perfettamente funzionante). Si trattava però sempre di calcolatori destinati a risolvere un’unica classe di problemi 55 (tipicamente, certe operazioni matematiche). Fu solo con il modello teorico di Turing e Post che si comprese la possibilità di costruire un calcolatore «universale», estremamente semplice nella sua architettura ma versatile al punto da poter effettuare qualsiasi calcolo (o più genericamente qualsiasi elaborazione di dati) il cui algoritmo sia stato correttamente individuato e codificato. L’essenziale infatti sta nel distinguere la macchina in sé dalle istruzioni che essa esegue e dai dati sui quali opera. È evidente che il modello di Post e Turing lascia la più ampia libertà nelle modalità di realizzazione fisica di una macchina calcolatrice: qualsiasi risultato che sia «isomorfo» al modello originario è infatti accettabile. In effetti, molto differenti sono le tecnologie finora usate: il primo calcolatore (Mark I, terminato nel 1943) era di tipo elettromeccanico; successivamente si passò a circuiti elettronici a valvole («prima generazione», 1946-54); quindi le valvole furono sostituite da transistor («seconda generazione», 1955-64); i transistor furono quindi riuniti nei circuiti integrati («terza generazione», 1965-74, «quarta generazione», 1975-1980, «quinta generazione», dal 1981). Tutte queste differenti realizzazioni hanno incrementato la velocità di calcolo, l’ampiezza della memoria, la facilità di programmazione e dunque la capacità pratica di calcolo: ma dal punto di vista teorico sono equivalenti all’originario modello di Post e Turing. In comune tra le diverse generazioni di calcolatori è inoltre la scelta del sistema binario (suggerito già da Post), di per sé per nulla obbligata, ma che rende molto più semplice non solo la costruzione delle macchine, ma anche il loro progetto: in questo modo infatti i circuiti di base della macchina (a prescindere dalle particolarità dei circuiti sequenziali, ovvero contenenti elementi di memoria) sono isomorfi alle operazioni della logica proposizionale, che opera anch’essa su due soli valori (vero e falso). Nella moderna «elettronica digitale» (in cui cioè sono previsti due soli possibili segnali, «alto» e «basso») il funzionamento dei componenti di base («porte logiche») è in effetti descritto da tavole di verità e portano gli stessi nomi (in inglese) delle funzioni logiche corrispondenti. Una porta AND è per esempio un circuito che ha un’uscita «alta» solo se entrambi i suoi ingressi sono «alti». Ecco le porte praticamente usate con i loro simboli (i tratti a sinistra equivalgono agli argomenti della funzione, il tratto a destra al suo valore, in modo che lo schema di circuiti complessi ricorda un po’ la Begriffsschrift di Frege): 56 nome simbolo funzione logica corrispondente NOT negazione AND congiunzione OR disgiunzione XOR alternativa NAND negazione della congiunzione NOR negazione della disgiunzione XNOR negazione dell’alternativa L’elaborazione dei modelli meccanici di Post e Turing apriva implicitamente un problema che lo stesso Turing affrontò in modo pionieristico nel 1950: le macchine possono pensare? Le macchine di Turing-Post sono infatti in grado di eseguire qualsiasi procedura di elaborazione di simboli che sia stata definita e programmata. Ma non è proprio questo ciò che si intende con «pensiero»? Per fornire una risposta di principio a questo interrogativo, Turing descrive una prova immaginaria effettuata tramite un gioco, che da allora è nota come «test di Turing»: Vi sono tre giocatori: un uomo, una donna e l’interrogante, che può essere dell’uno o dell’altro sesso. L’interrogante sta in una stanza da solo, separato dagli altri due. Scopo del gioco per l’interrogante è determinare quale delle due persone sia l’uomo e quale la donna. Egli le conosce tramite le etichette X e Y, e alla fine del gioco dirà X è uomo e Y è donna, oppure X è donna e Y è uomo. [...] Scopo dell’uomo nel gioco è quello d’ingannare l’interrogante e far sì che fornisca l’identificazione errata. [...] Per evitare che il tono della voce possa aiutare l’interrogante, le risposte dovrebbero essere scritte, o meglio ancora battute a macchina. [...] Scopo del gioco per la donna è aiutare l’interrogante. [...] Chiediamoci ora: Che cosa accadrà se in questo gioco una macchina prenderà il posto dell’uomo? L’interrogante sbaglierà altrettanto spesso in questo caso di quando il gioco è effettuato fra un uomo e una donna? Queste domande sostituiscono la nostra domanda originaria: Le macchine possono pensare? (Computing Machinery and Intelligence). In breve, Turing propone di chiamare «pensante» una macchina che riesce ad ingannare sulla propria identità, facendo appunto credere di essere un uomo, a prescindere dall’aspetto fisico. Ma è possibile comprendere tanto bene il concetto di pensiero (per lo meno in alcune sue componenti) da poterlo «programmare»? e se sì non bisognerà forse dire che la relativa macchina simula soltanto il pensiero? Queste sono alcune obiezioni che da allora vengono sollevate contro l’adeguatezza del test di Turing, e la loro discussione è lungi dall’essere esaurita. Questi interrogativi hanno contribuito a ridare vitalità a temi che a volte parevano isteriliti: per esempio il problema del rapporto tra la mente e il corpo. Ma è chiaro che a loro volta tali questioni superano nettamente il campo 57 della logica, perché esigono che prima sappiamo chi siamo noi che ci poniamo queste domande. 58 59