Francesco Coniglione Lezioni di logica e filosofia della scienza Dispense per gli studenti del Corso di laurea in Scienze dell’educazione a.a. 2002-2003 1/229 Lezioni di logica e filosofia della scienza INDICE PREMESSA Capitolo primo CHE COS’È LA FILOSOFIA DELLA SCIENZA 1. Questioni terminologiche 2. L’epistemologia come teoria della conoscenza 3. La filosofia della scienza come disciplina autonoma 4. Alle origini della filosofia della scienza Capitolo secondo LE TRASFORMAZIONI DELLA SCIENZA TRA OTTOCENTO E NOVECENTO 1. Il mondo secondo Laplace 2. Il calore e la termodinamica 3. L’elettromagnetismo e l’idea di campo 4. La teoria della relatività 5. La meccanica quantistica. Capitolo terzo I CONCETTI E IL LINGUAGGIO DELLA LOGICA SIMBOLICA 1. Dalla logica ‘classica’ alla “nuova logica” 2. Gli strumenti della logistica Capitolo quarto LEGGI E TEORIE SCIENTIFICHE 1. Le leggi come asserti universali 2. La legge scientifica come asserto idealizzazionale 3. La Concezione Standard delle teorie scientifiche 4. Riduzione e definibilità dei termini teorici Capitolo quinto INDUZIONE, PROBABILITÀ E CONFERMA 1. Differenza tra induzione e deduzione. 2. Diverse accezioni della ‘inferenza’ induttiva. 3. Diversi approcci all’induzione metodologica. 4. L’approccio pragmatico. 5. Dalla verificazione alla conferma. 6. I problemi della conferma qualitativa e i suoi paradossi Capitolo sesto SPIEGAZIONE 1. La spiegazione dalla preistoria alla storia 2. Il modello nomologico-deduttivo 3. Le difficoltà del modello e i controesempi 4. I modelli statistico-induttivo e statistico-deduttivo 2/229 Lezioni di logica e filosofia della scienza 5. Ambiguità esplicativa e relativizzazione epistemica 6. Altri modelli e tipi di spiegazione Capitolo settimo SPIEGAZIONE E LEGGI NELLE SCIENZE UMANE E PSICOLOGICHE 1. Due tradizioni 2. Origini e caratteri della contrapposizione tra scienze umane scienze naturali 3. La spiegazione dell’individuale 4. Concretezza e idealità nella scienza: Galilei come esempio 5. Idealizzazione e valori: Weber come esempio 6. Una possibile convergenza: Popper come esempio 7. Principio di razionalità e spiegazione nomologico-deduttiva 3/229 Lezioni di logica e filosofia della scienza Capitolo primo CHE COS’È LA FILOSOFIA DELLA SCIENZA 1. Questioni terminologiche In questo capitolo vogliamo porci una Lo statuto della filosofia della domanda preliminare, concernente lo statuto della scienza e l’ambiguità termidisciplina che ci accingianmo a studiare. In cosa nologica consiste, cioè, la filosofia della scienza e come possiamo caratterizzarla nell’ambito della ormai vasta famiglia delle discipline filosofiche? È naturale che allo scopo di dare una risposta a queste domande è necessario innanzi tutto indicare quale sia l’oggetto da essa studiato e, poi, cercare di capire quali siano le metodologie da essa adoperate, in modo da distinguerla con chiarezza dalle altre discipline filosofiche che ad essa potrebbero essere accostate. Partiamo innanzi tutto da una constatazione di fatto: nella letteratura filosofica locuzioni come “gnoseologia”, “teoria della conoscenza”, “epistemologia” e “filosofia della scienza” sono a volte usate, in diverse combinazioni, in maniera interscambiabile, implicitamente o esplicitamente intendendole come sinonime; altre volte sono invece differenziate, attribuendo a ciascuna di esse un campo di indagine peculiare rispetto alle altre ed in relazione alla riflessione scientifica. Il termine col quale la filosofia della scienza Origine del termine ‘epistepiù spesso viene assimilata è quello di “epistemo- mologia’ logia”. Esso è stato usato per la prima volta dallo studioso inglese J.F. Ferrier nell’800, per indicare una delle due parti fondamentali della filosofia, la seconda essendo costituita dall’ontologia (o metafisica). Tale termine veniva da lui inteso come sinonimo di “teoria della conoscenza”, però precisando che, a differenza di altri termini usati anche in questa accezione, esso è sempre più riferito alla “teoria della conoscenza scientifica.”1 Già si esprime in questa definizione la tensione tra Cfr. J.F. Ferrier, Institutes of Metaphysics, Paris 1854; AA.VV., Mały slownik terminów i poj´c filozoficznych, Inst. Wyd. Pax, Warszawa 1983; AA.VV., Leksykon Filozofii klasycznej, Tow. Nauk. KUL, Lublin 1997. 1 4/229 Lezioni di logica e filosofia della scienza i diversi significati che il termine assumerà nel corso del suo impiego nel pensiero del Novecento. Ciò dipende anche dalle diverse tradizioni Il significato di ‘epistemolonazionali e dall’uso che si è in esse venuto a con- gia’ nella filosofia francese solidare. Così in Italia (e spesso anche in Francia) ed italiana l’epistemologia tende a collocarsi nel campo della riflessione sul pensiero scientifico, per cui viene assimilata in sostanza alla filosofia della scienza2; sebbene si riconosca che, a rigore, tra esse non possa stabilirsi una perfetta relazione di equivalenza, tuttavia i due termini vengono usati come sinonimi. In tal modo, col termine “epistemologia” si indica di solito «quella branca della teoria generale della conoscenza che si occupa di problemi quali i fondamenti, la natura, i limiti e le condizioni di validità del sapere scientifico»3. Essa è dunque concepita come «una ‘teoria della scienza’ che riconosce l’esemplarità del sapere positivo e si propone di analizzarne metodi e strutture», sostituendo la ormai erosa “gnoseologia”, in piena decadenza a partire dall’idealismo che, con Hegel, ne aveva messo in dubbio lo stesso diritto all’esistenza.4 Diversamente vanno le cose nella tradizione Il significato di ‘epistemolofilosofica anglosassone, nella quale di solito l’epi- gia’ nella cultura anglosassostemologia è assimilata alla “teoria della cono- ne scenza” ed è pertanto distinta dalla filosofia della scienza. Ad esempio, nell’opera La filosofia, curata da Paolo Rossi, nel capitolo dedicato alla “Teoria della conoscenza”, l’autore si attiene all’uso corrente nella letteratura di lingua inglese nel «considerare come sinonimi ‘teoria della conoscenza’, ‘epistemologia’ e il più arcaico ‘gnoseologia’»5. 2!Per tale assimilazione vedi Pasquinelli, “Filosofia della scienza (epistemologia)”, in Enciclopedia Feltrinelli-Fischer, Feltrinelli, Milano 1972, vol. 14, p. 184. A tale impostazione Pasquinelli si attiene anche in Nuovi principi di epistemologia, Feltrinelli, Milano 1974 (6ª ed.). Fa eccezione Abbagnano (Dizionario di filosofia, UTET, Torino, 1971), che assimila del tutto epistemologia e teoria della conoscenza o gnoseologia. In Francia la tradizione comtiana ha fatto assimilare la filosofia della scienza con l’epistemologia già in E. Meyerson (cfr. F. Minazzi, “L’epistemologia tra teoria e storia”, in Storia della Filosofia, diretta da M. Dal Pra, vol. 11, La filosofia contemporanea. Seconda metà del Novecento, tomo I, a cura di G. Paganini, p. 439); vedi anche Foulquié (Dictionnaire de la langue philosophique, PUF, Paris 19865, p. 217) e A. Lalande (Dizionario critico di filosofia ISEDI, Milano 196810, pp. 256-7), che distingue chiaramente tra teoria della conoscenza ed epistemologia, in quanto quest’ultima «studia la conoscenza dettagliatamente e a posteriori, nella diversità delle scienze e degli oggetti piuttosto che nell’unità dell’intelletto». 3!Aa.Vv. Enciclopedia Garzanti di Filosofia, Garzanti, Milano1981, p. 256. Analogamente in Aa.Vv., Enciclopedia filosofica, a cura del Centro Studi di Gallarate, Sansoni, Firenze 1968, p. 886): «Benché il termine si trovi tuttora usato in altri significati (teoria del conoscere, gnoseologia), il significato dominante è quello di indagine critica intorno alle scienze naturali e matematiche (‘scienza’ o ‘scienze’ del linguaggio corrente)» (voce redatta da F. Amerio). 4 V. Cappelletti, “Epistemologia”, in Enciclopedia del Novecento, Ist. della Encicl. Italiana, Roma 1977, vol. II, pp. 695-8. Conferma questa tendenza tipicamente italiana la voce “Epistemologia” contenuta in D.F. Runes (a cura di), Dizionario di filosofia, Mondadori, Milano 1972, p. 291, scritta da Aldo Devizzi, che ha “tradotto ed integrato” l’originale inglese e che identifica l’epistemologia in generale con la filosofia della scienza, aggiungendo che «a volte, ma oggi più raramente, il termine sta ad indicare la teoria della conoscenza, che con più precisione si denomina gnoseologia». 5 A. Pagnini, “Teoria della conoscenza”, in La filosofia, a cura di P. Rossi, vol. III, L e 5/229 Lezioni di logica e filosofia della scienza Secondo questa interpretazione, dunque, l’epistemologia (sia essa considerata solo una branca della teoria della conoscenza o venga con quest’ultima in toto identificata), dovrebbe occuparsi «della natura e degli scopi della conoscenza, dei suoi presupposti e delle sue basi e della generale affidabilità delle pretese di conoscenza».6 L’epistemologo, da questo punto di vista, «si occupa non di sapere se o come possiamo affermare di conoscere qualche cosa particolare, ma se siamo giustificati nel sostenere la conoscenza di qualche intera classe di verità o, anche, se la conoscenza è in ogni caso possibile»7. E ancora più recentemente si equipara l’epistemologia alla teoria della conoscenza e la si definisce come «la branca della filosofia che concerne l’indagine sulla natura, le fonti e la validità della conoscenza. Fra le questioni chiave cui essa tenta di rispondere ci sono: Che cos’è la conoscenza? Come possiamo ottenerla? Possiamo difendere i mezzi che ci permettono di ottenerla dalla sfida scettica?»8. Anche in Polonia, paese che ha avuto in questo secolo un ruolo di primo piano nel campo delle ricerche logico-epistemologiche9, prevale questo modo di intendere il concetto di epistemologia, sulla base dell’insegnamento di Kazimierz Ajdukiewicz, per il quale teoria della conoscenza, epistemologia e gnoseologia sono da intendere come sinonimi, in quanto tutti hanno come oggetto ciò che egli chiama la “scienza della conoscenza”.10 2. L’epistemologia come teoria della conoscenza Vediamo ora in che modo è stata concepita I quesisti che si pone l’epistetradizionalmente l’epistemologia, considerata nel- mologia tradizionale l’accezione anglosassone, cioè come teoria della conoscenza in generale. Il suo problema centrale consiste nell’individuare i criteri e i caratteri che devono essere presi in considerazione per giungere alla conoscenza del reale. Esso, è di solito articolato in alcuni classici quesiti: (a) Che cos’è la conoscenza? discipline filosofiche, UTET, Torino 1997, p. 110. 6 D.W. Hamlyn, “Epistemology, History of”, in The Encyclopedia of Philosophy, New York/London, vol. 3, pp. 8-9. 7 Ib., p. 9. 8 A.C. Grayling, “Epistemology”, in Blackwell Companion to Philosophy, ed. by N. Bunnin, E.P. Tsui-James, Blackwell, Oxford 1996, p. 38; vedi anche J. Dancy, Introduction to Contemporary Epistemology, Blackwell, Oxford 1996, p. 1; J. Greco, “Introduction: What is Epistemology?”, in J. Greco, E. Sosa (eds.), The Blackwell Guide to Epistemology, Blackwell, Oxford 1999; D.H. Ruben, Explaining Explanation, Routledge, London and New York 1990, pp. 2-3; M. Bunge, Exploring the World. Epistemology & Methodology I, vol. 5 di Treatise on Basic Philosophy, Reidel, Dordrecht 1974-86, pp. 1-3. 9!Cfr. F. Coniglione, Nel segno della scienza. La filosofia polacca del Novecento, Angeli, Milano 1996. 10!Cfr. K. Ajdukiewicz, Problems and Theories of Philosophy, Cambridge Univ. Press, London 1973. 6/229 Lezioni di logica e filosofia della scienza • • • • (b) Come dovremmo arrivare ad essa? (c) Come ci arriviamo? (d) I processi con cui ci arriviamo sono i medesimi di quelli con cui dovremmo arrivarci? La concezione tradizionale dell’epistemologia ritiene che: La conoscenza sia definibile come credenza vera giustificata: credenza (belief), in quanto essa consiste in uno stato psicologico del soggetto il quale possiede certe idee (o ‘credenze’), di solito espresse in forma proposizionale (del tipo: “la moglie di mio fratello Giovanni ha i capelli rossi”); vera, in quanto tali credenze non possono essere il mero frutto della fantasia, ma devono in qualche modo rispecchiare o corrispondere o informarci sulla realtà che hanno come oggetto; giustificata, in quanto non è sufficiente che le nostre credenze siano vere (potremmo aver azzeccato per caso, come capita con le estrazioni del lotto), ma è necessario che abbiamo delle ragioni o motivi per ritenerle tali, cioè che siamo in grado di giustificare perché esse sono vere. Sia compito dei filosofi rispondere al quesito (b), concernente il quid juris, cioè quali siano le regole che bisogna seguire per pervenire alla conoscenza, intesa come credenza vera giustificata (ad esempio proponendo la teoria coerentista della giustificazione e della verità, oppure stabilendo dei criteri di accertamento empirico che diano sufficienti garanzie affinché la credenza cui perveniamo sia effettivamente giustificata e vera); Competa agli psicologi (o anche ai sociologi) la risposta alla domanda (c), concernente il quid facti, ovvero il modo in cui effettivamente si comportano gli individui nel procurarsi le loro conoscenze (ad es., potrebbero anche, per sapere che tempo farà domani, leggere nella sfera di cristallo, consultare uno stregone della pioggia o rivolgersi a un metereologo); Sia possibile, infine, effettuare una comparazione tra le risposte date alle domande (b) e (c) in modo da poter anche rispondere alla domanda (d)11. È tipico dell’epistemologia tradizionale cercare di rispondere a tali quesiti «mediante la riflessione su casi possibili. Gli epistemologi descrivono i casi possibili, consultano le loro intuizioni per sapere se siano o no in presenza di una conoscenza e decidono su questa base se il caso esaminato dimostri o meno che l’analisi proposta sia errata. Ancora una volta, il compito è portato avanti solo da un epistemologo seduto in poltrona, senza l’aiuto della scienza»12. Ciò che è importante rilevare è che fa parte di questo modo di intendere il lavoro dell’epistemologo la tesi che 11 Cfr. H. Kornblith, “Introduction: What is Naturalistic Epistemology?” (1988), in Id. (ed.), Naturalizing Epistemology, MIT Press, Cambridge/London 19942, p. 3. 12 R. Feldmann, “Naturalized Epistemology”. In: Stanford Encyclopedia of Philosophy, ed. 2001, § 1, http://plato.stanford.edu / entries / epistemology-naturalized/. 7/229 Lezioni di logica e filosofia della scienza la risposta alla domanda (c) non ha alcuna rilevanza per la domanda (b). Nessun epistemologo tradizionale si sognerebbe di consultare un libro di testo di neurofisiologia per sapere, ad esempio, se le nostre credenze percettive sono affidabili o meno, in quanto la sua domanda sta a monte di questa stessa consultazione: trarre informazioni da un manuale di psicologia o neurofisiologia significa già conoscere ed egli si domanda se già questa conoscenza sia conoscenza; per cui l’epistemologia rivendica una priorità concettuale e metodologica sulla scienza13. Intesa in tal modo, l’epistemologia assume il Il carattere normativo dell’ecarattere di una disciplina normativa14; essa, pistemologia e suo atteggiacioè, non si limita a descrivere i processi mento ‘fondazionalistico’: la conoscitivi effettivamente messi in atto dagli prima philosophia individui (questo è compito, abbiamo visto, dello psicologo o al limite del sociologo), ma indica delle norme sul modo in cui si debbono condurre le nostre attività cognitive allo scopo di ottenere una conoscenza vera e giustificata. Ciò la porta a porsi un compito assai ambizioso: quello di trovare il fondamento delle pretese di conoscenza avanzate dall’umanità, in ogni suo aspetto e campo disciplinare, ivi compreso quello proprio della scienza naturale. È questa la prospettiva che si chiama “fondazionalistica”: compito dell’epistemologia sarebbe fornire alla scienza una base sicura, una classe di credenze indubitabili, di dati immediati, che stanno a fondamento di tutte le altre e sulle quali costruire l’intera conoscenza scientifica15. In tal modo, per così dire, lo scienziato (il fisico, il chimico ecc.) deve richiedere la garanzia di autenticità dei propri risultati all’epistemologo, che gli rilascerebbe una sorta di certificato attestante il loro carattere di “fondata o giustificata conoscenza”. Il filosofo, dunque, a cui spetta il compito della riflessione epistemologica, si pone compiti assai ambiziosi: ambisce alla fondazione della conoscenza scientifica (vista come specificazione esemplare della conoscenza in generale) in quanto è lui in grado di risolvere in generale il problema della conoscenza; e ciò deve essere attuato facendo ricorso solo alle proprie forze, solo alla filosofia in quanto filosofia, in un genuino sforzo teoretico che trae le proprie argomentazioni e tesi dalla generale capacità razionale umana. Nella 13 Come afferma J.K. Crumley, «le asserzioni della conoscenza scientifica non possono essere usate nelle indagini dell’epistemologo se esso vuole comprendere come tale conoscenza è in primo luogo possibile. Non solo il richiamo alla scienza sembra scavalcare la domanda epistemologica, ma la scienza sembra fornire il genere sbagliato di risposta. La scienza descrive e spiega; non è affar suo rispondere alle domande normative. La scienza afferma di dirci come stanno le cose. Non ci dice ciò a cui dovremmo credere. Essa in effetti non ci dice, e per alcuni non può dirci, se noi dovremmo credere alla miriade di affermazioni scientifiche». Ne segue che «il metodo scientifico dà per garantito ciò che l’epistemologo vuole spiegare» (“Naturalized Epistemology”, in Id. (ed.), Readings in Epistemology, Mayfield Publishing Co, Mountain View 1999, p. 445). 14 Cfr. J. S. Crumley II, “Epistemology and the Nature of Knowledge”, in Id. (eds.), Readings in Epistemology, Mayfield Publishing Company, Mountain View (California) 1999, p. 3. 15 E’ su questa accezione di epistemologia, ad es., che viene costruito tutto il discorso ‘antifondazionalista’ di Richard Rorty nel suo fortunato volume La filosofia e lo specchio della natura (1979), Bompiani, Milano 1986. 8/229 Lezioni di logica e filosofia della scienza sostanza l’orizzonte problematico in cui si pone l’epistemologia è definito dalla necessità di rispondere alla sfida scettica, dissipando l’ombra del dubbio dalle nostre conoscenze con l’assicurare loro una fondazione certa ed indubitabile. Pertanto l’epistemologia viene intesa come una sorta di filosofia fondamentale o prima philosophia, e si pone in perfetta continuità con quella sua tradizionale attività che ne ha segnato l’intera storia e che è stata di solito indicata come “problema gnoseologico”. La sua storia verrebbe così a coincidere tout court con quella del problema della conoscenza, ad iniziare dalla grecità classica: la maggior parte dei suoi problemi sono i medesimi di quelli discussi in dettaglio da Platone, Aristotele e dagli scettici antichi.16 Tuttavia il problema della conoscenza è stato Origini cartesiane della posto in modo esemplare e radicale in età moder- epistemologia, come ‘giudice’ na con il filosofo francese René Descartes (Car- nei confronti della scienza tesio, 1596-1650), che ha posto le fondamenta della epistemologia come branca autonoma della filosofia e ne ha tracciato le coordinate concettuali che da allora in poi segneranno il dibattito successivo: «l’agenda epistemologica di Cartesio è stata l’agenda dell’epistemologia Occidentale sino ad oggi»17. In essa sono iscritti i problemi epistemologici fondamentali che da allora in poi tormenteranno i filosofi e costituiranno la carta di identità della disciplina. Le proposte di Cartesio costituivano una prospettiva unitaria caratterizzata da: (a) una assunzione fondazionalista: una credenza può essere considerata autentica conoscenza quando è fondata su di una base indubitabile; (b) da un ideale deduttivista, per cui è possibile quella conoscenza che si può derivare da tale fondamento immune da errori, così rispondendo al dubbio scettico; (c) dalla conseguente ricetta per ottenere autentica conoscenza: dobbiamo scartare tutte quelle credenze che non siano immuni da dubbi o che non possono essere a queste ricondotte mediante una catena inferenziale18. Era questa una proposta che risentiva ancora di un insufficiente sviluppo del pensiero scientifico, per cui era modellata più sulla matematica che sul metodo delle scienze empiriche. Tuttavia in essa sono contenuti i temi che da allora hanno affaticato i teorici della conoscenza: il riconoscimento dei contenuti della coscienza (le “idee”) quale punto di partenza del processo conoscitivo e quindi il problema del rapporto o “ponte” tra il soggetto e l’oggetto, con la connessa esigenza di rinvenire i criteri che possono assicurare la corrispondenza tra concetti e realtà. L’impostazione cartesiana ha talmente segnato l’epistemologia classica 16 J. Chisholm, The Foundations of Knowing, Harvester Press, Brighton 1982, p. 109. Non a caso Pagnini (op. cit., pp. 113-6), identificando epistemologia e teoria della conoscenza, fa coincidere poi quest’ultima integralmente col tentativo di rispondere alle sfide dello scetticismo. 17 J. Kim, “What Is ‘Naturalized Epistemology’?”, in J.S. Crumley II (ed.), op. cit., p. 467. I più rappresentativi epistemologi del Novecento che ancora rimangono fedeli al programma cartesiano sono da Kim ritrenuti B. Russell, C.I. Lewis, R. Chisholm e A.J. Ayer. 18 Cfr. H. Kornblith, “In Defense of a Naturalized Epistemology”, in J. Greco & E. Sosa, eds., The Blackwell Guide to Epistemology, Blackwell, Malden MA / Oxford 1999, p. 159. 9/229 Lezioni di logica e filosofia della scienza da esser visto nel suo abbandono una svolta radicale o addirittura la sua “morte”, causata in primo luogo dalle critiche ad essa portate dai cosiddetti teorici “antifondazionalisti”. Questi, infatti, criticano e delegittimano l’epistemologia in quanto vedono in essa «una disciplina non empirica, la cui funzione è di sedere in giudizio circa tutte la pratiche discorsive particolari in vista di determinarne lo statuto cognitivo. L’epistemologo […] è un professionista attrezzato in modo da determinare quali forme di giudizio sono ‘scientifici’, ‘razionali’, ‘meramente espressivi’ e così via»19. Essi contestano, insomma, la tendenza tipica dell’epistemologo ad assumere il carattere di giudice nei confronti della scienza, dichiarandola priva di valore conoscitivo qualora non si attenga ai criteri e ai desiderata da esso stabiliti. 3. La filosofia della scienza come disciplina autonoma Coloro che propendono, invece, ad assimilare Assimilazione della ‘el’epistemologia alla filosofia della scienza pistemologia’ alla filosofia intendono quest’ultima come una disciplina in della scienza e suo carattere gran parte autonoma rispetto alla gnoseologia e metadiscorsivo alla teoria della conoscenza, assegnandole un preciso compito ed ambito: «Scopo di tale disciplina non è tanto costituire un fondamento oppure un’estensione delle scienze quanto piuttosto affrontare o descrivere il proprio oggetto – cioè le scienze stesse – dal punto di vista metodologico e critico. Ciò a cui i filosofi sono interessati è quindi descrivere l’attività scientifica isolandone quelle che considerano le proprietà generali e le forme caratteristiche, analizzando concetti usati non tanto dagli scienziati nel loro lavoro quanto dai filosofi nel descrivere ciò che gli scienziati fanno […]!Scopo della filosofia della scienza sarebbe, in questo caso, ricostruire in modo razionale i metodi impiegati dalla scienza oggetto della propria considerazione»20. È evidente che in questo caso la filosofia della scienza viene considerata come un’attività “riflessa”: l’analisi dei concetti adoperati dalla scienza e dei risultati cui essa perviene (quali leggi e teorie) è il dato di partenza per arrivare a delle considerazioni sul modo di procedere degli scienziati, sulla natura delle loro asserzioni e sul metodo da essi adoperato. Non a caso, in riferimento a tale precipuo suo carattere metadiscorsivo, ci si riferisce alla filosofia della scienza anche col nome di “metascienza” o di “scienza della scienza”21. 19!M. Williams, “Death of epistemology”, in A Companion to Epistemology, ed. by J. Dancy and E. Sosa, Blackwell, Oxford 1992, p. 89. 20!R. Lanfredini, “Filosofia della scienza”, in La filosofia, a cura di P. Rossi, vol. I, L e discipline filosofiche, UTET, Torino 1997, p. 70. 21!Cfr. D. Oldroyd, Storia della filosofia della scienza, Il Saggiatore, Milano 1989, pp. 4-5. 10/229 Lezioni di logica e filosofia della scienza Intesa in tal modo, l’epistemologia rivendica La rivendicazione dell’autoun’autonomia disciplinare e scientifica rispetto nomia della epistemologia alla teoria della conoscenza o alla “gnoseologia”, rispetto alla gnoseologia termine più tradizionalmente impiegato nei manuali di storia della filosofia. Tale piena autonomia è stata rivendicata in particolare per la prima volta nella filosofia tedesca del XIX secolo, che ha introdotto la distinzione tra Wissenschaftlehre [dottrina della scienza] e Erkenntnislehre [dottrina della conoscenza]: la prima stava appunto ad indicare l’epistemologia intesa come metodologia o teoria della ricerca scientifica, mentre la seconda veniva ad indicare la tradizionale filosofia della conoscenza (o gnoseologia).22 Tale emancipazione dell’epistemologia dalla La posizione ancora ambigua sua progenitrice filosofica, la gnoseologia, non è di Russell tuttavia un processo lineare. Così, ad esempio, può capitare che un autore come Bertrand Russell, che pure ha inteso la pratica della filosofia in stretta connessione con l’indagine scientifica, ancora agli inizi del secolo tenda a intendere l’epistemologia come mera gnoseologia: «Il problema centrale dell’epistemologia è il problema di distinguere tra le credenze vere e quelle false, e di trovare, in quanti più campi è possibile, criteri di credenza vera all’interno di quei campi», per cui «possiamo definire l’epistemologia nei termini di questo problema, cioè come l’analisi della credenza vera e falsa e dei loro presupposti, insieme con la ricerca di criteri di credenza vera»23. Ne consegue che la teoria della conoscenza non deve presupporre una conoscenza della fisica, la quale serve semmai a “saggiare” la nostra epistemologia e non a fornire le premesse su cui essa dovrebbe costruirsi. Insomma, la scienza, secondo questa prospettiva “gnoseologistica”, avrebbe dovuto essere fondata nel suo valore conoscitivo dalla gnoseologia generale. Tale impostazione muta, però, all’esordio La svolta con il Circolo di dell’epistemologia contemporanea, che possiamo Vienna far coincidere con le attività dei filosofi afferenti o vicini al Circolo di Vienna, fondato da Moritz Schlick nel 1929. Benché nel suo seno venga spesso ancora adoperata la locuzione “teoria della conoscenza” (o “gnoseologia”), nell’epistemologia si tende a vedere sempre più, non lo studio della conoscenza in generale, bensì di quel suo particolare tipo che viene esemplarmente incarnato nella scienza.24 Essa, pertanto, assume come dato di fatto che la scienza sia la forma conoscitiva par excellence, che ha dato prova concreta di sé nella spiegazione e comprensione della natura e nei risultati tecnici conseguiti, sicché compito 22 Cfr. M. Hempoliƒski, Filozofia współczesna. Wprowadzenie do zagadnieƒ i kierunków [La filosofia contemporanea. Introduzione ai problemi ed agli indirizzi], PWN, Warszawa, 1989, p. 349. 23 B. Russell, Teoria della conoscenza (1913), Newton, Roma 1996, p. 120. 24 Cfr. W. Gasparski, “Teoria poznania” [Teoria della conoscenza], in Filozofia a nauka [Filosofia e scienza], Ossolineum Wrocław et al. 1987, p. 708. 11/229 Lezioni di logica e filosofia della scienza del filosofo (che così si identifica con l’epistemologo) è capirne la struttura e il modus operandi, senza pretendere di prevaricarla o influenzarla nei suoi contenuti specifici. In tale approccio era implicita (ma spesso anche programmaticamente dichiarata) la speranza che, una volta compreso l’arcano che rende la scienza conoscitivamente efficace, fosse possibile poi applicarlo agli altri campi dell’umana attività pratico-teorica. In tal modo il rapporto viene capovolto: non è la gnoseologia a giudicare della scienza, ma l’epistemologia a giudicare di ogni pretesa conoscitiva diversa da quella incarnata nella scienza. La ridefinizione del compito dell’epistemologia avviene, per Hans Reichenbach, in seguito alla crisi dell’impostazione trascendentale kantiana (da lui criticata): compito dell’epistemologia «non sarà più, come Kant pretendeva, l’indagine critica della ragion pura, bensì l’analisi logica della conoscenza scientifica concretamente data»;25 la critica al kantismo porta a «introdurre il “metodo della analisi della scienza” nell’indagine gnoseologica, anticipando la concezione della filosofia che verrà fatta propria dai Circoli di Vienna e Berlino».26 La transizione dalla teoria della conoscenza (o gnoseologia) al significato più tecnico di epistemologia è chiaramente espresso all’atto di fondazione della rivista ufficiale del Circolo di Vienna, “Erkenntnis”, quando uno dei suoi più significativi esponenti, Rudolf Carnap, enuncia il compito e i caratteri del “nuovo metodo scientifico di filosofare” di cui la rivista si vuole fare portatrice. Esso infatti «potrebbe forse essere molto brevemente caratterizzato come analisi logica degli enunciati e dei concetti della scienza empirica. Con ciò sono indicati i due principali contrassegni che distinguono questo metodo da quello della filosofia tradizionale. Il primo consiste nel fatto che questo filosofare si svolge in stretta connessione colla scienza empirica, e in genere solo con essa, in modo che non viene più riconosciuta una filosofia come particolare settore di conoscenza, accanto o al di là della scienza empirica. Il secondo indica in che cosa consiste il lavoro filosofico riguardante la scienza empirica: consiste nella chiarificazione dei suoi enunciati mediante l’analisi logica; più particolarmente: nella scomposizione degli enunciati in parti (concetti), nella riduzione graduale dei concetti a concetti più fondamentali, e nella riduzione graduale degli enunciati a enunciati più fondamentali»27. Qualche anno dopo, nella 25 P. Parrini, “Empirismo logico e filosofia della scienza”, in Storia della filosofia, a cura di M. Dal Pra, Piccin-Vallardi, Padova, vol. 10, 2ª ed., p. 434. 26 Ibidem. 27 R. Carnap, Sintassi logica del linguaggio (1934), Silva, Milano 1966, pp. 3-4. Con ciò Carnap abbandona il vecchio progetto fondazionista che aveva ancora coltivato nella sua Costruzione logica del mondo (1928), nella quale si proponeva il compito di fornire una fondazione della scienza su solide basi non metafisiche, coll’adottare un punto di vista fenomenistico, con ciò assegnando ancora alla filosofia, per quanto resa scientifica, il compito giustificare il valore conoscitivo della scienza. Tuttavia quest’opera, benché pubblicata nel 1928, cioè dopo lo stabilimento del suo autore a Vienna (avvenuto nel 1926) e quindi quando già partecipava alle attività del Circolo di Vienna, era stata già finita nel 1925 ed ancora risentiva delle discussioni e dei progetti fondazionali che negli anni 1923-1926 egli coltivava insieme al suo 12/229 Lezioni di logica e filosofia della scienza Sintassi logica, l’epistemologia coincide tout court con la logica della scienza.28 La fondazione della episteAll’incirca negli stessi anni Popper, dopo aver mologia come teoria della identificato (nel volume che raccoglie quanto scienza su base trascenrimasto del manoscritto preparatorio alla Logica dentale in Popper della scoperta scientifica) la teoria della conoscenza con l’epistemologia, intende poi quest’ultima come teoria generale del metodo delle scienze empiriche: «La teoria della conoscenza è scienza della scienza: sta alle scienze empiriche speciali come queste stanno alla realtà empirica.»29 Recuperando in una sua accezione peculiare il trascendentale kantiano, Popper sostiene che «le asserzioni e le costruzioni dei concetti propri della teoria della conoscenza devono essere messe criticamente alla prova in base al procedimento effettivo di fondazione in uso nelle scienze empiriche; e soltanto questo controllo trascendentale è in grado di decidere del destino di tali asserzioni.»30 La scienza non deve essere messa in discussione dalla filosofia, né tanto meno da essa giustificata; è piuttosto il contrario, in quanto la conoscenza scientifica è un faktum, come aveva per primo indicato Kant, che la teoria della conoscenza non deve e non può mettere in dubbio, ma solo spiegare.31 Ne segue l’intento esplicitamente antifondazionista di Popper, in quanto a suo avviso la teoria della conoscenza «non si propone di fondare nessuna conoscenza: essa si attiene al punto di vista che ogni scienza - non importa se si tratti di una scienza speciale o della teoria della conoscenza - deve prendersi cura di se stessa: ogni scienza deve giustificare da sé le sue proprie asserzioni, deve fornire da sé i fondamenti delle proprie conoscenze, indipendentemente dal fatto che si tratti di un fondamento ‘ultimo’ o di un fondamento ‘primo’; infatti soltanto attraverso la fondazione metodica delle proprie asserzioni una scienza diventa scienza.»32 Nella Logica della scoperta scientifica di qualche anno dopo tale transizione, benché non più collegata alla ripresa dell’impostazione trascendentale, viene ribadita, per cui si afferma con nettezza che «[…] l’epistemologia, o dottrina della scoperta scientifica, dev’essere identificata con la interlocutore principale, Hans Reichenbach. Sicché, contrariamente a quanto di solito si sostiene, quest’opera non può essere considerata una tipica espressione del positivismo logico come venutosi a formare a Vienna, bensì un’opera di transizione, le cui tesi più caratteristiche saranno in seguito profondamente reinterpretate e modificate. Cf. per tale approccio all’opera di Carnap il fondamentale volume di R. Cirera, Carnap and the Vienna Circle. Empiricism and Logical Syntax, Rodopi, Amsterdam / Atlanta 1994, pp. 1-42. 28 Cfr. R. Carnap, “Von Erkenntnistheorie zur Wissenschaftslogik”, in Actes du Congrés Internationale de Philosophie Scientifique, Sorbonne, Paris 1936. Vol. 4, Induction et Probabilité, Hermann, Paris 1936, p. 430. [Trad. inglese come “Truth and Confirmation” in: Feigl & Sellars 1949: 119-27] 29 K. Popper, I due problemi fondamentali della teoria della conoscenza (1930-33), Il Saggiatore, Milano 1987, p. 8. 30 Ib., p. 58. 31 Cfr. ib., p. 59. 32 Ib., p. 111. 13/229 Lezioni di logica e filosofia della scienza teoria del metodo scientifico»33, in quanto solo lo studio di quest’ultimo può gettare lumi sulla crescita della conoscenza, che ha costituito da sempre l’oggetto dell’epistemologia. Con ciò viene affermato con decisione il carattere paradigmatico attribuito alla scienza come luogo di massima realizzazione della conoscenza e della razionalità umana e viene sanzionato il nuovo significato di epistemologia: «Il problema centrale dell’epistemologia è sempre stato, e ancora è, il problema dell’accrescersi della conoscenza. E l’accrescersi della conoscenza può essere studiato, meglio che in qualsiasi altro modo, studiando l’accrescersi della conoscenza scientifica».34 È proprio questo il significato con cui hanno L’epistemologia intesa in inteso la “teoria della conoscenza” – come ancora modo antifondazionista nel veniva spesso definita – coloro che le hanno dato neopositivismo origine, fondandola su basi logico-linguistiche, cioè sia quei filosofi, logici e scienziati che si è soliti, con una certa semplificazione, riunire sotto la comune denominazione di “neopositivisti” (oppure “neoempiristi” o “empiristi logici”), sia chi a tale impostazione si è con più vigore opposto (come Popper); e ciò allo scopo di chiaramente demarcare scienza e metafisica, razionalità logico-analitica e razionalità storico-dialettica. Dunque, un programma che consuma al suo interno i residui fondazionistici che gli pervenivano dalla tradizione della vecchia gnoseologia (e la cui permanenza è presente in alcuni suoi antesignani, come abbiamo visto con Russell, e rappresentanti, come Schlick, ed in alcune particolari fasi del pensiero di altri) per porsi con sempre maggiore chiarezza su di un piano di analisi alternativo a quello fondazionalista - diversamente da quanto hanno sostenuto recentemente Quine, Rorty e Giere35 - che invece era stato tipico della teoria della conoscenza intesa tradizionalmente. Come afferma Friedman, «i positivisti logici […] hanno respinto con forza una concezione fondazionalista della filosofia rispetto alle scienze speciali. Non v’è alcun punto privilegiato dal quale la filosofia possa sottoporre a giudizio epistemico le scienze speciali: si ritiene piuttosto che essa debba tenere dietro alle scienze speciali in modo da rettificare se stessa in risposta ai risultati da esse acquisiti.»36. Una posizione del resto ben documentata negli scritti dei maestri del neopositivismo, per i quali era ben chiaro, come sostiene Reichenbach in polemica con l’impostazione neocriticista, che «la pretesa secondo cui la gnoseologia dovrebbe giustificare gli ultimi fondamenti della conoscenza della realtà, nello sviluppo storico della teoria 33 K. Popper, Logica della scoperta scientifica (1934), Einaudi, Torino 1970, p. 32. K. Popper, “Prefazione alla prima edizione inglese”, in Id., Logica della scoperta scientifica, cit., p. xxii. Corsivo di Popper. 35 Vedi W.V.O. Quine, “L’epistemologia naturalizzata”, in Id., La relatività ontologica e altri saggi, Armando, Roma 1986; R. Rorty, La filosofia e lo specchio della natura, cit.; R.N. Giere, Spiegare la scienza (1988), Il Mulino, Bologna 1996, pp. 47-8. 36 M. Friedman, “The Re-evaluation of Logical Positivism”, in Journal of Philosophy, 88 (1991), p. 515. Invece J. Kim (op. cit., p. 469) ritiene il positivismo logico come un movimento tipicamente fondazionalistico in quanto per esso l’osservazione serve a fondare non solo la conoscenza ma anche ogni significato cognitivo e quindi costituisce un fondamento sia epistemologico che semantico. 34 14/229 Lezioni di logica e filosofia della scienza della conoscenza si è dimostrata insostenibile»37; onde l’avvertenza che «per la teoria della conoscenza non può esservi altro procedimento che stabilire quali siano i principi di fatto impiegati nella conoscenza».38 Sono queste le ragioni che ci hanno portato ad indicare nell’elaborazione teorica del Circolo di Vienna la nascita della vera e propria epistemologia nel senso odierno, distinta dalla gnoseologia o teoria della conoscenza, ovvero come vera e propria filosofia della scienza. Non è quella sinora esposta una semplice questione terminologica. Non si tratta di escogitare una nuova etichetta per un contenuto che rimane sostanzialmente immutato, ma di definire un nuovo ambito disciplinare, un nuovo modo di guardare al lavoro della scienza e della filosofia. Se infatti si assimilano epistemologia e filosofia della scienza, allora bisogna decidersi per quale delle due accezioni prima esaminate si intende optare (se per la versione “normativa” o per quella “descrittiva”); se invece le si distingue potrebbero ben esser conservati tali due modi diversi di intenderle (assegnando all’epistemologia un carattere normativo ed alla filosofia della scienza uno descrittivo), attribuendo a ciascuno di essi un suo ambito, un suo scopo ed una sua dignità teorica. Infatti, dal modo in cui si concepisce la filosofia della scienza e l’epistemologia (ma anche la gnoseologia e la teoria della conoscenza) derivano anche le diverse strategie che ne caratterizzano il lavoro teorico, le soluzioni che di conseguenza ci si può aspettare e i diversi giudizi che si possono dare circa l’adeguatezza dei loro risultati. Così, per riprendere il caso prima citato, un’impostazione antifondazionalista non può che presupporre un modo particolare di concepire l’epistemologia, assai simile a quello che abbiamo visto è stato il modo di intendere la filosofia della scienza. Non bisogna dunque lasciarsi sviare dalle etichette e così criticare, in quanto “fondazionalista”, chi in effetti aspira a praticare una sobria filosofia della scienza, per il solo fatto che questi si riferisce al proprio lavoro col termine di “epistemologia”, inteso dal critico nella sua accezione di “teoria della conoscenza” e quindi carico di intenzionalità fondazionistiche e normative. Quale criterio di distinzione tra queste due Il carattere discriminante delaccezioni si potrebbe assumere la posizione nei la posizione assunta verso lo confronti dello scetticismo: se ci si pone il scetticismo compito di rispondere, mediante argomentazioni di carattere filosofico, al dubbio da questo posto - e quindi ci si pone in continuità con la sua problematica - allora abbiamo a che fare con l’epistemologia nell’accezione criticata dagli antifondazionalisti; se viceversa si ritiene questo dubbio assorbito e dissolto dalla pratica della scienza, sicché questa viene a costituire il paradigma della conoscenza in 37 H. Reichenbach, “Causalità e probabilità” (1930), in Il Neoempirismo, a cura di A. Pasquinelli UTET, Torino1969, p. 450. Ma vedi anche quanto scritto da Reichenbach in “Scopo e metodi della moderna filosofia della natura” (1931), in Id., L’analisi filosofica della conoscenza scientifica, Marsilio, Padova, 1968, pp. 109-115. 38 H. Reichenbach, Relatività e conoscenza a priori (1920), Laterza, Bari 1984, p. 125. 15/229 Lezioni di logica e filosofia della scienza atto, allora ci si pone su di un piano non più fondativo, ma puramente descrittivo. E’ certamente vero, però, che nel continuo che Il continuum di normatività e va, da un massimo di descrittività (ed un minimo descrittività di normatività) ad un massimo di normatività (e un minimo di descrittività) si collocano molteplici opzioni teoriche e si posizionano le elaborazioni che hanno segnato il corso dell’epistemologia di questo secolo; ciò spiega come si siano spesso scambiate le denominazioni e le definizioni, attribuendo di volta in volta il nome di filosofia della scienza, epistemologia o teoria della conoscenza a prospettive che sono o alternative o tra loro assimilabili. Sicché forse la strategia più saggia non è quella di volere a qualunque costo definire il significato di espressioni quali “filosofia della scienza” o “epistemologia”, ma fare attenzione al grado di normatività (o di descrittività) in esse presente, evidenziando nelle diverse posizioni teoriche la presenza o meno (e in quale misura) della prospettiva fondazionalistica o il prevalere di un atteggiamento meno impegnato dal punto di vista normativo. 4. Alle origini della filosofia della scienza Non v’è dubbio che ad aver avuto un decisivo Il programma della “filosofia impulso nella nascita della filosofia della scienza scientifica “ e l’esigenza di di questo secolo è stata la duplice e convergente una collaborazione tra filoforza di impatto avuta sia dalla trasformazione sofia e scienza della scienza, col suo ruolo sempre più pervasivo nella vita della civiltà europea (vedi il capitolo secondo), sia dalla nascita della logica matematica contemporanea (vedi capitolo terzo). In tale clima, all’inizio del Novecento divenne parola d’ordine di molti filosofi, specie di formazione scientifica od addirittura scienziati, l’esigenza di rifondare la filosofia in modo da renderla “scientifica”. Si forma così una sempre più insistente campagna in favore della “filosofia scientifica”, locuzione che può avere, secondo Tatarkiewicz, tre significati diversi: «in primo luogo, che la scienza costituisce il fondamento della filosofia, che non ha altro lavoro da fare che trarre conclusioni generali dai suoi risultati. […] In secondo luogo che la scienza è l’oggetto della filosofia, che non deve essere nient’altro che teoria della scienza, indagine sulle sue assunzioni, finalità, metodi. […] In terzo luogo, che la scienza deve essere il modello per la filosofia, che deve porre e risolvere i suoi problemi secondo quegli stessi metodi e criteri, in base alle stesse esigenze di precisione, delle scienze particolari»39. In questi tre diverse accezioni è racchiuso il nascita della filosofia campo problematico che ispira tutti quegli scien- La scientifica nell’impero asburziati e filosofi che si collocano sotto la bandiera gico: la “Grande Vienna” 39 W. Tatarkiewicz, Historia filozofii (1950), PWN, Warszawa 1988, vol. III, p. 263. 16/229 Lezioni di logica e filosofia della scienza della “filosofia scientifica”. È questo un movimento che, originatosi all’inizio del secolo, affonda tuttavia le sue radici molto più lontano, al tempo in cui si affermò nel Seicento la scienza moderna ed è accomunato dalla comune esigenza di rendere sempre più rigorosa ed esatta la filosofia; di pervenire, insomma, ad una filosofia che tenesse conto dei risultati cui le scienze sperimentali erano pervenute nel corso dell’ultimo secolo40 e in un certo qual modo assumesse nei riguardi dei propri campi di indagine il medesimo rigore del quale aveva sinora fatto mostra la scienza. Le sue origini più prossime sono da rintracciare nell’impero multinazionale degli Asburgo di fine Ottocento, nella “Grande Vienna” in cui si mescolano diverse culture nazionali e convivono lingue e tradizioni diverse. Qui si afferma una cultura filosofica caratterizzata dall’accentuata tendenza analitica, in contrapposizione a quella sintetica tipica della Germania; dall’attenzione per il linguaggio, che con Fritz Mauthner arriva alla diagnosi della genesi linguistica dei problemi filosofici; dalla esigenza di una nuova interpretazione della scienza e quindi di una nuova filosofia ad essa adeguata; dall’attenzione per il rigore logico, alla ricerca di ciò che Musil chiamò “filosofia esatta”41. Una filosofia che fu tipicamente austriaca e che risentì più l’influenza dell’empirismo inglese e francese piuttosto che quella dell’idealismo classico tedesco o del kantismo.42 Ricorda Karl Menger, nel descrivere l’atmosfera filosofica di Vienna negli anni venti, che i filosofi austriaci non hanno mai dato alcun contributo al tipo di metafisica culminata con Fichte, Schelling ed Hegel e che i suoi più grandi pensatori, come Bolzano e Mach, preferivano coltivare la filosofia lungo linee scientifiche.43 Ma, occorre aggiungere, una cultura filosofica che non investì nella sua interezza la società viennese o le strutture accademiche ed educative, rimanendo appannaggio di un ristretto gruppo di intellettuali, di una élite che si riconosceva in informali “circoli” culturali tra loro interagenti. La cosiddetta avanguardia culturale viennese, che oggi si riassume in una serie di nomi che hanno inciso profondamente in tutti i campi della cultura europea (Arnold Schönberg, Gustav Klimt, Alfred Loos, Karl Kraus, Robert Musil, Sigmund Freud, nonché filosofi quali Brentano, Wittgenstein, Schlick, Frank, Hahn, Neurath), doveva scontrarsi con un’aristocrazia ed una borghesia culturalmente conservatrice, che vedeva con sospetto la prevalente matrice ebraica di molti di questi 40 Cfr. A. Grzegorczyk, Mała propedeutyka filozofii naukowej [Breve propedeutica alla filosofia scientifica], Inst. Wyd. Pax, Warszawa 1989, p. 13. 41 Cfr. M. Libardi, “In Itinere: Vienna 1870-1918”, in In Itinere. European Cities and the Birth of Modern Scientific Philosophy, ed. by R. Poli, Rodopi, Amsterdam / Atlanta 1997. 42 R. Haller, “On the Historiography of Austrian Philosophy”, in Rediscovering the Forgotten Vienna Circle, ed. by T. Uebel, Kluwer, Dordrecht / Boston / London 1991, pp. 41-2. Otto Neurath (Il Circolo di Vienna e l’avvenire dell’empirismo logico, 1935, Armando, Roma 1977, pp. 52-3) dà anche una spiegazione socio-politica di questo fatto, attribuendolo alla influenza della Chiesa e della Corte, che respingevano la filosofia di Kant e l’idealismo speculativo in quanto frutto della rivoluzione francese ed appoggiavano invece le posizioni dei seguaci di Leibniz. 43 K. Menger, Reminiscences of the Vienna Circle and the Mathematical Colloquium, Kluwer Academic Publishers, Dordrecht / Boston / London 1994, p. 18. 17/229 Lezioni di logica e filosofia della scienza intellettuali.44 Più esattamente la filosofia scientifica viene L’inizio della storia: Brentafatta iniziare nel 1874, anno in cui Franz Brentano no e la sua scuola ottenne la cattedra di filosofia a Vienna, dopo aver insegnato a Würzburg dal 1866 al 1873. Il suo insegnamento, che può essere sintetizzato nel motto «Vera philosophiae methodus nulla alia nisi scientia naturalis est»45, ebbe grande influenza nella vita culturale austriaca, nella quale fu attivo personalmente sino al 1895, quando lasciò Vienna per l’Italia (la sua cattedra di filosofia delle scienze induttive verrà occupata successivamente da Mach, L. Boltzmann e A. Stöhr). Il suo insegnamento si concretizzò nella formazione di un certo numero di discepoli che poi occuparono posti di rilievo in altre università, come Meinong (a Graz), Husserl (a Göttingen), Ehrenfels (a Praga), Höfler (a Vienna), Twardowski (a Leopoli), Stumpf (che ereditò la cattedra di Brentano a Würzburg). Non a caso Kevin Mulligan ha indicato una data precisa dell’inizio della filosofia scientifica e della sua contrapposizione alla filosofia tradizionale, di impostazione “storica”46: è il 1884, quando un discepolo di Brentano, Franz Hillebrand, scrive una celebre stroncatura della Introduzione alle scienze dello spirito di Dilthey, l’iniziatore dello storicismo tedesco ed erede della filosofia classica centroeuropea, in cui se ne denuncia la mancanza di rigore argomentativo, l’assoluta ignoranza delle più elementari regole logiche, nonché imprecisioni ed errori, oltre alla “oscurità” di uno stile che ha la pretesa di parlare della “vita” nella sua “totalità”. È l’inizio di una divaricazione tra due tradizioni filosofiche, poi sintetizzate nel binomio analitico-continentale, e che per il momento si esprime come contrapposizione tra una filosofia che aspira ad una sempre maggiore scientificità, sul modello delle scienze naturali ed esatte, ed una filosofia “storica”, intrisa di umori valutativi, problematica e dialettica, dall’argomentazione turgidamente carica dei sensi filtrati da una imprescindibile situazionalità storica. In contrapposizione a questa tendenza, Il significato di ‘filosofia Brentano e i suoi allievi condivisero una mede- scientifica’ nella scuola brensima concezione del significato della ricerca filo- taniana e le ‘costanti’ della sofica e del suo metodo: «tutti, almeno inizial- filosofia austriaca mente, sottoscrissero le virtù brentaniane di una analisi strettamente empirica (principalmente grazie alla psicologia), dell’antiidealismo, dell’accento posto sulla chiarezza e sull’obiettività, sul filosofare poco alla volta piuttosto che sistematico, e di tutto ciò che si riconduceva all’ossessione per la verità e la rappresentazione».47 Dunque filosofia scientifica significava per loro filosofia rigorosa, esatta, chiara, facente uso 44 Cfr. Libardi, op. cit., pp. 56-8. F. Brentano, Über die Zukunft der Philosophie (1929), Felix Meiner, Hamburg 1968, p. 136. 46 P. Simons, op. cit., p. 7. 46 Cfr. K. Mulligan, “Sulla storia e l’analisi della filosofia continentale”, in Iride 8 (1992). 47 P. Simons, op. cit., p. 7. 45 18/229 Lezioni di logica e filosofia della scienza di termini non ambigui, fondata sull’esperienza (il “nisi est in intellectus…” di derivazione aristotelica), “minimalista” ed aliena dalle grandi sintesi, preceduta dall’accurata descrizione dell’oggetto di indagine e facente uso dell’analisi logica dei concetti, ripudio della metafisica.48 Quattro, nella ricostruzione di Haller, sono i tratti che caratterizzano l’opera di Brentano e dei suoi discepoli: 1) temperamento empirista; 2) convinzione della necessità di praticare la filosofia con criteri scientifici; 3) attenzione per il linguaggio ed in particolare per gli errori commessi per sua causa; 4) antikantismo.49 Nello stesso periodo, alla fine del secolo, L’altra parte della storia: anche in Inghilterra, per vie autonome, si instaura Cambridge e il contributo di uno stile di pensiero ed una esigenza di riforma Moore e Russell della filosofia che va nella medesima direzione della scuola brentaniana austriaca. A Cambridge, Moore e Russell maturano il loro distacco e la loro critica nei confronti dell’idealismo allora dominante con le figure di F.H. Bradley (che aveva pubblicato nel 1893 il suo capolavoro Appearance and Reality) e di J. McTaggart. Dopo una breve fase definita come realismo platonico o pluralismo realistico platonico, Moore col suo classico articolo “The Refutation of Idealism” (1903) e i Principia ethica (1903) inaugura la cosiddetta “tradizione analitica inglese” col porre le basi per una filosofia realistica, in accordo con le verità del senso comune e facente uso del metodo della analisi dei concetti in contrapposizione al privilegiamento del punto di vista della totalità tipico della tradizione idealista. Nello stesso lasso di tempo avviene la formazione di Russell, più impregnata di interessi logico-matematici, che ricevono un vero e proprio impulso dalla conoscenza nel 1900 dell’opera del matematico e logico italiano Giuseppe Peano. Nascono così i suoi lavori miranti alla dimostrazione della tesi del logicismo, per la quale la matematica può essere fondata sulla logica, culminanti nell’opera scritta in collaborazione di Whitehead, i Principia Mathematica (1910-13), che avrà un vero e proprio valore paradigmatico per l’intero movimento della filosofia scientifica, in quanto indicherà lo strumento, il metodo, mediante il quale questa avrebbe potuto raggiungere i fini di rigore che si proponeva. Contestualmente a tale opera di riflessione sulla logica, nasce l’idea in Russell di poter fruire dei nuovi strumenti da 48 K. Mulligan, “Exactness, Description and Variation: How Austrian Analytical Philosophy Was Done”, in From Bolzano to Wittgenstein. The Tradition of Austrian Philosophy, ed. by J.C. Nyiri, Verlag Hölder-Pichler-Tempsky ,Vienna 1986; B. Smith, “Austrian Origins of Logical Positivism”, in The Vienna Circle and Lvov-Warsaw School, ed. by K. Szaniawski, Kluwer, Dordrech 1989. Riteniamo sia più corretto fare uso della locuzione “filosofia scientifica”, piuttosto che di quella tradizionale di “filosofia analitica”, per identificare i movimenti filosofici che, come ha efficacemente affermato P. Frank (La scienza moderna e la sua filosofia, Il Mulino, Bologna 1973, pp. 40-1), facevano parte del «movimento centroeuropeo per una concezione scientifica del mondo». Si vedano ad esempio i volumi Polish Scientific Philosophy, ed. by F. Coniglione, R. Poli, J. Wolenski, Rodopi, Amsterdam / Atlanta 1993; In Itinere…, cit.; M. Marsonet, Introduzione alla filosofia scientifica del ’900, Studium, Roma 1995. 49 Cfr. R. Haller, “Wittgenstein and Austrian Philosophy”, in Austrian Philosophy: Studies and Texts, ed. by. J.C. Nyiri, Philosophia Verlag, München 1981, pp. 91-102. 19/229 Lezioni di logica e filosofia della scienza questa messi a disposizione per poter scientificizzare la filosofia mediante il metodo della analisi, che riceve una prima applicazione nel classico articolo “On denoting” (1905). Dopo il fortunato volumetto The Problems of Philosophy (1912), che chiude quel periodo del suo pensiero in cui ancora sono evidenti i residui della sua fase platonica, e l’incontro col giovane Wittgenstein nel 1912, il suo pensiero inizia una nuova stagione caratterizzata dalla problematica concernente il rapporto tra linguaggio e fatti e che riceve nell’atomismo logico (la cui prima espressione è rinvenibile in Our Knowledge of the External World del 1914) la sua formulazione più significativa ed influente per il pensiero filosofico successivo (è del 1918 il suo classico The Philosophy of Logical Atomism). Ovviamente i due movimenti non si sviluppano Interazioni tra le due tradinel reciproco isolamento; così come erano ben zioni di pensiero: britannica note le opere logiche di Russell ai discepoli di ed austriaca Brentano, analogamente Moore e Russell, grazie anche alla mediazione di G.F. Stout, erano a conoscenza delle idee della scuola brentaniana.50 Ciò contribuì a creare un comune background, che concerneva in particolare la teoria degli oggetti e quella dell’intero e delle parti, nonché il modo di concepire la natura e il significato della filosofia, che andava sempre più scientificizzata. Tale condivisione di un comune programma dura sino al primo conflitto mondiale, per cui possiamo ben dire che sino a quel periodo esisteva una comune tradizione anglo-austriaca riassumibile nel nome di filosofia scientifica. Ma all’inizio del secolo a Vienna non v’era Ancora in Austria: la formasolo la scuola brentaniana. Infatti a partire dal zione del primo nucleo del 1907 cominciarono a riunirsi un gruppo di amici ‘Circolo di Vienna’ accomunati da un comune modo di vedere la filosofia e la scienza. Racconta uno dei suoi protagonisti, Philipp Frank: «Nel 1907 [...] mi ero appena laureato in fisica all’Università di Vienna, tuttavia, i miei interessi più vivi si indirizzavano alla filosofia della scienza. Ero solito frequentare un gruppo di studenti, che si riunivano ogni giovedì sera in un antico caffè viennese. Vi restavamo fino a mezzanotte, e anche più tardi, discutendo problemi di scienza e filosofia. L’orizzonte dei nostri interessi era molto ampio, ma il problema centrale a cui ritornavamo con insistenza era sempre lo stesso: come è possibile evitare le ambiguità e l’oscurità tradizionali della filosofia? Come possiamo realizzare un accostamento, quanto più possibile intimo, tra filosofia e scienza? Con il termine “scienza” non intendevamo riferirci solo alle “scienze naturali”, bensì includere sempre in esso anche le discipline sociali e umanistiche. Il matematico Hans Hahn e l’economista Otto Neurath, oltre a me, erano i componenti più assidui ed attivi del gruppo»51. 50 Cfr. M. van der Schaar, “From Analytic Psychology to Analytic Philosophy: The Reception of Twardowski’s Ideas in Cambridge”, in Axiomathes, 3, (1996); L. Dappiano, “Cambridge and the Austrian Connection”, in In Itinere…, cit. 51 P. Frank, op. cit., p. 15. 20/229 Lezioni di logica e filosofia della scienza Questo gruppo di discussione, per la cui formazione si era adoperato il matematico Hans Hahn, era in particolare interessato alla nuova immagine di scienza che si andava delineando in seguito al declino del paradigma meccanicistico ottocentesco e che faceva parlare di “crisi delle scienze”: «Per oltre due secoli l’idea del progresso nella scienza e nella vita umana, è stata connessa con l’avanzamento della spiegazione meccanicistica dei fenomeni naturali. Ora la scienza per prima sembrava abbandonare questa concezione meccanicistica, e si ebbe così la situazione paradossale che si potesse combattere la concezione scientifica del mondo in nome del progresso scientifico»52. È la medesima esigenza che era stata espressa da Brentano e poi perseguita dai suoi allievi, ma che qui nasce autonomamente come una riflessione di studiosi non di derivazione filosofica, ma prevalentemente di formazione scientifica, fortemente influenzati oltre che dal pensiero di Ernst Mach, anche da quello dei convenzionalisti francesi, in particolare da Henri Poincaré, Pierre Duhem ed Abel Rey. Con questi studiosi che si viene a formare il primo nucleo del Circolo di Vienna, quella che potrebbe considerare la sua prima generazione.53 Ed è all’interno di esso che emerge l’esigenza di discutere dei problemi della scienza anche con chi fosse maggiormente fornito di competenza filosofica, con un “filosofo autentico” che avesse familiarità in campo epistemologico. Il progetto verrà a realizzarsi solo dopo la guerra, quando Hahn ritornerà da Bonn nel 1921 e chiama a Vienna il filosofo Moritz Schlick, che nelo 1929 fonderà il Circolo di Vienna. Ma intanto viene nel 1895 creata all’università Le conseguenze della prima di Vienna una terza cattedra di filosofia, alla quale guerra mondiale sulla filovenne chiamato per divenirne il primo titolare il sofia scientifica viennese fisico Ernst Mach, che si diede il titolo di “professore di storia e teoria delle scienze induttive”, poi cambiato, nel 1902, dal suo successore Ludwig Boltzmann in “professore di fisica teorica e di filosofia naturale”.54 Mach, inaugurò un modo di affrontare la problematica filosofica maggiormente segnata da interessi scientifici e fortemente caratterizzata in senso empirico-fenomenista, e che andava particolarmente incontro alle esigenze del gruppo di amici del caffè viennese. Lo scoppio della prima guerra mondiale e lo smembramento dell’Impero asburgico con la creazione di nuove entità nazionali fu l’evento successivo che incise profondamente sullo sviluppo della filosofia scientifica austriaca. Le città nelle quali insegnavano i discepoli di Brentano diventarono parte di nazioni diverse: Praga della repubblica cecoslovacca, Leopoli della nuova Polonia, Gottinga della Germania. Si smarrì quel terreno comune di dibattito e confronto che prima aveva caratterizzato la cultura della Grande Vienna. 52 Ib., p. 18. Cfr. R. Haller, “The First Vienna Circle”, in Rediscovering the Forgotten Vienna Circle, cit. 54 A.J. Ayer, “Le Cercle de Vienne”, in Le Cercle de Vienne, doctrines et controverses, cit., pp. 59-60. 53 21/229 Lezioni di logica e filosofia della scienza Ciò portò anche alla quasi totale eclissi della linea di pensiero brentaniana, nonostante le molteplici influenze da essa esercitate: «L’unità di questa tradizione filosofica è andata persa con la fine dell’unità geografica e politica dell’Impero Austro-Ungarico e con gli eventi che ne accompagnarono il collasso. Dopo il 1918 […] molti dei suoi esponenti furono costretti ad emigrare e pertanto la ricca rete di scambi, contatti e relazioni fu per sempre lacerata.»55 Da quel momento, in particolare, la scuola fondata da Twardowski ebbe una sua vita autonoma, entrando solo sporadicamente in contatto con i membri dell’ambiente viennese, ma conservando alcune caratteristiche peculiari della sua originaria ascendenza brentaniana. Caratteristiche che invece furono profonda- Schlick a Vienna nel dopomente modificate nell’ambiente viennese ad opera guerra e l’influenza di Wittdi quegli studiosi che daranno origine a quello che genstein poi sarà il Circolo di Vienna nella sua configurazione matura successiva alla venuta a Vienna nel 1922 di Schlick. Essi, pur condividendo il programma generale di Brentano, come prima delineato56, e riconoscendo ad esso il merito di aver nuovamente attirato l’attenzione sulla riflessione logica grazie alla sua conoscenza della scolastica57 (non dimentichiamo che Brentano era un ex prete), tuttavia lo innestarono con influenze ed esigenze che ne trasformarono i connotati, specie in direzione del rifiuto dello psicologismo su cui esso voleva edificare la teoria della conoscenza e le stesse scienze empiriche. Ad incidere ulteriormente ed in modo decisivo sulla fisionomia che nel primo dopoguerra assunse la filosofia scientifica v’è l’impatto avuto dalla pubblicazione del Tractatus di Wittgenstein. Indipendentemente da quello che era il significato autenticamente attribuitogli dal suo autore (che andava più in direzione etica che a supporto delo programma di una filosofia scientifica), esso ebbe una grandissima influenza sia nella elaborazione del cosiddetto atomismo logico di Russell, sia nella formazione del Circolo di Vienna, che dalla sua lettura trasse numerosi spunti e mutuò parecchie dottrine. Non solo, ma il Circolo di Vienna nel tronco brentaniano innestò anche influenze ad esso estranee, come quella dell’empiriocriticismo di Mach, della riflessione sulla logica consegnata nelle opere di Russell e Whitehead, nonché le dottrine logico-linguistiche nel frattempo elaborate da Frege. Possiamo a questo punto sintetizzare l’evoluzione della filosofia 55 M. Libardi, op. cit., p. 64. Come ha notato Barry Smith (op. cit., p. 29), «Brentano, grazie al suo retroterra scolastico, non solo era simpatetico con un metodo rigorosamente scientifico in filosofia, ma condivideva col positivismo logico anche un certo orientamento antimetafisico e la sua opera comporta l’uso di metodi di analisi linguistica simili, per certi aspetti, a quelli sviluppati successivamente dai filosofi inglesi». 57 H. Hahn, O. Neurath, R. Carnap, op. cit., pp. 61-2. E’ questo il cosiddetto “Manifesto” programmatico del Circolo di Vienna. 56 22/229 Lezioni di logica e filosofia della scienza scientifica del Novecento nei seguenti momenti temporali: • Anteriormente alla prima guerra mondiale: • Formazione della filosofia scientifica con due poli autonomi ma non isolati: Brentano e la sua scuola a Vienna; Moore e Russell a Cambridge; sicché si può parlare di una comune tradizione “austroinglese”, con una consistente diramazione in Polonia grazie a Twardowski, allievo di Brentano. ß Contemporaneamente si ha la formazione del primo nucleo del futuro Circolo di Vienna con Frank, Hahn e Neurath, costituito da scienziati più che da filosofi. • Tra le due guerre: ß Creazione di autonome tradizioni nazionali nelle quali la filosofia scientifica si specifica ulteriormente, come (a) la Scuola di LeopoliVarsavia in Polonia, più fedele all’insegnamento brentaniano e poco o per nulla influenzata dall’empiriocriticismo di Mach e dal Tractatus di Wittgenstein, ma sviluppante una autonoma ed assai originale riflessione logica (con ¸ukasiewicz, Chwistek e Le_niewski in particolare); (b) la filosofia analitica inglese caratterizzata dal metodo dell’analisi e dall’atomismo logico, con un Russell fortemente influenzato da Wittgenstein; (c) formazione del Circolo di Vienna con la venuta di Schlick; (d) formazione della scuola di Berlino con Reichenbach (Gesellschaft für empirische Philosophie, 1928); (e) le scuole scandinave di filosofia analitica e scientifica, con A. Petzäll (a Lund), Th. Skolem (in Norvegia), J. Joergensen (in Danimarca), E. Kaila (a Helsinki). ß Nel merito, tale periodo si caratterizza principalmente per le seguenti due ragioni: (a) Avviene la svolta linguistica (sulla base dell’insegnamento di Frege e del suo antipsicologismo e grazie al Tractatus), che incide in particolare nella formazione del Circolo di Vienna, dove però il linguaggio che diventa oggetto precipuo di studio è quello della scienza. A tale svolta linguistica non partecipa Russell, che è accomunato a Frege solo dall’interesse per la fondazione della matematica su base logica (il programma del cosiddetto “logicismo”). (b) Si afferma l’influenza del Tractatus di Wittgenstein che, al di là delle intenzioni del suo autore, viene inteso come parte integrante di una visione scientifica del mondo e quindi interpretato in senso scientista (sia dal Circolo di Vienna, come anche da Russell) e nel quale sostanzialmente confluiscono e sono fuse sia l’esigenza posta in essere dalla svolta linguistica, sia il metodo dell’analisi.58 58 Con ciò non si vuole arruolare Wittgenstein, nella completezza del suo pensiero, all’interno della “filosofia scientifica”, bensì si collocano all’interno di essa quelle parti del Tractatus che, nella unanime interpretazione dei contemporanei, sembravano portare argomenti alla sua edificazione. E’ questo Tractatus, così letto ed interpretato dai contemporanei, che ebbe rilevanza decisiva nella formazione di alcuni dei caratteri fondamentali della filosofia scientifica. 23/229 Lezioni di logica e filosofia della scienza • Dopo la seconda guerra mondiale: ß Metodo dell’analisi e svolta linguistica si congiungono ad OxfordCambridge grazie all’insegnamento del secondo Wittgenstein, ma l’attenzione viene rivolta non al linguaggio della scienza, bensì a quello ordinario; nasce così la filosofia analitica come tradizionalmente intesa, cioè quale analisi del linguaggio comune avente come scopo la sua chiarificazione e lo svelamento delle trappole cui esso può portare. ß Dispersione degli studiosi che avevano composto il Circolo di Vienna e di Berlino, parte in Inghilterra, parte negli Stati Uniti, che in tal modo diffondono le loro concezioni sulla scienza e danno luogo a quel radicarsi di un modo di intendere l’epistemologia, cioè come filosofia della scienza, che diventa dominante sino alla fine degli anni 60, quando poi entra in crisi (per i motivi che in seguito esamineremo); ß Dissoluzione dell’originario gruppo di studiosi della Scuola di Leopoli-Varsavia (alcuni scompaiono nel lager nazisti o se ne perde traccia durante la guerra, altri, come ¸ ukasiewicz e Tarski, emigrano) e sopravvivenza dei superstiti (Ajdukiewicz, Kotarbiƒski, Cze˝owski) in condizioni difficili a causa dell’ostilità del regime comunista che nel frattempo si era instaurato in Polonia. Questi ultimi proseguono nella coltivazione della filosofia scientifica, perdendo in parte i caratteri originari di derivazione brentaniana per avvicinarsi sempre più alla filosofia analitica ed all’epistemologia occidentale. È nel quadro complessivo della formazione e dello sviluppo della filosofia scientifica che la filosofia della scienza si afferma come disciplina autonoma, dotata di un proprio compito specifico, pur non perdendo mai i contatti col più ampio contesto prima delineato. La filosofia della scienza, infatti, finisce per privilegiare uno dei tre significati da Tatarkiewicz attribuiti alla filosofia scientifica, ed esattamente quello che fa della scienza l’oggetto della filosofia; si propone, quindi, consapevolmente come teoria della scienza, senza dimenticare, però, mai del tutto l’ambizione rettificatrice nei confronti della filosofia, nel senso di assumere spesso un tono normativo volto ad ammaestrare la filosofia sulla vera conoscenza e sul giusto metodo con cui pervenire ad autentiche conoscenze (vedi il § precedente). Ma di quale scienza voleva essere teoria la filosofia della scienza? 24/229 Capitolo secondo LE TRASFORMAZIONI DELLA SCIENZA TRA OTTOCENTO E NOVECENTO 1. Il mondo secondo Laplace La sistemazione della fisica classica, operata La sistemazione del newtoda Newton e legittimata filosoficamente da Kant, nianismo con Laplace aveva ricevuto una sua formulazione esemplare con l’opera dello scienziato francese Pierre-Simone de Laplace (17491827). Formatosi nello spirito dell’illuminismo, Laplace coltivò sempre l’idea di scienza come conoscenza per eccellenza, contrapposta alla filosofia tradizionale e caratterizzata per l’applicazione sistematica del “metodo induttivo”, proposto da Bacone e quindi magistralmente applicato da Newton, il solo in grado di assicurare un progresso continuo e sicuro verso una sempre più approfondita conoscenza del mondo. La sua opera scientifica consiste in sostanza nella elaborazione, perfezionamento ed estensione della scienza newtoniana, cercandone di risolvere le difficoltà applicative nei vari campi dell’esperienza, specie in astronomia, nella convinzione che il futuro della scienza non dovesse conoscere fratture rivoluzionarie che la potessero mettere in discussione, ma solo un suo perfezionamento matematico e statistico ed un accumulo quantitativo di sempre nuove conoscenze59. In questo spirito egli edifica un “sistema del mondo” in cui cerca di coniugare una visione meccanicistica e deterministica del reale con la consapevolezza dei limiti della conoscenza umana, per ovviare ai quali sviluppò e giustificò teoricamente il calcolo delle probabilità. La visione del reale di Laplace è plasticamente La metafora della intelligenresa da una sua celebre metafora: «Dobbiamo za divina, infinita ed onnidunque considerare lo stato presente dell’universo sciente come l’effetto del suo stato anteriore e come la causa del suo stato futuro. Un’Intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e la collocazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere 59 Cfr. F. Barone, “L’epistemologia di Pierre Simone de Laplace” (1978), in Id., Immagini filosofiche della scienza, Laterza, Roma-Bari 1983, pp. 115-137. 25/229 Lezioni di logica e filosofia della scienza questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe incerto per essa e l’avvenire, come il passato, sarebbe presente ai suoi occhi. Lo spirito umano offre, nella perfezione che ha saputo dare all’astronomia, un pallido esempio di quest’Intelligenza. Le sue scoperte in meccanica e in geometria, unite a quella della gravitazione universale, l’hanno messo in grado di abbracciare nelle stesse espressioni analitiche gli stati passati e quelli futuri del sistema del mondo»60. In questo brano di Laplace v’è innanzi tutto I caratteri della concezione di l’idea illuministica di una sostanziale unitarietà Laplace: unitarietà e seme semplicità dell’universo, composto di parti plicità dell’universo, meccanistrettamente interconnesse e suscettibili di una cismo, riduzionismo e deterspiegazione e comprensione complessiva da minismo parte della scienza, essa stessa unitaria e semplice nelle sue premesse, le quali devono essere quanto più generali possibili. Tale unitarietà si esprime nelle leggi che ne governano il divenire e che hanno natura essenzialmente meccanica, cioè si basano sulla applicabilità illimitata della dinamica settecentesca e sulla possibilità di risolvere con equazioni differenziali ogni problema di calcolo. Alla base della dinamica v’è la «tendenza a considerare ogni sistema reale come l’aggregato di componenti elementari e l’evoluzione del sistema come il risultato dell’interazione di queste unità elementari»61; ne derivava la predilezione per un approccio atomista alla natura, ogni fenomeno della quale veniva ridotto alla azione di forze agenti tra particelle materiali. In ciò si sintetizza il cosiddetto “meccanicismo ottocentesco”, consistente nella credenza «che fosse effettivamente possibile descrivere tutti i fenomeni in base a forze semplici, agenti fra particelle inalterabili […] Gl’incontestabili successi della meccanica suggeriscono che l’interpretazione meccanicistica può coerentemente estendersi ad ogni ramo della fisica e che tutti i fenomeni possono spiegarsi con le azioni di forze, consistenti in attrazioni o ripulsioni, dipendenti unicamente dalla distanza ed agenti su particelle immutabili»62. Questa impostazione meccanicistica esprime, dal punto di vista epistemologico, una concezione della scienza riduzionistica, «ossia una prospettiva secondo la quale esiste una scienza fondamentale (in questo caso la meccanica) i cui concetti devono consentire di ottenere, con opportuni processi definitori, i concetti base delle altre scienze e i cui princìpi o leggi devono consentire di ottenere, grazie ad opportune dimostrazioni, i princìpi base delle altre scienze»63; al punto da proporre di riportare ai principi della meccanica anche le manifestazioni della vita intellettuale e spirituale. Infine, è chiaro che si esprime anche una posizione determinista, che in seguito avrà un suo 60 P.S. Laplace, Saggio filosofico sulle probabilità, cit. in L. Geymonat, Storia del pensiero filsoofico e scientifico, vol. IV, L’Ottocento, Garzanti, Milano 1971, p. 90. 61 G. Israel, La visione matematica della realtà, Laterza, Roma 1996, p. 65. 62 A. Einstein – L. Infeld, L’evoluzione della fisica. Dai concetti iniziali alla relatività e ai quanti, Boringhieri, Torino 1965, pp. 66, 75. 63 E. Agazzi, “Filosofia della scienza”, in Questioni di storiografia filosofica, a cura di A. Bausola, La Scuola, Brescia 1977, vol. 6, tomo III, p. 475. 26/229 Lezioni di logica e filosofia della scienza potente supporto matematico dalla scoperta del teorema di esistenza ed unicità delle equazioni differenziali effettuata da Cauchy nel 1837. Nella formulazione di Laplace il determinismo consiste nella tesi che la conoscenza esatta - con precisione infinita - dello stato iniziale di un certo sistema fisico è sufficiente per prevedere con certezza il suo futuro, e che quindi ogni sua componente elementare fosse soggetta ad una causa che ne determina in maniera univoca l’evoluzione; ne segue che lo stato futuro di un sistema è completamente determinato dal suo stato presente. Detto in altri termini, «l’evoluzione nel tempo di un sistema meccanico è completamente e univocamente determinata dallo stato meccanico iniziale in cui esso si trova (ovvero dalle sue posizioni e velocità iniziali)»64. Alla base dell’impostazione riduzionistica stava la convinzione che il mondo microscopico fosse più semplice di quello macroscopico: per comprendere quest’ultimo è sufficiente scomporre i sistemi complessi in modo da trovare le loro componenti semplici, governate dalle tradizionali leggi della meccanica. Fatto ciò, si pensava fosse possibile formulare una espressione matematica (detta lagrangiana), grazie alla quale ricavare (mediante l’operazione di integrazione) le equazioni dinamiche che descrivono il divenire del sistema. Trovata la lagrangiana, si sosteneva, tutto era spiegato. «Nella concezione di Laplace il mondo non è che un enorme sistema meccanico. Ogni fenomeno che accade nel mondo può essere espresso o descritto mediante assegnate funzioni delle coordinate lagrangiane e dei loro momenti coniugati, relativi e tutti i momenti di libertà del mondo stesso; quindi, una volta assegnato lo stato del mondo in un istante qualunque, tutti gli accadimenti naturali restano perfettamente determinati. Non vi è nulla di contingente o storico nel mondo di Laplace, se non lo stato dell’universo in un qualunque istante prefissato. Questa è l’espressione esatta del determinismo meccanicistico»65. Ma l’ipotesi dell’Intelligenza infinita mette in Il calcolo della probabilità luce chiaramente anche il fatto che tale ideale – la come rimedio alla limitatezperfetta conoscenza dello stato iniziale da cui za della conoscenza umana evolve il sistema, in questo caso l’universo – non è per nulla realistico: l’uomo, lo scienziato, non potrà mai ottenere questa infinita precisione delle misure, concernenti le posizioni iniziali in cui si trovano tutte le componenti dell’universo e la distribuzione delle forze su di esse agenti, in modo da poter prevedere con altrettanta esattezza ogni evoluzione futura a partire da un momento arbitrario. In effetti conosciamo solo in modo inesatto lo stato di un sistema; e, non essendo in grado di conoscere tutte le forze agenti su ogni singola particella, possiamo farci solo un’idea approssimata di esso. Pur essendo fiducioso nella illimitata possibilità di estendere la nostra conoscenza, in modo da avvicinare progressivamente il mondo fisico – descritto dalle nostre teorie – al mondo obiettivo, ovvero la realtà fatta di atomi e forze, tuttavia Laplace sapeva 64 G. Israel, op. cit., p. 118. B. Ferretti, “Fisica”, in Enciclopedia del Novecento, vol. II, Istituto della Enciclopedia Italiana, Roma 1977, p. 1033. 65 27/229 Lezioni di logica e filosofia della scienza bene che il perfetto adeguamento tra i due non può che essere solo il limite a cui il sapere razionale costantemente punta e che viene da esso sempre più approssimato. L’avvicinarsi al vero è un processo infinito e l’uomo resterà sempre infinitamente lontano dalla conoscenza completa, pur allontanandosi sempre più dall’ignoranza e dalla barbarie. Questo scarto sempre esistente tra la nostra conoscenza e la verità, tra il mondo fisico e quello oggettivo, giustifica per Laplace l’introduzione del calcolo delle probabilità.66 Consideriamo una nostra puntata al tavolo della roulette: non siamo in grado di calcolare dove la pallina andrà a finire, in quanto per far ciò dovremmo conoscere con infinita precisione tutte le particolarità del tavolo, le sue asperità, le sue imperfezioni, la sua inclinazione, la forza esatta con cui la pallina è stata gettata, eventuali influssi derivanti da venti, attriti e così via. Conoscendo tutto ciò, quasi fossimo una intelligenza infinita, certamente saremmo in grado di calcolare con esattezza la posizione finale della pallina. Ma non siamo in grado avere una tale conoscenza. Ecco allora che viene in nostro soccorso della nostra ignoranza il calcolo della probabilità, permettendoci di prevedere che, ad es., il rosso ha una certa probabilità di uscire; esso ci informa che sulla base delle precedenti uscite, dobbiamo aspettarci certi risultati piuttosto che altri; e così via. In breve esso ci mette in grado di effettuare delle scelte razionali in situazioni di incertezza, che permettono di porre, per così dire, una pezza alla nostra ignoranza, in modo da poter massimizzare le nostre vincite e minimizzare le perdite. Lo stesso ragionamento si applica, per Laplace, alla conoscenza della natura: l’impossibilità di conoscere con esattezza lo stato di un sistema fisico in un certo momento non ci consegna irrimediabilmente all’ignoranza, in quanto grazie alla teoria della probabilità possimo gettare un ponte tra essa e la natura, in modo da procedere ad un calcolo approssimato e probabilistico del suo divenire. Il determinismo meccanicistico non viene per ciò inficiato (esso rimane perfettamente valido come presupposto ad ogni possibile conoscenza della natura) ma solo completato mediante l’ipotesi della limitatezza della nostra conoscenza: negata all’uomo la possibilità della onniscienza (propria solo a Dio), resta nondimeno uno spazio enorme e fruttuoso tra essa e l’ignoranza, uno spazio che Laplace ritiene possa essere occupato dalla teoria delle probabilità. La scienza diventa così probabilistica senza perdere il suo carattere meccanicistico e riduzionistico e l’uso del calcolo delle probabilità diventa d’ora innanzi uno strumento indispensabile in fisica: determinismo e probabilismo non si escludono ma si completano a vicenda. La probabilità viene dunque intesa come rimedio per la nostra ignoranza e limitatezza e quindi si riferisce ad un limite epistemico; non è pertanto considerata come una proprietà della natura, 66 Cfr. E. Bellone, I modelli e la concezione del mondo nella fisica moderna da Laplace a Bohr, Feltrinelli, Milano 1973, pp. 33-5. Id., “L’esposizione del sistema del mondo”, in Storia della scienza moderna e contemporanea, diretta da Paolo Rossi, vol. II, 1, Dall’età romantica alla società industriale, TEA, Milano 2000, pp. 166-7. 28/229 Lezioni di logica e filosofia della scienza come se questa fosse intrinsecamente probabilistica; tutt’affatto, in quanto la realtà viene sempre concepita come perfettamente determinata in ogni suo momento e retta da leggi causali che non lasciano alcuno spazio alla indeterminazione ed al caso. 2. Il calore e la termodinamica. Il modello teorico proposto da Laplace «ha esercitato e esercita tuttora un enorme fascino su molte menti. Per molti rimane un ideale della descrizione scientifica della natura»67. Esso segnò tutto l’Ottocento ed ebbe un immenso successo grazie alle sue applicazioni in molteplici campi, nei quali sembrava poter effettivamente costituire una chiave per la conoscenza della natura. Ma dei sinistri scricchiolii cominciano a sentirsi in alcuni settori della ricerca scientifica, che evidenziano fenomeni ed aspetti della natura che non sembrano essere del tutto congruenti con l’immagine consegnata dal meccanicismo laplaciano e che non si lasciano facilmente spiegare mediante le leggi della dinamica newtoniana. Ciò accade in particolare in due campi – quello dei fenomeni termici e quello dei fenomeni elettrici e magnetici – per i quali si mostra particolarmente irta di difficoltà una loro immediata riconduzione al modello meccanicisticio laplaciano. Cominciamo dal primo campo, quello dei nascita della termodinafenomeni termici, nel quale era stato già proposto La mica con Fourier mette in l’esempio di un modo non laplaciano di intendere crisi l’idea laplaciana di la scienza dal fisico francese Joseph Fourier scienza unitaria (1768-1830). Questi aveva, infatti, dimostrato all’inizio dell’Ottocento come fosse possibile edificare una scienza dei fenomeni termici prescindendo da una visione meccanicistica della realtà e quindi dall’ipotesi di sue componenti ultime: egli partiva da grandezze macroscopiche e quindi da fatti ‘generali’ che permettevano la previsione e la formulazione di teoremi ed equazioni sulla propagazione del calore che avevano altrettanta validità e rigore matematico di quelli tipici della meccanica. Veniva a cadere nella sua impostazione l’idea che fosse necessario trarre le equazioni che regolamentano il comportamento del calore da ipotesi di fisica molecolare e quindi cadeva la necessità – sottolineata da Laplace – di inserire le leggi fenomeniche della termodinamica in un quadro unitario coerente che abbracciasse tutta la realtà. La teoria del calore di Fourier metteva in crisi la fisica laplaciana in quanto, spezzandone l’unità, «si veniva a porre come capitolo indipendente dal resto della fisica e, in particolare, dalla meccanica (su questo punto Fourier fu esplicito), che forniva i principali strumenti necessari alla trattazione dei modelli molecolari»68. In tal modo la termodinamica si poteva costituire come scienza autonoma, indipendentemente dalla 67 68 B. Ferretti, op. cit., p. 1033. R. Maiocchi, op. cit., p. 383. 29/229 Lezioni di logica e filosofia della scienza meccanica e senza condividerne le ipotesi di fondo: l’unitarietà della scienza e della natura sembrava così messa in grave difficoltà. «La rottura dell’unità della fisica, assicurata dal modello meccanico, il venir meno della speranza di possedere uno schema di natura sufficientemente potente ed elastico da essere applicato all’insieme dei fenomeni inorganici, in ciò consistette la crisi della fisica laplaciana. Nel corso del secolo, sotto gli attacchi che provenivano dalle prospettive più disparate […] il modello della fisica molecolare si rivelò inesorabilmente inadeguato al compito che Laplace gli aveva assegnato, quello di riunificare la fisica. Esso rimarrà perfettamente adeguato alla trattazione di alcuni settori limitati dell’esperienza, come l’elasticità dei solidi o la capillarità, ma si manifesterà troppo povero per raggiungere l’ambizioso obiettivo di fungere da elemento unificatore di tutta l’esperienza. Gran parte della storia della scienza ottocentesca è storia del riconoscimento dei limiti sempre nuovi, sempre più numerosi alla applicabilità del modello di Laplace al mondo empirico»69. Ma ulteriori difficoltà per la visione meccani- I fenomeni termici e la freccia cistica del mondo nascono anche dai concetti che del tempo via via vengono elaborati nel campo dello studio dei fenomeni termici. In effetti, i fenomeni connessi alla propagazione del calore manifestavano un comportamento che contraddiceva alcuni dei principi basilari della dinamica classica. Costituisce una evidenza empirica il fatto che il calore si trasmette secondo una direzione: esso va sempre dal corpo più caldo a quello più freddo, e mai avviene il contrario (che cioè un corpo più freddo si raffreddi ulteriormente per rendere più caldo un corpo col quale è in contatto, avente una temperatura iniziale più elevata). Questo comportamento metteva in luce la circostanza che certi fenomeni naturali seguono spontaneamente una direzione temporale; si evolvono cioè solo in una direzione, diversamente dai fenomeni descritti dalla meccanica, che invece sono indifferenti rispetto al tempo e possono svolgersi in un senso o in un altro. In meccanica, cioè, tutti i fenomeni sono governati da equazioni nelle quali si può invertire la variabile che indica il tempo senza che il fenomeno diventi per ciò impossibile: un pianeta può ruotare intorno al sole in un verso o nell’altro senza che ciò contraddica alcuna legge della meccanica70.Ciò invece non accade appunto nei fenomeni termici: il calore non può scorrere indifferentemente in una direzione o nell’altra; esso sembra avere un decorso privilegiato. Al mondo senza tempo (o ad esso indifferente) della meccanica sembra contrapporsi un mondo che segue la cosiddetta freccia del tempo. Come conciliare, dunque, il mondo descritto 69 Ibidem. «Per avere un’idea di questa simmetria del tempo, potremmo servirci, ad esempio, della ripresa cinematografica dei moti planetari eseguita dalla sonda spaziale Voyager 2, lanciata nel 1977 per esplorare il sistema solare esterno. I moti dei pianeti furono i primi movimenti che Newton ridusse ad una legge matematica. Ebbene, il film sarebbe perfettamente coerente con queste leggi della meccanica celeste sia se fosse proiettato in avanti, sia se fosse proiettato all’indietro. Questa credenza in un mondo deterministico, nel quale il tempo non ha direzione e il passato e il futuro sono predeterminati, ha svolto un ruolo di grande importanza nello sviluppo della fisica» (P. Coveney, R. Highfield, La freccia del tempo, Rizzoli, Milano 1991, p. 25). 70 30/229 Lezioni di logica e filosofia della scienza dalla meccanica con i fenomeni di diffusione termica? Ovvero – guardando la cosa dal punto di vista di un laplaciano – come spiegare i fenomeni termici nel quadro della scienza meccanicistica? Come ristabilire l’unitarietà della natura e della scienza? Il solco tra i fenomeni descritti dalla Il secondo principio della termodinamica e la visione meccanicistica sembrò termodinamica e l’entropia ulteriormente approfondirsi quando venne scoperto – ad opera di Rudolf Clausius (1822-88) nel 1854, che aveva profittato delle riflessioni di Sadi Carnot sulle macchine termiche del 1824 – il cosiddetto secondo principio della termodinamica, che introdusse il concetto di entropia, reso poi celebre dalla formulazione fornitane da William Thomson (Lord Kelvin) (1824-1907) nel 1852. Il secondo principio della termodinamica Esso viene solitamente presentato in due formulazioni71. Nella formulazione di Kelvin afferma: «È impossibile una trasformazione il cui unico risultato finale sia di trasformare in lavoro del calore preso da una sorgente che si trova alla stessa temperatura». Cioè esso fissa la determinazione del trasferimento del calore col negare la possibilità che l’energia possa fluire da un corpo freddo ad uno caldo, a meno che non si fornisca lavoro dell’esterno. In quella di Clausius, equivalente a quella di Kelvin, afferma: «È impossibile che una macchina ciclica produca come unico risultato un trasferimento continuo di calore da un corpo a un altro che si trova a temperatura più elevata». Ciò significa che non è possibile trasferire calore da un corpo freddo ad uno caldo se non si fornisce del lavoro tratto da un sistema esterno; ovvero, come avevamo detto nel testo, il calore non passa mai spontaneamente da un corpo più freddo ad uno più caldo. Così ad es., non è possibile costruire un frigorifero che trasferisca il calore dal suo interno all’esterno senza che ad esso sia fornita energia esterna; ed in effetti, nei nostri frigoriferi domestici questa energia è quella elettrica che permette di far funzionare la pompa di calore. L’equivalenza delle due formulazioni deriva dalla dimostrazione che se una di essa fosse falsa, allora anche l’altra lo sarebbe, sicché insieme esprimono un’unica legge, legata al concetto di irreversibilità, esprimibile in forma matematica. Tuttavia lo stesso Clausius dimostrò che il secondo principio è legato ad una variabile termodinamica, che lui chiamò appunto entropia, per cui esso si può anche esprimere quantitativamente nei termini di questa. In tal modo il secondo principio può essere fornito in forma più semplice e generale utilizzando il concetto di entropia; si può affermare allora che in un sistema chiuso nel quale avvengono solo trasformazioni reversibili l’entropia è costante, mentre se in esso avvengono trasformazioni irreversibili, l’entropia aumenta. In sintesi, in un sistema chiuso l’entropia non può diminuire. Questo enunciato (detto legge dell’entropia e che costituisce un modo ulteriore di enunciare il secondo principio della termodinamica), afferma in sostanza che dati due stati qualsiasi di un sistema chiuso, lo stato che presenta una maggiore entropia è sicuramente futuro rispetto a quello che presenta una minore entropia; viene così introdotta nei processi fisici la cosiddetta freccia del tempo: è l’aumento dell’entropia ad indicare il verso in cui scorre il tempo e quindi ad essere l’indicatore dell’evoluzione di un sistema. Ciò ad ulteriore chiarimento di quanto detto nel testo. Questa nuova grandezza fisica stava ad indicare il processo necessario di decadimento dell’energia derivante dal fatto che, in un sistema chiuso, i corpi prima o poi finiscono per assumere la medesima temperatura, qualunque sia la loro differenza iniziale. Si dice che in questo caso 71 Ne diamo di entrambe la versione contenuta in R. Resnick, D. Halliday, Fisica, Casa Editrice Ambrosiana, Milano 1979, p. 581. 31/229 Lezioni di logica e filosofia della scienza l’entropia del sistema è pervenuta al suo massimo. Pertanto si afferma che in un sistema chiuso – senza scambi di energia con l’esterno – l’entropia tende inesorabilmente ad aumentare e non può accadere il contrario: è pertanto questo un processo irreversibile, che contrasta con il divenire della meccanica, che viene descritto sempre come reversibile. Essendo la differenza tra temperature essenziale affinché si possa produrre lavoro, come aveva dimostrato Sadi Carnot, ne derivava che un sistema in cui l’entropia giunge al suo massimo (cioè tutte le sue parti hanno la stessa temperatura) non è in grado di generare alcun lavoro; diremo che esso è inerte. Insomma l’universo (considerato come un sistema termodinamico chiuso) tenderebbe ad evolvere nel senso di un progressivo aumento dell’entropia, la quale pertanto ne definisce la direzione. Il tempo non è altro che un’espressione del processo entropico. Diversamente dalla meccanica, per la quale il tempo era indifferente, nei processi termodinamici esso è un elemento essenziale, che scorre nel senso dell’aumento progressivo ed inesorabile dell’entropia. Come era possibile conciliare la meccanica con questi aspetti della natura messi in evidenza dalla termodinamica? Reversibile ed irreversibile Per dare un’idea intuitiva della differenza tra processi reversibili ed irreversibili, immaginiamo di filmare un fenomeno meccanico molto semplice: due palle di biliardo si avvicinano, si urtano e quindi si allontanano l’una dall’altra. Ebbene il filmato così ottenuto può essere proiettato sia nel verso giusto sia al contrario e otterremo sempre la raffigurazione di un fenomeno meccanico perfettamente possibile, al punto che una persona che non abbia visto il fenomeno originale non sarebbe in grado di dire quale tra i due filmati è quello corretto. Ciò significa che la direzione del processo può essere invertita senza contraddice nessuna delle leggi della dinamica newtoniana; esso è pertanto reversibile dal punto di vista meccanico. Lo stesso non accadrebbe invece se filmassimo l’avanzare di una locomotaiva a vapore (che è una macchina termica che trasforma calore in lavoro): proiettando il filmato al contrario vedremmo il fumo rientrare nel fumaiolo e tutti ci accorgeremmo che in questo caso non è indifferente il verso in cui avviene il fenomeno fisico. In questo caso esso è irreversibile. Gran parte dei fenomeni che avvengono in natura sono di questo tipo: lo zucchero che si scioglie nell’acqua, il calore che si diffonde da una stufa in una stanza, il legno che brucia nel camino ecc. Le conseguenze che scaturiscono da questa La morte termica dell’univerprospettiva sono gravide di implicazioni filosofi- so e le sue implicazioni filoche, che colpiscono i contemporanei e che accen- sofiche dono una vivace discussione. Infatti, se si assume che l’universo sia un sistema chiuso e finito, prima o poi tutte le sue parti avranno la medesima temperatura e quindi in esso non sarà possibile più alcun tipo di lavoro: esso andrà incontro alla morte termica. Questa la conclusione cui giunse Thomson nel 1852, cui fece successivamente eco Hermann Helmhotz nel 1854, che così sintetizza la questione: «Se l’universo è lasciato in balìa del decorso dei suoi processi fisici senza l’intervento di azioni esterne, alla fine tutto il contenuto di forza dovrà trapassare in calore, e tutto il calore distribuirsi in un equilibrio termico. Allora è esaurita ogni possibilità di un’ulteriore trasformazione; allora debbono completamente cessare tutti i processi naturali di qualsiasi tipo. 32/229 Lezioni di logica e filosofia della scienza Anche la vita delle piante, degli animali e degli uomini non può ulteriormente sussistere, ove il Sole abbia perduto la sua elevata temperatura e, con essa, la sua luce, e quando tutte le parti costitutive della superficie terrestre abbiano contratto i legami chimici, che comportano le loro forze di affinità. In breve, da questo momento in poi l’universo sarà condannato alla quiete eterna»72. Questa prospettiva di una vera e propria fine del mondo contrasta con la tesi, sostenuta da materialisti e meccanicisti, di un universo infinito ed eterno, che si basava sull’idea della conservazione dell’energia formulata dal primo principio della termodinamica, proposto nella sua forma più completa e generale dallo stesso Helmholtz (e che in breve afferma che in nessun caso l’energia viene creata o distrutta, ma viene piuttosto continuamente scambiata fra i vari sistemi fisici sotto forma di calore o lavoro). Ma ora l’ammissione della morte termica dell’universo dava fiato a tutti coloro che volevano combattere il materialismo ed il positivismo col negare l’autonomia e l’eternità della natura e miravano quindi ad introdurre, con l’idea di un inizio e di una fine del mondo, la necessità di ammettere un intervento esterno in grado di spiegarne la nascita e di scongiurarne l’altrimenti inevitabile fine: l’ammissione dell’esistenza di un provvido Dio sembrava ormai una esigenza che scaturiva dal seno stesso della scienza. Ovviamente non tutti i filosofi e gli scienziati accettavano una tale prospettiva; essa, ribattevano, si basa sul postulato che l’universo sia un sistema chiuso e finito, in quanto solo in questi sistemi termodinamici l’entropia tende inevitabilmente ad aumentare sino a raggiungere l’equilibrio termico. Far derivare dal secondo principio della termodinamica la necessità di ammettere la fine del mondo, e quindi un universo finito e non eterno, significa commettere una vera e propria petitio principii, cioè assumere che l’universo sia un sistema chiuso e finito, presupponendo così la tesi che si vuole dimostrare. Così ad esempio il filosofo Herbert Spencer, rigettava l’ipotesi della morte termica sostenendo l’idea che il nostro universo fosse parte di un universo più ampio ed infinito in grado di intervenire dall’esterno e quindi di impedirne il degrado entropico. Il primo principio della termodinamica Il primo principio della termodinamica esprime nella sua forma più generale la legge di conservazione dell’energia mediante una formula che lega l’energia interna U di un sistema (cioè l’energia, per così dire, ‘immagazzinata’ da esso, ad es. sotto forma di calore, che corrisponde alla somma delle energie cinetiche e delle energie potenziali di tutte le sue molecole) alla quantità di calore Q assorbita dal sistema (positiva se il sistema riceve calore, negativa se lo cede) ed al lavoro L che da esso vien fatto, per cui è ∆U = Q – L (indicando con ∆U la variazione dell’energia interna). Questa formula dice che la variazione dell’energia interna di un sistema termodinamico qualsiasi quando subisce una trasformazione è eguale alla differenza tra il calore assorbito ed il lavoro fatto. In sostanza essa esprime l’idea di un bilancio tra le diverse forme di energia (energia termica Q, lavoro meccanico L e variazione dell’energia interna ∆U), analogamente a come le variazioni di una certa 72 H. Helmhotz, “Sull’azione reciproca delle forze naturali e sulle più recenti determinazioni della fisica che ad essa si riferiscono” (1854), in Id., Opere, a cura di V. Cappelletti, UTET, Torino 1967, p. 231. 33/229 Lezioni di logica e filosofia della scienza quantità di denaro depositata in banca (∆U) dipende dalla differenza tra tutti i versamenti (Q) e tutti i prelievi effettuati (L). Ciò equivale a dire che ogni scambio di calore e di lavoro tra un certo sistema e l’ambiente che lo circonda deve essere accompagnatoda un mutamento dello stato fisico del sistema stesso, ossia della sua temperatura, del suo stato di aggregazione (solido, liquido ecc.), della sua composizione chimica ecc., ma in nessun caso l’energia viene creata o distrutta; essa viene invece scambiata continuamente fra i vari sistemi sotto forma di calore e di lavoro. Esistono pertanto diverse forme di energia, che esprimono i vari modi in cui un sistema può mutare il suo stato fisico scambiando calore e lavoro: oltre l’energia termica e quella chimica, anche quella nucleare. Ma, al di là delle implicazioni filosofiche tratte a ragione o meno dal degrado entropico, è importante rilevare che emerge in ogni caso una discrepanza, in seno stesso alla termodinamica, tra il primo e il secondo principio. Il primo principio, infatti, sostiene la conservazione dell’energia e quindi la persistente capacità di lavoro (essendo appunto l’energia definita come capacità di compiere lavoro); il secondo, invece, afferma il necessario degrado dell’energia e quindi l’impossibiltà di compiere lavoro una volta raggiunto l’equilibrio termico. Il primo è del tutto in linea con una visione meccanicistica della natura; il secondo, invece, introducendo la freccia del tempo e l’irreversibilità, è in palese contrasto con la reversibilità propria della dinamica classica. Come era possibile conciliare tali due principi? Una risposta venne dalla teoria cinetica dei gas, che sembrava costituire una rivincita della Il problema di una interprecinetica del calore e concezione atomista e meccanicistica. Già da tazione del comportamento dei gas tempo, infatti, v’erano stati dei fisici che avevano cercato di sostenere la natura meccanica del calore, rifiutando la concezione del calorico, inteso come un fluido indistruttibile che viene trasmesso da un corpo all’altro, analogamente a come avviene per i fluidi, che sembrava spiegare abbastanza bene i fenomeni termici allora conosciuti. Questa teoria – a suo tempo proposta tra gli altri da A. L. Lavoisier (1743-1794) e C.L. Berthollet (1755-1794) – aveva subito dei duri colpi in seguito alle scoperte effettuate nei primi anni quaranta da J.R. Mayer (1814-1878) e J.P. Joule (1814-1878), nei cui lavori si era dimostrato che il calore è prodotto da una certa quantità di lavoro meccanico, arrivando Joule a stabilire nel 1843, con un ingegnoso esperimento, l’esistenza di una proporzionalità diretta tra quantità di calore prodotto e lavoro eseguito. Si affermava pertanto l’idea che il calore non è un fluido indistruttibile ma una particolare forma di energia che può essere trasformata in energia elettrica o meccanica (con ciò introducendo l’idea di quel principio della conservazione dell’energia, o primo principio della termodinamica, che, come abbiamo visto prima, venne pienamente formulato da Helmholtz). Tuttavia lo sviluppo delle termodinamica, mettendo da parte il problema di elaborare un modello meccanico del calore, si era sviluppata su di una base fenomenologica a partire da grandezze macroscopiche (come pressione, volume e temperatura). È evidente in tale approccio l’influenza della teoria analitica del calore elaborata da Fourier. Non erano però mancati i tentativi di interpretare la costituzione fisica dei gas come costituita da molecole in rapido movimento e su questa base Daniel Bernuilli aveva cercato di 34/229 Lezioni di logica e filosofia della scienza spiegare già nel 1738 la pressione esercitata da un gas sulle pareti di un contenitore come l’effetto dell’urto delle molecole che lo costituivano su di esse. Successivamente passi in avanti in questa direzione erano stati compiuti da J. Herapath (1790-1868) e J.J. Waterston (1811-1883), senza tuttavia esercitare un grande impatto sulla comunità scientifica dell’epoca. L’interpretazione cinetica della costituzione dei gas venne in seguito ripresa da Joule e A.K. Krönig (1822-1879), il quale, benché non abbia detto nulla di nuovo rispetto a quanto sostenuto dai suoi predecessori, tuttavia ebbe grande risonanza grazie al suo prestigio di scienziato. L’articolo in cui egli riproponeva la teoria cinetica ebbe una influenza decisiva su Clausius, che si decise a pubblicare le riflessioni in merito già effettuate in connessione alla sua teoria del calore e nelle quali stabilisce una importante espressione matematica che lega insieme pressione, volume e moti molecolari. Ma è solo a partire dal 1860 che il grande Maxwell e la formulazione fisico inglese James Clark Maxwell (1831-1879) della teoria cinetica dei gas dà alla teoria cinetica dei gas una sua formulazione convincente, stimolato dalla lettura dell’articolo di Clausius in cui questi esponeva le sue concezioni. In essa il comportamento delle molecole veniva trattato in modo probabilistico, riuscendosi così a calcolare sia il percorso medio da ciascuna effettuato nel suo moto casuale prima di collidere con un’altra particella, sia la distribuzione statistica della loro velocità, che viene compresa entro certi valori con un addensamento intorno a quelli medi (secondo la nota curva a campana di Gauss). Maxwell rappresenta le molecole mediante un’analogia, paragonandole a sfere di piccolissime dimensioni, dure e perfettamente elastiche, che si muovono caoticamente all’interno di un recipiente, sicché esse possono occupare indifferentemente qualsiasi posizione: tutte le direzioni e le posizioni da esse tenute sono pertanto equiprobabili. Considerando che le molecole hanno massa e velocità media – e quindi una certa energia cinetica – nel loro movimento caotico un certo numero di esse finisce per urtare contro una delle pareti del recipiente, trasmettendole parte della propria energia e quindi esercitando una certa spinta. Se si considera che questo avviene per milioni e milioni di molecole che compongono il gas, sarà facile immaginare come l’energia così trasmessa alle pareti non sia altro che la pressione, cioè una delle grandezze macroscopiche fondamentali della termodinamica. Questo ragionamento, che qui abbiamo svolto in maniera informale ed intuitiva, viene rigorosamente condotto da Maxwell con considerazioni matematiche e probabilistiche che gli permettevano di derivare in modo stringente una grandezza macroscopica (la pressione) dal comportamento di grandezze microscopiche (le molecole), che ubbidiscono solo alle leggi classiche della dinamica newtoniana. Con l’aiuto di un semplice modello meccanico e di alcune ipotesi statistiche, Maxwell compiva un grande passo per gettare un ponte tra i fenomeni appartenenti al mondo macroscopico e quelli del mondo microscopico: il meccanicismo e l’idea laplaciana del reale sembrava risorgere a nuova vita. 35/229 Lezioni di logica e filosofia della scienza Egli riusciva così a spiegare importanti pro- La teoria cinetica permette di prietà osservabili dei gas e a proporre la teoria superare il contrasto tra cinetica come una prospettiva teorica assai primo e secondo principio promettente per spiegare i fenomeni naturali, della termodinamica utilizzando il calcolo delle probabilità già adoperato da Laplace, e per sostenere una visione atomistica della materia. Inoltre è in grado di fornire una interpretazione della termodinamica che permette di superare il contrasto tra il primo e il secondo principio. Infatti «se si considera l’energia, che si conserva secondo il primo principio, come la somma delle energie delle singole molecole del corpo, allora il secondo principio non nega affatto, con la dissipazione dell’energia, che l’energia, cioè la capacità di compiere lavoro, delle singole molecole diminuisca. Tale principio afferma soltanto che essa non è più utilizzabile per l’uomo, ad esempio quando si ha un livellamento di temperatura fra i corpi, cioè si ha una distribuzione più uniforme della velocità delle molecole in essi»73. Insomma l’energia non si annulla, non scompare, ma solo si distribuisce in modo da risultare inutilizzabile, cioè da non essere più in grado di produrre lavoro (che, abbiamo visto, può essere ottenuto solo se si hanno sistemi fisici a diversa temperatura). Analogamente, diventa possibile spiegare con la teoria cinetica dei gas il contrasto tra la La spiegazione dell’entropia base statistica: il diavoreversibilità che caratterizza i processi meccanici su letto di Maxwell e l’irreversibilità dei fenomeni termodinamici, espressa dall’aumento dell’entropia e dovuta al fatto che il calore si sposta spontaneamente dal corpo più caldo a quello più freddo. Anche in questo caso, spiegando il calore effetto macroscopico del moto più o meno vorticoso delle molecole che compongono il gas, Maxwell sostiene che «la irreversibilità riguarda il fenomeno nel suo complesso, ma che, da un punto di vista molecolare sarebbe possibile, per quanto estremamente improbabile, una reversibilità della conduzione del calore»74. Per chiarire questo punto egli introdusse il famoso esempio del diavoletto. Immaginiamo un sistema chiuso, ad es. un recipiente, in cui temperatura e pressione sono le stesse e che non cambia di volume. In questo caso sappiamo che non è possibile alcun tipo di lavoro e inoltre – per il secondo principio della termodinamica – non è possibile che parte del calore si trasferisca spontaneamente in una metà del recipiente, lasciando l’altra metà più fredda. Ma, afferma Maxwell, «se noi concepiamo un essere le cui facoltà sono così raffinate che egli può seguire ogni molecola nel suo corso, un tale essere i cui attributi sono essenzialmente finiti come i nostri, sarebbe in grado di compiere ciò che ci è attualmente impossibile. Si è visto infatti che le molecole in un recipiente pieno d’aria a temperatura uniforme,non si muovono affatto con velocità uniforme, sebbene la velocità media di un gran numero di esse, scelte arbitrariamente, è quasi esattamente 73 L. Geymonat, Storia del pensiero filosofico e scientifico, vol. V, Dall’Ottocento al Novecento, Garzanti, Milano 1971, p. 217. 74 Ibidem. 36/229 Lezioni di logica e filosofia della scienza uniforme. Si supponga ora che il recipiente in questione sia diviso in due parti, A e B, mediante un divisorio in cui vi sia un piccolo foro e che il nostro essere, che può vedere le singole molecole, apra e chiuda il foro, in modo da lasciar passare soltanto le molecole più veloci da A a B e soltanto le più lente da B a A. Egli in tal modo, senza dispendio di lavoro, aumenterà la temperatura di B ed abbasserà la temperatura di A, in contrasto con la seconda legge della termodinamica»75. Questo esempio immaginario serve solo per sottolineare che in effetti la seconda legge della termodinamica è il risultato a livello macroscopico di un comportamento statistico medio delle molecole che compongono il gas e che ubbidiscono alle normali leggi della meccanica; come dice Maxwell la funzione di tale ‘diavoletto’ è quella di «mostrare che la seconda legge della termodinamica ha solo una certezza statistica»76. La strada intrapresa da Maxwell fu in seguito Boltzmann e la connessione perfezionata ed ulteriormente studiata a fondo da tra probabilità ed ordine: un altro grande scienziato austriaco, Ludwig l’entropia come evoluzione Boltzmann (1844-1906), il fondatore con J.W. verso il disordine Gibbs (1839-1903) della meccanica statistica. Egli approfondì il significato della distribuzione probabilistica delle molecole che compongono un gas e interpretò l’entropia come lo stato macroscopico più probabile verso il quale evolve il sistema. A sua volta, anche su suggerimento di Helmholtz e sviluppando alcune implicite conseguenze già contenute in Maxwell, stabiliva una stretta connessione tra probabilità ed ordine, nel senso che la condizione di maggiore probabilità veniva ad essere identificata con la condizione di maggior disordine del sistema e così l’aumento dell’entropia poteva essere considerato come l’evoluzione dall’ordine al disordine. Di solito per illustrare tali caratteristiche dell’entropia si porta nei manuali di fisica il seguente esempio: si consideri un contenitore a pareti isolanti (come ad esempio un thermos) contenente del gas, che perciò non ha alcun tipo di interazione con l’ambiente esterno al contenitore (il sistema fisico è “isolato”) e sia questo gas separato all’interno per mezzo di una parete che lo divida in due porzioni, una più calda e l’altra più fredda. Possiamo dire che questo gas ha una determinata misura di “ordine”, in quanto noi possiamo predire che una molecola più veloce si troverà più probabilmente nel lato caldo piuttosto che nel lato freddo e viceversa (come accade ad es. in un’urna nella quale si abbiano in una metà le palline bianche e nell’altra le palline nere: in questo caso il sistema sarà ordinato). Eliminiamo ora la parete interna: dopo un certo periodo il sistema evolverà verso una situazione di equilibrio, in quanto il gas si diffonderà uniformemente per il contenitore e si perverrà ad una temperatura uniforme in tutto il contenitore: ora il sistema è più “disordinato”, in quanto le molecole di gas, qualunque sia la loro velocità, si sono uniformemente mescolate in modo casuale in tutto il recipiente. Si badi che l’energia totale 75 J.C. Maxwell, cit. in L. Geymonat, op. cit., p. 218. J.C. Maxwell, cit. in G. Peruzzi, Maxwell. Dai campi elettromagnetici ai costituenti ultimi della materia, Le Scienze, Milano 1998, p. 92. 76 37/229 Lezioni di logica e filosofia della scienza è rimasta quella di prima, in quanto il sistema è isolato e non si può avere dispersione verso l’esterno: è cambiata solo la disposizione di essa per il diverso disporsi delle molecole di diversa velocità. Tuttavia, ciò è fondamentale perché in questo modo non è possibile generare all’interno del sistema alcun lavoro, cioè trasformazione di energia, in quanto esso può avvenire solo in presenza di diversi livelli termici. Viceversa, ogni lavoro utile, che presuppone la trasformazione dell’energia, necessariamente produce entropia o, altrimenti detto, aumenta il disordine complessivo del sistema. Affinché si possa ancora produrre lavoro (ad es. per ridare “ordine” alle molecole del nostro gas) è necessario mettere in contatto il nostro sistema (nel nostro caso il contenitore) con un altro sistema che possa accollarsi l’entropia in eccesso e quindi fornire l’ordine mancante: cioè un sistema dal quale il nostro gas possa trarre “negaentropia” (o “entropia negativa”) (ad es., che il nostro contenitore venga messo in contatto con l’ambiente esterno, sostituendo le pareti isolanti con pareti che conducano il calore, e quindi non sia più isolato, e dal quale attraverso un opportuno meccanismo possa trarre negaentropia). Un esempio di una macchina del genere è fornito dal frigorifero domestico che trae dall’esterno – energia elettrica più ambiente circostante – la negaentropia che gli permette di mantenere una temperatura interna costantemente bassa con l’espellere entropia sotto forma di calore verso l’esterno. Diventa ancora più evidente in tal modo la naLa natura probabilistica e tura non assoluta, ma semplicemente probabili- non assoluta del secondo stica, della seconda legge della termodinamica e principio della termodinaminulla in linea di principio può escludere che il ca processo che porta al “mescolamento” delle molecole calde e fredde – e quindi ad uno stato di maggior disordine – non possa essere invertito (ad es. grazie al demone di Maxwell). In fin dei conti, trattandosi di eventi probabili, anche il processo inverso che porta “ordine” al sistema è possibile, nonostante sia la sua probabilità di accadere bassissima; ma aspettando un tempo infinitamente lungo potrà benissimo capitare una volta che le molecole calde (ovvero con più energia cinetica), nel loro movimento casuale si dirigano tutte in una direzione, occupando una metà del recipiente e così ricreando la condizione di partenza: una parte più calda ed una più fredda. Su queste basi si è sviluppata la meccanica statistica tra il 1860 e il 1880. Essa non solo Discontinuità tra conoscenza del macroscopico e del micostituiva una risposta da un punto di vista croscopico “classico” alle sfide poste dalla termodinamica, ma introduceva nel modo di considerare la conoscenza della natura una discontinuità tra la conoscenza sensibile dei suoi stati macroscopici e la conoscenza concettuale di quelli microscopici: uno stato di quiete empiricamente constatabile, ad es., veniva ad essere il risultato di un moto vorticoso di miliardi di particelle, il cui comportamento non poteva essere direttamente osservato ma solo ipotizzato grazie all’utilizzo di sofisticate tecniche matematiche e probabilistiche. «Ciò significava ammettere che una particella costituente un corpo può avere proprietà meccaniche molto 38/229 Lezioni di logica e filosofia della scienza differenti dal corpo a cui essa appartiene. L’uniformità apparente di un corpo perciò non è più la pura somma di uniformità infinitesime delle sue particelle ma la compensazione o la media di difformità reali»77. Inoltre la trattazione statistica dei processi fisici segna una importante svolta nella fisica ottocentesca in quanto segna il passaggio dalla interpretazione causale deterministica, propria delle leggi della meccanica, a una interpretazione di tipo probabilistico che contribuisce a mettere sempre più in luce i nessi tra determinismo e predicibilità e il ruolo della nozione di causalità e caso nei processi fisici, con ciò preparando il terreno ad importanti sviluppi della fisica del Novecento78. Come afferma L. Geymonat, «ciò che più interessa, dal punto di vista metodologico, è che – con i lavori di Maxwell e Boltzmann – il calcolo delle probabilità entra a far parte, come uno dei suoi componenti essenziali, dell’apparato matematico in uso nella fisica. Il ricorso a questo tipo di calcolo non comportava di per sé – è bene notarlo in modo esplicito – una totale rinuncia al vecchio determinismo laplaciano, potendosi sempre pensare che il moto di ogni singola molecola risulti “in realtà” determinato secondo le leggi della meccanica classica, e che l’uso di metodi statistici sia per noi necessario solo per l’impossibilità pratica in cui ci troviamo di seguire i singoli percorsi. Si avrebbe cioè un divario tra ciò che accade nel mondo “oggettivo” e ciò che siamo in grado di descrivere di esso»79. La menzionata dicotomia tra ipotesi teoriche Il contrasto tra concezione concernenti il microscopico ed osservazione della scienza puramente deempirica del macroscopico fece sì che molti fisici, scrittiva e concezione realiattaccati ad una concezione strettamente empirista stica facente uso di ipotesi della scienza, fossero portati a respingere la teoria teoriche cinetica e la meccanica statistica. Ciò fece sì che negli ultimi due decenni dell’Ottocento e nei primi anni del Novecento i risultati raggiunti in questi due campi siano stati per lo più ignorati e rifiutati dagli ambienti scientifici più influenti, che vedevano nell’atomismo un’ipotesi più speculativa che empiricamente fondata, motivata da una visione materialistica della natura. Vana fu la lotta ingaggiata da Boltzmann per difendere la teoria cinetica e per sostenere un’idea della conoscenza scientifica che non si fermasse a cogliere solo gli aspetti fenomenici del reale, limitandosi a sistematizzarli mediante la loro trascrizione matematica. In nome di una concezione realistica della conoscenza, Boltzmann era infatti convinto della necessità di penetrare oltre l’apparenza fenomenica, servendosi di audaci ipotesi in grado di stabilire connessioni tra i componenti più intimi della materia e di spiegare quanto ci viene mostrato dall’esperienza. Era pertanto importante per lui dare penetrare teoreticamente i meccanismi profondi che spiegano i fenomeni della termodinamica, consentendo di inquadrarli in una visione unitaria della natura, nello spirito di Laplace, senza fermarsi alla sola considerazione delle grandezze macroscopiche. Il sostanziale fallimento di 77 L. Geymonat, op, cit., p. 221. Cfr. G. Peruzzi, op. cit., p. 86. 79 L. Geymonat, op. cit., p.169. 78 39/229 Lezioni di logica e filosofia della scienza questa sua battaglia e l’incomprensione dei contemporanei per la sua meccanica statistica non furono certo irrilevanti sulla sua decisione di suicidarsi. Altre erano le direzioni verso le quali si muo- La tendenza fenomenologiveva la scienza di fine secolo: fisici come J.B. ca: la fisica energetica Stallo (1823-1900), G. R. Kirkhoff (1824-87), P. Duhem (1861-1916) ed E. Mach (1838-1916), che tanta influenza avrà sul futuro Circolo di Vienna, erano orientati verso una critica del meccanicismo e dell’atomismo, cui contrapponevano una visione della fisica che fosse aderente all’evidenza empirica e quindi non facesse ipotesi su entità non osservabili (come gli atomi), ma consistesse solo nella trattazione matematica di regolarità empiriche. Non solo, ma sembrava che gli sviluppi della termodinamica, specie in campo chimico, dessero la possibilità di concepire questa scienza – assunta nella sua interpretazione fenomenologica – come un possibile sostituto della meccanica, scalzandone il primato secolare. Tale impostazione venne sviluppata in particolare dalla cosiddetta fisica energetica, che assumeva quale suo concetto di base quello di energia. Proposta da William Rankine (1820-72) e quindi dal fisico tedesco Georg Helm (1851-1923) – che riprendevano le intuizioni di Robert Mayer – essa rifiutava la riduzione dell’energia all’azione di masse corpuscolari; essa veniva piuttosto concepita come qualcosa di originario e primitivo, capace di assumere in natura varie forme di manifestazione. Il suo più deciso sostenitore fu il chimico-fisico tedesco Wilhelm Ostwald (1853-1932), che interpretava l’energia come il substrato di tutti i fenomeni, cercando di edificare sulla sua base una vera e propria filosofia monistica. 3. L’elettromagnetismo e l’idea di campo. Un altro punto di crisi della concezione mecca- I problemi suscitati dallo stunica della natura sorgeva nel campo dei fenomeni dio dei fenomeni magnetici magnetici ed elettrici. Un esperimento condotto ed elettrici nel 1820 dallo scienziato danese Hans Christian Oersted (1777-1851) mise in luce come sia possibile generare effetti magnetici mediante la corrente elettrica, in tal modo mettendo in relazione fenomeni sino ad allora ritenuti diversi: magnetismo ed elettricità. Ma ancora più interessante era il fatto che l’esperimento ed il tipo di interazioni messo in luce tra elettricità e magnetismo non seguiva affatto le leggi della dinamica newtoniana, in quanto la forza agente non agiva lungo la congiungente tra i corpi (nel caso specifico, un filo percorso da corrente ed un ago magnetico), bensì si rivelava perpendicolare ad essa; esattamente all’opposto di come agiva la forza gravitazionale, cioè lungo la linea di congiunzione di due corpi che si attirano o respingono. Sembrava pertanto che gli esperimenti di Oersted non fossero riconducibili ad interazioni tra particelle di tipo newtoniano, bensì fossero il sintomo di forze che operavano in tutto lo spazio circostante al conduttore, secondo delle traiettorie circolari intorno al filo 40/229 Lezioni di logica e filosofia della scienza (così come è possibile rilevare quando si faccia l’esperimento del magnete e della limatura di ferro). Il che equivaleva ad ammettere una concezione della materia e dello spazio non più discontinua, come ipotizzata dalla fisica newtoniana, bensì continua. La distinzione tra continuità e discontinuità Fisica cartesiana del continuo della materia risale alla contrapposizione tra la contro fisica newtoniana del fisica di Cartesio e quella di Newton. Per il discontinuo filosofo e scienziato francese l’universo non può ammettere vuoti, ma deve essere un plenum di materia: anche là dove sembra che i corpi siano separati da una distanza priva di materia (come la Terra e il Sole) è necessario ammettere l’esistenza di un mezzo continuo, un fluido etereo, che compie moti vorticosi e nel quale “nuotano” i corpi celesti. È questo fluido etereo a spiegare la reciproca azione tra i corpi celesti, altrimenti incomprensibile se si ammettesse l’esistenza del vuoto: in un approccio strettamente meccanicistico quale quello di Cartesio la reciproca interazione è ammissibile solo mediante il contatto tra materia, assicurato da questo fluido etereo. Per Newton, al contrario, è ammissibile il ricorso a forze che si comunicano a distanza in modo istantaneo e senza contatto meccanico tra materia, come appunto avviene nei fenomeni gravitazionali; per cui in quest’ottica tutte le forze agenti in natura avrebbero dovuto essere ridotte alle attrazioni e repulsioni istantanee e a distanza tra particelle, tra loro separate dal vuoto. In effetti il programma di ricerca newtoniano Supremazia del programma aveva mostrato nel corso del Settecento la sua newtoniano e il problema superiorità su quello cartesiano, ottenendo sempre della azione a distanza più numerosi dati sperimentali che lo confermavano e portando a numerose scoperte. Tra queste merita di essere menzionata la cosiddetta legge di Coulomb, che formula tra i corpi elettricamente carichi una dipendenza perfettamente analoga a quella individuata dalla legge di gravitazione universale trovata da Newton. Ma, a fronte di questi successi, lasciava tuttavia perplessi gli scienziati – in gran parte orientati in senso maccanicista – l’idea di una azione a distanza che sembrava far rivivere passati tentativi di spiegazione dei fenomeni naturali facendo ricorso a cause occulte, virtù attrattive, simpatie e cose simili, appartenenti al repertorio dell’immaginario medievale. E non poche critiche erano state mosse a Newton dai suoi contemporanei per l’appunto su questa questione. Lo stesso Newton, del resto consapevole delle difficoltà, aveva rifiutato di indagare sulla natura di questa forza, affermando che ad essere importante era determinare come essa agisse, e a tal fine era sufficiente la legge matematica da lui fornita. Una posizione che cercava di trovare un punto equilibrio che non entrasse in conflitto con la sua fede meccanicistica, ma che non poteva impedire ai più attenti seguaci del newtonesimo di notare le conseguenze antimeccanicistiche dell’ammissione di un’azione a distanza. 41/229 Lezioni di logica e filosofia della scienza Analogia formale tra legge di gravitazione universale di Newton e legge di Coulomb La legge di gravitazione universale di Newton mette in relazione la massa dei corpi mm celesti con la loro distanza, secondo la formula F = G 1 2 , dove m 1 e m 2 r2 rappresentano le masse dei due corpi celesti, r la loro distanza e G è la costante di gravitazione universale. Essa ci dice che due corpi materiali si attraggono con una forza, diretta lungo la loro congiungente, che è direttamente proporzionale alle rispettive masse e inversamente proporzionale al quadrato della loro distanza. qq Analogamente la legge di Coulomb si esprime con la formula F = k 1 2 , nella quale r2 k è una costante (detta costante di Coulomb), q 1 e q 2 sono le cariche elettriche (supposte puntiformi) e r la distanza tra le due. Come si vede le due formule sono formalmente identiche, con le cariche al posto delle masse e la costante k al posto della costante di gravitazione G. Ora l’esperienza di Oersted sembrava riproporre la questione col lasciare ipotizzare nuovamente Le conseguenze della scoperta di Oersted: la riproposta la possibilità di uno spazio non vuoto, ridando del newtonesimo in Ampère quindi fiato ai fisici sostenitori della teoria continuista della materia, di ascendenza cartesiana. La comunità scientifica coglie immediatamente l’importanza dell’effetto scoperto dal fisico danese e si impegna alla ricerca di spiegazioni che vanno o nella direzione del tentativo di ricondurlo all’interno del quadro teorico dominante legato all’azione a distanza, o in quella che ammetteva la sola azione per contatto, sulla scia del rinato interesse per le teorie dell’etere, rimesse in campo anche dal successo crescente della concezione ondulatoria della luce. Nella prima direzione si avvia il matematico francese André-Marie Ampère (1775-1836), che riprende e generalizza – con un apparato matematico assai complicato – gli esperimenti di Oersted in modo da interpretare unitariamente i fenomeni del magnetismo, cui venne attribuita natura fondamentalmente elettrica; egli riesce così a ridurre tutti i fenomeni di attrazione e repulsione tra magneti (descritti dalla legge di Coulomb) e tra magneti e correnti (evidenziati dell’esperimento di Oersted) alla legge fondamentale della forza tra correnti da lui formulata. Alla base stava l’esplicito richiamo all’idea di Newton che l’importante fosse «osservare i fatti, compiere precise misure per ricavare leggi empiriche da cui dedurre, senza tentare di spiegare la natura delle forze in gioco, l’espressione matematica di queste forze»80. Una posizione del resto in perfetta linea con l’impostazione che abbiamo già visto aveva dato Fourier al suo studio dei fenomeni termici. In tutt’altra direzione vanno invece le ricer- Faraday e la scoperta delche di Michael Faraday (1791-1867), scienziato l’induzione elettromagnetica con una formazione da autodidatta e pertanto poco esperto nelle raffinate tecniche matematiche impiegate dai fisici francesi: «La sua estraneità al tipo di formalismo usato dalla scuola francese lo spingeva ad esprimere le leggi di natura non attraverso 80 G. Peruzzi, op, cit., p. 44. 42/229 Lezioni di logica e filosofia della scienza equazioni stabilite nel linguaggio dell’analisi matematica ma mediante un simbolismo, quello delle “linee di forza”, che affondava le sue radici nell’intuizione di tipo geometrico»81. La convinzione della necessità di studiare il processo complessivo dei fenomeni elettrici, che portava Faraday a concentrare l’attenzione non solo sui corpi interagenti, ma anche sullo spazio interposto, certamente non fu senza rilievo nella sua scoperta della induzione elettromagnetica (ovvero la possibilità di produrre flussi di corrente elettrica facendo variare un campo magnetico, ad es. avvicinando od allontanando una calamita in vicinanza di un circuito o, viceversa, facendo muovere il circuito rispetto al magnete), così completando la scoperta di Oersted: era possibile ormai generare energia elettrica senza far ricorso alle pile, ma sfruttando solo il movimento meccanico (come dimostrava la dinamo a disco inventata da Faraday). È aperta così la strada ad un nuovo settore dell’indagine umana ed a una nuova disciplina, l’elettrodinamica, che ebbe importanti conseguenze applicative: quasi tutta l’energia elettrica oggi prodotta si basa sull’induzione elettromagnetica, come avviene ad es. con le centrali idroelettriche, che sfruttano l’energia di caduta di grandi masse d’acqua per ottenere energia meccanica che viena trasformata in corrente elettrica, o come accade più semplicemente con la dinamo della bicicletta o con l’alternatore delle automobili. Ciò che veniva alla luce dallo sviluppo di L’idea di ‘campo’ e le linee di questo nuovo ambito di indagine era una nuova forza realtà fisica che, già ipotizzata dai sostenitori della teoria ondulatoria della luce (in particolare Christian Huygens) nel corso del dibattito contro i sostenitori della teoria corpuscolare (proposta per primo da Newton), ora sembrava essere sostenuta da evidenze incontrovertibili: quella del campo. Faraday, infatti, per spiegare i fenomeni di induzione elettromagnetica faceva uso di linee di forza e di azioni per contatto, che potevano essere ammesse solo se si ipotizzava un continuo materiale, contraddicendo così la descrizione dualistica del mondo fisico fatta dai newtoniani. La materia infatti era per lui “ovunque”: un continuo dove non sussistono distinzioni tra gli atomi e l’ipotetico spazio intermedio e dove non risultavano più ammissibili l’azione a distanza e la propagazione istantanea di forze fisiche. Si affacciava l’intuizione di un “campo unificato di forze”, che risiederebbe nell’intero spazio e che permetterebbe di spiegare in maniera unitaria i fenomeni elettrici, magnetici, chimici e gravitazionali. Sullo sfondo, l’idea della sostanziale unità delle forze della natura, che era stata propria della Naturphilosophie continentale e che aveva ispirato anche Oersted. Concezioni queste, però, che sembravano ai Maxwell cerca di dare rigore fisici a lui contemporanei troppo qualitative e matematico alle idee qualioscure: Faraday aveva cercato sì di descrivere il tative di Faraday campo come un insieme di linee di forza estendendosi nello spazio a partire dalle cariche elettriche (o dai magneti), ma 81 Ib., p. 46. 43/229 Lezioni di logica e filosofia della scienza non era stato in grado di dare loro quell’elegante veste matematica che invece era caratteristica della scuola francese ed era stata espressa nel suo massimo grado da Ampère. Gli avversari potevano benissimo sostenere che tutte le sue teorie si basavano solo su di una arbitraria estrapolazione a partire da quanto accade per la limatura di ferro sparsa su un foglio appoggiato ad una calamita. Sarà Maxwell a dare vero e proprio statuto scientifico a queste idee, fornendo loro una veste matematica rigorosa: «Quella che mancava era una sintesi soddisfacente tra la descrizione matematica e l’interpretazione fisica; la complessità della prima finiva con l’offuscare la seconda. Una sintesi che nei dieci anni successivi Maxwell riuscirà ad esprimere nella forma della teoria dei campi elettromagnetici»82. Dopo aver avanzato nei suoi primi due lavori Maxwell: dal meccanicismo una interpretazione meccanicistica dell’induzione alla formalizzazione mateelettromagnetica, dove aveva anche fornito un matica facente a meno di modello di etere in grado di spiegare sia i modelli meccanici fenomeni ottici sia l’affinità tra onde luminose e onde elettromagnetiche (giungendo alla notevole conclusione che esse si propagano alla stessa velocità), nell’ultimo lavoro che compone la trilogia dei suoi studi sull’argomento Maxwell si preoccupa unicamente di sviluppare una teoria matematica dei fenomeni elettromagnetici, in modo da ottenere una serie di equazioni da cui poi derivare logicamente tutte le conseguenze che erano state riscontrate empiricamente nei numerosi esperimenti condotti da Faraday e da lui stesso. Perde anche interesse per lui la costruzione di un’immagine visualizzabile dell’etere, al cui posto subentra il desiderio di formulare le equazioni differenziali che regolano i fenomeni in esso verificantesi. Egli vuole così costruire una “teoria dinamica del campo elettromagnetico”: dinamica «perché assume che in quello spazio vi sia materia in movimento dalla quale vengono prodotti i fenomeni elettromagnetici osservati»83, con ciò continuando a far propria l’ipotesi meccanicistica, secondo la quale la spiegazione ultima dei fenomeni risiede in ciò che avviene in un mezzo meccanico; del campo, in quanto ha a che fare con lo spazio nella vicinanza dei corpi magnetici o elettrici, introducendo così una nuova entità fisica «che permette la deduzione delle leggi che unificano i fenomeni elettromagnetici e quelli luminosi non a partire dalla descrizione del funzionamento di un particolare meccanismo ma dall’analisi delle relazioni sussistenti tra i vari risultati sperimentali. […] Al centro di una teoria fisica non devono esserci modelli particolari ma le relazioni generali che si possono stabilire, a partire dai dati sperimentali, tra il più vasto numero possibile di fenomeni diversi»84. Tuttavia, nella elaborazione successiva, effettuata in direzione di una teoria lagrangiana generalizzata del campo elettromagnetico, la teoria si svincola completamente dalla necessità di ipotizzare qualsivoglia ipotesi meccanicistica che spieghi la generazione dei fenomeni considerati: pur 82 Ib., p. 53. J. Clerk Maxwell, cit. in ib., p. 68. 84 G. Peruzzi, op. cit., p. 70. 83 44/229 Lezioni di logica e filosofia della scienza restando convinto che il substrato dei fenomeni possa essere sempre concepito in linea di principio su base meccanica – mai Maxwell abbandonò la sua fede nel meccanicismo, come del resto testimonia la sua teoria cinetica dei gas (di cui al § precedente) – tuttavia egli ritiene che modelli e interpretazioni diventano irrilevanti quando si sono trovati le leggi generali in grado di ordinare un certo ambito fenomenico. Sicché Hertz potè poi sostenere che la teoria di Maxwell è il sistema delle equazioni di Maxwell, analogamente a come si è sostenuto che la teoria gravitazionale di Newton non è altro che la sua legge di gravitazione universale. In entrambi i casi la forma matematica, con la sua capacità esplicativa, fa mettere in secondo piano la necessità di postulare modelli che descrivano i meccanismi concreti che stanno alla base del comportamento dei fenomeni. Questa tendenza antimodellista – che di fatto si traduce in una critica del meccanicismo newtoniano – ebbe un notevole successo nella fisica di fine secolo, come testimoniano le riflessioni epistemologiche in questo senso effettuate da due grandi fisici e storici della scienza, Pierre Duhem ed Ernst Mach; ma fece anche sì che l’opera di Maxwell fosse avversata dai fisici più attaccati all’ipotesi meccanicistica, per i quali era indispensabile far ricorso a modelli meccanici nella spiegazione dei fenomeni. Il frutto del lavoro teorico dello scienziato in- Le “equazioni di Maxwell” e glese saranno le famose “equazioni di Maxwell”, la loro importanza per la perfezionate nel suo Treatise on Electricity and fisica successiva Magnetism del 1873 e quindi riformulate e confermate sperimentalmente negli anni novanta da Heinrich Hertz (1857-1894). Come affermano Einstein ed Infeld, «la formulazione di queste equazioni costituisce l’avvenimento più importante verificatosi in fisica dal tempo di Newton»85. Esse «definiscono la struttura del campo elettromagnetico. Sono leggi valide nell’intero spazio e non soltanto nei punti in cui materia o cariche elettriche sono presenti, com’è il caso per le leggi meccaniche. Rammentiamo come stanno le cose in meccanica. Conoscendo posizione e velocità di una particella, in un dato istante, e conoscendo inoltre le forze agenti su di essa, è possibile prevedere l’intero futuro percorso della particella stessa. Nella teoria di Maxwell invece basta conoscere il campo in un dato istante per poter dedurre dalle equazioni omonime in qual modo l’intero campo varierà nello spazio e nel tempo. Le equazioni di Maxwell permettono di seguire le vicende del campo, così come le equazioni della meccanica consentono di seguire le vicende di particelle materiali»86. Grazie ad esse viene fornito in forma matematicamente ineccepibile un quadro unitario nel quale descrivere sia i fenomeni elettromagnetici sia quelli luminosi, che Maxwell sperava di poter generalizzare in modo da ricomprendere in esso anche i fenomeni gravitazionali. E difatti negli anni successivi si estese il vocabolario introdotto da Maxwell alla teoria newtoniana della gravitazione, iniziandosi a parlare di “campo gravitazionale”; e sebbene la 85 86 A. Einstein, L. Infeld, op. cit., p. 153. Ib., p. 156. 45/229 Lezioni di logica e filosofia della scienza speranza di poter ottenere una teoria unificata del campo s’è dimostrata vana ed è ancora oggi, com’è noto, irrealizzata, tuttavia è a partire da queste equazioni e dalla nozione di campo da esse introdotta che Einstein partirà per proporre la sua teoria della relatività speciale ed in seguito sostenere che il campo gravitazionale si propaga in modo quasi identico a quello delle onde elettromagnetiche, e quindi con una velocità finita. In tal modo l’azione istantanea a distanza viene definitivamente respinta in favore dell’azione per contiguità anche nei fenomeni gravitazionali. Ma costituiva la teoria del campo elettroma- L’etere quale punto di gnetico elaborata da Maxwell una reale alternativa unificazione tra meccanica ed alla meccanica classica di origine newtoniana? elettromagnetismo Certo, come abbiamo visto, il concetto di campo e le stesse equazioni che lo descrivono sono in netto contrasto con il concetto di particelle e le equazioni tipiche della meccanica classica. Tuttavia nessun fisico ortodosso di fine Ottocento avrebbe mai accettato l’idea di una scienza della natura divisa in due fisiche diverse, tra loro inconciliabili. Avrebbe piuttosto cercato di ricondurre la teoria elettromagnetica alla meccanica classica, ipotizzando un supporto materiale del campo che ne spiegazze l’azione. Così infatti vanno le cose e a venire in soccorso è l’analogia delle onde elettromagnetiche con le onde in un liquido: queste ultime possono avvenire perché vè un mezzo elastico (ad es., l’acqua) nel quale si formano; analogamente le onde descritte da Maxwell avvengono in un mezzo materiale – del resto da lui già ipotizzato in una prima fase del suo pensiero – che ne costituisce il supporto: è il vecchio concetto di etere a servire alla bisogna. È pertanto questo fluido imponderabile ad essere posto alla base, negli ultimi anni dell’Ottocento, delle teorie ottiche, elettriche e magnetiche: il campo elettromagnetico maxwelliano è pensato come un insieme di perturbazioni propagantesi in un etere che si estende occupando tutto lo spazio. Quest’etere cosmico finisce quindi per svolgere l’importante funzione di unificare due settori della scienza fisica altrimenti inconciliabili: la teoria meccanica e il concetto di campo. Così come del resto aveva indicato lo stesso Maxwell, la propagazione delle onde elettromagnetiche veniva giustificata facendo ricorso ad un supporto meccanico che costituisce il mezzo della loro trasmissione: l’etere è, dunque, il mezzo elastico – fatto di particelle in moto e di forze agenti su di esse – le cui vibrazioni assicurano la trasmissione del moto ondulatorio della luce, del magnetismo e dell’elettricità, in ottemperanza alle leggi classiche che regolano le oscillazioni dei corpi perfettamente elastici, già ben studiate nell’ambito della fisica meccanicistica. L’esistenza dell’etere veniva ritenuta così logica ed indispensabile da essere esso universalmente accettato da tutti i fisici del tempo come una delle sostanze componenti dell’universo. Due diverse branche della fisica potevano, suo tramite, essere collegate tra di loro, preservando il prezioso bene della unitarietà della scienza, che era stato al centro della concezione di Laplace, e salvaguardando l’immagine meccanica della natura. 46/229 Lezioni di logica e filosofia della scienza I grandi progressi nei vari campi della scienza Fiducia nella scienza ed ottie la capacità delle nuove teorie (come la termodi- mismo sul suo sviluppo funamica, la meccanica statistica, la teoria dei turo tra Ottocento e Novecampi) non solo di spiegare i fatti e farne cento prevedere di nuovi, ma anche di trovare applicazione in scoperte e ritrovati tecnici che stavano letteralmente cambiando il volto al mondo, facevano pensare che la conoscenza umana si fosse incamminata su binari sicuri e che non restasse che applicare ed ulteriormente estendere a nuovi domini dell’esperienza umana i metodi e le teorie note per accumulare nuove conoscenze e scoperte. «Confortata da questi spettacolari progressi, la comunità dei fisici entrò nel XX secolo con passo baldanzoso. Tutte le tessere del mosaico sembravano andare al loro posto: la meccanica newtoniana era una descrizione completa del moto di ogni possibile corpo massivo, dai pianeti giù giù sino agli atomi; la teoria maxwelliana dell’elettromagnetismo non soltanto svelava i più riposti segreti dell’ottica, ma adombrava la possibilità di comprendere le interazioni, supposte di natura soprattutto elettrica, tra atomi e molecole; la meccanica statistica prometteva infine di spiegare le proprietà degli oggetti macroscopici come conseguenza di quelle dei loro componenti atomici. Restava, è vero, qualche punto oscuro: la struttura fine degli atomi e le inesplicabili regolarità dei loro spettri; l’inanità degli sforzi volti ad estendere ai liquidi e ai solidi l’eccellente teoria microscopica, qualitativa ed entro certi limiti anche quantitativa, del comportamento macroscopico dei gas. Ma erano dettagli. Chi poteve dubitare che l’intelaiatura della fisica fosse solida e che alla fine questi enigmi sarebbero stati risolti al suo interno? A suggello dell’ottimismo dilagante, il fisico inglese Lord Kelvin nel 1900 terminò una conferenza dedicata a un esame sommario dello stato di solute della “sua” scienza all’alba del nuovo secolo tratteggiando un orizzonte sereno al di là di un paio di ‘nuvolette’; per il resto non v’era da sospettare che il convoglio non fosse avviato nella giusta direzione»87. Ben presto, però, queste “nuvolette” genereranno una vera e propria bufera. 4. La teoria della relatività Il rivolgimento più radicale della scienza del Novecento si deve ad un oscuro impiegato dell’Ufficio Brevetti di Berna, Albert Einstein (19791955), il cui nome ben presto divenne un punto di riferimento per indicare una rivoluzione scientifica paragonabile a quella operata a suo tempo da Copernico. In tre articoli del 1905 (uno dei quali gli valse il premio Nobel), scritti con un apparato matematico non troppo sofisticato ma con grande forza deduttiva e capacità di ripensare i fondamenti della fisica, sino ad allora dati per scontati, dà con la Teoria della relatività speciale ( o 87 A.J. Legget, I problemi della fisica, Einaudi, Torino 1991, pp. 25-6. 47/229 Lezioni di logica e filosofia della scienza ristretta)88 un contributo alla fisica che non ha eguali e che sarà ulteriormente approfondito negli anni successivi con la Teoria della relatività generale. Come ricorda Max Born, egli «possedeva il dono di vedere un significato dietro fatti ben noti e poco appariscenti, significato che a tutti gli altri era sfuggito […] Era questa sua misteriosa capacità di vedere dentro al modo di funzionare della natura che lo distingueva da tutti noi, non la sua abilità matematica»89. Il punto di partenza di Einstein è costituito Il principio di relatività fordalla riflessione sul principio di relatività gali- mulato da Galileo: l’esempio leiana, valido nella meccanica classica. Questo della nave principio (noto anche come principio di relatività meccanica) era stato formulato da Galileo per sostenere la mobilità della terra durante la controversia per l’affermazione del sistema copernicano. Una delle obiezioni fondamentali mosse dai tolemaici consisteva nell’osservare che, qualora la terra fosse in moto, un peso lasciato cadere dalla sommità di una torre dovrebbe giungere al suolo non alla sua base, ma spostato di un spazio corrispondente al moto nel contempo effettuato dalla terra. Per rispondere a tale obiezione Galileo aveva concepito un esperimento ideale: immaginiamo, scrive nel Dialogo sopra i due massimi sistemi del mondo, di essere rinchiusi nella stiva di una nave, sul pavimento della quale è posto un vaso con una piccola apertura e sopra di esso un secchio dal quale delle gocce d’acqua si stacchino versandovisi; se la nave è ferma vedremo che tutte le gocce cadendo verticalmente si verseranno entro il vaso deposto a terra. Facciamo ora muover la nave a qualsivoglia velocità, ma con moto uniforme e non fluttuante qua e là; allora non vedremo alcuna differenza nel comportamento delle gocce, che cadranno dal secchio sospeso sempre in modo da centrare la bocca del vaso. Lo stesso accadrà per ogni altro fenomeno fisico che avviene nella stiva della nave, a condizione però che il moto sia rettilineo e uniforme, ovvero non subisca oscillazioni e fluttuazioni (cioè non sia accelerato verso nessuna direzione)90. È del resto l’esperienza che ciascuno di noi può fare quando si trova a bordo di un aereo o di un treno che si muovano sempre alla stessa velocità, senza effettuare alcuna deviazione (o vibrazione): ogni evento fisico che accada in esso, avverrà allo stesso modo che se avvenisse in un sistema che è fermo. Le differenze sono invece avvertite quando l’aereo vira o il treno è in curva: in questo caso subiremo una forza che ci spinge nella direzione contraria alla direzione che il mezzo sta assumendo. Applicando il principio di relatività alla teoria di Copernico, Galileo era così in grado di sostenere che non è possibile con esperienze di tipo meccanico affermare che la Terra è ferma; cade quindi l’argomento della torre. 88 L’articolo nel quale venne per la prima volta formulata tale teoria è “Elektrodynamik bewegter Körper”, in Annalen der Physik, 4, 17 (1905), pp. 891-921. 89 M. Born, Autobiografia di un fisico, Editori Riuniti, Roma 1980, p. 251. 90 Cfr. G. Galilei, Dialogo sopra i due massimi sistemi del mondo, in Opere, a cura di F. Brunetti, UTET, Torino 1980, vol. II, pp. 236-7. 48/229 Lezioni di logica e filosofia della scienza Insomma, chi stia nella stiva della nave di I sistemi inerziali e la ricerca Galileo – o in un qualunque sistema fisico che del sistema di riferimento per stia in quiete o si muova con moto rettilineo eccellenza: lo spazio assoluto uniforme – non può capire in alcun modo se sia in moto o in quiete, a meno che non abbia la possibilità di misurarne la velocità facendo riferimento ad un sistema esterno rispetto al quale effettuare la misura: è questo sistema di riferimento a permettere di misurare la velocità del sistema in cui si trova l’osservatore. La velocità è, dunque, una quantità relativa al sistema di riferimento rispetto al quale viene effettuata la sua misura; nel caso della nave di Galileo, del treno o dell’aereo questo sistema di riferimento è rappresentato dalla terra. Quando il sistema di riferimento in cui si trova l’osservatore si muove di moto rettilineo uniforme o sta in quiete si dice che esso è un sistema inerziale, cioè un sistema per il quale vale il primo principio della dinamica formulato da Newton: «ogni corpo persiste nel suo stato di quiete o di moto rettilineo uniforme finché forze esterne ad esso applicate non lo costringano a mutare questo stato»91. Un sistema di coordinate spaziali (secondo gli assi x, y, z) inerziale è detto sistema di coordinate galileiane. A voler essere esatti, il ragionamento di Galileo contro i tolemaici non è del tutto corretto, in quanto la terra non è in effetti un sistema inerziale: essa compie un movimento rotatorio intorno al sole e ruota sul proprio asse, per cui dovrebbe comportarsi a rigore come un treno in curva; quindi i fenomeni fisici in essa realizzantesi dovrebbero subire una certa forza: in teoria il primo principio della dinamica non può essere esattamente verificato in un laboratorio terrestre. Per tale ragione, nonostante l’influenza di tale moto sia talmente piccola da essere ininfluente negli esperimenti di laboratorio, nondimeno Newton sentì l’esigenza di assumere come sistema di riferimento per eccellenza lo spazio assoluto, considerato il contenitore immobile di tutti i corpi, cioè quel sistema inerziale di riferimento privilegiato nel quale valgono tutte le leggi della meccanica e al quale devono essere riferite tutte le nostre misure. Una buona approssimazione di tale sistema di riferimento privilegiato poteva essere, secondo Newton, il centro di massa del sistema solare, allora considerato il centro dell’universo; successivamente si scoprì che anche il sistema solare ruota con le altre stelle intorno al centro della Galassia, ma tale rotazione è talmente lenta da lasciare immutata la posizione reciproca delle stelle, sicché si può ritenere il cosiddetto cielo delle stelle fisse come un sistema di riferimento in cui il primo principio è pressochè del tutto realizzato. Secondo principio della dinamica e sistemi inerziali Il nesso tra il concetto di sistema inerziale e il secondo principio della dinamica newtoniana, espresso dalla legge F=ma (ovvero, forza = massa x accelerazione), è dato dal fatto che quest’ultima non sarebbe più valida in un sistema che non fosse inerziale, in quanto dovremmo considerare altre forze agenti sulla massa. Per esempio, la terra gira intorno al suo asse e quindi non è inerziale; a rigore, quindi, 91 Formulazione tratta da R. Resnick, D. Halliday, op. cit., p. 80. 49/229 Lezioni di logica e filosofia della scienza tale legge non vale per essa, in quanto si dovrebbe tener conto della forza centrifuga che agisce sui corpi. Benché tale influsso sia molto piccolo e ai fini degli esperimenti di laboratorio del tutto trascurabile, nondimeno esso è teoricamente presente e riveste importanza in quanto mette in luce che la terra non è un sistema inerziale nel quale sono valide le leggi delle meccanica newtoniana. Onde l’esigenza di Newton di postulare il “giusto” sistema di riferimento caratterizzato dal fatto che in esso sono valide le leggi da lui scoperte; e questo non poteva essere uno degli infiniti sistemi di riferimento da noi descrivibili, ma un sistema appunto assoluto, fisso, al quale riportare tutti gli altri con le trasformazioni galileiane. E questo era per lui lo spazio assoluto. La sostanza del principio di relatività meccaniEquivalenza dei sistemi inerca è dunque l’idea secondo la quale tutti i sistemi ziali per le leggi della mecinerziali sono tra loro equivalenti, cioè i fenomeni canica e trasformazioni galimeccanici avvengono in modo identico sia entro leiane un sistema in moto rettilineo uniforme, sia in un sistema in quiete rispetto allo spazio assoluto. Come dice Einstein, «se K’ è un sistema di coordinate che si muove, rispetto a K, uniformemente e senza rotazione [cioè in modo rettilineo], allora i fenomeni naturali si svolgono rispetto a K’ secondo le stesse precise regole generali come rispetto a K. Questo enunciato viene detto principio di relatività (nel senso ristretto)»92. Ciò equivale a dire che tra i sistemi in moto rettilineo uniforme, cioè inerziali, non vi sono sistemi di riferimento privilegiati. Ne segue che due osservatori, l’uno in quiete e l’altro in moto rettilineo uniforme, vedono un qualunque fenomeno meccanico che avvenga nel proprio sistema nello stesso modo dell’altro; per entrambi il comportamento meccanico dei corpi è identico. Se, ad esempio, un corpo si muove di moto rettilineo uniforme in un certo sistema di coordinate galileiane, allora esso si muoverà anche di moto rettilineo uniforme rispetto ad un altro sistema di coordinate galileiane che rispetto al primo si muove di moto rettilineo uniforme. Se le leggi fondamentali della dinamica assumono sempre la stessa forma in tutti i sistemi di riferimento inerziali, allora è impossibile per un osservatore stabilire con esperimenti di carattere meccanico se il sistema in cui si trova è in moto rettilineo uniforme o in quiete, così come abbiamo visto nel caso dell’esperimento galileiano della nave. Matematicamente questa proprietà si esprime dicendo che le equazioni della meccanica non cambiano, sono cioè invarianti, nei diversi sistemi di riferimento inerziali. Tuttavia è sempre possibile “tradurre” la descrizione di un fenomeno fisico effettuata da un osservatore a nel sistema fisico inerziale S nella descrizione effettuata da un altro osservatore a’ appartenente ad un altro sistema fisico inerziale S’. Ciò avviene grazie alle cosiddette trasformazioni galileiane, cioè delle particolari formule che consentono di passare, ad es., dalla descrizione di un qualsiasi fenomeno meccanico fatta da un osservatore immobile alla descrizione fatta da un altro osservatore in moto rettilineo uniforme rispetto al primo. 92 A. Einstein, Relatività (1916), in Einstein et al., Relatività: esposizione divulgativa, Bollati Boringhieri, Torino1967, p. 53. Cfr. anche A. Einstein, Il significato della relatività (1922, 19503), Einaudi, Torino 1950, pp. 33-4. 50/229 Lezioni di logica e filosofia della scienza Consideriamo ad es. un treno che si muove di Esempio del treno e applimoto rettilineo uniforme alla velocità di 10 Kmh cazione delle trasformazioni rispetto al sistema di riferimento costituito dal galileiane marciapiede della stazione. Sul treno un passeggero cammina nella stessa direzione in cui avanza il treno, che costituisce per lui il suo sistema di riferimento inerziale e pertanto può essere considerato in quiete, alla velocità di 5 Kmh. Consideriamo ora un osservatore che sta fermo sul marciapiede della stazione (il suo sistema di riferimento inerziale): questi vedrà il passeggero muoversi ad una velocità che è la somma della sua velocità all’interno del treno e di quella tenuta da questo, cioè alla velocità di 15 Kmh. Le trasformazioni galileiane ci permettono di conoscere la posizione di un corpo (il passeggero) rispetto a diversi sistemi di riferimento inerziali (quello del passeggero e quello dello spettatore sul marciapiede), per cui se nel sistema di riferimento S cui appartiene il corpo la posizione da questo occupata dopo aver camminato per un certo tempo t è contrassegnata dalle coordinate (x, y, z), nel sistema di riferimento S’ la sua posizione sarà contrassegnata dalle coordinate (x’, y, z) (muta solo la x in quanto si suppone che il moto avvenga in una sola direzione, quella della x, per cui sarà y’=y e z’=z), dove x’= x+vt (tenendo presente che lo spazio percorso s è eguale alla velocità v per il tempo t, cioè s=vt). Come si vede dall’esempio fatto, nell’effettua- Un corollario importante delre il passaggio da un sistema di riferimento all’al- le trasformazioni galileiane: tro, abbiamo effettuato la somma delle velocità la legge della somma delle tenute rispettivamente dal treno (rispetto al velocità marciapiede) e del viaggiatore (rispetto al treno). Ciò viene espresso nella meccanica classica dalla cosiddetta legge della somma delle velocità. Nell’esempio il sistema di riferimento rispetto al quale si effettuava la somma era quello costituito dal marciapiede (solidale con la terra), che costituiva per così dire il sistema ritenuto “privilegiato”; se avessimo assunto come sistema di riferimento il sistema solare, allora avremmo dovuto aggiungere anche la velocità di spostamento della terra nella sua orbita intorno al sole. In ogni caso saremmo stati in grado di effettuare la somma delle relative velocità in modo da ottenere quella risultante rispetto al sistema di riferimento “privilegiato”, al quale abbiamo deciso di riportare le velocità degli altri sistemi di riferimento, applicando le trasformazioni galileiane. Ma come stanno le cose quando passiamo dal- L’esistenza dell’etere come le leggi della meccanica a quelle dell’elettroma- sistema di riferimento privilegnetismo? Una delle conseguenze teoriche più giato importanti delle equazioni di Maxwell e della sua teoria elettromagnetica è che la velocità di propagazione della luce è costante, ed equivale a c (circa 300.000 Km al secondo nel vuoto)93, indipendentemente da qualsiasi 93 L’idea che la luce non si propagasse istantaneamente e che avesse, analogamente al suono, una velocità finita cominciò a farsi strada sin dal Seicento con Galileo, che cercò senza successo di misurarla. Una sua prima determinazione abbastanza precisa venne effettuata dall’astronomo Olaf Römer nel 1676; quindi dall’inglese James Bradley nel 1729, da Hippolyte Fizeau nel 1849 51/229 Lezioni di logica e filosofia della scienza sistema di riferimento. Ovvero la velocità della luce è la medesima in qualsiasi sistema di riferimento, qualunque sia la sua velocità relativa. Ma, come sappiamo, si può misurare la velocità solo all’interno di un sistema di riferimento; sorge quindi la domanda: quale è il sistema di riferimento nel quale la velocità della luce è uguale a c? Era naturale rispondere, con Newton: lo spazio assoluto, che poi di fatto veniva ad essere identificato con l’etere immobile, che pervade tutto l’universo e che permette la stessa trasmissione della luce (come abbiamo visto nel § precedente). L’etere, dunque, diversamente da ogni altro sistema di riferimento, finisce per costituire un sistema di riferimento privilegiato, che ha la stessa funzione assunta dallo spazio assoluto per le leggi della meccanica di Newton: era rispetto ad esso che le onde elettromagnetiche – e tra queste in particolare la luce – avevano una velocità costante, come previsto da Maxwell. Insomma, solo grazie all’etere sarebbe possibile accertare il moto assoluto di un mezzo, e non solo il suo moto relativo ad un sistema di coordinate convenzionalmente assunte: esso sarebbe il sistema di coordinate privilegiato relativamente al quale ogni moto poteva essere valutato nella sua dimensione assoluta e non più relativa. Era questa una situazione in un certo qual modo assai strana, in quanto la fisica si trovava ad ammettere una dualità di comportamenti: mentre per le leggi della meccanica erano equivalenti tutti i sistemi inerziali, invece per quelle dell’ottica e dell’elettromagnetismo ne era valido uno solo, quello definito rispetto al solo sistema privilegiato, costituito dall’etere immobile. Tuttavia tale situazione porta ad un evidente ed insanabile contrasto col principio fondamentale della relatività galileiana, che sta alla base della meccanica classica, per la quale vale la legge della somma delle velocità. Vediamo di chiarire questo aspetto nuovamen- L’esempio del treno e la conte con l’esempio del treno. In base alla relatività traddizione tra teoria elettrogalileiana, se dal centro di un treno in moto magnetica e meccanica clasrettilineo uniforme viaggiante alla velocità di 150 sica Kmh (che costituisce il sistema di riferimento S) facciamo partire un raggio di luce esso possiede per il viaggiatore a che sta all’interno del treno la velocità c, qualunque direzione si consideri (ovvero, sia che si prenda il raggio che va in avanti, verso la direzione in cui si muove il treno, sia quello che va all’indietro). Invece per lo spettatore a’ che sta sul marciapiede (sistema di riferimento S’), il raggio di luce che va nella stessa direzione del treno dovrebbe possedere la velocità di c+150 Kmh, ovvero la velocità del treno sommata alla velocità della luce; quello che va invece in direzione opposta del treno dovrebbe avere invece la velocità di c-150 Kmh, cioè la velocità della luce meno quella del treno. Questo è quanto si deve evincere dalla legge della somma delle velocità. Ma questo è proprio quanto viene negato dalla teoria elettromagnetica, per la quale il raggio di luce ha la stessa velocità c sia per il passeggero, sia per l’osservatore sul marciapiede della stazione: è come se la luce dentro il treno si muovesse e infine con grande precisione dall’americano Albert Michelson nel 1926 (autore del celebre esperimento effettuato con Edward Morley, esposto nel testo). 52/229 Lezioni di logica e filosofia della scienza “ignorando” l’esistenza del treno e del suo moto e quindi percorresse comunque 300.000 Kms, rispetto a qualsiasi sistema di riferimento inerziale, sia S che S’ o qualunque altro si voglia assumere. Siamo quindi di fronte ad un problema cruciale: due delle teorie fondamentali della fisica classica – la meccanica e l’elettromagnetismo, aventi un vastissimo campo di applicazioni ed innumerevoli conferme sperimentali – sono in contrasto tra di loro. Era pertanto fondamentale poter accertare L’esperimento di Michelson e l’esistenza di questo etere; e per far ciò vennero Morley condotti da Albert Michelson e Edward Morley una serie di esperimenti (il primo dei quali nel 1881) aventi lo scopo di verificare se esistessero delle differenze nella velocità di un raggio di luce viaggiante in due direzioni tra loro perpendicolari, una delle quali in direzione del moto della terra. Infatti si riteneva che, se la terra viaggia attraverso l’etere, un raggio luminoso viaggiante nella direzione del moto orbitale avrebbe dovuto essere rallentato dal cosiddetto “vento d’etere” che le veniva incontro controcorrente, mentre un raggio che viaggia in direzione opposta avrebbe dovuto essere accelerato; analogamente a come avviene per il suono, la cui velocità dipende dal moto dell’aria che ne permette la trasmissione. Ma il risultato dell’esperimento non faceva rilevare alcuna differenza nella velocità della luce e pertanto non sembrava lasciar vie di scampo: era impossibile rilevare in alcun modo l’esistenza dell’etere, in quanto gli effetti che esso avrebbe dovuto esercitare sulla velocità della luce non avevano luogo. In conclusione, l’ammissione dell’etere quale sistema privilegiato, rispetto al quale poteva essere misurata la velocità della terra, portava a delle conclusioni in contrasto con l’esperienza. La “contrazione” di Lorentz Per spiegare i risultati ottenuti da Michelson e Morley e ad un tempo salvare il principio della somma delle velocità – salvaguardando così meccanica classica ed elettromagnetismo, con la connessa idea di etere come mezzo di propagazione dell’interazione elettromagnetica – i fisici G.F. Fitzgerald e H.L. Lorentz nel 1892, indipendentemente l’uno dall’altro, formularono l’ipotesi che la mancata differenza della velocità della luce nelle due direzioni rispetto al moto terrestre fosse causata dal fatto che i corpi subissero una contrazione nella direzione del loro movimento. In tale modo, l’apparecchio con cui Michelson e Morley avevano affettuato il loro esperimento (l’interferometro), subendo una contrazione nella direzione del moto della terra, avrebbe compensato la differenza che avrebbe dovuto riscontrarsi in base alla legge della somma delle velocità tra i due raggi di luce. La contrazione dei corpi era calcolata in base alla formula l ¢ = l 1 - v2 , dove con l’ viene indicata la c2 lunghezza del corpo contratto, con l la lunghezza del corpo che non ha subito la contrazione, con v la velocità del corpo e con c quella della luce. Se ad es. poniamo che un corpo si muova alla velocità di 240.000 Kms e la sua lunghezza in quiete è eguale a 15 decimetri, risulterà che 2 4 0 . 0 020 16 9 3 =15 1=15 = 1 5 ¥ = 9 ,per cui la lunghezza del 25 25 5 3 0 0 . 0 020 corpo che si muove alla velocità di 240.000 Kms risulta essere di 9 decimetri, ben 6 decimetri meno di quando era in quiete. l¢ = 1 5 1 - 53/229 Lezioni di logica e filosofia della scienza Perchè dunque non abbandonare tale concetto? Einstein: abbandono del conCome conclude Einstein, «tutti i tentativi di fare cetto di etere e primo postudell’etere una realtà sono falliti. Esso non ha lato della teoria della relatività ristretta rivelato né la propria struttura meccanica, né il moto assoluto. Nulla è rimasto di tutte le proprietà dell’etere, eccetto quella per la quale esso venne inventato, ovvero la facoltà di trasmettere le onde elettromagnetiche. E poiché i nostri tentativi per scoprirne le proprietà non hanno fatto che creare difficoltà e contraddizioni, sembra giunto il momento di dimenticare l’etere e di non pronunciarne più il nome»94. In effetti quando Einstein scrisse il suo articolo del 1905 in cui propose per la prima volta la teoria della relatività non menziona affatto l’esperimento di Michelson e Morley, ma era piuttosto motivato da esigenze di semplicità ed eleganza, ovvero dalla necessità di risolvere il dissidio nel campo della fisica tra elettromagnetismo e meccanica classica. Era tale esigenza alla base della sua decisione di abbandonare il sistema di riferimento privilegiato o assoluto costituito dall’etere e di accettare la validità generale del principio di relatività galileiana, che si applica non solo ai fenomeni meccanici, ma anche a quelli elettromagnetici: non è possibile fare alcuna distinzione tra due sistemi in moto rettilineo uniforme. È questo il primo postulato fondamentale da cui parte Einstein per formulare la sua teoria: «Le leggi secondo cui variano gli stati di un sistema fisico non dipendono dal fatto di essere riferite all’uno o all’altro di due sistemi di coordinate in moto relativo uniforme»; o, detto, in altri termini: le leggi della fisica hanno la stessa forma in tutti i sistemi di riferimento inerziali. Insomma, con questo postulato si estende a tutta la fisica – e quindi anche all’elettromagnetismo – il principio di relatività galileiana, prima riferito solo alla meccanica. Il secondo postulato permette di spiegare nel Il secondo postulato della modo più semplice il risultato dell’esperimento di teoria della relatività Michelson e Morley ma, ancora più importante, aaccetta la validità generale delle equazioni di Maxwell che prevedono teoricamente un ben preciso valore della velocità della luce, che è appunto quello che si deve poter misurare indipendentemente dal sistema di riferimento (ecco dunque il perché dei risultati di Michelson e Morley). Esso consiste, pertanto, nel sostenere che la velocità della luce è sempre la stessa (eguale a c) in tutti i sistemi di riferimento inerziali, siano essi in moto o in quiete. Ma l’accettazione di questi due principi – imposta da ragioni teoriche e dall’evidenza sperimentale – porta a rigettare il presupposto che era alla base della meccanica classica, cioè la legge della somma della velocità: questa non può più essere rigorosamente valida e di conseguenza si impone la necessità di riformulare le trasformazioni galileiane. A tale scopo, Einstein dovette costruire una nuova fisica, della quale la vecchia fisica newtoniana rappresenta una approssimazione utile solo nel caso in cui si prendono in considerazione velocità molto piccole rispetto a quella della 94 A. Einstein, L. Infeld, op. cit., p. 184. 54/229 Lezioni di logica e filosofia della scienza luce. In questa nuova fisica viene sottoposto a Cambia anche il concetto di radicale modifica non solo il concetto di spazio tempo: analisi della simulta(come abbiamo visto, con l’abbandono della sua neità assolutezza), ma anche quello di tempo. Ciò viene effettuato con l’analisi critica del concetto di simultaneità di due eventi, che porta Einstein a concludere che in due diversi sistemi inerziali eventi che sono contemporanei per l’osservatore posto in uno di essi non sono contemporanei per un osservatore posto nell’altro sistema di riferimento.95 Ne concludiamo che un orologio cambia il suo ritmo quando è in moto e che quanto più un sistema inerziale si muove ad una velocità vicina alla luce, tanto più il tempo in esso scorre lentamente. Insomma, anche il tempo, oltre allo spazio, non è assoluto e non scorre uniformemente in tutti i sistemi di riferimento, così come richiesto dalla meccanica classica96. Ne segue anche che la lunghezza di un regolo muta in diversi sistemi di riferimento in quanto la sua misura non può fare a meno di misure prese in successivi momenti temporali, che dipendono a loro volta dal sistema di riferimento; più esattamente, per un osservatore in un sistema K i regoli posti nel sistema K’ si accorciano quanto più la differenza nella velocità tra i due sistemi si avvicina a quella della luce (ma ovviamente rimangono eguali per un osservatore che si muove con essi); lo stesso può dirsi di un osservatore posto nel sistema K’ quando osservi un regolo posto nel sistema K. Anche la lunghezza come il tempo è relativa. Poiché le nozioni di lunghezza e di tempo sono Il continuo quadridimensiofondamentali per qualsiasi considerazione scienti- nale di Minkowski fica di qualsivoglia evento naturale, il quale non può mai essere collocato fuori dallo spazio e dal tempo, la teoria di Einstein comportava una radicale modificazione dell’intera fisica e dava l’avvio a una nuova fisica relativistica che, lasciati cadere i concetti assoluti di spazio e di tempo, considerava gli eventi fisici rispetto a spazi e tempi relativi 95 Riportiamo la spiegazione di questo fatto fornita da L. Infeld, che per dieci anni collaborò con Einstein nello sviluppo della teoria della relatività (Albert Einstein, Einaudi, Torino 1968, p. 41): «Dal centro di un treno (sistema mobile) mandiamo in uno stesso istante due raggi di luce in due direzioni opposte. Poiché la velocità della luce (c) è costante per l’osservatore posto all’interno del suo sistema questi due raggi di luce raggiungeranno le pareti opposte nello stesso tempo e per lui questi due avvenimenti (l’incontro dei raggi di luce con le due pareti opposte) saranno contemporanei. Che cosa dirà l’osservatore posto all’esterno (sulla terra)? Anche per lui la velocità della luce è ancora la costante c nel suo sistema; ma guardando il treno egli vede che una parete si allontana dalla luce e una le si avvicina. Quindi, per lui un raggio di luce colpirà prima la parete che si muove verso di esso, e dopo un certo tempo la parete che da esso si allontana. Ciò porta all’inevitabile conclusione che due eventi simultanei per gli osservatori posti in un sistema non sono simultanei per gli osservatori di un secondo sistema in moto uniforme rispetto al primo». 96 Una conseguenza di questa relatività del tempo è il cosiddetto «paradosso dei gemelli», escogitato dai fisici del tempo per criticare la teoria della relatività evidenziando le assurdità cui essa conduceva. Immaginiamo che di due fratelli gemelli uno resta sulla terra e l’altro parte per un viaggio su di un’astronave che viaggia ad una velocità prossima a quella della luce. Il tempo nel sistema di riferimento dell’astronave scorre più lentamente e quindi quando il gemello ritorna dal suo viaggio cosmico troverà il proprio fratello molto più invecchiato di lui. Benché questo esempio sia stato portato per denigrare la teoria di Einstein, in effetti le cose stanno proprio come esso le descrive e questo è stato possibile constatarlo con un esperimento condotto già nel 1938 da Ives sull’atomo di idrogeno. 55/229 Lezioni di logica e filosofia della scienza all’osservatore. Con l’abbandono dello spazio assoluto e del tempo assoluto veniva a crollare il quadro concettuale in cui era iscritto il grande e gloriosissimo universo-macchina newtoniano. Spazio e tempo non sono più grandezze reciprocamente indipendenti, ma strettamente correlate tra loro in modo da formare un’unica entità chiamata spazio-tempo: è questo il continuo quadridimensionale (o spaziotemporale) con il quale il matematico Hermann Minkowski sintetizzò nel 1908 in elegante forma geometrica le conseguenze della relatività speciale (o ristretta), affermando che «lo spazio in sé e il tempo in sé sono destinati a svanire come mere ombre, e solo una certa unità fra i due conserverà una realtà autonoma»97. Nasce il problema di trovare il modo per pas- La trasformazioni di Lorentz sare da un sistema di riferimento all’altro, modo sostituiscono quelle di Galileo che nella fisica classica era assicurato dalle trasformazioni galileiane. Questo fu assicurato dalle cosiddette trasformazioni di Lorentz, già note in quanto proposte per spiegare la mancata rilevazione del vento d’etere mediante l’ipotesi della contrazione dei corpi lungo la direzione del movimento; esse permettono di trovare le coordinate di spazio e di tempo in un sistema se queste sono note nell’altro sistema e se è nota anche la velocità relativa tra i due sistemi. La differenza rispetto alle trasformazioni galileiane consiste nel fatto di considerare ora la variabile tempo non più eguale in ogni sistema (ipotesi dello scorrimento uniforme del tempo), ma diversa, in quanto dipendente dal ritmo degli orologi, che varia al variare della velocità del sistema al quale essi appartengono. Tuttavia la discordanza tra i due tipi di trasformazioni è avvertibile solo per velocità assai prossime a quella della luce, mentre per velocità molto piccole (quelle che di solito riscontriamo nell’esperienza di ogni giorno ed anche in astronautica) le trasformazioni galileiane rappresentano una buona approssimazione. L’importanza delle trasformazioni di Lorentz consiste nel fatto che tutte le leggi di natura sono invarianti rispetto ad esse (sia quelle della meccanica, sia quelle dell’elettrodinamica). Su questa base è possibile allora costruire una nuova fisica: è questo quanto volle fare Einstein nella sua opera del 1905, unificando così le due branche della fisica, la teoria meccanica e quella dei campi, non grazie all’ipotesi dell’esistenza di un etere, ma per mezzo del suo nuovo principio di relatività che assicura l’invarianza delle leggi di natura mediante le trasformazioni di Lorentz. «La teoria della relatività esige che tutte indistintamente le leggi della natura siano invarianti rispetto alla trasformazione di Lorentz anziché rispetto alla trasformazione galileiana. Quest’ultima si riduce allora ad un caso speciale o caso limite della trasformazione di Lorentz, al caso cioè, in cui le velocità relative di due sistemi di coordinate sono molto piccole»98. Le trasformazioni di Lorentz 97 H. Minkowski, cit. in P. Coveney – R. Highfield, La freccia del tempo, Rizzoli, Milano 1991, p. 89. Cfr. su ciò A. Einstein, Il significato…, cit., pp. 38-40. 98 A. Einstein, L. Infeld, op. cit., p. 202. Cfr. anche A. Einstein, Autobiografia scientifica, Boringhieri, Torino 1979, p. 36. 56/229 Lezioni di logica e filosofia della scienza Abbiamo visto che per le trasformazioni di Galileo si poneva x’=x-vt, y’=y, z’=z e t’=t, assumendo che il sistema di riferimento K’ si muova rispetto al sistema di riferimento K solo lungo l’asse x e che il tempo scorra uniformemente per entrambi (per cui t’=t). Le trasformazioni di Lorentz sono invece caratterizzate dalle seguenti x -vt equazioni (sempre assumendo il moto solo lungo l’asse x): x ¢ = , y’=y, z’=z v2 1c2 v tx c 2 . Per cui per passare da un sistema di riferimento K’ al sistema di e t¢ = 1- v2 c2 riferimento K occorre applicare queste equazioni. Facciamo un esempio. Supponiamo che il sistema K’ si muova alla velocità di v = 240.000 Kms rispetto a K, partendo da un punto A, e supponiamo che un osservatore nel sistema K fermo nel punto A constati che dopo un tempo t = 10 sec. avviene in K’ un certo fenomeno ad una certa distanza x da K. Si tratta di calcolare dopo quanto tempo t’ tale fenomeno si verifica per un osservatore solidale col sistema di riferimento K’. È ovvio che dopo 10 sec. il sistema K’ avrà percorso una distanza pari a 2.400.000 Km (ottenuti moltiplicando velocità per tempo). Vediamo ora quanto tempo sarà trascorso relativamente al sistema K’. Applichiamo la quarta equazione di Lorentz: 1 0t¢ = 2 4 0.0 0 0 2 3 0 0. 0 0 0 1- ¥ 2. 4 0 0. 0 0 0 1 0- 2 4 0.0 0 02 3 0 0.0 0 02 = 24 ¥ 2 4 0 1 0 - 2 4 ¥ 2 4 0 1 0- 4 ¥ 8 1 8 18 5 18 900 5 = = = 5 = ¥ = =6 3 5 3 3 2 2 1 6 24 4 1115 25 3 02 52 3 02 Per cui l’evento che per l’osservatore posto in K avviene dopo 10 sec., avviene invece per l’osservatore in K’ dopo soli 6 sec., a dimostrazione che per un sistema la cui velocità si approssima a quella della luce il tempo si “accorcia”, “scorre più lentamente”. Si faccia attenzione al fatto che tra i due sistemi di riferimento K e K’ vale il principio della reciprocità; infatti, rispetto al sistema di riferimento K sono in moto rettilineo uniforme i corpi del sistema K’ ed è in essi che il tempo rallenta. Ma un osservatore posto nel sistema di riferimento K’ non nota nessun cambiamento nel ritmo di scorrimento del proprio tempo, in quanto per esso è il sistema K in moto rettilineo uniforme e quindi è in questo sistema che il tempo rallenta. Bisogna però osservare che nel contesto della teoria della relatività ristretta le equazioni di Lorentz – originariamente proposte per spiegare l’esito negativo dell’esperimento di Michelson e Morley – non hanno la funzione di salvare la tesi dell’esistenza dell’etere, ma sono introdotte come conseguenza della accettazione dei due presupposti che Einstein aveva posto alla base della propria teoria99. Esse, infatti, Il fatto che le trasformazioni galileiane siano una buona approssimazione di quelle di Lorentz per velocità molto piccole si può illustrare con un esempio. Se infatti poniamo nelle equazioni di Lorentz una velocità del corpo in movimento molto bassa rispetto a quella della luce, vedremo che il risultato si scosterà molto poco da quello v ottenuto con le formule classiche. Se infatti è << 1 (col simbolo << si indica c “molto minore di”) si avrebbe che v2 c2 ª 0 (con il simbolo ≈ che significa 99 Cfr. A. Einstein, Relatività, cit., p. 85 57/229 1- v2 ª 1 , onde la prima e la c2 quarta equazione di Lorentz si ridurrebbero a quelle di Galileo. Si potrebbe paragonare il rapporto tra la relatività speciale e la fisica classica a quello esistente tra la trigonometria sferica e quella piana: dalle formule della prima si ottengono quelle della seconda quando si supponga che il raggio della sfera sia infinito e che “approssimativamente eguale a”) e quindi sarebbe Lezioni di logica e filosofia della scienza quindi la curvatura sie eguale a zero. Analogamente dalle formule della relatività ristretta possiamo ricavare quelle della fisica classica quando su supponga che la velocità della luce sia infinitamente grande. In tal caso nella espressione 1- v2 c2 la frazione v / c diventa eguale a zero e si avrebbe 1 - 0 = 1 = 1, per cui le trasformazioni di Lorentz si riducono a quelle di Galileo. Ciò sta ad indicare che le previsioni della teoria della relatività ristretta diventano indistinguibili da quelle della meccanica classica quando le velocità prese in considerazioni sono molto più piccole di quella della luce. Un’altra importante conseguenza della teoria La convertibilità tra massa ed della relatività, da Einstein tratta negli anni energia successivi, è consistita nella unificazione delle due leggi classiche di conservazione accettate nel diciannovesimo secolo: la legge della conservazione della massa e la legge di conservazione dell’energia100. Per il fisico classico massa ed energia sono entità nettamente distinte sia qualitativamente che quantitativamente: un corpo che riceve energia (ad es. venga riscaldato) non cambia di massa; e viceversa l’energia può generare solo lavoro, ma non massa (così come dimostrato dalle macchine termiche ben studiate in termodinamica). Invece grazie alla teoria della relatività Einstein dimostra che l’energia non è qualcosa di imponderabile, ma possiede anche una massa ben definita, anche se estremamente piccola; ed a sua volta la massa ha un’energia. Insomma non vi sono due principi di conservazione, ma solo uno, il principio di conservazione della massa-energia, che viene sintetizzato nella celebre formula E=mc2 cioè l’energia è uguale alla massa del corpo moltiplicata per il quadrato della velocità della luce. Questa conseguenza deriva anch’essa dal La velocità della luce come limite della velocità della luce. Se nessun corpo limite insuperabile può superare la velocità della luce, ciò significa che non può essere ulteriormente accelerato; ma questo avviene solo se al crescere della sua velocità, e cioè della sua energia cinetica, cresce anche la sua massa inerziale: per esempio, a una velocità pari al 10% di quella della luce la massa di un corpo aumenta solo dello 0,5%; al 90% di c, essa aumenta a più del 200%. Man mano che il corpo si approssima alla velocità della luce la sua massa aumenta sempre più rapidamente richiedendo per la sua ulteriore accelerazione una quantità di energia sempre maggiore; alla velocità della luce, la sua massa diventerebbe infinita, in modo tale da richiedere per la sua accelerazione una energia infinita. Il che significa che nessun corpo può raggiungere la velocità della luce, a meno che non sia privo di massa (come appunto accade con i fotoni, le particelle che 100 L’articolo in cui appare per la prima volta è del 1907, “Relativitätsprinzip und die aus demselben gezogenen Folgerungen”, in Jahrbuch der Radioaktivität, 4, pp. 411-62; 5, pp. 98-99. 58/229 Lezioni di logica e filosofia della scienza trasmettono la luce). Ma se la massa varia al variare della velocità, allora l’energia cinetica deve possedere una massa, per quanto piccola e trascurabile alle velocità cui siamo normalmente abituati. E il rapporto tra massa ed energia cinetica (che non è altro che una delle forme che l’energia può assumere) è dato appunto dalla formula E=mc2, che introduce il nuovo principio della conservazione della massa-energia. Da come si evince dalla formula, per produrre una grandezza estremamente piccola di massa occorre una grande quantità di energia; ciò spiega perché nei normali fenomeni termici non si avverte nessun cambiamento della massa quando a questa viene fornita energia: esso è così piccolo da non poter esser rilevato neanche con le bilance più sensibili. Ad esempio, la quantità di energia in grado di trasformare interamente in vapore mille tonnellate di acqua peserebbe circa un trentesimo di grammo. La convertibilità tra massa ed energia è alla base della possibilità di trarre energia dalla massa: è su questo principio che si basano le bombe atomiche e le centrali elettriche nucleari, in quanto la frammentazione del nucleo di un minerale pesante come l’uranio libera una enorme quantità di energia. La relazione tra massa in quiete e in moto: un esempio L’equazione che regola la relazione tra la massa in quiete m e la massa in moto m’ presenta al solito il radicale tipico delle trasformazioni di Lorentz, per cui abbiamo m ; se un corpo si nuovesse con la velocità della luce, sarebbe v = c che m¢ = v2 1c2 per cui il radicale della precedente formula sarebbe eguale a 1 - m , che dà una grandezza infinita. Nel caso 0 quanto detto nella nota 106, si ponga la velocità della m m = = grande, avremmo ottenuto che m¢ = 2 v v2 11• c2 sarebbe m¢ = c2 c2 = 1 -1 = 0e in cui, conformemente a luce come infinitamente m m = = m, ovvero la 1 1-0 massa del corpo in movimento sarebbe eguale alla massa del corpo in quiete, così come vuole la fisica classica, per la quale la massa si conserva invariata qualunque sia la sua velocità. La teoria presentata da Einstein nel 1905 era La relatività generale come limitata ai sistemi in moto inerziale (rettilineo e estensione di quella speciale uniforme). Negli anni successivi Einstein affrontò il problema di una fisica relativistica per i sistemi non inerziali, cioè quei sistemi che subiscono una forza, la quale può derivare o dall’influsso del campo gravitazionale, oppure dalla applicazione di una accelerazione. Se con la meccanica classica si era provata la invarianza di tutte le leggi della dinamica nei sistemi inerziali (grazie alle trasformazioni di Galilei), e con la relatività speciale era stata affermata l’invarianza di tutte le leggi della fisica nei sistemi inerziali (grazie alle trasformazioni di Lorentz), si trattava ora di trovare una teoria per la quale tutte le leggi della natura fossero valide in un sistema arbitrario (sia esso inerziale o meno): «Le leggi della 59/229 Lezioni di logica e filosofia della scienza fisica devono essere di natura tale che esse si possano applicare a sistemi di riferimento comunque in moto. Seguendo questa via giungiamo a una generalizzazione della teoria della relatività [ristretta]»101. Questa generalizzazione fu appunto la teoria della relatività generale proposta nel 1916, per elaborare la quale Einstein lavorò duramente per anni, dovendosi anche dotare di un apparato matematico assai complesso, ancora appena abbozzato in quegli anni. Come sappiamo, le leggi che governano un Il principio di equivalenza tra fenomeno fisico che avvenga in un sistema in massa gravitazionale e masmoto non inerziale non sono invarianti, in quanto sa inerziale devono tener conto dell’influenza esercitata dall’accelerazione; per cui in tutti i sistemi di riferimento accelerati le leggi di Newton sono valide solo introducendo le cosiddette forze inerziali, come per es. la forza centrifuga per un corpo in moto curvilineo (che subisce per suo effetto una spinta in direzione opposta alla curva seguita). Pertanto l’accelerazione è un concetto assoluto, indipendente dallo stato di movimento dell’osservatore; esso sembra implicare l’esistenza di sistemi di riferimento privilegiati; le trasformazioni di Lorentz non potevano essere applicate a sistemi di riferimento non inerziali. Come superare questa limitazione, in modo da ottenere una teoria valida per ogni sistema di riferimento, indipendentemente dal suo stato di moto? La risposta prese la forma di una teoria della gravitazione basata sull’estensione del principio di equivalenza, valido nella fisica newtoniana per i sistemi meccanici102, a tutti gli altri processi fisici. In tal caso esso prende la seguente forma: «Per ogni ragione spazio-temporale infinitamente piccola (così piccola, cioè, che in essa la variazione spaziale e temporale della gravità possa venire trascurata) esiste sempre un sistema di coordinate K0 (x1, x2, x3, x4) nel quale è assente ogni effetto della gravità sia sul movimento dei punti materiali, che su qualunque altro fenomeno fisico. In breve, è sempre possibile eliminare qualunque campo gravitazionale in regioni di universo infinitamente piccole»103. Tale eliminazione è possibile solo in quanto sono poste come eguali la massa gravitazionale e la massa inerziale, ovvero gravità ed accelerazione. Detto più semplicemente, il principio di equivalenza afferma che qualunque sistema di riferimento posto in un campo gravitazionale uniforme e costante nel tempo è del tutto equivalente, per quanto riguarda i fenomeni fisici, ad un sistema sottoposto ad una opportuna accelerazione costante e posto in una zona di spazio in cui il campo gravitazionale è nullo. Ne segue che è sempre possibile scegliere, in una zona delimitata dello spazio-tempo, un opportuno sistema di 101 A. Einstein, “Die Grundlage der allgemeinen Relativitätstheorie”(1916), trad. it. “I fondamenti della teoria della relatività generale”, in M. Pantaleo (a cura di), Cinquant’anni di relatività, Editrice Universitaria, Firenze 1955, p. 511. 102 Ne diamo la formulazione di Wolfgang Pauli: «Nella teoria newtoniana, un sistema situato in un campo gravitazionale uniforme è perfettamente equivalente, dal punto di vista meccanico, a un sistema di riferimento uniformemente accelerato» (W. Pauli, Teoria della relatività, Boringhieri, Torino 1964, pp. 212-3). 103 Id., pp. 216-7. 60/229 Lezioni di logica e filosofia della scienza riferimento in modo da simulare l’esistenza di un dato campo gravitazionale uniforme o, reciprocamente, in modo da eliminare l’effetto della forza di gravità costante. Insomma, per fare un esempio, un passeggero chiuso in un sistema isolato non ha la possibilità di distinguere se la forza che lo tiene attaccato al pavimento derivi dalla forza gravitazionale che lo attrae verso una data massa oppure sia causata da una accelerazione del suo sistema in direzione opposta alla forza: non è possibile distinguere in alcun modo una forza gravitazionale da una forza inerziale, essendo gli effetti dell’una spiegabili come dovuti all’altra e viceversa. Una conseguenza di tale equivalenza è il fatto che un raggio di luce (come anche tutte le onde elettromagnetiche, le onde radio ecc.) dovrebbe essere deviato da un campo gravitazionale, come se fosse costituito da particelle dotate di massa e quindi di peso: viene così gettato un ponte fra gravitazione ed elettromagnetismo. Massa inerziale e massa gravitazionale Nella fisica classica per massa inerziale (o inerte) si indica la capacità di un corpo di resistere ad una forza ad esso applicata, volta a modificarne lo stato di moto o di quiete. È una banale constatazione empirica osservare che un corpo più pesante oppone maggior resistenza, sicché per spostare un corpo che pesa il doppio di un altro corpo occorre impiegare il doppio della forza. È quanto del resto viene espresso dal secondo principio della dinamica: «un corpo soggetto all’azione di una forza subisce un’accelerazione direttamente proporzionale alla forza e avente la stessa direzione e lo stesso verso di questa», che in formule si indica con F = m a (con F = forza, m = massa e a = accelerazione). Per cui la massa è eguale a F m = , dove la m indica appunto la massa inerziale. Per massa gravitazionale si a intende invece la capacità di un corpo di resistere all’azione di un campo gravitazionale. Così sappiamo dalle esperienze di Galileo che un corpo che sia lasciato cadere liberamente ha una velocità di caduta indipendente dalla sua massa: due corpi aventi diversa massa cadono (eliminando le perturbazioni dell’aria) con la stessa accelerazione e quindi raggiungono la terra nello stesso momento. In questo caso dunque, per accelerare un corpo a partire da uno stato di quiete (quando viene rilasciato) non occorre esercitare una forza proporzionale alla massa da esso posseduta. I due fenomeni esprimono concetti del tutto diversi: un corpo ha una massa inerziale indipendentemente dalla sua relazione con altri corpi e solo nella misura in cui oppone resistenza ad una qualunque forza ad esso applicata; invece un corpo ha una massa gravitazionale solo in quanto è attratto da un altro corpo. Roland von Eötvös ideò nel 1889 un esperimento per misurare il rapporto tra le due masse, pervenendo alla conclusione che il rapporto tra massa gravitazionale e massa inerziale è lo stesso per tutti i corpi con una precisione di 1 su 109; si constata così sperimentalmente che la massa gravitazionale e la massa inerziale di un corpo sono eguali tra loro, anche se non si riesce a capirne la ragione; come afferma Einstein, «l’eguaglianza di queste due masse, definite in maniera così diversa, è un fatto confermato da esperienze di grandissima precisione […], ma la meccanica classica non offre alcuna giustificazione di una tale eguaglianza»104. È forse questa circostanza una fortuita e fortunata, per quanto inesplicabile, coincidenza, dovuta ad un capriccio della natura? Come si conciliano tra loro questi due aspetti della massa? È per rispondere a queste domande che Einstein propone il principio di equivalenza, facendo di questa eguaglianza un assioma su cui costruire una nuova teoria della realtà che estendesse la relatività ristretta. 104 Einstein, Il significato…, cit., p. 64. 61/229 Lezioni di logica e filosofia della scienza Tuttavia Einstein non si fermò a ciò, in quanto La curvatura dello spaziopropose una interpretazione geometrica della tempo per effetto del campo gravitazione, per la quale lo spazio, sinora ritenuto gravitazionale come euclideo, in effetti non è “piatto”, bensì curvo in quanto “piegato” o “distorto” dalle masse gravitazionali in esso esistenti. Applicando l’apparato teorico delle geometrie non euclidee105, pervenne alla conclusione che la luce si propaga seguendo il cammino più breve tra due punti, come previsto dalle leggi dell’ottica e dell’elettromagnetismo, ma questo cammino non coincide con la retta euclidea se nello spazio è presente un campo gravitazionale. Dal principio di equivalenza fra inerzia e gravitazione Einstein trasse la conseguenza che anche il tempo viene influenzato dal campo gravitazionale: un orologio posto in un campo gravitazionale rallenta il suo moto. Questo effetto è noto come “dilatazione gravitazionale dei tempi” (che non deve essere confusa con la dilataziona dei tempi della relatività speciale, dovuta al moto del sistema di riferimento). Per spiegare sia il rallentamento degli orologi che la curvatura dello spazio Einstein postula che il campo gravitazionale renda non euclidea la struttura dell’intero spazio-tempo, per cui abbiamo a che fare con un unico fenomeno fisico: la curvatura dello spazio-tempo dovuta al campo gravitazionale. In tal modo lo spazio ed il tempo non solo non sono più assoluti, come riteneva Newton, e non sono neanche indipendenti dai fenomeni che in essi avvengono, i quali ne definiscono la geometria attraverso la distribuzione di masse ed energia, che determina il campo gravitazionale.106 Benché la teoria della relatività generale fosse Le verifiche sperimentali delestremamente complicata e matematicamente la teoria complessa, essa dava tuttavia la possibilità di prevedere alcuni effetti della curvatura dello spazio-tempo suscettibili di verifica sperimentale. Tra questi menzioniamo la deviazione che un raggio luminoso proveniente da una stella subisce quando attraversa il campo gravitazionale del Sole; lo spostamento del perielio di Mercurio nel suo moto di rivoluzione intorno al Sole; e lo spostamento verso il rosso della luce proveniente dal Sole o da altre stelle. Ebbene il primo effetto è stato verificato per la prima volte nel 1919 da Sir Arthur Eddington mediante 105 Sulle geometrie non euclidee vedi il capitolo terzo, § 1.6. «Con la fusione di gravitazione e metrica trova una soluzione soddisfacente non solo il problema della gravitazione, ma anche quello della geometria. Le domande circa la verità dei teoremi geometrici e la geometria effettivamente valida nello spazio sono prive di significato, fino a che la geometria si occupa solo di oggetti ideali e non di quelli del mondo dell’esperienza. Se si aggiunge ai teoremi della geometria la definizione in base alla quale la lunghezza di un segmento (infinitamente piccolo) è il numero ottenuto mediante regoli rigidi o fili di misura secondo un ben definito metodo, allora la geometria diventa un ramo della fisica e i predetti interrogativi acquistano un ben preciso significato. A questo punto la teoria della relatività generale permette di enunciare la seguente proposizione. Poiché la gravitazione è determinata dalla materia, dobbiamo postulare la stessa cosa anche per la geometria. La geometria dello spazio non è data a priori, ma risulta determinata dalla materia. […] Una concezione analoga era già in Riemann. Ma allora poteva soltanto rimanere un ardito progetto, poiché la deduzione del rapporto tra geometria e gravitazione è possibile solo quando sia già stata riconosciuta l’interconnessione metrica dello spazio e del tempo» (W. Pauli, op. cit., pp. 221-2). 106 62/229 Lezioni di logica e filosofia della scienza l’osservazione della luce delle stelle circostanti il Sole durante la sua eclisse; anche il secondo e terzo effetto sono stati sperimentalmente verificati, sicché si può a ragione dire che la teoria della relatività generale è ben confermata, superando lo scetticismo che scienziati e filosofi nutrirono verso di essa quando fu proposta per la prima volta. L’opera di Einstein non ha avuto solo un signi- Il significato filosofico della ficato profondo per la scienza fisica, ma ha anche relatività: Einstein ‘filosofo comportato delle consequenze rilevanti sul piano implicito’ filosofico. Come ha sostenuto Hans Reichenbach, sarebbe un errore credere che la teoria della relatività non sia anche una teoria filosofica; infatti, benché Einstein personalmente sia rimasto sostanzialmente un «filosofo implicito» e non si sia addentrato in un esame filosofico della sua teoria, tuttavia essa «ha conseguenze radicali per la teoria della conoscenza: ci costringe a riprendere in esame certe concezioni tradizionali che hanno avuto una parte importante nella storia della filosofia e dà una soluzione a certe questioni, vecchie come la storia della filosofia, che prima non ammettevano alcuna risposta»107. A sua volta per Moritz Schlick, la teoria della relatività è strettamente legata alla filosofia, da un duplice punto di vista: metodologico, in quanto Einstein rigettò l’ipotesi puramente fisica di Lorentz e Fitzgerald sulla contrazione dei corpi in movimento sulla base di un principio puramente epistemologico, «il principio che solo qualcosa di realmente osservabile dovrebbe essere introdotto come base per la spiegazione nella scienza»108, e questo è un requisito filosofico, non una proposizione sperimentale. Per cui si può ben affermare che la teoria della relatività «tende per propria natura verso la filosofia e cerca qui le sue basi e il suo compimento. Essa persegue l’approccio scientifico sino al limite più spinto, al di là del quale essa non può ulteriormente procedere, e si rende conto che la decisione finale può essere ottenuta solo sulla base di un principio filosofico. Essa deve concedere alla filosofia l’ultima parola […]»109. Ma la teoria della relatività ha anche conseguenze sulla filosofia, ed è questo il suo secondo aspetto, quello materiale: essa, infatti, può fornire contributi diretti alla soluzione di vecchi problemi filosofici (come ad es. quello dello spazio e del tempo, della sostanza, dell’a priori, ecc.) e dare sostegno alla filosofia dell’empirismo, come quella più adeguata per intenderne le caratteristiche110. Tale rilevanza filosofica delle teorie einsteiniane è testimoniato dal dibattito immediatamente seguente alla loro presentazione e diffusione, nel quale furono impegnati filosofi e scienziati di diversa formazione ed orientamento filosofico, ciascuno dei quali cercava di interpretarne concetti e risultati alla luce delle proprie convinzioni. Non ci dilungheremo su tutte 107 H. Reichenbach, “Il significato filosofico della teoria della relatività”, in A. Einstein, Autobiografia scientifica, cit., p. 176. 108 M. Schlick, “The Theory of Relativity in Philosophy” (1922), in Philosophical Papers, vol. I (1909-1922), ed. by H.L. Mulder and B. F.B. van de Velde-Schlick, Reidel, Dordrecht 1979, p. 345. 109 Ib., p. 344. 110 Cfr. ib., pp. 347 ss. 63/229 Lezioni di logica e filosofia della scienza le diverse interpretazioni che ne sono state fornite; ci limiteremo ad accennare a quelle che sono state più significative per il dibattito epistemologico che fu alla base dell’elaborazione dei principali concetti della filosofia della scienza di questo secolo.111 Innanzi tutto occorre sgombrare il campo da Un possibile equivoco: conun possibile equivoco cui potrebbe indurre lo fondere relatività fisica e restesso termine di “relatività”. Si potrebbe infatti lativismo filosofico pensare – e qualche filosofo in passato l’ha fatto – che tale teoria deponga a favore di una visione relativistica della conoscenza, una sorta di scetticismo o protagorismo santificato con i crismi della scienza contemporanea: “tutto è relativo”, si dice, intendendo con ciò affermare che tutto dipende dalla soggettività dell’osservatore; che non è possibile quindi pervenire a nessuna conoscenza intersoggettiva, erigendo a canone il capriccio del singolo. Nulla di più errato. Come osservava già nel 1925 un grande filosofo e logico come Bertrand Russell, presentando la teoria della relatività in un’opera magistralmente divulgativa, questa «è volta a escludere quel che è relativo e a giungere ad una sistemazione delle leggi fisiche che sia completamente indipendente dalle condizioni dell’osservatore»112. Infatti, «la “soggettività” di cui parla la teoria della relatività è una soggettività fisica, che esisterebbe anche se nel mondo non ci fosse proprio niente di simile ai cervelli e ai sensi. Inoltre, si tratta di una soggettività strettamente limitata. La teoria non dice che tutto è relativo; al contrario mette a disposizione una tecnica per distinguere quel che è relativo da quel che a buon diritto fa effettivamente parte di un fenomeno fisico»113. E come ha commentato un fisico contemporaneo esperto in relatività, Mendel Sachs, «secondo le idee di Einstein quello che bisogna considerare come relativo è il linguaggio che il singolo osservatore deve usare per esprimere delle leggi assolute della materia; queste sono invece indipendenti da ogni sistema di riferimento. Cosicché la teoria della relatività è da considerare in realtà una teoria degli assoluti; infatti concentra l’attenzione sulle leggi della natura piuttosto che sul linguaggio che le esprime. Essa non ha quindi niente a che fare col relativismo filosofico, contrariamente a ciò che molti hanno voluto credere»114. Del resto è quanto viene espresso dallo stesso “principio di relatività”, per il quale – come abbiamo visto – tutte le leggi della natura devono essere formulate in modo da essere indipendenti dal sistema di riferimento e dal modo in cui qualunque osservatore collocato in uno di essi potrebbe 111 Per una presentazione complessiva delle varie interpretazioni della teoria della relatività si può consultare utilmente U. Giacomini, “Esame delle discussioni filosofico-scientifiche sulla teoria della relatività”, in L. Geymonat, Storia del pensiero filosofico e scientifico, Garzanti, Milano 1972, vol. VI, pp. 439-468 e P. Parrini, “Empirismo logico e filosofia della scienza”, in M. Dal Pra (a cura di), Storia della filosofia contemporanea / La prima metà del Novecento, II ed., Vallardi – Piccin, Milano 1991, pp. 425-34, § 1 (“La discussione sul significato filosofico della teoria della relatività: Weyl, Dingler, Cassirer, Schlick, Reichenbach”). 112 B. Russell, L’ABC della relatività (1925), Longanesi, Milano 1961, p. 23. 113 Id., pp. 224-5. 114 M. Sachs, “Il realismo astratto di Einstein”, in Laboratorio Quaderni, 1987 (numero zero), p. 57. Di Sachs vedi anche General Relativity and Matter, Reidel, Dordrecht 1982, cap. I. 64/229 Lezioni di logica e filosofia della scienza esprimerle; il che non significa altro che asserire l’oggettività di tutte le leggi di natura.115 Ma in che senso, dunque, la teoria della Le implicazioni filosofiche relatività ha “implicazioni” filosofiche o può della relatività: la crisi della costituire per il filosofo – in particolare quello concezione kantiana di spadella scienza – un importante oggetto di rifles- zio e tempo e l’abbandono del senso comune sione che ha trasformato il modo in cui erano stati sino ad allora affrontati certi problemi tradizionali del pensiero? Nel rispondere a questa domanda l’attenzione è stata puntata innanzi tutto sulla concezione einsteiniana di spazio e tempo, in quanto su questi temi si erano storicamente impegnati molti filosofi, sin dall’antichità classica agli anni più recenti. In particolare, all’epoca in cui Einstein propose la relatività speciale, aveva un particolare credito, specie in ambito filosofico tedesco, la concezione di Kant, per la quale lo spazio e il tempo costituivano forme a priori e trascendentali dell’intuizione sensibile, preesistenti ai fenomeni: nulla, infatti, si può concepire se non nello spazio e nel tempo. Tale impostazione, che si rifaceva alle idee di Newton, pur privandole di sostanzialità per avvicinarle alla soggettività umana, finisce per concepire lo spazio secondo il modello euclideo ed il tempo come qualcosa di universale e comune a tutti gli uomini. Come si concilia la posizione di Kant con le nuove idee portate avanti da Einstein? Mentre i seguaci del filosofo tedesco cercavano in qualche modo di conciliarne le idee con quelle della nuova teoria (e tra costoro il più intelligente ed acuto è stato senza dubbio Ernst Cassirer116), sul versante dei filosofi della scienza il verdetto fu più univoco: la relatività, a loro avviso, fa cadere il carattere a priori di spazio e tempo, mostrando come la presunta loro naturalezza (siano essi intesi in modo sostanziale, come da Newton, sia in modo trascendentale, come in Kant) nasca solo da un pregiudizio psicologico, cioè dal fatto che nella nostra esperienza quotidiana abbiamo a che fare con velocità assai distanti da quella della luce e con campi gravitazionali molto deboli, circostanze nelle quali gli effetti relativistici prima esposti non si fanno notare: «[…] se vi fossero esseri umani a cui le esperienze quotidiane rendessero apprezzabili gli effetti della velocità finita della luce, essi si abituerebbero alla relatività della simultaneità e considererebbero le regole della trasformazione di Lorentz necessarie e di per sé evidenti, proprio come noi consideriamo di per sé evidenti le regole classiche del moto e della simultaneità. […] Ciò che i filosofi avevano considerato come leggi della ragione si sono dimostrate essere un adattamento alle leggi fisiche dell’ambiente circostante; e vi è ragione di credere che, in un ambiente diverso, un adattamento corrispondente avrebbe portato l’uomo ad avere un’altra formazione mentale».117 Si assume così sempre più consapevolezza, da una parte, del fatto che è estremamente pericoloso erigere i 115 116 Cfr. id., p. 58. Cfr. anche B. Russell, op. cit., pp. 34-5 e M. Schlick, op. cit., pp. 348-9. Cfr. E. Cassirer, Sulla teoria della relatività di Einstein (1920), La Nuova Italia, Firenze 1973. 117 H. Reichenbach, “Il significato filosofico…”, cit., pp. 196-6. 65/229 Lezioni di logica e filosofia della scienza concetti derivanti dalla nostra esperienza quotidiana a principi generali della natura118 e che pertanto, a lungo andare, le novità introdotte dalla relatività avrebbero finito per ripercuotersi sul modo con cui finora sono stati concepiti i rapporti di causalità, l’evoluzione, il tempo e così via, creando un nuovo senso comune119; dall’altro, si afferma sempre più l’idea che la filosofia – ancora più che nel passato – non può non tener conto delle nuove acquisizioni che vengono effettuate nel campo della scienza, che sono ormai direttamente rilevanti per dare una risposta non più metafisica a molti problemi tradizionali della storia del pensiero.120 5. La meccanica quantistica.121 Se le teorie viste in precedenza presentavano La messa in discussione del molteplici aspetti innovativi rispetto alla concetto di determinismo concezione meccanicistica dominante all’inizio del XIX secolo, esse conservavano pur sempre un carattere che era stato considerato, anche entro culture assai antiche come l’aristotelismo, l’essenza stessa della scienza: tali teorie si fondavano sulla convinzione che la natura fosse retta da leggi rigorose, deterministiche, di portata universale. La scienza doveva quindi innanzitutto caratterizzarsi per la ricerca di un determinismo negli eventi naturali, al di là delle differenti forme che tale determinismo poteva assumere. La teoria atomistica del Novecento, detta meccanica quantistica, ha messo in discussione anche questo pilastro rimasto saldo per millenni, proponendo una scienza che si occupa di corpi che non sembrano essere soggetti al determinismo e non sembrano obbedire a leggi rigorose. L’elaborazione di questa nuova teoria apparve Il progresso della ricerca sula molti una vera e propria lacerazione nella storia l’atomo e lo studio dei della scienza, una inaccettabile rottura con la modelli atomici fisica tradizionale, assai più grave di quella prodotta dalla relatività einsteiniana – e infatti Einstein fu un critico tenace della fisica atomica. Essa avvenne in stretta connessione con una sorprendente serie di scoperte sperimentali che, a cavallo tra i due secoli, dischiusero alla ricerca fisica il mondo degli oggetti atomici. Ancora all’inizio dell’ultimo decennio dell’Ottocento l’atomo era considerato una costruzione del pensiero, una convenzione linguistica utile a organizzare un gran numero di dati sperimentali, soprattutto in chimica; pochissimi scienziati, tuttavia, erano disposti ad ammettere esplicitamente che a tale Cfr. W. Heisenberg, Fisica e filosofia (1958), Il Saggiatore, Milano 19662, pp. 150-1. Cfr. B. Russell, L’ABC…, cit., pp. 229-30. 120 In questa direzione si sono mossi in particolare i filosofi che hanno sostenuto l’esigenza di una “filosofia scientifica”, dei quali Bertrand Russell è stato uno dei più significativi esponenti, o che hanno cercato di sviluppare le potenzialità filosofiche della teoria della relatività, come ad esempio ha fatto A.N. Whitehead, che con Russell ha collaborato nella stesura dei Principia Mathematica (vedi cap. terzo, § 1.7). 121 Questo paragrafo è tratto, con qualche adattamento, da AA.VV., Il testo filosofico, Bruno Mondadori, Milano 1993, vol. 3/1, unità 20 a cura di R. Maiocchi. 118 119 66/229 Lezioni di logica e filosofia della scienza concetto corrispondesse una realtà oggettiva, che esistessero realmente in natura particelle ultime e indivisibili. Nel giro di poco più di un decennio, grosso modo tra il 1895 e il 1908, non solo ci si convinse che la materia ha realmente una struttura discontinua, discreta, “atomica”, ma ci si accorse anche che queste particelle “ultime” sono a loro volta costituite da particelle ancora più piccole, possiedono una struttura complessa, capace di comportamenti inaspettati. Le ricerche sugli spettri degli elementi (cioè sui colori emessi dai vari elementi chimici ad alte temperature) e sui raggi catodici (radiazioni che si manifestano in contenitori dai quali è stata estratta l’aria e sottoposti a campi elettrici e magnetici), la scoperta dei raggi X (radiazioni capaci di attraversare la materia ponderabile), quella della radioattività naturale (la capacità che hanno alcune sostanze, come il radio, di emettere spontaneamente radiazioni analoghe a quelle create artificialmente con i tubi catodici), gli studi sugli effetti delle interazioni tra radiazioni e atomi, alcune teorizzazioni sul moto browniano, sull’effetto fotoelettrico, sui fenomeni diffusivi, tutto questo fiorire di nuove conoscenze sperimentali e di progressi teorici impose nei primi anni del Novecento una nuova considerazione del concetto di materia. Era ormai necessario considerare la struttura atomica della materia come discontinua, ma fu necessario pensare anche l’atomo come un edificio complesso, una struttura di componenti ancora più piccole dell’atomo stesso (via via furono introdotti gli elettroni, i protoni, i neutroni); fu necessario cioè elaborare un modello dell’atomo e di ricercarne le regole di comportamento. Tutti gli svariati modelli dell’atomo proposti Bohr e la nascita della fisica nei primi anni del Novecento tentavano di appli- quantistica: la discontinuità care al mondo atomico le leggi della fisica che si nel comportamento dell’eleterano dimostrate valide per i corpi macroscopici, trone ma tutti andavano incontro a difficoltà di vario genere. Nel 1913 Niels Bohr propose un modello che superava alcune di queste difficoltà pagando però un prezzo gravissimo: i corpuscoli in movimento all’interno dell’atomo (gli elettroni) non obbediscono a tutte le leggi della fisica classica. Innanzitutto gli elettroni non possono muoversi attorno al nucleo dell’atomo lungo tutte le orbite che sarebbero possibili secondo la teoria meccanica classica: alcune di queste orbite sono proibite (senza che se ne comprenda il motivo), altre sono permesse, e queste sono dette orbite stazionarie. Inoltre, quando un elettrone si muove su un’orbita che gli è permessa non emette radiazione elettromagnetica, come vorrebbero le equazioni di Maxwell, poiché altrimenti, perdendo continuamente energia sotto forma di radiazione, l’atomo non risulterebbe stabile. L’elettrone può emettere radiazione elettromagnetica (cioè luce) solamente quando passa da un’orbita stazionaria a un’altra; tuttavia questo passaggio è caratterizzato da una sostanziale discontinuttà: l’elettrone, infatti, può passare da un’orbita stazionaria all’altra ma non può esistere, per un postulato fondamentale della teoria di Bohr, nelle orbite intermedie; esso “scompare” da un’orbita e “riappare” in un’altra, essendogli proibita l’esistenza in stati intermedi. In altri termini, nel modello di Bohr l’energia degli elettroni non può variare 67/229 Lezioni di logica e filosofia della scienza con continuità, poiché ciò comporterebbe la transizione continua da uno stato all’altro; essa può cambiare solo per scalini bruschi, per salti, per quanti. L’idea della quantizzazione dell’energia degli elettroni era già stata introdotta nel 1900 da Max Planck nella trattazione del problema dell’interazione tra radiazione elettromagnetica e materia ponderabile e ripresa nel 1907 da Einstein nello studio dell’effetto fotoelettrico, ma era rimasta ai margini della teorizzazione scientifica; con l’opera di Bohr questa idea veniva ad assumere un ruolo centrale nella nuova fisica degli atomi. La quantizzazione dell’energia rappresentava La rottura con le concezioni una brusca rottura con la millenaria convinzione scientifiche classiche e la circa la sostanziale continuità dei processi ‘nuova’ meccanica quantistica naturali. L’antica massima secondo cui “la natura non fa salti” era manifestamente violata dal comportamento dell’elettrone che, nel modello di Bohr, mutava il proprio stato con repentine discontinuità, con salti quantici. Pur problematico dal punto di vista della rappresentazione concettuale e modellistica, l’atomo di Bohr era comunque riuscito a render ragione, in particolare, di alcuni caratteri dei dati della spettroscopia che altrimenti sarebbero apparsi non collocabili entro una qualche teorizzazione, e il modello di Bohr rimase il punto di riferimento fondamentale per gli studi sui modelli atomici per circa un decennio, dando origine a una impostazione dei problemi della fisica degli atomi che gli storici chiamano “vecchia meccanica quantistica”. La nuova meccanica quantistica venne elaborata in pochi anni, tra il 1924 e il 1927, con il contributo di vari studiosi (de Broglie, Heisenberg, Born, Bohr, Schroedinger), che partivano da prospettive anche profondamente diverse tra di loro. I fondamenti teorici elaborati in quegli anni hanno rappresentato il pilastro su cui è stata costruita tutta la fisica atomica del Novecento. La nuova meccanica quantistica suscitò un Natura statistica della nuova dibattito scientifico e filosofico amplissimo, in meccanica e dualismo tra quanto presentava aspetti concettuali che rivolu- onde e corpuscoli zionavano concezioni scientifiche, ma anche concezioni del senso comune, consolidate da secoli di storia. Due, in particolare, furono gli aspetti sui quali si focalizzò la discussione: la natura statistica della nuova fisica e il dualismo tra onde e corpuscoli che essa introduce. La teoria quantistica non è in grado di determinare con precisione il comportamento di una particella atomica, per esempio di un elettrone; essa può soltanto effettuare una previsione statistica circa il suo movimento in determinate condizioni. L’elettrone sembra non essere soggetto a leggi rigorosamente deterministiche, appare dotato di una sorta di “capacità di scelta” tra vari percorsi possibili (molti parlarono di “libero arbitrio”). Questa caduta del determinismo mise in difficoltà l’ideale di scienza che aveva dominato sin da Aristotele, ideale secondo il quale la scienza è conoscenza dell’universale e si esprime secondo leggi che non ammettono eccezioni; proprio per questo motivo, grandi scienziati come Einstein, Planck e Schroedinger si rifiutarono di ammettere che la nuova fisica fosse 68/229 Lezioni di logica e filosofia della scienza una teoria scientifica completa, definitiva, non superabile da una ulteriore teoria atomistica che ripristinasse il determinismo degli eventi naturali. Questi critici finirono però per essere tacitati dai crescenti successi della meccanica quantistica e si affermò, dell’indeterminismo atomistico, una interpretazione che si fondava sulle concezioni di Heisenberg. Per Heisenberg i gravi problemi interpretativi Il principio di indeterminache si associavano alla meccanica quantistica zione di Heisenberg dipendevano dall’abitudine a usare immagini ricavate dal mondo dell’esperienza macroscopica per rappresentare gli oggetti del mondo atomico. Per esempio, quando si rappresenta un elettrone rotante attorno a un nucleo atomico usando l’analogia di un satellite che gira attorno a un pianeta, sorgono questioni irrisolvibili quali quella posta dalla domanda: «Come fa un elettrone a passare da un’orbita a un’altra senza passare per le orbite intermedie?». L’esperienza non ci fornisce però alcuna informazione su un concetto quale quello di “orbita” di un elettrone, il cui movimento non si può in alcun modo seguire passo passo come si fa con la Luna. Che senso ha parlare allora di grandezze delle orbite o di forma delle orbite quando queste sono al di là di ogni esperienza possibile? Dal punto di vista scientifico, nessuno. Meglio allora rinunciare a ogni visualizzazione, a ogni rappresentazione modellistica degli oggetti atomici, per limitarsi a trattare teoricamente solo di quei dati circa tali oggetti che l’esperienza ci consente di raccogliere – per esempio frequenze di radiazioni emesse e intensità luminose. Proprio prendendo in esame quello che l’esperienza ci permette di dire attorno agli oggetti atomici, Heisenberg giunse a esprimere il principio basilare della propria interpretazione, il principio di indeterminazione. Se si considerano le esperienze che ci permettono di ottenere informazioni sugli oggetti atomici partendo dai princìpi della nuova teoria, ci si trova di fronte costantemente a una conclusione che è assolutamente nuova rispetto alla meccanica classica. Nella meccanica classica è possibile prevedere il comportamento futuro di un corpo se si conoscono in un dato istante due informazioni sul suo stato, due cosiddette coordinate canoniche. Le più semplici tra queste coppie di coordinate sono la posizione e la velocità. Nelle esperienze che riguardano gli oggetti macroscopici si era sempre ammesso che fosse possibile assumere informazioni empiriche circa le coordinate canoniche senza perturbare lo stato degli oggetti in esame: si ammetteva, per esempio, che si potesse misurare in un certo istante la posizione e la velocità di un corpo con precisione grande a piacere senza alterare il suo movimento. Se invece di considerare un corpo macroscopico si considera un oggetto atomico ciò non risulta più possibile: non è possibile misurare con precisione grande a piacere le coordinate canoniche di un oggetto atomico. Nel caso di un elettrone in movimento, per Il problema dell’interazione esempio, i tentativi di misurarne posizione o tra strumento di rilevazione e velocità alterano inevitabilmente il suo stato di oggetto di osservazione moto a causa della quantizzazione dell’energia tanto delle particelle quanto delle radiazioni luminose, quantizzazione che 69/229 Lezioni di logica e filosofia della scienza impedisce che si possa render piccolo a piacere il disturbo prodotto dalla interazione tra particella e apparato di misura. Questa perturbazione avviene in modo tale che se si cerca di diminuire l’incertezza della misurazione di una delle due coordinate, si interagisce con l’elettrone in maniera da aumentare l’incertezza con la quale si può misurare l’altra coordinata. La precisione nella misurazione di una coordinata canonica va necessariamente a discapito della precisione nella misurazione dell’altra. Per esempio, se si cerca di determinare con precisione assoluta la posizione di un elettrone in un dato istante facendolo scontrare con una lastra fotografica che ne registra l’arrivo, l’urto con la lastra consente effettivamente di annullare l’incertezza circa la misurazione della posizione, ma contemporaneamente altera del tutto il movimento della particella e dunque preclude la possibilità di ottenere informazioni su quella che era la velocità dell’elettrone nel momento in cui giungeva sulla lastra. L’indagine sulle procedure sperimentali L’impossibilità di superare possibili per gli oggetti atomici condusse perciò nelle misurazioni una soglia Heisenberg a enunciare un principio di data di indeterminazione indeterminazione: nella misura delle coordinate canoniche di un oggetto atomico l’incertezza dei risultati di misura non si può rendere piccola a piacere. Il prodotto delle incertezze nelle misurazioni delle coordinate canoniche non può scendere sotto un limite inferiore. Perciò la diminuzione dell’incertezza, ovvero l’aumento di precisione nella misurazione di una coordinata, provoca necessariamente un aumento di imprecisione nella misurazione dell’altra. Non è possibile conoscere contemporaneamente con precisione assoluta i valori di due coordinate canoniche. Il principio di indeterminazione spiega, per Ogni tipo di osservazione Heisenberg, la natura statistica della nuova teoria, implica un’interazione con l’apparente caduta del determinismo. Infatti, se l’oggetto osservato non siamo in grado di avere informazioni precise sullo stato di un oggetto, non potremo neppure fare previsioni precise sul suo comportamento futuro. La meccanica classica compie previsioni deterministiche solo a patto che siano disponibili informazioni sui valori delle coordinate canoniche dell’oggetto in esame in un dato istante e ammette che sia sempre possibile ottenere simili informazioni. Il principio di indeterminazione stabilisce invece l’impossibilità di conoscere con precisione le coordinate canoniche e dunque esclude che si possa prevedere con precisione il futuro comportamento di un oggetto. È il disturbo provocato dagli apparati di misura sulle particelle a impedire di conoscere le coordinate canoniche, è l’interazione tra oggetto e apparato di osservazione a generare un comportamento apparentemente indeterministico degli oggetti microscopici; sarebbe però insensato , prosegue Heisenberg, porsi la questione di come si comportino questi oggetti quando nessuno li osserva, quando nessuno strumento li disturba, e chiedersi se “in realtà” il loro comportamento è di tipo deterministico oppure no, in quanto è evidente che lo scienziato non ha nulla da dire circa quello che fa la natura allorquando nessuno la osserva. Limitandosi a quel che dicono le 70/229 Lezioni di logica e filosofia della scienza esperienze, la scienza non può far altro che sottolineare come nel mondo atomico le esperienze non consentono di misurare con precisione quei dati che sarebbero necessari per poter effettuare una previsione deterministica e lasciare ad altri l’onere di discutere se la natura sia o no “in se stessa” intrinsecamente deterministica. Strettamente connesso al principio di indeter- Il problema del dualismo tra minazione è l’altro aspetto della meccanica onda e corpuscolo nel comquantistica sul quale si concentrò la discussione portamento dell’elettrone scientifica e filosofica: il dualismo onda-corpuscolo. Secondo il buon senso, e anche secondo la fisica classica, un’onda è radicalmente differente da un corpuscolo e da sempre i concetti fondati sulla nozione di onda erano stati radicalmente distinti da quelli fondati sulla teoria corpuscolare; mai per uno stesso oggetto si erano mescolate le rappresentazioni ondulatorie con quelle corpuscolari. Cominciò a porre in discussione questa dicotomia Einstein nel 1907, esponendo una teoria della luce, per la spiegazione dell’effetto fotoelettrico, nella quale un raggio luminoso è considerato come un treno di particelle di luce, dette fotoni. In quel periodo era universalmente accettata la visione ondulatoria della luce imperniata sulla teoria di Maxwell, che identificava la radiazione luminosa con un’onda che si propaga in un campo elettromagnetico. Proponendo che, per il caso dell’effetto fotoelettrico, la luce non venisse considerata un fenomeno ondulatorio ma un insieme di corpuscoli luminosi, Einstein veniva evidentemente a introdurre una contraddizione nelle rappresentazioni fisiche. La contraddizione si allargò ulteriormente quando al mondo dei corpuscoli atomici vennero applicate immagini e nozioni ondulatorie. Nel 1924 Louis de Broglie propose di risolvere i problemi insiti nel modello atomico di Bohr immaginando l’elettrone rotante come un’onda che si propaga lungo un’orbita. Questa idea fu sviluppata nel 1926 in forme matematiche molto sofisticate da Erwin Schroedinger e diede luogo a un formalismo matematico che divenne il corpo centrale della nuova meccanica quantistica. Dopo alcuni tentativi iniziali di intendere l’elettrone come se fosse un fenomeno puramente ondulatorio divenne chiaro che il concetto di onda non poteva sostituire completamente quello di corpuscolo, che l’elettrone, come la luce, richiedeva per la propria comprensione entrambe le concezioni: in determinate circostanze esso sembra comportarsi come un perfetto corpuscolo, in altre manifesta indubbi caratteri ondulatori. Questo duplice comportamento divenne evidente anche sul piano sperimentale: inserita in un dato apparato, una fonte di elettroni fa registrare immagini nettamente corpuscolari, quali possono essere delle tacche luminose molto limitate e nettamente definite che segnalano l’arrivo di un corpuscolo su una lastra fotografica; inserito in un dispositivo differente, lo stesso cannoncino elettronico produce fenomeni tipicamente ondulatori, come possono essere la formazione di figure d’interferenza sulla lastra fotografica rivelatrice, cioè alternanze di bande chiare e bande scure, fenomeno, questo, che è da considerarsi tra i più caratteristici della presenza di onde. 71/229 Lezioni di logica e filosofia della scienza Nel tentativo di razionalizzare in qualche di complementamodo questa imbarazzante situazione, Bohr Ilritàprincipio di Bohr: la compatibilità enunciò nel 1927 il principio di complementarità. dell’interpretazione ondulaEsso, in sintesi, sostiene che i concetti di onda e toria e di quella corpuscolare corpuscolo sono entrambi necessari se si vuole dell’atomo comprendere la totalità delle manifestazioni fenomeniche degli oggetti atomici, ma il loro uso non conduce a contraddizioni poiché l’esperienza dimostra che i due concetti non debbono mai venire impiegati contemporaneamente nella descrizione dello stesso esperimento: negli esperimenti in cui prevalgono i caratteri ondulatori delle particelle quelli corpuscolari sono trascurabili, e viceversa. Le particelle atomiche non sono né pure onde né puri corpuscoli, ma non si presentano mai allo stesso tempo come onde e corpuscoli. Il termine “complementare” sta appunto a indicare questo duplice rapporto che intercorre tra i due concetti: da un lato essi sono entrambi necessari a capire la totalità fenomenica, dall’altro onda e corpuscolo si escludono reciprocamente nella comprensione di una singola esperienza. Naturalmente questa visione degli oggetti atomici rompe radicalmente con la nozione di oggetto propria della fisica classica e del senso comune, per i quali si pone l’alternativa radicale onde o corpuscoli, e risulta incomprensibile la natura duplice delle particelle che si comportano ora come onde, ora come corpuscoli. Questa duplicità di comportamenti venne ricondotta da Bohr all’interpretazione che Heisenberg aveva dato del principio di indeterminazione: in ogni esperienza sugli oggetti atomici ha luogo una interazione tra oggetto e strumento di misura che altera lo stato dell’oggetto; cambiando l’apparato sperimentale muta anche il tipo di disturbo che si verifica, e dunque cambia anche il tipo di mutamento di stato subito dall’oggetto. È questo diverso modo di interagire con l’oggetto che spiega le diversità di comportamento che si rilevano nei diversi apparati sperimentali: in alcuni dispositivi sperimentali vengono evidenziate caratteristiche ondulatorie, in altri, mutando l’interazione tra apparato e oggetto, emergono caratteristiche corpuscolari. L’interpretazione di Heisenberg e di Bohr della meccanica quantistica fu criticata da vari scienziati di primissimo piano; in particolare venne attaccata la nozione di complementarità, giudicata una pura soluzione verbale, una parola inventata per mascherare una reale ignoranza. Tuttavia tale interpretazione, detta “di Copenhagen”, finì per conquistare la maggioranza degli studiosi, anche perché i suoi avversari, i già citati Einstein, Planck e Schroedinger, seppero opporle solo argomenti di principio, più filosofIci che fisici, non certo una teoria alternativa. Con essa giunse a completa dissoluzione l’ideale meccanicistico e si impose una fisica nella quale non trovavano più posto la nozione classica di oggetto e la stessa idea di determinismo della natura. Con la meccanica quantistica avviene anche un L’importanza della meccanica deciso allontanamento dal dato concreto della quantistica: la fine della intuizione sensibile. È quanto mette in luce intuizione sensibile Heisenberg, quando sottolinea come col passaggio 72/229 Lezioni di logica e filosofia della scienza alla fisica atomica i corpi vengono a perdere la possibilità di poter essere determinati in uno spazio e in un tempo oggettivo, indipendente dal sistema osservativo: «Nella fisica moderna gli atomi perdono anche quest’ultima qualità, e non posseggono le proprietà geometriche in maggior misura che le altre, quali il colore, il gusto eccetera. L’atomo della fisica moderna può per ora essere simbolizzato solo mediante un’equazione differenziale parziale in uno spazio astratto pluridimensionale; soltanto l’esperimento che l’osservatore intraprende su esso estorce dall’atomo l’indicazione di un luogo, di un colore, di una quantità di calore. Per l’atomo della fisica moderna tutte le qualità sono dedotte, direttamente non possiamo attribuirgli alcuna proprietà materiale; il che vuol dire che qualunque immagine che la nostra mente possa farsi dell’atomo è eo ipso errata».122 Onde si può legittimamente concludere che «le particelle elementari sono in definitiva delle forme matematiche».123 Si viene a creare, pertanto, una scissione nel Il bisogno di rinnovati strucorpo della scienza: da una parte v’è la fisica menti concettuali per intenclassica con le sue leggi deterministiche (o al dere la nuova fisica massimo statistiche); dall’altra, il mondo del microscopico in cui non valgono più le leggi classiche, ormai inadeguate a descriverne i processi e pertanto sostituite da leggi e princìpi del tutto diversi. È questa la situazione che hanno di fronte i fondatori del Circolo di Vienna e filosofi della scienza dei primi decenni del Novecento. Essi si pongono, pertanto, il compito di trovare per tale crisi una soluzione tale da salvare la realtà della nuova fisica mediante l’elaborazione di nuovi strumenti concettuali che meglio permettano di comprenderne la natura e che siano diversi da quelli forniti dalle vecchie filosofie delle scuole (come il kantismo), le quali, ormai alle corde di fronte alla nuova situazione, non esitano a dichiarare la bancarotta delle scienze invece che dei propri criteri di scientificità. È una circostanza, questa, che si è più volte verificata nel corso della storia: le “immagini della scienza” si trasformano da utili mezzi di comprensione della scienza in camicie di forza entro le quali la si vorrebbe costringere. L’epistemologia si muta così in gnoseologia rendendosi indipendente dal materiale da cui si è originata e, in quanto tale, pretende giudicare del valore conoscitivo della scienza; ma dato che questa cambia molto più velocemente della immaginazione dei filosofi, ecco che questi ultimi, non riuscendo più a comprenderla con i loro schemi concettuali, ne dichiarano la inconsistenza conoscitiva e la riducono ad utile raccolta di ricette pratiche. Si tratta, insomma, come dice il Frank parafra- Frank: mettere il vino nuovo sando una parabola evangelica, di mettere il vino in otri nuovi nuovo in otri nuovi, dove «gli otri vecchi erano gli schemi della filosofia tradizionale, e il vino nuovo la scienza del Novecento».124 E, una volta fatto il vino, bisogna trovare le botti filosofiche W. Heisenberg, Mutamenti nelle basi della scienza, Boringhieri, Milano 19662, pp. 16-17. Id., Fisica e filosofia (1958), Il Saggiatore, Milano 1966 (2ª ed.), p. 88. 124 P. Frank, op. cit., p. 40. 122 123 73/229 Lezioni di logica e filosofia della scienza adatte, che non ne rovinino il sapore. Alla costruzione di queste “botti” avevano mirato le discussioni che avevano luogo in quello che abbiamo chiamato il “primo Circolo di Vienna”, la cui importanza è consistita come ha puntualizzato F. Stadler125 - nel prefigurare ancor prima del conflitto mondiale le posizioni che poi saranno l’eredità raccolta dal futuro empirismo logico e di tutta la filosofia della scienza successiva. 125 Cfr. F. Stadler, Studien zum Wiener Kreis. Ursprung, Entwicklung und Wirkung des Logischen Empirisus im Kontext, Suhrkamp, Frankfurt a.M. 1997, pp. 187-8. 74/229 Lezioni di logica e filosofia della scienza Capitolo terzo I CONCETTI E IL LINGUAGGIO DELLA LOGICA SIMBOLICA 1. Dalla logica “classica” alla “nuova logica” 1.1 Lontano da Aristotele. La storia della filosofia della scienza di questo secolo sarebbe incomprensibile se non la si leggesse in stretta connessione all’affermazione della “nuova logica”. Con tale attribuzione si vuole intendere un modo di concepire questa disciplina, la cui fondazione risale ad Aristotele, che rompe con quella che veniva chiamata “logica classica” o anche “vecchia logica”. In effetti la logica, dopo il periodo medievale, L’atteggiamento di Galileo e nel corso del quale la sillogistica aristotelica la nuova scienza aveva conseguito notevoli progressi senza tuttavia discostarsi dai caratteri fondamentali impressigli dal suo fondatore, aveva conosciuto un lungo periodo di eclisse e di letargo. La nuova scienza che nasceva dopo la tarda scolastica trovava inutili le formule astratte e capziose con cui i medievali avevano cercato di sistematizzare la sillogistica, né riusciva a valutare adeguatamente quanto di nuovo essa aveva elaborato. Piuttosto che a questa dottrina, ormai inariditasi nella pratica delle Scuole, si preferiva rivolgere la propria attenzione alla matematica, molto più utile nel processo di edificazione della nuova scienza: con i suoi caratteri - sosteneva Galilei - era scritto il “libro della natura”. La logica medievale e quella aristotelica, così, venivano spesso messe sul banco degli accusati, col rimprovero di creare menti inutilmente capziose, di abituare i fanciulli a vane sottigliezze, distogliendoli dalla vera conoscenza: alla logica insegnata, teorizzata e sistematizzata nei manuali delle Scuole, si preferiva quella implicita, in atto, operativa, incarnata nella matematica e nella geometria. Sicché alla esaltazione della logica aristotelica operata da Simplicio, Galilei poteva ribattere: «Il sonar l’organo non s’impara da quelli che sanno far organi, ma da chi gli sa sonare; la poesia s’impara dalla continua lettura de’ poeti; il dipignere s’apprende col continuo disegnare e dipignere; il dimostrare, dalla lettura dei libri pieni di dimostrazioni, che sono i matematici soli, e non i logici».126 126 G. Galilei, Dialogo sopra i due massimi sistemi del mondo (1632), in Opere, a cura di F. Brunetti, UTET, Torino 1980, pp. 54-5. 75/229 Lezioni di logica e filosofia della scienza Tale svalutazione della logica tradizionale Nasce la contrapposizione tra aveva fatto deperire l’interesse per il suo carat- logica e matematica tere formale, che pure era uno degli acquisti più importanti del pensiero aristotelico, ed aveva fatto anche trascurare le notevoli acquisizioni che i medievali avevano fatto nel campo della logica proposizionale. Come spesso accade nei periodi di grande rinnovamento culturale - e tale era quello che vide la nascita della nuova scienza e la creazione del mondo moderno - il desiderio di far piazza pulita di quanto ereditato dal passato, che si sente come un vincolo all’avanzamento ulteriore, finisce per far buttar via “il bambino con l’acqua sporca”. Ciò ovviamente non significò che la vecchia logica si fosse del tutto eclissata; piuttosto essa rimase, ormai isterilita e non più sviluppata, come un corpo di conoscenze che sopravviveva nelle scuole e nell’insegnamento, come una sorta di grammatica del pensiero indispensabile per l’educazione ma del tutto insufficiente per gli scopi dell’avanzamento del sapere e per la riflessione filosofica. Quanto dice Galilei è interessante perché fa intravvedere in nuce una contrapposizione tra logica e matematica che segnerà i secoli successivi. Infatti si avrà, da un lato, la tesi della loro separazione radicale e quindi il tentativo di proseguire la logica classica in modo autonomo rispetto alla matematica, ossia sui vecchi binari della sillogistica aristotelica e scolastica; dall’altro, assisteremo ad una accettazione del carattere deduttivo della sillogistica aristotelica non in antitesi al ragionamento matematico, per cui si pensa che in sostanza o tutta la matematica, se correttamente interpretata, possa trasformarsi un una catena di sillogismi, oppure che la stessa sillogistica possa essere perfezionata grazie alla sua matematizzazione, liberandola così dall’apparenza cabalistica ormai acquisita nelle mani degli scolastici. Lasciando da parte la prima strada, ben presto isterilitasi, è nel fecondo rapporto tra logica e matematica che deve ritrovarsi il filo conduttore che conduce alla logistica contemporanea. Un rapporto spesso ambiguo, fatto di timidezze ed innovazioni, di preservazione di quanto tramandato dalla vecchia sillogistica ed esigenze di ammodernamento (come avviene ad esempio con la cosiddetta Logica di Port-Royal di A. Arnauld e P. Nicole, del 1662, che ebbe una fortuna eccezionale per due secoli), ma che conosce un punto di accumulo significativo nell’opera di Leibniz. 1.2 Calculemus. Ritenuto dai logici moderni Leibniz e l’indicazione di una come il loro precursore, come il grande pioniere nuova strada per la logica ed iniziatore della nuova strada che porta alla logistica moderna, G. W. Leibniz (1646-1716) in effetti incarna tutte le ambiguità della vecchia logica, che non riesce ancora a trasformarsi pienamente, ed insieme la messa in campo di nuove esigenze che costituiscono come il nuovo motto iscritto sulle bandiere dei tentativi di rinnovamento della logica. Non solo, ma tale funzione cruciale quale fondatore ed iniziatore di una nuova strada gli venne attribuita solo quando questa era già stata da tempo intrapresa e in gran parte percorsa, sicché non 76/229 Lezioni di logica e filosofia della scienza si può affatto affermare che i suoi scritti in merito abbiano avuto una incidenza diretta sulla rinascita della logica nella seconda metà dell’Ottocento. La sua opera fu per lo più ignorata dai contemporanei e dai successori, i suoi scritti sull’argomento rimasero a lungo inediti e solo agli inizi del Novecento si ritornò a guardare con rinnovato interesse alla sua opera logica, quando questa, già in piena crescita, cercava anche di darsi un pedigree illustre e cercava nel passato i precorrimenti delle proprie idee. I giudizi di Giuseppe Peano nel 1901 e del suo allievo G. Vacca nel 1899127, gli studi del logico francese L. Couturat, che ne pubblicò per primo gli scritti inediti di logica nel 1903128, il primo importante lavoro di B. Russell nel 1900129, nonché i riconoscimenti di Husserl nello stesso periodo130, tutto ciò avviene al volgere del secolo, quando la nuova logica era già in fase di matura elaborazione e poteva valorizzare negli scritti di Leibniz quei concetti fondamentali, che ai contemporanei eran parsi delle bizzarrie, cadendo pertanto nel dimenticatoio. In nessuna altra disciplina, come nella logica, appare vero che l’anatomia dell’uomo è la chiave per comprendere quella della scimmia. Ma vi sono altri caratteri dell’opera logica di Fedeltà alla logica tradizioLeibniz che bisogna tratteggiare per capirne esat- nale e suo tentativo di perfetamente la portata. Innanzi tutto egli non abban- zionarla mediante le creadonò mai del tutto l’impostazione della logica zione di una lingua simbolica e la creazione di tradizionale ed anzi si poneva esplicitamente in universale un ‘calcolo’ continuità con essa: il suo attaccamento alla forma attributiva della proposizione, composta da soggetto e predicato, gli impedisce l’elaborazione di una vera e propria logica delle relazioni. Tuttavia egli vuole perfezionare questa logica e così, accanto a tutta una serie di miglioramenti in suoi aspetti particolari (circa le figure e i modi del sillogismo, le rappresentazioni diagrammatiche delle varie figure ecc.), introduce delle esigenze che portano tendenzialmente oltre di essa ed enuncia un programma che prefigura già chiaramente qualcosa di nuovo che con essa non ha più nulla a che vedere. Infatti, il suo scrupolo formalista, mutuato dalla matematica che parimenti aveva sviluppato (non si dimentichi che Leibniz è stato l’inventore, insieme a Newton, del calcolo infinitesimale) gli fa venire in mente il programma di una lingua simbolica universale che potesse dare certezza, grazie ad una rigorosa simbolizzazione dei concetti, alle argomentazioni sino ad allora svolte nella lingua naturale, con tutte le ambiguità e i tranelli tipici di uno strumento imperfetto. Ma anche in questo caso siamo di fronte ad un programma, ad un ‘manifesto’ ideologico, più che ad una effettiva realizzazione: i suoi 127 Cfr. G. Peano, Formulaire de mathématique, Tome III, Preface, Torino 1901; G. Vacca, “Sui manoscritti inediti di Leibniz”, in Bollettino di bibliografia e storia delle scienze matematiche, 1899, pp. 113-116. 128 Cfr. L. Couturat, La logique de Leibniz d’aprés des documents inédits, Paris 1901; Opuscules et fragments inédits de Leibniz, a cura di L. Couturat, Paris, P.U.F. 1903. 129 Cfr. B. Russell, Esposizione critica della filosofia di Leibniz (1900), Longanesi, Milano 1971. 130 Cfr. E. Husserl, Ricerche logiche (1900), Il Saggiatore, Milano 1968. 77/229 Lezioni di logica e filosofia della scienza lavori in questa direzione non furono che frammentari, a volte tra loro incoerenti, ed in ogni caso ignorati. Ma la sua parola d’ordine, l’idea centrale che stava alla sua base era la medesima che entusiasmava i giovani logici e filosofi dell’inizio del ‘900: ridurre il ragionamento e quindi l’argomentazione filosofica ad un semplice calcolo grazie al quale, una volta messisi d’accordo sulle idee semplici di partenza, fosse possibile ricondurre la polifonia cacofonica delle metafisiche e delle filosofie alla grandiosa armonia di cui aveva dato già prova la matematica. Alla realizzazione di tale progetto era neces- La creazione di una lingua sario, in primo luogo, il possesso di uno stru- artificiale, simbolica e univermento nuovo, una lingua characteristica univer- sale salis avente natura ideografica, che svincolasse la trasmissione delle idee dalla lingua parlata per esprimerle direttamente con simboli appropriati, sui quali poi effettuare trasformazioni ed operazioni, ottenendo altri simboli che designano altre idee. Questa è una lingua artificiale, svincolata da quelle naturali, simbolica, in quanto introduce propri ideogrammi aventi un significato preciso e non ambiguo, ed universale, in quanto sostituisce le singole lingue naturali per diventare uno strumento razionale valido per ogni uomo. E’ essa una “scrittura razionale”, che serva da strumento filosofico al servizio della ragione: una ars characteristica sive lingua rationalis; sull’esempio dell’algebra, si tratta di costruire un’algebra generale o algebra logica, che non abbia come proprio campo solo i numeri, ma sia in grado di esprimere tutte le idee e possa servire da rimedio in ogni campo della conoscenza in cui agisce il ragionamento; in tal modo si potrà ovviare alle sue incertezze grazie all’infallibilità di un calculus ratiocinator.131 Al fine di poter rendere effettivo tale calculus L’inventario delle idee semera però necessario procedere ad un inventarium, plici, da combinare mediante logico-matematiche e cioè ad un vero a proprio catalogo delle idee leggi riottenere il complesso: l’ars semplici, espresse mediante adeguati ‘segni’ (i inveniendi 131 Così efficacemente sintetizza il concetto di caratteristica universale N.I. Stjazkin: «Sul piano logico, dunque, la caratteristica universale è un sistema di simboli rigorosamente definiti, che si possono usare in logica e nelle altre scienze deduttive per denotare gli elementi semplici degli oggetti studiati da una data scienza. In primo luogo, tali simboli debbono essere di forma breve e compatta, racchiudendo la massima informazione nel minimo spazio; in secondo luogo, deve esistere un isomorfismo tra i simboli e gli oggetti che essi denotano, al fine di poter rappresentare le idee semplici nel modo piú naturale possibile. Le idee complesse debbono essere rappresentabili come combinazioni di idee elementari. Nel linguaggio della caratteristica universale, le tesi logiche astratte debbono presentarsi sotto forma di regole intuitivamente evidenti di manipolazione dei simboli. Tali regole debbono descrivere le proprietà formali delle trasformazioni dei simboli, e basarsi su procedimenti che rendano univoca la rappresentazione. / Secondo Leibniz, la caratteristica universale dovrebbe essere l'origine di una vera e propria algebra logica, da applicarsi ai vari tipi di ragionamento; essa rappresenterebbe l’erede della logica scolastica, vittima sfortunata delle circostanze. A suo parere, la mancanza di successi della logica scolastica era dovuta in primo luogo alla mancanza di un linguaggio rigoroso e preciso, soggetto alle regole proprie di una formalizzazione accuratamente elaborata. Tuttavia, la caratteristica universale dovrebbe denotare tutti gli elementi semplici dei ragionamenti logici con lettere, i ragionamenti logici complessi con formule, e i giudizi con equazioni. Diventerebbe cosí possibile ricavare tutte le conseguenze logiche che seguono necessariamente dagli elementi considerati» (Storia della logica, 1964, Editori Riuniti, Roma 1980, pp. 94-5). 78/229 Lezioni di logica e filosofia della scienza “termini semplici”), che costituissero una sorta di ‘atomi’ o mattoni della nostra conoscenza, un ‘alfabeto’ del pensiero umano, e dalla cui composizione ed aggregazione operata mediante opportune leggi logicomatematiche (la ‘grammatica’ del pensiero umano), potessero successivamente scaturire tutte le altre nostre conoscenze derivate (i “termini derivati”). «A me invero […] apparve manifesto che tutti i pensieri umani potevano risolversi completamente in pochi pensieri da ritenersi come primitivi. E che se si assegnano a questi ultimi dei caratteri, da essi si possono formare i caratteri delle nozioni derivate, dai quali sarà sempre possibile ricavare i loro requisiti e le nozioni primitive in essi racchiuse e, per dirla in una parola, le definizioni o valori, e quindi anche i rapporti derivabili dalle definizioni. Ora, una volta che ciò fosse realizzato, chiunque nel ragionamento e nello scrivere facesse uso di siffatti caratteri o non sbaglierebbe mai oppure riconoscerebbe da sé i propri errori non meno che quelli degli altri mediante esami facilissimi; e scoprirebbe poi la verità nella misura in cui i dati lo renderebbero possibile, e se talora i dati non fossero sufficienti a trovare ciò che fosse richiesto egli potrebbe vedere quali esperienze o quali notizie fossero necessarie per potersi almeno avvicinare alla verità quanto lo consentono i dati, sia procedendo per approssimazione, sia determinando il grado di maggiore probabilità; i sofismi e i paralogismi non sarebbero in questo caso niente di diverso dagli errori di calcolo in aritmetica e dai solecismi o i barbarismi nelle lingue»132. Dunque, prima una analisi risalente dal dato ai suoi elementi semplici; quindi una sintesi, che dal semplice ricompone il complesso. In tale duplice processo Leibniz vedeva il fulcro di un’ars inveniendi che dia la possibilità di pervenire a nuove conoscenze, in modo da ampliare il patrimonio culturale dell’umanità. Non solo un’arte del giudicare, cioè del giustificare come corretta una argomentazione o ragionamento, ma anche un’arte dello scoprire, cioè di produrre qualcosa di nuovo; ovvero un metodo scientifico, una “logica della scoperta” che stabilisse un procedimento per l’allargamento del pensiero scientifico. Ciò doveva essere realizzato mediante la La matematizzazione del matematizzazione del pensiero umano, cioè pensiero l’assegnazione ad ogni nozione di un numero caratteristico, in modo che fosse possibile poi applicare le tecniche dell’algebra e della matematica: «una volta stabiliti i numeri caratteristici della maggior parte delle nozioni, l’umanità avrà un nuovo genere di organo, che aumenterà la potenza della mente assai più di quanto le lenti ottiche giovino alla vista, e di tanto superiore ai microscopi e ai telescopi di quanto la ragione sopravanza la vista»133. Una logica, dunque, che si pone all’interno di una matematica non intesa soltanto come trattamento della quantità, e che cerca in questa gli strumenti per una propria fondazione, 132 G. Leibniz, Saggio sulla caratteristica (1684?), in Leibniz e la logica simbolica, a cura di M. Mugnai, Sansoni, Firenze 1973, pp. 60-1. 133 G. Leibniz, Storia ed elogio della lingua caratteristica universale (1679-80), in Scritti di logica, a cura di F. Barone, Zanichelli, Bologna 1968, p. 165. 79/229 Lezioni di logica e filosofia della scienza mediante una sua algebrizzazione: «Quello cui Leibniz pensava era una teoria generale delle strutture che potesse fornire la sintassi della sua characteristica universalis»134. Grazie a questa logica può prender corpo il La filosofia ed il ragionagrande progetto della possibilità di trasformare mento trasformati in puro ogni ragionamento umano, e quindi la filosofia, calcolo: un programma per il in un’operazione sostanzialmente meccanica, futuro algoritmica, che ponesse fine alle continue controversie tra scuole metafisiche. Insomma, mediante la logica intesa come calcolo, sarebbe stato possibile edificare una filosofia scientifica, che avesse la medesima certezza e lo stesso rigore di cui aveva dato prova la matematica; così, afferma Leibniz, «quando sorgeranno delle controversie, sarà altrettanto inutile stabilire una discussione tra due filosofi, quanto lo è il farlo tra due calcolatori. Basterà infatti prendere la penna in mano, o sedersi innanzi agli abbachi e, dopo avere all’occorrenza convocato un amico, dirsi a vicenda: calcoliamo!»135. E’ in questo calculemus che si riassume il messaggio che Leibniz consegna ai posteri e che, al di là dei singoli contributi tecnici da lui forniti e della sua incapacità a produrre un sistema definitivo136, infiammerà l’immaginazione dei logici e dei filosofi contemporanei, che in esso vedranno il preannuncio del sogno che la nuova logica simbolica, nel contempo maturata, avrebbe reso finalmente possibile, grazie ai potenti strumenti da essa forgiati: avviare la filosofia sulla strada della scienza, così trasformandola infine in una disciplina ‘seria’. 2.3 L’algebra della logica. Come ha sostenuto il Le due strade intraprese dalBlanché, dopo Leibniz la logica ha progressi- la logica: la filosofica e la vamente conosciuto un processo di divaricazione: matematica «La logica cosiddetta classica, considerata come derivante dalla filosofia, si accontenterà generalmente di prolungare, con qualche emendamento più o meno felice, le dottrine ricevute, asservite alla proposizione attributiva e incentrate sulla sillogistica, dottrine peraltro ridotte speso alle loro parti più elementari, a quella che talora è chiamata la logica minore. Al tempo stesso però, e in margine alle opere dei filosofi, tale logica sarà coltivata anche da alcuni matematici che, pur restando largamente tributari dell’insegnamento tradizionale, introducono tuttavia idee e metodi nuovi. La rottura tra le due 134 W.C. Kneale - M. Kneale, Storia della logica (1962), Torino, Einaudi 1972, pp. 384-5. G. Leibniz, Sulla scienza universale o calcolo filosofico (1684-5), cit. in R. Blanché, La logica e la sua storia da Aristotele a Russell (1970), Ubaldini, Roma 1973, p. 246. 136 Per i Kneale, sono state due le ragioni di una tale incapacità: «La prima era l’impossibilità di comporre un dizionario per il nuovo linguaggio finché il lavoro di ricerca scientifica non fosse stato portato a compimento, o almeno più vicino al compimento di quanto non lo fosse stato all’epoca di Leibniz. Non possiamo provvedere un simbolismo esplicativo per la chimica finché la chimica non esiste come scienza […] Ma vi era una seconda ragione, sconosciuta a Leibniz, per cui poteva fare pochi progressi nella costruzione di un linguaggio ideale, ed era che non si fosse liberato dal dogma soggetto-predicato della logica tradizionale» (W.C. Kneale – M. Kneale, op. cit., p. 376). Per una presentazione sintetica dei suoi contributi algebrico-logici vedi P. Freguglia, L’algebra della logica, Editori Riuniti, Roma 1978, pp. 13-9. 135 80/229 Lezioni di logica e filosofia della scienza correnti non avverrà che nella seconda metà del XIX secolo; ma prima, per quasi due secoli assistiamo, ai confini della scienza ufficiale, a svariati tentativi di introdurre nelle speculazioni logiche lo spirito e i metodi della matematica»137. Tali due correnti, in quella fase della storia La duplice eredità della lodella moderna logica matematica che Bocheƒski gica di Leibniz e i difficili indica come sua ‘preistoria’138, si riallacciano rapporti con la matematica all’eredità leibniziana secondo due direttrici fondamentali. Da una parte abbiamo il lavoro di studiosi di prevalente formazione matematica come G. Saccheri (1667-1733), J.H. Lambert (1728-1777), G. Ploucquet (1716-1790), L. Eulero (1707-1783), J. Gergonne (1771-1859), B. Bolzano (1781-1848), che cercano di sviluppare, riallacciandosi più o meno consapevolmente a Leibniz, l’aspetto algoritmico e calcolistico della logica, accentuandone così l’aspetto formale. Ma questa è una tendenza largamente minoritaria, che ebbe scarsissima influenza sia sul pensiero filosofico sia sulla rinascita successiva della logica. Di gran lunga più importante fu la seconda direttrice, che si poneva esplicitamente su una linea di continuità col pensiero leibniziano e il cui iniziatore fu il tedesco Christian Wolff (1679-1754). Tuttavia la problematica logica di Leibniz veniva da lui ridotta ad una illustrazione precettistica della sillogistica aristotelica, con ciò mettendone a tacere gli aspetti di novità, ad essa preferendo l’algebra e la geometria come vere artes inveniendi et demostrandi, il cui metodo non può essere esteso al di fuori di esse, e tanto meno alla logica, che rimaneva quella tradizionale.139 L’impossibilità della reciproca fecondazione con la matematica, faceva sì, in questa prospettiva, che la logica venisse in linea di principio considerata una disciplina filosofica, con ciò squalificando, sulla scia della posizione cartesiana, la sua interpretazione prevalentemente formale, tentata da Leibniz. Ciò portava ad un allargamento del campo della logica a settori che con essa poco hanno a che fare, come l’ontologia, la gnoseologia o la psicologia: è quanto avviene ad es. con Kant e con la sua logica trascendentale, il cui giudizio sulla storia della logica peserà come un macigno sul suo futuro sviluppo140; od addirittura con Hegel, per il quale la 137 138 R. Blanché, op. cit., p. 253. J.M. Bocheƒski, La logica formale. La logica matematica (1956), Einaudi, Torino 1972, p. 350. 139 Questa concezione, che abbiamo visto risale a Galilei e che è anche tipica di Cartesio, la troviamo ancora espressa in matematici di valore come i fratelli Bernuilli i quali, facendo il parallelismo tra algebra e logica, affermano che «c’è più ingegno e giudizio nella riduzione della più semplice equazione algebrica di quanto non ce ne sia nei più difficili raziocinii [sillogismi] del resto ovvi nell’uso comune della vita»; per cui concludono che «l’algebra è la vera logica utile per scoprire la verità e per dare alla mente tutta l’estensione di cui questa è capace» (cit. in C. Mangione, “Logica e fondamenti della matematica”, in L. Geymonat, Storia del pensiero filosofico e scientifico, Garzanti, Milano 1971, vol. III, p. 166). 140 Kant sostiene che la logica non ha fatto alcun progresso dopo Aristotele, che viene così visto come il suo fondatore e sistematizzatore definitivo: «Che la logica abbia seguito questa strada sicura sin dai tempi più antichi, si può scorgere dal fatto, che da Aristotele in poi essa non ha dovuto fare alcun passo indietro, a meno che non si voglia eventualmente attribuirle, come perfezionamenti, l’eliminazione di alcune sottigliezze superflue o la determinazione più chiara della materia esposta; ciò peraltro è pertinente più all’eleganza, che alla sicurezza della scienza. 81/229 Lezioni di logica e filosofia della scienza logica diventa inseparabile dall’ontologia e quindi perde la sua caratteristica più tipica, ossia la formalità. Ma in particolare la logica prende all’inizio dell’Ottocento la direzione del psicologismo con J. Fries, J.S. Mill e F. Brentano. Si va così accentuando, nella seconda metà del La divaricazione tra matemaXIX secolo la separazione tra le due maniere tici e filosofi nel modo di d’approccio allo studio della logica: quello dei intendere la logica matematici e quello dei filosofi. «Mentre i primi spingono decisamente la logica sulla strada aperta da Leibniz e dai suoi successori, i filosofi, da parte loro, sembrano aver ripreso gusto alla logica, ritenendo di poterla ancora far progredire senza scostarsi dalla linea tradizionale […] Semplificando un po’, li possiamo ripartire secondo due grandi tendenze: l’idealistica, nella discendenza di Kant e dei postkantiani, e l’empiristica, che assume allora generalmente la forma di quello che è stato chiamato lo psicologismo»141. Lungo la prima direzione troviamo la rottura esplicita con la logica tradizionale o “logica classica” (che costituisce una prosecuzione di quella aristotelica e sillogistica), di provenienza filosofica, e la continuazione del programma leibniziano nell’opera di George Boole (1815-1864). L’anno decisivo è il 1847, in cui vede la luce la sua The Mathematical Analysis of Logic: è questa la data che segna, per gli storici e i logici contemporanei, l’atto di nascita della logica formale moderna142. E’ infatti nella sua opera che avviene per la prima volta il confinamento della sillogistica ad un ruolo secondario e subordinato, in base alla convinzione che «sillogismo, conversione, e via dicendo, non sono i processi fondamentali della logica», in quanto «sono fondati su, e risolubili in, processi ulteriori e più semplici che costituiscono i veri e propri elementi del metodo della logica»143. Tale ricollocazione del ruolo della logica tradi- Le trasformazioni del penzionale (la cui trattazione occupa uno spazio limi- siero matematico: la scuola tato dell’opera di Boole) è il frutto delle trasfor- di analisi di Cambridge mazioni subite nel contempo dal pensiero mateNella logica è ancora degno di nota il fatto, che sino ad oggi essa non ha neppure potuto fare alcun passo in avanti e quindi, secondo ogni apparenza, sembra essere chiusa e compiuta. In effetti, se è vero che alcuni moderni hanno pensato di ampliarla, inserendovi sia dei capitoli psicologici sulle differenti capacità conoscitive (la capacità d’immaginazione, l’arguzia), sia dei capitoli metafisici sull’origine della conoscenza oppure sulle differenti specie di certezza secondo la differenza degli oggetti (idealismo, scetticismo, ecc.), sia dei capitoli antropologici sui pregiudizi (sulle cause ed i rimedi di questi), ebbene, tutto ciò proviene dalla loro ignoranza della vera e propria natura di questa scienza. Quando qualcuno fa si che i confini delle scienze si confondano, queste non risultano accresciute, bensì deformate. Il confine della logica, per contro, è segnato con perfetta precisione dal fatto che essa è una scienza, la quale espone in modo circostanziato e dimostra rigorosamente null’altro che le regole formali di ogni pensiero (sia esso a priori oppure empirico, abbia esso una qualsivoglia origine o un qualsivoglia oggetto, incontri esso nel nostro animo impedimenti contingenti oppure naturali) (Critica della ragion pura, trad. di G. Colli, Bompiani, Milano 1987, pp. 17-8). 141 R. Blanché, op. cit., p. 303. 142 Non bisogna dimenticare che nello stesso anno viene anche pubblicata la Formal Logic di A. de Morgan, anch’essa ritenuta importante nella svolta di metà secolo. 143 G. Boole, Indagine sulle leggi del pensiero su cui sono fondate le teorie matematiche della logica e della probabilità (1854), Einaudi, Torino 1976, p. 22. 82/229 Lezioni di logica e filosofia della scienza matico. Questo, infatti, si era vieppiù liberato dalla connessione esclusiva con la misurazione e la quantità, che era stata tipica dei matematici del Settecento, come ad es. Eulero. In Inghilterra, in particolare, si era affermata, grazie alla riflessione di matematici della cosiddetta “Scuola di Cambridge” come R. Woodhouse, G. Peacock, D.F. Gregory e A. de Morgan, l’idea che le leggi e i calcoli che stanno alla base dell’algebra non trovano applicazione solo nel campo numerico, ma anche ad entità diverse, non legate alla misura della quantità (da questo programma si svilupperà quella che oggi è chiamata “algebra astratta”).144 E’ riallacciandosi a questo determinato quadro storico, infatti, che Boole afferma con decisione: «non è essenziale alla matematica il trattare con le idee di numero o di quantità»145. E’ così possibile avere una idea più chiara del formalismo e dell’essenza del calcolo logico, la cui ‘validità’ non dipende dal significato dei simboli che in esso occorrono, ma solo dalle leggi che ne regolano la combinazione. Da ciò l’ulteriore passo di concepire un calcolo algebrico astratto i cui simboli non possedessero già un significato stabilito, ma potessero venire interpretati in modi diversi, sia quantitativamente, sia anche in modo da rispecchiare la logica delle classi e dei concetti.146 Grazie a questa considerazione sempre più Si realizza con Boole il proastratta dell’algebra è possibile formulare l’idea – gramma solo annunciato da che è quella propria di Boole ma costituisce anche Leibniz: la logica diventa una la continuazione del progetto intuito da Cartesio e disciplina matematica da Leibniz – che sia possibile matematizzare il ragionamento, ovvero effettuare argomentazioni logiche utilizzando le leggi e i calcoli dell’algebra. Infatti, «non soltanto esiste una stretta analogia fra le operazioni che 144 Su tale scuola ed il suo apporto per svincolare la “matematica pura” da quella “applicata”, intesa come scienza della quantità, vedi F. Barone, Logica formale e logica trascendentale. II. L’algebra della logica, Ed. di Filosofia, Torino 1965, pp. 29-63. 145 G. Boole, op. cit., p. 24. Cfr. anche Id., Analisi matematica della logica (1847), Silva, Milano 1965, pp. 52-3. 146 «Coloro che hanno familiarità con lo stato attuale della teoria dell’algebra simbolica, sono consapevoli che la validità dei procedimenti dell’analisi non dipende dall’interpretazione dei simboli che vi sono impiegati, ma soltanto dalle leggi che regolano la loro combinazione. Ogni sistema di interpretazione che non modifichi la verità delle relazioni che si suppone sussistano tra tali simboli è egualmente ammissibile, ed è così che il medesimo processo può, secondo uno schema d’interpretazione, rappresentare la soluzione di una questione riguardante la proprietà dei numeri, secondo un altro schema quella di un problema di geometria, e, secondo un altro ancora, quella di un problema di dinamica o di ottica […] Potremmo cioè correttamente affermare che la caratteristica che definice un calcolo autentico consiste in questo: che esso è un metodo fondato sull’impiego dei simboli le cui leggi di combinazione sono note e generali, e i cui risultati ammettono un’interpretazione coerente. Il fatto che alle forme esistenti di analisi venga assegnata un’interpretazione quantitativa è il risultato delle circostanze che determinarono il sorgere di tali forme, e noi non dobbiamo farne una condizione universale dell’analisi. Sulla base di questo principio generale, io intendo appunto fondare il calcolo logico, e reclamare, per esso, un posto tra le forme di analisi matematica ormai generalmente riconosciute […]» (Boole, Analisi matematica della logica, 1847, Silva, Milano 1965, pp. 51-4). In queste celebri parole della Introduzione alla sua prima opera, come nota Barone, «viene affermata la possibilità di un’interpretazione logica d’un calcolo algebrico e […] traspare, indirettamente, tutta l’efficacia suggestiva della problematica scientifica dibattuta dai membri della scuola di Cambridge e, più in generale, dai maggiori matematici inglesi contemporanei» (Barone, op. cit., p. 81). Sull’importanza di tale carattere formale del calcolo booleano insiste anche Mangione, “La svolta della logica nell’Ottocento”, in L. Geymonat, op. cit., vol. V, pp. 106-8. 83/229 Lezioni di logica e filosofia della scienza la mente esegue quando fa ragionamenti generali, e quelle che esegue nella scienza particolare dell’algebra: c’è anche, in misura considerevole, un’esatta concordanza fra le leggi in virtù delle quali si eseguono le due classi di operazioni»147. In tal modo per Boole la logica non era che una parte della matematica e poteva quindi essere resa scientifica, liberandola dagli equivoci e dagli errori di quella tradizionale, applicandole le sue leggi ed effettuando conseguentemente dei calcoli del tutto simili a quelli algebrici: il calculemus di Leibniz sembra poter aver realizzazione. La logica cessa di essere una disciplina filosofica (diversamente da come sosteneva Hamilton, col quale Boole implicitamente polemizza), recide le sue connessione con la metafisica, e diviene una disciplina matematica: «Se vogliamo attenerci ai principi di una classificazione vera, non dobbiamo più associare logica e metafisica, ma logica e matematica […] Si vedrà che la logica riposa, come la geometria, sopra verità assiomatiche, e che i suoi teoremi sono costruiti su quella dottrina generale dei simboli che costituisce il fondamento dell’analisi istituzionale»148. Insomma, con Boole «la ricerca filosofica perde la presunta proprietà esclusiva su quella che era stata considerata tradizionalmente una delle sue branche»149. E’ per tale ragione che il suo progetto, e quello dei logici che ne seguono l’impostazione, viene ad essere caratterizzato col nome di “algebra della logica”. Con questa virata in direzione algebrica Boole, diversamente da Leibniz, non si limitò ad enunciare un programma, ma si forzò di darne una esecuzione quanto più completa possibile, in stretta connessione con i procedimenti dell’algebra e dell’aritmetica, della quale usa i simboli (ad es. la congiunzione logica viene espressa con +, per cui x + y sta ad indicare ad es. “pecore e buoi”). In lui non è ancora emersa la consapevolezza dell’esistenza di metodi puramente logici, con un simbolismo diverso ed autonomo rispetto a quello dell’algebra. Un aspetto particolare dell’approccio booleano La logica come studio delle è quello di intendere la logica come lo studio delle leggi del pensiero umano: è leggi del pensiero umano (ciò è in particolare psicologismo? evidente nella sua seconda opera, come indica del resto il suo stesso titolo, An Investigation of the Laws of the Thought, on which are Founded the Mathematical Theories of Logic and Probabilities). Per tale aspetto egli è stato criticato, dai logici contemporanei che hanno seguito l’impostazione della logica di Russell150, per essere ancora legato a quell’impostazione psicologistica, tipica della filosofia della metà del secolo, che egli avrebbe ripreso dal logico suo contemporaneo W. Hamilton (1788-1856)151, il cui rifiuto sarà il contrassegno più tipico della logica matematica 147 G. Boole, Indagine…, cit., p. 15. G. Boole, Analisi matematica…, cit., p. 69. 149 F. Barone, op. cit., p. 63. 150 Su tale interpretazione russelliana, poi fatta propria dai protagonisti del Circolo di Vienna, cfr. M. Trinchero, Introduzione a Boole, Indagine…, cit., pp. lxxiii-lxxviii. 151 Cfr. Barone, op. cit., pp. 77-8. 148 84/229 Lezioni di logica e filosofia della scienza contemporanea152. Secondo questa interpretazione, la matematica e la logica, che Boole vuole ricostruire sulla base di quella, non fanno altro che esprimere il modo di funzionamento del cervello umano, le sue leggi empiriche: «In primo luogo, nostro scopo è il sottoporre ad indagine le leggi fondamentali delle operazioni mentali, in virtù delle quali si attua il ragionamento»153. La conseguenza sarebbe che la logica non godrebbe di alcun statuto privilegiato rispetto a qualunque altra scienza empirica, e quindi verrebbe a perdere quella universalità e necessità che sempre le è stata riconosciuta. Tuttavia, è stato fatto notare, le operazioni della mente alle quali Boole si riferisce non sono quelle che di fatto essa compie, in tutte le accidentalità tipiche ed idiosincratiche del singolo individuo; ovvero, egli non mira a descrivere come di fatto ragionano gli uomini, bensì quali siano le leggi del ragionamento corretto; le leggi logiche non hanno pertanto natura descrittiva, ma normativa154. Ne segue, grazie a questa sua convinzione di fondo, che il contenuto della sua opera – specie nel suo primo lavoro The Mathematic Analysis of Logic – fu libero dal condizionamento psicologico: «fu l’opera di Boole a mostrare chiaramente, con l’esempio, che la logica poteva studiarsi proficuamente senza alcun riferimento a nostri processi psichici. Senza dubbio egli credeva di trattare leggi del pensiero in qualche senso psicologico di quell’ambiguo termine, ma in realtà trattava alcune delle leggi generalissime dei pensabili»155. Sulla base dei segni e delle leggi introdotte reinterpretazione del silBoole può procedere a tradurre il calcolo La logismo nell’algebra delle sillogistico nella sua algebra logica, innanzi tutto classi e la liquidazione della operando la trascrizione delle proposizioni logica aristotelica universali e particolari: «Intendo mostrare in qual modo i processi del sillogismo e della conversione si possano condurre in maniera estremamente generale, in base ai principi di questo trattato e, considerandoli in relazione a un sistema di logica le cui fondazioni si ritiene di aver gettato nelle leggi ultime del pensiero, cercherò di determinare il posto che gli spetta veramente e il loro carattere essenziale»156. La conclusione non può che essere devastante: la logica aristotelica è 152 Si veda ad es. la valutazione che ne dà P.E.B. Jourdain ad inizio secolo, nel periodo di massimo trionfo dell’impostazione logicista, esplicitando una linea interpretativa che avrà una grande fortuna («The Development of Theories of Mathematical Logic and the Principles of Mathematics», The Quarterly Journal of Pure and Applied Mathematics, xli, 1910, pp. 324-52). Ancora in tempi recenti è questa l’interpretazione che ne dà C. Mangione, op. cit., pp. 93, 108110. 153 Boole, Indagine…, cit., p. 12. 154 Cfr. C. Celluci, Le ragioni della logica, Laterza, Bari 1998, p. 58. 155 W.C. Kneale – M. Kneale, op. cit., p. 463. Dello stesso avviso Blanché, op. cit., p. 313. Afferma Trinchero: «In realtà, Boole non s’era mai proposto distabilire “come la gente pensi”, né di far della logica un ramo della psicologia; né tanto meno s’era sognato d’affermare che “l’enunciazione di un fatto è vera solo perché qualcuno pensa che lo sia” o che le leggi del pensiero siano paragonabili alle leggi fisiche […] Allo stesso modo cadevano fuori della competenza delle Laws proprio quelle questioni che avrebbero fatto saltare di gioia uno psicologista vero […] appariva chiaro che l’appello alle leggi della mente aveva la funzione di accentrare l’analisi sul piano del linguaggio, tenendovela rigorosamente ancorata» (op. cit., pp. lxxviii-lxxix). 156 Boole, op. cit., pp. 317-8. 85/229 Lezioni di logica e filosofia della scienza definitivamente affossata, ridotta solo ad una applicazione particolare del sistema generale da lui proposto, con un carattere quindi assolutamente secondario e del tutto inefficace come strumento d’analisi del sapere. Viene in particolare demolita la struttura soggetto-predicato della logica classica, in favore del suo metodo più generale, che non confina la sua attenzione al soggetto e predicato, ma può partire da qualsiasi elemento o combinazione di elementi e quindi elaborare liberamente la struttura della proposizione. Anche il sillogismo viene ridotto al simbolismo da lui introdotto ed è destituito dal suo ruolo centrale come strumento principe del ragionamento umano. Tracciando il suo bilancio finale, Boole tesse l’elogio funebre della logica classica col riconoscerle i meriti passati, per poi definitivamente seppellirla, privandola di ogni avvenire: «Quali sono dunque le conclusioni finali sulla natura e l’estensione della logica scolastica, a cui ci conduce la nostra analisi? Ritengo che siano le seguenti: che la logica delle Scuole non è una scienza, ma una collezione di verità scientifiche troppo incomplete per formare un sistema di per sé stesse e non sufficientemente fondamentali da servire come la base su cui possa riposare un sistema perfetto. Tuttavia, dal fatto che la logica delle Scuole è stata rivestita di attributi ai quali non ha alcun diritto, non segue che essa non sia meritevole di considerazione. Un sistema che è stato associato con la stessa crescita del linguaggio, e che ha lasciato un’orma così profonda sui maggiori problemi e sulle più famose dimostrazioni della filosofia, non può essere completamente immeritevole d’attenzione. Si deve ammettere che anche la memoria e l’uso hanno molto da fare con i processi dell'intelletto; e alcuni canoni dell’antica logica si sono profondamente intessuti nella trama del pensiero degli intelletti più alti. Ma se le forme mnemoniche nelle quali sono state presentate le regole particolari della conversione e del sillogismo posseggano una qualche utilità reale; se la stessa abilità che si suppone esse conferiscano non possa, con maggiore profitto per i poteri mentali, essere acquistata dagli sforzi autonomi di una mente lasciata libera di usare le proprie risorse; questi sono problemi che non sarebbe inutile rimettere in discussione. Per quanto riguarda i risultati particolari che abbiamo ottenuto […], si deve osservare che essi sono intesi unicamente ad aiutare la ricerca sulla natura della logica ordinaria o scolastica, e le sue relazioni con una teoria più perfetta del ragionamento deduttivo»157. Infine, il nuovo strumento che in tal modo La fecondità filosofica della Boole ha forgiato avrebbe mostrato la sua logica booleana: l’analisi fecondità nella sua applicazione filosofica, delle opere di Clarke e Spinoza permettendo una migliore analisi e chiarimento dei tradizionali problemi della filosofia. A tal scopo Boole si propone di analizzare due esempi di argomentazione, tratti dalla Dimostrazione dell’essere e degli attributi di Dio di Samuel Clarke e dall’Etica di Spinoza, cioè da due opere che venivano al suo tempo universalmente considerate come un modello di rigore argomentativo, che seguiva, specie quella di 157 Ib., p. 337. 86/229 Lezioni di logica e filosofia della scienza Spinoza, l’esempio delle matematiche e della geometria. Di queste Boole effettua una vera e propria ricostruzione analitica, esplicitando le premesse contenute nelle loro argomentazioni, esprimendole nel “linguaggio dei simboli” e quindi, impiegando i metodi già esposti nella sua opera, trae «le conclusioni più importanti che tali premesse implicano»158. La manchevolezza di tali opere si scorge subito proprio nella difficoltà di accertarne le premesse, per cui si constata che «in quelli che sono considerati come gli esempi più rigorosi di ragionamento applicato alle questioni metafisiche, sono spesso confuse insieme diverse concatenazioni di ragionamenti; che certe parti della dimostrazione, che hanno un carattere loro particolare, ma che nondimeno sono essenziali, vengono menzionate per inciso o vengono lasciate fuori del corso principale dell’argomentazione; che talvolta il significato di una premessa è in certa misura ambiguo, e che abbastanza sovente certe argomentazioni, considerate dal punto di vista delle leggi rigorose del ragionamento formale, sono scorrette o inconcludenti»159. Ne conclude Boole sulla «futilità di stabilire interamente a priori l’esistenza di un essere infinito, i suoi attributi e le sue relazioni con l’universo»160; in sostanza, sull’impossibilità di passare dal piano puramente logico a quello esistenziale. Era questa una lezione severa che indicava i limiti della ragione ed anche della validità dello stesso sistema da Boole proposto; ma anche una indicazione positiva sul carattere analogico ed induttivo della conoscenza implicante l’allargamento dell’esperienza, al cui fine Boole propone la sua teoria della probabilità.161 1.4 Alcune nozioni elementari dell’algebra Il concetto di ‘classe’ e le della logica. Alla base del sistema booleano v’è principali operazioni tra esse il concetto di ‘classe’, che indica una collezione di individui (o elementi), caratterizzati per il fatto di essere denominati o descritti in un certo modo. Ad es., col simbolo x indicheremo la classe formata da tutti gli uomini, cioè la classe ‘uomini’; con y la classe formata da tutti i ‘buoni’ (ovvero, da «tutte quelle cose alle quali può applicarsi la descrizione ‘buono’»162) e così via163. Due classi particolari sono quelle che Boole indica col numero 1 e col numero 0: sono rispettivamente la classe ‘universo’ (ovvero quella classe che comprende ogni classe possibile di og158 Ib., p. 261. Ib., p. 262 160 Ib., p. 304. 161 A tale argomento sono dedicate le parti finali della sua Indagine…, dal cap. xvi al cap. xxi (pp. 338-544). 162 Boole, op. cit., p. 47. 163 Nella sua precedente opera Boole distingueva tra l’oggetto o classe X e il “simbolo elettivo” x che simbolizza l’operazione di scelta operata dalla mente di modo che esso, «operando su un qualsiasi soggetto comprendente individui o classi, scelga da quel soggetto tutte le X che esso contiene. In maniera analoga si assumerà che il simbolo y, operando su un qualsiasi oggetto, scelga da esso tutti gli individui membri della classe Y che sono compresi in esso, e così via» (Analisi matematica, cit., p. 76). Pertanto il simbolo x sceglie da un dato soggetto tutti gli X e così via. Tale distinzione viene fatta cadere nella Indagine…, cit., la cui impostazione sarà da noi seguita. 159 87/229 Lezioni di logica e filosofia della scienza getti, sia esistenti che immaginabili) e la classe ‘vuota’ (o nulla, che non comprende alcun oggetto). A queste classi Boole applica un certo numero di operazioni, indicate dai segni +, –, ¥. Così abbiamo la classe formata da x ¥ y (indicata anche con xy, come in algebra,), cioè da tutte le cose «a cui sono applicabili, simultaneamente, i nomi o le descrizioni rappresentati da x e y» 164. Se, ad es., x sta per ‘cose bianche’ e y sta per ‘animali’, allora xy indicherà la classe formata dagli ‘animali bianchi’. L’operazione x + y indica l’aggregazione (o unione) di classi, che nel linguaggio comune si indica con le congiunzioni ‘e’ oppure ‘o’; per cui, seguendo l’esempio precedente, x + y indica la classe formata dalle cose bianche e/o dagli animali (che è diversa da quella formata dagli ‘animali bianchi’)165. L’operazione x - y indica la separazione delle classi, cioè la classe degli oggetti che sono x e non y, che nel linguaggio comune viene indicata con la locuzione ‘ad eccezione’, ‘eccetto’; per cui avremo (in base all’esempio dato) la classe delle cose bianche eccetto gli animali. Infine Boole introduce il segno di identità =, che è un segno di relazione e permette di formare le proposizioni; esso sta ad indicare l’equivalenza delle classi ed esprime ciò che nel linguaggio comune viene di solito reso mediante la copula ‘è’, in senso esistenzale, in quanto ritiene che tutti gli altri verbi siano in essa trasformabili (“Cesare conquistò la Gallia” equivale a dire “Cesare è colui che conquistò la Gallia”, ovvero “Cesare e il conquistatore della Gallia sono la medesima persona”). Una volta stabilito il ‘vocabolario’ del suo sistema di logica, Boole introduce alcune leggi che ne regolano il funzionamento e che sono in gran parte riprese da quelle dell’algebra. Sono sostanzialmente • la legge di distributività: z(x + y) = zx + zy; • la legge di commutatività: xy = yx; • le legge degli indici: xn = x, quest’ultima propria dall’algebra logica e non valida invece in quella numerica (dove non è vero che 32 = 3). Inoltre, in base a quanto detto, Boole introduce anche i termini negativi, ad es. la negazione della classe x, senza la necessità di introdurre nuovi simboli od operazioni, ma concependola come il complemento di x rispetto all’universo: (1 – x) sta ad indicare tutti gli oggetti eccetto x, cioè che non sono x, e pertanto rappresenta la negazione di x. Possiamo sintetizzare quanto detto nella seguente tabella: Espressione booliana x, y, z, ecc. Significato Esempio Simboli letterali, che rappresen- x sta per ‘gli uomini’, y sta per ‘le tano classi, ovvero collezioni di cose bianche’, z per ‘gli animali’, individui o di cose aventi una ecc. certa caratteristica 164 Ibidem. Boole intepreta la disgiunzione ‘o’ in modo esclusivo, in quanto afferma che «a rigore le parole ‘e’, ‘o’, interposte fra i termini che descrivono due o più classi di oggetti, implicano l’assoluta distinzione di queste classi, così che nessun membro dell’una appartiene anche all’altra» (ib., p. 53). Ciò si discosta dal modo usuale in cui viene intesa la disgiunzione nella logica contemporanea, che la interpreta nel senso di vel: l’uno o l’altro oppure entrambi, per cui la proposizione complessa formata da “p o q” è falsa solo nel caso in cui entrambe le proposizioni componenti sono false. 165 88/229 Lezioni di logica e filosofia della scienza certa caratteristica Simbolo che indica una classe vx sta per “alcuni degli uomini” avente almeno un elemento e v pertanto viene interpretato come esprimente il termine ‘alcuni’. Segni di operazioni applicantesi x + y sta per la classe degli “anialle classi mali e/o cose bianche” +, –, x x - y , sta per la classe degli “animali eccetto quelli bianchi” x x y (oppure x y ) sta per la classe degli “animali bianchi Segno di relazione, indicante Se rappresentiamo con x le ‘stelidentità; permette la formazione le’, con y i ‘soli’, con z i ‘pianeti’, = delle proposizioni allora x = y + z sta a significare la proposizione “le stelle sono i soli e i pianeti”. Segni rappresentanti l’universo (cioè l’insieme di ogni classe di 1, 0 oggetti) e il ‘niente’ (ovvero la classe che non contiene alcun elemento, o ‘vuota’) Leggi di distributività del pro- Stiano z per ‘europeo’, x per ‘uoz(x + y) = zx + zy dotto, rispetto alla somma e ri- mini’ e y per ‘donne’, allora dire z(x - y) = zx - zy spetto alla differenza. Valide an- “uomini e donne europei” è la che in algebra stessa cosa che dire “uomini europei e donne europee” xy = yx Leggi di commutatività per il Dire “uomini bianchi” e “bianchi x+y=y+x prodotto e per la somma. Valide uomini” è la stessa cosa anche in algebra Legge degli indici. Non valida in Nel caso in cui n=2, dire che un algebra classe è formata di “uomini uomixn = x ni” è lo stesso che dire essa è formata da ‘uomini’ (cioè xx = x). La reiterazione può avere solo una funzione retorica. Negazione Se x sta per ‘uomini’, allora l’espressione significa “tutte le cose (1 – x) eccetto gli uomini”, ovvero tutto ciò che non è ‘uomini’, cioè nonuomini x (1 - y) = 0 Proposizione universale afferma- Se x sta per ‘uomini’ e y sta per tiva ‘mortali’, allora l’espressione sta a significare che la classe degli “uomini non-mortali” è vuota, cioè che non esistono uomini immortali e quindi “tutti gli uomini sono mortali”. xy = 0 Proposizione universale negativa Se x sta per ‘uomini’ e y sta per ‘mortali’, allora l’espressione sta a significare che la classe degli “uomini mortali” è vuota; cioè nessun uomo è mortale. Proposizione particolare afferma- Se y sta per ‘animali’ e x per y = vx tiva ‘quadrupedi’, allora l’espressione significa “gli animali sono alcuni dei quadrupedi”, ovvero che “alcuni animali sono quadrupedi”. x (1 - y) = v Proposizione particolare negativa Se x sta per ‘uomini’ e y sta per ‘greci’, allora l’espressione sta a significare che il prodotto tra gli ‘uomini’ e i ‘non-greci’ dà luogo ad una classe che contiene almeno un elemento; ovvero “alcuni uomini non sono greci”. Principali espressioni e leggi booliane. Si riportano i segni e le operazioni fondamentali ammessi da Boole, nonché il modo in cui rendono nel suo sistema le proposizioni universali e particolari (affermative e negative) appartenenti alla tradizione sillogistica. Gli esempi utilizzati sono tratti in gran parte dalla sua Indagine sulle leggi del pensiero, citata nel testo. 89/229 Lezioni di logica e filosofia della scienza Il passaggio dall’algebra delle classi a quella “Proposizioni primarie” e delle proposizioni avviene mediante la distinzione “secondarie”: il passaggio al tra “proposizioni primarie” e “proposizioni calcolo proposizionale secondarie”.166 Le prime (dette anche ‘concrete’) esprimono relazioni tra cose, come quando affermo “il Sole brilla”, che equivale a dire “il Sole è una cosa brillante”, con ciò esprimendo una relazione tra due classi di cose. Le “proposizioni secondarie” esprimono una relazione tra proposizioni, come quando affermo “se il Sole brilla, la Terra si riscalda”, in cui metto in relazione due proposizioni primarie e così ottengo proposizioni condizionali, disgiuntive ecc. In tal modo il calcolo ha come suoi costituenti non delle classi di oggetti o elementi, bensì delle proposizioni primarie che non vengono analizzate nei loro costituenti (ovvero nella loro struttura interna, formata da soggetto e predicato, così come avveniva nella logica aristotelica e classica), ma solo nei loro rapporti reciproci. Questo passaggio dal piano ‘primario’ a quello ‘secondario’ comporta un significato diverso dei simboli prima introdotti, in quanto ora è necessario considerare la proposizione per la sua verità o falsità. Pertanto i simboli 1 e 0 – che prima indicavano la classe universo e quella vuota –stanno ora ad indicare il vero ed il falso e le variabili x, y, z indicano proposizioni. Avremo dunque che se x è vera, allora (1 - x) è falsa (e viceversa); e nel caso di relazione tra due proposizioni potremo avere solo quattro casi: • xy, cioè x vera, y vera; • x(1 – y), cioè x vera, y falsa; • (1 – x)y, cioè x falsa, y vera; • (1 – x) (1 – y), cioè x falsa, y falsa. Quanto detto basta a far vedere una Identità strutturale tra calcolo caratteristica molto importante del sistema di delle classi e calcolo propoBoole, e cioè il fatto che il calcolo delle classi e sizionale, diverse solo per quello delle proposizioni hanno la stessa struttura l’interpretazione. Nasce “l’alformale; a differenziarli è solo l’interpretazione gebra astratta” che viene data ai segni che in essi compaiono. Come afferma Boole, «le leggi, gli assiomi e i processi di una tale algebra [delle classi] saranno in tutto e per tutto identici alle leggi, agli assiomi e ai processi di un’algebra della logica. Divideranno le due algebre soltanto differenze di interpretazione»;167 e spiega: «[…] la discussione della teoria delle proposizioni 166 Il fatto che il calcolo delle proposizioni di Boole, ottenuto per traduzione da quello delle classi, non corrisponda completamente a quanto poi sarà inteso con tale nome è stato messo in evidenza dai logici successivi. Cfr. F. Barone, op. cit., pp. 96-7. 167 Ib., p. 60. Tuttavia, come è stato notato da Mangione (sulla scorta di Barone), tale perfetta identità formale non può essere stabilita in quanto, dato il significato attribuito a 1 e 0, affermare che x = 0 non significa affermare semplicemente la falsità di x, bensì la sua contraddittorietà, nel senso che “x è sempre falsa”; ed analogamente x = 1 sta a significare che “x è sempre vera” (ovvero, si direbbe oggi, è una tautologia). Una delle ragioni fondamentali di ciò viene individuata «nel fatto che per Boole il calcolo delle classi (delle proposizioni categoriche) costituisce il fondamento del calcolo delle proposizioni (secondarie). Oggi sappiamo che tale rapporto è esattamente invertito, riconosciamo cioè priorità logica al calcolo delle proposizioni (secondarie in terminologia booleana) rispetto a quello delle classi» (C. Mangione, op. cit., pp. 122-3). Tale critica assume, però che nel calcolo formale puramente astratto di Boole sia possibile interpretare 90/229 Lezioni di logica e filosofia della scienza secondarie è interessante per la stretta e notevole analogia che essa presenta nei confronti della teoria delle proposizioni primarie. Si vedrà che in entrambi i casi le leggi formali a cui sono sottoposte le operazioni della mente sono identiche dal punto di vista della loro espressione. Pertanto saranno identici anche i procedimenti matematici che si fondano su tali leggi […] Ma mentre le leggi e i procedimenti del metodo rimangono immutati, la regola d’interpretazione dev’essere adattata a nuove condizioni. Alle classi di cose dovremo sostituire proposizioni e in luogo di relazioni fra classi e individui dovremo prendere in considerazione le connessioni di proposizioni o di eventi. Ancora, si vedrà che, nonostante la differenza di scopi e d’interpretazione, tra i due sistemi esiste dovunque un’armoniosa correlazione: esiste un’analogia che, mentre serve a facilitare la risoluzione di tutte le difficoltà superstiti, costituisce di per sé stessa un interessante argomento di studio e una prova conclusiva di quell’unità di carattere che contrassegna la costituzione delle facoltà umane»168. Seguendo questa strada ed ispirandosi a questa impostazione sarà poi sviluppata la nozione di “algebra di Boole”, ovvero di una struttura formale che può essere interpretata in vari modi, o come teoria degli insiemi, o come calcolo proposizionale o come teoria dei numeri, e così via: è questa la strada che porta alla moderna “algebra astratta”169. 1.5 Il perfezionamento dell’algebra della logica. I successori di Boole: Jevons e L’opera di Boole non fu senza seguito; è grazie al Venn suo impulso che nella seconda metà dell’Ottocento fiorirono una molteplicità di ricerche come mai prima s’era visto e che portarono nel giro di circa mezzo secolo alla edificazione di quella che oggi viene chiamato solitamente “algebra della logica”: è nel suo contesto che si situano la gran parte dei lavori di logica ‘scientifica’ della seconda metà del secolo (con l’eccezione di Frege, del quale parleremo in seguito). Essa scaturisce dal proseguimento del programma booleano ed al tempo stesso dal superamento di alcune sue limitazioni, sia tecniche sia nella impostazione di fondo. Innanzi tutto è urgente perfezionare il suo simbolismo e reinterpretare alcuni suoi concetti in modo da renderli più consoni alla espressione dell’argomentazione logica, che fa uso di proposizioni e non di classi. Così diversamente tutti i simboli tranne 1 e 0, che restano costanti nel loro significato; sicché il calcolo delle proposizioni non sarebbe una interpretazione del formalismo astratto individuato da Boole e che sta alla base di ogni interpretazione (come quelle che danno origine al calcolo delle classi e delle proposizioni), bensì di un sistema formale già interpretato, quello delle classi, del quale si “reinterpretano” tutti simboli ad accezione di 1 e 0, che mantengono lo stesso significato. 168 Ib., p. 228. Come ha messo in luce Bochenski, riferendosi in particolare al brano citato nella n. 19, «La caratteristica del testo di Boole che ha fatto epoca è la spiegazione esemplarmente lucida dell’essenza del calcolo, cioè del formalismo […] Boole si rende anche conto della possibilità di interpretare lo stesso sistema formale in modi diversi. Ciò fa supporre che egli, a differenza di tutti i logici precedenti, non pensasse alla logica come a un’astrazione fatta a partire da procedimenti attuali, ma come a una costruzione formale di cui soltanto successivamente si debba ricercare un’interpretazione. Ciò è del tutto nuovo e in contrasto con l’intera tradizione, Leibniz incluso» (op. cit., p. 363). 169 Cfr. L. Lombardo-Radice, Istituzioni di algebra astratta, Feltrinelli, Milano 1982. 91/229 Lezioni di logica e filosofia della scienza William Stanley Jevons (1835-1882) propone, in ossequio al pensiero comune, di intendere la disgiunzione ‘o’ in modo non esclusivo ed introduce la “legge di unità” (A + A = A) e la “legge di assorbimento” (A + AB = A), così come in effetti avviene nella logica contemporanea (vedi riquadro). A sua volta John Venn (1834-1923), più fedele all’insegnamento di Boole (mantiene la somma esclusiva), introduce il suo sistema di rappresentazione delle classi per mezzo di cerchi, che perfeziona quello a suo tempo introdotto da Eulero (vedi riquadro). Legge di unità Nel sistema di Jevons le lettere A , B , C denotano classi (se interpretate estensionalmente) oppure qualità o proprietà (dal punto di vista intensionale). Se consideriamo la classe A = “i triangoli equilateri”, allora è evidente che la somma tra la classe dei triangoli equilateri e se stessa dà come risultato sempre la classe dei triangoli equilateri. In Boole, come si ricorderà, ciò era espresso dalla “legge degli indici”, che però si riferiva al prodotto logico. Legge di assorbimento Può essere chiarita con un esempio. Sia A formata dai “greci ateniesi” e B dai “greci spartani”; allora AB sarà formata dai greci semplicemente (in quanto si prende ciò che è in comune alle due classi). Ora sommando A e AB (cioè i “greci ateniesi” e i “greci”) otterremo ovviamente nuovamente i “greci ateniesi”, cioè A. Ciò è ancora più chiaro con un esempio numerico, scritto nel linguaggio della teoria degli insiemi. Se A = {1, 2, 3} e B = {3, 4, 5}, sarà A « B = {3} e quindi A » (A « B) = {1, 2, 3}, cioè A. Ma l’esigenza più sentita dai logici che si rial- L’esigenza di liberare la lacciavano più o meno direttamente a Boole è logica dalla troppo stretta quella di liberare la logica dalla troppo stretta connessione col simbolismo e sottomissione verso la matematica. L’adozione i procedimenti matematici del simbolismo algebrico e la subordinazione del calcolo proposizionale a quello delle classi, sembravano costituire una camicia di forza che impediva alla logica di sprigionare tutte le proprie potenzialità come disciplina autonoma. Era questa la critica di fondo mossa da Jevons all’algebra booliana, ritenendo un vero e proprio ‘pregiudizio’ la fondamentalità del calcolo delle classi e quindi della matematica rispetto alla logica, da lui invece ritenuta scienza superiore e base della matematica come di tutte le altre scienze: è questa la strada che sarà poi ripresa dal logicismo. Lo stesso Venn - pur più fedele all’impostazione di Boole - cerca nella sua opera di limitare il peso della veste eccessivamente matematizzante, assunta dall’algebra della logica, accentuando il suo formalismo e quindi valorizzando il carattere astratto condiviso sia dalla logica che dalla matematica, in nome di un più generale “linguaggio dei simboli”. Altre necessarie integrazioni andavano fatte McColl e de Morgan: la preall’impostazione booliana sia per quanto riguarda minenza dell’implicazione e il calcolo proposizionale, sia in direzione di una l’importanza delle relazioni adeguata valorizzazione delle relazioni. Nella non simmetriche prima direzione il contributo più rilevante fu dato da Hugh McColl (18351909), che cercò di costruire un calcolo proposizionale centrato sull’uso dell’implicazione “se… allora”, considerata come componente fonda92/229 Lezioni di logica e filosofia della scienza mentale di una logica rivolta principalmente alle argomentazioni deduttive e svincolata pertanto dalla subordinazione al calcolo delle classi. Per cui in lui comincia ad intravedersi il capovolgimento della prospettiva booleana, in direzione di quella valorizzazione della componente proposizionale considerata quale momento fondamentale della logica e con ciò preannunciando il capovolgimento del rapporto tra calcolo delle classi e calcolo proposizionale che sarà teorizzato a pieno solo da Frege. Nella seconda direzione invece diede preziose indicazioni Alexius de Morgan (1806-1871), che criticò il calcolo booleano incentrato sulle classi in quanto vedeva in esso un residuo della vecchia logica fondata sul nesso tra soggetto e predicato e quindi sulla univoca interpretazione della copula ‘è’. Egli invece mise in luce come siano possibili altri tipi di nessi tra termini, come ad es. “maggiore di” o “minore di”, che non sono riducibili alla identità booliana, in quanto hanno il carattere della non simmetricità: se a è maggiore di b, non è vero che b è maggiore di a. Egli pertanto individuava delle ‘relazioni’ tra termini aventi carattere generale (e che quindi possono ricevere diverse interpretazioni), come quelle della transitività e della simmetricità. È questo il programma di una “logica delle relazioni”, già intuita da Lambert e dal leibniziano G. Ploucquet (1716-1790), che avrà in seguito un grande sviluppo e che solo l’eccessivo attaccamento alla sillogistica aristotelica, della quale si voleva fornire una generalizzazione e sistematizzazione, impedì a de Morgan di sviluppare adeguatamente.170 Rappresentazione di Venn Consideriamo il sillogismo seguente: Ogni animale è mortale; ogni uomo è animale; quindi, ogni uomo è mortale. Le tre classi sono rappresentate dai tre cerchi che si intersecano. Si rappresenta la prima proposizione ‘oscurando’ la parte di cerchio che non contiene alcun elemento. In questo caso è resa col grigio la parte del cerchio rappresentante la classe degli animali esterna al cerchio dei ‘mortali, per indicare che essa non comprende alcun elemento, essendo tutti gli animali compresi tra i mortali. Quindi si rappresenta la seconda proposizione in modo analogo, e pertanto si ‘oscura’ la parte del cerchio ‘uomini’ esterna a quello di ‘animali’ (sempre per indicare che essa non comprende alcun elemento). La conclusione del sillogismo è data dalla parte della figura non ‘oscurata’ (quella centrale), che appunto comprende tutti gli uomini che sono mortali (infatti la parte esterna ed essa, appartenente al cerchio ‘uomini’, è oscurata). 170 «[…] l’ancoramento del logico inglese al modello aristotelico agì in definitiva più come un momento bloccante che come stimolo per la sua visione della logica, sicché egli non seppe concretare operativamente possibili prospettive di un calcolo più generale in senso moderno, prospettive che qua e là affiorano, a livello di anticipazione, nei suoi scritti; in particolare per quanto riguarda la teoria delle relazioni non seppe comprendere che la teoria stessa, indipendentemente dal suo rapporto con la sillogistica, costituiva una dottrina autonomamente importante e interessante ogni campo della matematica. Intravvide insomma varie generalizzazioni e aperture possibili, nell’ambito però di un contesto che ormai aveva fatto il suo tempo ed era stato di fatto superato dalla prospettiva booleana» (C. Mangione, op. cit., p. 106). 93/229 Lezioni di logica e filosofia della scienza L’approfondimento della logica delle relazioni Il contributo misconosciuto di (che tende a sostituirsi a quella delle classi, vista Peirce ora come un suo caso particolare), una più esatta definizione dell’operazione di quantificazione e della sua scrittura, lo sviluppo del calcolo proposizionale basato sulla nozione di “implicazione materiale” e l’individuazione di una procedura di decisione facente uso di tavole di verità (poi ritrovata indipendentemente e divulgata da Wittgenstein, Post e ¸ukasiewicz; vedi il § seg.), nonché una sempre più decisa affermazione della indipendenza della logica dalla matematica, cercando così di porre rimedio all’eccessivo matematismo di Boole171 (come nel caso dell’uso della relazione di inclusione in luogo di quella di identità, che così veniva definita suo tramite): questi i contributi più significativi forniti da Charles S. Peirce (1839-1914). Tuttavia la frammentarietà dei suoi scritti logici e la scarsa conoscenza che si ebbe della sua opera quando era ancora in vita – aspetti che richiamano in mente Leibniz – hanno fatto sì che i suoi contributi non abbiano inciso direttamente sullo sviluppo della logica successiva, anche se oggi si riconosce a Peirce un posto di prima grandezza tra i logici contemporanei. Infatti a lungo la sua figura è stata nota perché legata alla corrente filosofica della quale è stato riconosciuto uno dei maggiori rappresentanti, il pragmatismo, piuttosto che ai suoi contributi in campo logico. Legato alla figura di Peirce è in qualche modo Schröder e la sistematizzaanche il tedesco Ernst Schröder (1841-1902), sia a zione dell’algebra della logicausa degli innumerevoli influssi reciproci, sia in ca e i limiti della sua opera quanto entrambi parteciparono al comune progetto di sviluppo di quell’algebra della logica il cui fondatore era stato Boole, cercando di perfezionarla non solo tecnicamente, ma anche col chiarirne alcuni aspetti concettuali, lasciati in ombra dal suo fondatore. Diversamente da Peirce, le opere di Schröder hanno una tipica sistematicità teutonica: le Vorlesungen über die Algebra der Logik (pubblicate tra il 1890 e il 1905) ambiscono in tre monumentali volumi a presentare una sintesi di tutta la 171 E’ per questo aspetto che Peirce è stato considerato come «l’anello di mediazione fra l’impostazione algebrica della logica dovuta e Boole e il filone ‘logicistico’ in seguito sviluppato, come vedremo, da Russell e Frege (cfr. C. Mangione, op. cit., pp. 94, 137). 94/229 Lezioni di logica e filosofia della scienza scienza della logica al suo tempo disponibile, dando una sistematica organicità e portando a perfezionamento l’eredità di Boole, del quale mantiene la priorità del calcolo delle classi su quello proposizionale. E’ l’algebra della logica, da lui portata a compimento, che costituisce l’orizzonte che circoscrive, a suo avviso, ogni possibile ulteriore sviluppo della materia, sicché – come afferma icasticamente Husserl in una lettera a Frege – «è un brillante tecnico matematico, ma niente di più», privo di finezza e rigorosità logica.172 Tuttavia la complicatezza del sistema simbolico non accompagnato da una seria ed approfondita riflessione sul suo significato, l’eccessivo attaccamento alla impostazione booliana con una conseguente rigidezza di impostazione, un chiaro psicologismo (del quale fu però immune Peirce), tutto ciò fece sentire l’esigenza di una logica rinnovata, svincolata dalla matematica e che si ponesse direttamente il problema della comprensione delle leggi che stanno alla base del ragionamento, di ogni ragionamento, ivi compreso quello matematico. All’assunzione acritica della matematica come modello su cui edificare la logica – questo il progetto che ha origine con Boole e dà luogo all’algebra della logica, il cui ultimo esponente è Schröder – ora succede l’idea che bisogna dare una giustificazione logica dei procedimenti della matematica, ovvero porre quest’ultima in forma rigorosa mediante la sua logicizzazione. Sono ovviamente sempre i matematici a sentire questa esigenza di rigore ed in fin dei conti la logica viene vista comunque come una scienza ausiliare della matematica (come è evidente con Peano e la sua scuola); tuttavia ora è l’insoddisfazione dei procedimenti intuitivi utilizzati dal matematico a far nascere l’esigenza e l’idea che sia possibili ‘fondarli’ mediante una chiarificazione logica delle sue procedure: «Per le esigenze stesse della loro scienza essi avevano bisogno non già di introdurre la matematica nella logica algebrizzando quest’ultima, ma piuttosto, inversamente, di introdurre la logica nella matematica e per questo di rinnovare anzitutto il vecchio strumento logico, affatto insufficiente per il compito che gli era assegnato».173 Sono queste motivazioni e queste prospettive a stare alla base del programma di una diversa generazione di matematici e logici, che si riassume nel nome del ‘logicismo’. 1.6 La riflessione sui fondamenti della L’esigenza di dare rigore matematica. La nuova impostazione del rapporto all’analisi matematica, esatra logica e matematica, come abbiamo già minandone criticamente i accennato, nasce dal seno stesso di quest’ultima, e fondamenti cioè dalla necessità di introdurre maggiore rigore nell’analisi, riesaminandone criticamente i fondamenti. È questo il punto di vista che sempre più si afferma nel corso dell’Ottocento, quando «di fronte alla 172 E. Husserl, Lettera a Frege del 18 luglio 1891, in G. Frege, Alle origini della nuova logica. Epistolario scientifico con Hilbert, Husserl, Peano, Russell, Vailati, Boringhieri, Milano 1983, p. 81. 173 R. Blanché, op. cit., p. 350. 95/229 Lezioni di logica e filosofia della scienza straordinaria ricchezza di risultati, i matematici più attenti alle questioni metodologiche cominciarono a rendersi conto che anche le nozioni apparentemente più sicure e i teoremi fondamentali dell’analisi mancavano di una base rigorosa»174. Non era più possibile attenersi alla settecentesca e ottimistica professione di fede che D’Alembert, forte dei successi pratici dell’analisi, lanciava in sfida a coloro che ne mettevano in dubbio le equivoche e poco chiare basi concettuali: «allez en avant, la foi vous viendra». È in questo periodo che ha luogo quel «ripensamento di tutta la matematica che attraverso l’acquisizione della nozione di teoria come sistema ipotetico deduttivo porterà alla concezione dei sistemi matematici come puri sistemi formali, staccati a priori da ogni interpretazione, che sarà affermata consapevolmente e in tutta la sua portata soltanto nel nostro secolo».175 Ma come introdurre tale rigore nella La liberazione della matematematica, specie per alcuni suoi concetti matica dalla sottomissione ai cruciali come quello di continuità, che sta alla concetti intuitivi della geobase dell’analisi infinitesimale? «La convinzione metria che lentamente si venne affermando (non senza polemiche ed opposizioni irriducibili) fu che il rigore desiderato si poteva raggiungere soltanto a patto di abbandonare il terreno intuitivo dell’evidenza geometrica, da sempre il riferimento naturale degli argomenti di analisi, e di considerare il concetto di numero naturale (e l’aritmetica dei naturali) come il fondamento su cui ricostruire l’edificio dell’analisi».176 Si voleva, insomma, liberare la matematica dalla tradizionale sottomissione alla geometria: era sulla sua base che erano stati plasmati i suoi concetti, che così trovavano una conferma intuitiva nella ‘osservazione’ delle grandezze geometriche. Ciò, del resto, sin dai tempi di Newton e Leibniz era parso naturale, in quanto l’analisi aveva a che fare con grandezze continue come lunghezze, aree, velocità e accelerazioni, cioè tali che la loro variazione poteva avvenire per incrementi (o decrementi) “infinitamente piccoli”; onde il nome di analisi infinitesimale. Diversamente dall’aritmetica, il cui campo di studio erano i numeri naturali che si presentavano come grandezze discrete, le figure geometriche possedevano la caratteristica dell’infinita divisibilità e della continuità, che venivano appunto colte in modo intuitivo e pertanto sembravano costituire una esemplificazione dei concetti analitici. Come osserva il grande matematico, nonché protagonista del Circolo di Vienna, Karl Menger, «per secoli le cosiddette “intuizioni geometriche” erano state usate come mezzo di prova. Nelle dimostrazioni geometriche, certi passi erano permessi perché “autoevidenti”, perché la correttezza della conclusione era “mostrata dai diagrammi allegati”, etc. La crisi avvenne 174 U. Bottazzini, Il calcolo sublime. Storia dell’analisi matematica da Euler a Weierstrass, Boringhieri, Torino 1981, p. 214. 175 C. Mangione, “Logica e fondamenti della matematica nella prima metà dell’Ottocento”, in L. Geymonat, op. cit., vol. IV, p. 142. Ad un esempio di tale tipo di evoluzione abbiamo già accennato a proposito della scuola algebrica inglese di Cambridge, che ci ha permesso di capire la genesi del pensiero di Boole. 176 U. Bottazzini, op. cit., p. 215. 96/229 Lezioni di logica e filosofia della scienza quando in geometria tali intuizioni si rivelarono inaffidabili. Molte delle proposizioni considerate come autoevidenti o basate sulla considerazione di diagrammi si rivelarono false»177. Tale crisi del ruolo privilegiato dell’intuizione La nascita delle geometrie avviene, innanzi tutto, proprio nel terreno della non euclidee e la crisi della stessa geometria con la progressiva affermazione concezione kantiana delle geometrie non euclidee. Già preannunciate nell’opera pionieristica di Gerolamo Saccheri (1667-1733) e quindi oggetto di riflessione di Carl F. Gauss (1777-1855) (che però non pubblicò nulla per timore dell’incomprensione dei contemporanei), la geometria non euclidea fu per la prima volta posta all’attenzione dei matematici dal russo Nicolaj I. Lobaceskij (1793-1856) e dall’ungherese Janos Bolyai (18021860), ma senza grande eco: «le pubblicazioni dei due finirono ben presto quasi dimenticate nel novero delle bizzarrie e stravaganti elucubrazioni che di tanto in tanto si affacciano ai margini della ricerca scientifica»178. Solo grazie a Bernhard Riemann (1826-1866), nel 1867 (anno di pubblicazione della sua celebre memoria Sulle ipotesi che stanno alla base della geometria, letta come dissertazione nel 1857) le nuove geometrie non euclidee riescono a destare l’attenzione del mondo degli studiosi, per poi entrare di diritto nel mondo della matematica grazie all’opera del grande matematico francese Henri Poincarè (1854-1912) e ad avere così una funzione determinante per un nuovo modo di intendere la scienza geometrica in generale. Tralasciando l’esposizione dei suoi dettagli tecnici179, il significato concettuale di tali geometrie va appunto visto nella crisi di quella concezione ‘intuitiva’ della geometria che era stata alla base della concezione kantiana. Il grande filosofo tedesco riteneva la geometria, come edificata da Euclide, fondata sulla “intuizione pura” e pensava che fosse l’unica corretta traduzione dello spazio assoluto newtoniano. Essa costituiva un esempio paradigmatico di conoscenza sintetica a priori: sintetica, in quanto i suoi teoremi ci dicono qualcosa intorno al mondo, ed esattamente ci descrivono la struttura dello spazio fisico nel quale viviamo; a priori in quanto assolutamente certa e non bisognosa di essere giustificata facendo ricorso all’esperienza. Sembrava pertanto accoppiare in maniera indissolubile certezza intuitiva e rilevanza empirica: si riassumeva in tale prospettiva la concezione che sin dall’antichità era stata tramandata della geometria. 177 K. Menger, “The New Logic” (1937), in Science and Philosophy in the Twentieth Century. Vol. 2: Logical Empircism at its Peak. Schlick, Carnap, and Neurath, ed. by. S. Sarkar, Garland, New York & London 1996, p. 141. 178 U. Bottazzini, “La scienza dello spazio e la geometria ‘immaginaria’”, in Storia della scienza moderna e contemporanea, a cura di P. Rossi, Dall’età romantica alla società industriale, vol. II, 2, cit., p. 525. 179 Per i quali rinviamo, tra la numerosa letteratura esistente, a testi ottimi per la loro chiarezza quali E. Agazzi - D. Palladino, Le geometrie non euclidee e i fondamenti della geometria, La Scuola, Brescia 1998; R. Carnap, I fondamenti filosofici della fisica, Il Saggiatore, Milano 1971. Vedi anche l’antologica di testi curata da L. Magnani, Le geometrie non euclidee, Zanichelli, bologna 1978. 97/229 Lezioni di logica e filosofia della scienza Ma i tentativi infruttuosi, risalenti già all’epoca Il problema del quinto poclassica, di dimostrare il quinto postulato di stulato e la liberazione della Euclide, quello delle parallele180, avevano condot- geometria dalle intuizioni to gli studiosi ad ammettere la possibilità di spaziali e dall’evidenza: il costruire delle geometrie che ne facessero a meno: requisito della coerenza la negazione del postulato non conduceva affatto ad una contraddizione, che ne avrebbe dimostrato per assurdo la indispensabilità, ma portava alla ammissione di due nuove geometrie (quella iperbolica e quella ellittica) assai ‘strane’, certamente paradossali per la comune intuizione, ma la cui coerenza venne dimostrata nel 1868 dal matematico italiano Eugenio Beltrami (1835-1900). Non era quindi necessario accettare il quinto postulato di Euclide (tutt’altro che evidente), il quale finiva così per essere una delle possibili ipotesi per costruire una geometria. Sono ammissibili, insomma, diverse geometrie che, per quanto paradossali e lontane dalla nostra comune intuizione dello spazio, sono tuttavia coerenti e prive di contraddizioni interne. In tal modo l’evidenza di cui la geometria euclidea sembrava essere in massimo grado dotata non è più una garanzia della sua verità; ciò sta a significare, in generale, che la costruzione di una teoria matematica non è più subordinata a questioni di evidenza intuitiva, ma piuttosto all’accertamento della sua mancanza di contraddizioni. Ne deriva un’altra conseguenza: la geometria non viene più vista come la descrizione di enti, di ‘oggetti’ ma solo come una costruzione formale astratta, il cui unico requisito deve essere quello della coerenza: i suoi teoremi non possono più essere detti ‘veri’, quasi descrivessero degli oggetti aventi precise caratteristiche ed a cui dovrebbero ‘corrispondere’ le conclusioni in essi provate. Il problema della verità degli asserti geometrici e matematici non si pone più a questo livello – che è quello della cosiddetta matematica ‘pura’ – ma solo quando essi vengano ‘applicati’, cioè quando la matematica venga impiegata per descrivere gli oggetti appartenenti al mondo fisico, sia esso quello della nostra esperienza quotidiana oppure il cosmo nella sia interezza. Solo in questo caso è possibile porsi il problema di sapere quale delle geometrie non euclidee sia quella ‘vera’; è una questione che ha ormai solo un significato empirico, relativo al tipo di ‘oggetti’ cui siamo interessati. Ad esempio, solo una indagine fisica sulla struttura dello spazio cosmico può farci decidere quale delle diverse geometrie sia quella che ad esso corrisponda (ed infatti, come abbiamo visto, Einstein con la teoria della relatività generale ha dimostrato che la geometria ‘vera’ per lo spazio cosmico è di tipo non euclideo). 180 Il postulato viene così enunciato da Euclide: «se una linea retta che cade su due altre linee rette forma dalla stessa parte degli angoli interni la cui somma è minore di due angoli retti, allora le due linee rette prolungate illimitatamente si incontreranno da quella parte in cui vi sono i due angoli minori di quello retto» (The thirteen books of Euclid’s Elements, transl. with introd. and commentary by Thomas L. Heath, Dover Publications, New York 1956, 2ª ed., vol. 1, p. 155). Esso può più sempliceente esprimersi in una forma equivalente dicendo che, dati un punto ed una retta esiste sul piano da essi determinato una e una sola parallela per quel punto alla data retta. Come si può facilmente notare, tale postulato nella formulazione di Euclide non è affatto semplice da intendere e quindi non ha quel carattere di intuitività ed evidenza posseduti dagli altri enunciati. Onde l’esigenza di farne in qualche modo a meno. 98/229 Lezioni di logica e filosofia della scienza La messa in discussione del privilegio dell’in- L’aritmetizzazione dell’analituizione avviene anche nel campo della analisi si e l’esigenza di chiarire il matematica e porta alla richiesta di un maggior concetto di numero naturale, rigore nella definizione dei suoi concetti fon- su cui fondare quello di numero reale damentali. Grandi matematici come Kronecker, Dedekind, Cantor e Weierstrass (sempre nello stesso torno di anni) convergono sulla esigenza di chiarificare e definire in maniera rigorosa, prescindendo da intuizioni geometriche, il concetto di numero reale che ne sta alla base. Ma la domanda circa la natura dei numeri reali porta ben presto Dedekind alla convinzione che questi siano riconducibili ai soli numeri naturali (1, 2, 3, …) e che quindi fosse possibile realizzare la cosiddetta aritmetizzazione dell’analisi, cioè la fondazione di questa sulla sola teoria dei numeri naturali, previa una chiarificazione di questi ultimi: «in senso stretto, per aritmetizzazione dell’Analisi si può allora intendere l’affrancamento da questa “servitù” geometrica nella stessa definizione di numero reale e quindi, in una più ampia accezione, la conseguente edificazione dell’Analisi su basi chiarite non più sulla scorta di intuizioni geometriche non analizzate, ma in termini di oggetti e processi aritmetici elementari»181. Si pensava inoltre di poter così ricondurre anche le geometrie non euclidee all’analisi, definendo il concetto di continuo che ne stava alla base non mediante intuizioni spaziali ma attraverso una sua determinazione mediante concetti aritmetici. Il rapporto tra analisi e geometria veniva ad invertirsi: tutta l’analisi veniva fondata sulla definizione di numero reale, che a sua volta poggiava sul concetto di numero intero, che veniva a costituire così il fulcro intorno a cui ruotava tutto il processo di rigorizzazione della matematica ottocentesca, la meta per raggiungere la quale avevano impegnato le loro forze i più grandi matematici del secolo. Tale risultato fu conseguito dall’italiano Giuseppe Peano (1858-1932) nel suo Formulario mathematico (1895-1908), grazie alla riduzione di tutto l’edificio della matematica a soli nove assiomi fondamentali, ammessa la cui verità è possibile ottenere con pure deduzioni logiche tutto il resto. L’approccio di Peano aveva inoltre il vantaggio di offrire per la prima volta un simbolismo assai efficace, di natura logica182, mediante il quale era possibile effettuare una presentazione assiomatica dell’intera matematica. Sembrava dunque che fosse stato portato a compimento il processo di aritmetizzazione: i numeri naturali, come definiti negli assiomi di Peano, stavano alla base di tutta la matematica. Come affermò Kronecker, «il buon Dio ci ha dato i numeri naturali, tutto il resto è opera dell’uomo»183. 181 C. Mangione, “Logica e problemi dei fondamenti nella seconda metà dell’Ottocento”, in L. Geymonat, op. cit., p. 761. 182 B. Russell afferma che il merito principale di Peano «non consiste tanto nelle sue scoperte logiche particolari o nei dettagli delle sue notazioni (ancorché entrambi eccellenti) quanto nel fatto di essere stato il primo a mostrare come la logica simbolica dovesse essere liberata dalla sua ingiustificata ossessione delle forme dell’algebra ordinaria, e a farne con ciò uno strumento adeguato di ricerca» (Introduzione ai “Principia Mathematica”, a cura di P. Parrini, La Nuova Italia, Firenze 1977, p. 10). 183 Citato da R. Maiocchi, Storia della scienza in Occidente. Dalle origini alla bomba atomica, La Nuova Italia, Firenze 1995, p. 418. 99/229 Lezioni di logica e filosofia della scienza Pareva dunque che coi numeri naturali si fosse arrivati ad un punto oltre il quale non era possibile più ulteriormente procedere: bisognava dunque ammettere che ai numeri naturali, doni del buon Dio, non bisognava, potremmo dire, “guardare in bocca”, con ciò accedendo ad una posizione sostanzialmente intuizionista, poi ripresa come vero e proprio programma filosofico dal matematico olandese Luitzen E.J. Brouwer? Oppure bisognava rassegnarsi a considerare l’aritmetica una attività simbolica resa possibile da particolari proprietà della mente umana, una rappresentazione soggettiva tratta mediante generalizzazione dall’esperienza, come sostenevano su basi empiriste e psicologiste John S. Mill, Helmholtz ed il primo Husserl? Oppure ritenere, come faceva Dedekind, che i numeri siano delle “libere creazioni della mente umana”, che li ‘pone’ mediante quella sua specifica capacità che consiste nell’atto del ‘contare’, cioè di collegare e far corrispondere cose a cose, senza la quale non sarebbe possibile neanche pensare?184 E’ in questo frangente che si inserisce la Il problema del chiarimento proposta di Gottlob Frege: se si voleva pervenire logico del concetto di ‘nuad una comprensione rigorosa del concetto di mero’: il programma di numero naturale era necessario enucleare quali Frege fossero le sue caratteristiche logiche. E questo non era rinvenibile nell’opera di Peano: la logica era da lui usata solo per effettuare le deduzioni matematiche ed il suo simbolismo aveva un carattere pragmatico, non ponendosi egli né il problema di ulteriormente fondare gli assiomi da lui proposti né quello di chiarire lo statuto delle procedure logiche utilizzate: ciò ripugnava al suo atteggiamento ‘afilosofico’.185 Con Frege, invece, l’aritmetica – e per suo tramite la matematica – si rivolgeva alla logica per risolvere le proprie difficoltà: «mentre con Peano ha termine la riduzione della matematica all’aritmetica, con Frege inizia la sua riduzione alla logica»186. Come afferma Carnap, «non ci si accontentò di ridurre i diversi concetti dell’analisi matematica al concetto fondamentale di 184 Cfr. C. Mangione, op. cit., pp. 777-80. «La logica viene intesa essenzialmente come linguaggio artificiale atto ad esprimere con la massima chiarezza i concetti matematici e le dimostrazioni matematiche, fino ad allora espresse sostanzialmente nel linguaggio comune. I principi di logica non sono altro che la trascrizione in simboli dei modi corretti di ragionare in matematica, come lo stesso Peano sottolinea in diverse occasioni […]. La logica matematica, dunque, intesa come strumento in ordine alla realizzazione del progetto del Formulario, e non tanto, come si è portati a considerarla oggigiorno, disciplina matematica autonoma […]. E questo, paradossalmente, proprio nel momento in cui all’estero cominciavano a fiorire quegli studi che avrebbero portato alla maturazione della logica come disciplina veramente autonoma e, soprattutto, alle ricerche metalogiche. Ancora più sorprendente è il fatto che, anche nell’ambito della scuola, vi sia sempre stato un ancoramento a questa visione» (M. Borga, “La logica, il metodo assiomatico e la problematica metateorica”, in M. Borga - P. Freguglia - D. Palladino, I contributi fondazionali della Scuola di Peano, Angeli, Milano 1985, pp. 14-6). 186 F. Waismann, Introduzione al pensiero matematico (1939), Boringhieri, Torino 1976, p. 86. Benché quest’opera sia stata scritta alla fine degli anni trenta da uno dei più significativi esponenti del Circolo di Vienna e sia grandemente ispirata alle idee matematiche che in quel torno di anni Wittgenstein andava elaborando, essa rimane tuttavia, a mio avviso, una delle più chiare presentazioni dell’evoluzione e dei problemi della matematica tra fine Ottocento ed inizio del Novecento. 185 100/229 Lezioni di logica e filosofia della scienza numero, ma ci si propose il compito di una chiarificazione logica dello stesso concetto di numero. Queste ricerche sui fondamenti logici dell’aritmetica per operare un’analisi logica del numero esigettero perentoriamente un sistema logico che per la sua vastità fosse in grado di assolvere quel compito»187. È stato questo il compito intrapreso da Frege e quindi continuato da Russell e Whitehead con quel monumento della logica contemporanea rappresentato dai Principia Mathematica. Tale progetto – al quale portarono il loro contributo altri matematici e logici di primo piano (basti ricordare il nome di Wittgenstein) – è indicato col nome di ‘logicismo’. 1.7 Il logicismo di Gottlob Frege. Come tutti i grandi innovatori, anche Gottlob Frege (1848-1925) non conobbe in vita grande stima ed ammirazione da parte dei suoi contemporanei. Le sue concezioni logiche rimasero pressoché ignorate per tutta la sua vita, vivendo egli in un doloroso isolamento (insegnò all’Università di Jena, senza mai accedere ai più alti gradi accademici). Le sue opere venivano sistematicamente sottovalutate alla loro pubblicazione e furono oggetto di astiose polemiche con lo establishment matematico e logico a lui contemporaneo, sicchè la sua opera venne conosciuta ed apprezzata solo da pochi ammiratori (anche se di rilievo, come Dedekind, Peano, Russell, Wittgenstein, Carnap ed in un primo tempo anche Husserl). Anzi, si potrebbe dire che essa venne resa nota proprio da Russell, che nell’appendice ai suoi Principles of Mathematics ne espose i contenuti in modo assai lusinghiero, anche se poi riteneva che la propria opera avesse superato quanto concepito da Frege, perché aveva saputo porre rimedio all’antinomia da lui stesso scoperta. Sicché nell’opinione dei contemporanei l’opera di Russell finì per eclissare quella di Frege. Come abbiamo detto, i contributi in campo Il significato del progetto logico di Frege sono funzionali al suo progetto logicistico e l’obiettivo del fondamentale: fornire una base sicura alla perfetto rigore in matematica matematica mediante la chiarificazione logica del concetto di numero, al fine di raggiungere l’obiettivo del perfetto rigore. Ciò comportava un lavoro teso a rendere espliciti i principi logici che garantiscono la correttezza del ragionamento matematico, che doveva dismettere il ricorso all’evidenza in favore di connessioni argomentative in cui nessun anello fosse difettoso. Bisognava evitar di fare come molti matematici, che «sembrano tanto poco sensibili alla purezza logica ed al rigore che usano una parola per tre o quattro cose differenti […]»188. Solo la logica – riformata e perfezionata – poteva garantire un tale obiettivo. Queste le motivazioni che stanno alla base del progetto logicistico, che può essere così riassunto: «Si tratta: a) di definire in termini puramente logici i concetti della matematica pura, in particolare quelli tradizionalmente 187 R. Carnap, “La vecchia e la nuova logica” (1930), in La filosofia della scienza, a cura di A. Crescini, La Scuola, Brescia 1964, p. 7. 188 Frege, I principi…, vol. II, § 60. 101/229 Lezioni di logica e filosofia della scienza riguardati come ‘primitivi’, irriducibili: primo fra tutti, lo stesso concetto di numero naturale; b) di derivare le ‘verità’ della matematica pura (e in particolare quelle ritenute più ‘evidenti’) a partire da principi meramente logici, e impiegando metodi di ragionamento del tutto espliciti»189. Lo scopo che così Frege si assume, quello di chiarire il concetto di numero, si condensa nelle due tesi secondo cui i numeri sono oggetti (logici) e i giudizi dell’aritmetica sono giudizi analitici a priori: «[…] egli desidera mostrare che il discorso intorno ai numeri naturali può ridursi ad un discorso intorno a insiemi, classi, o molteplicità, ossia, per dirla nella terminologia dei logici, intorno alle estensioni dei concetti. Esplicitamente egli dice che gli oggetti dell’aritmetica sono oggetti logici»190. A tal fine era però necessario separare nettamente il logico dallo psicologico, l’oggettivo dal soggettivo, ed inoltre tenere sempre presente la differenza tra oggetto e concetto, tra denotazione delle parole e loro significato logico. L’obiettivo di mettere al sicuro il contenuto og- La critica all’intuizionismo gettivo della matematica poteva essere assicurato, matematico di Kant: i giudizi innanzi tutto, a condizione di sconfiggere i suoi matematici non sono sintetici più pericolosi avversari: l’intuizionismo matema- a priori, ma analitici tico di Kant e lo psicologismo di J.S. Mill. Nel primo caso si trattava di confutare la nota concezione kantiana dei giudizi aritmetici come giudizi sintetici a priori, in favore del loro carattere analitico, consistente nella possibilità di giustificarli riconducendoli a verità fondamentali, grazie a dimostrazioni nelle quali si faccia uso solo di leggi logiche generali e di precise definizioni. D’altra parte, il richiamo kantiano all’intuizione non gli sembra adeguato, sia in quanto «noi siamo troppo disposti a invocare l’intuizione interiore quando non sappiamo addurre alcun altro fondamento della conoscenza», sia in quanto non è chiaro cosa si intenda con essa. Quando infatti nella sua teoria dell’aritmetica Kant afferma che l’addizione 7 + 5 = 12 non può essere puramente analitica, in quanto bisogna andare oltre i concetti che stanno per gli addendi ed appellarci all’intuizione corrispondente, ad es. alle cinque dita della mano191, non si riesce a capire quale possa essere la corrispondente intuizione di una somma con numeri molto alti, quale 135664 + 37863 = 173527. Dobbiamo forse appellarci all’intuizione di 173527 dita? Non v’è per Frege bisogno di far ricorso all’intuizione, in quanto le formule con numeri superiori a 10 sono dimostrabili benissimo senza farvi ricorso, per cui non vede perché sia necessario farla entrare in campo per i numeri inferiori. L’aritmetica ha dunque uno status diverso dalla geometria (che Frege accettava nella formulazione datane da Kant), in quanto non verte intorno a dita allo stesso modo in cui la geometria verte intorno a punti, linee, piani. 189 C. Mangione, op. cit., p. 808. W.C. Kneale – M. Kneale, op. cit., p. 516. 191 Cfr. I. Kant, Prolegomeni…, cit., pp. 51-2. 190 102/229 Lezioni di logica e filosofia della scienza Più decisa e senza quartiere la lotta contro lo La critica dello psicologismo psicologismo sostenuto in seno empiristico ed il di Mill e Erdmann:la confucui principale rappresentante era oltre al già citato sione tra leggi oggettive ed iMill, anche Benno Erdmann. In questa battaglia deali e principi psicologici Frege era in buona compagnia: anche Husserl, soggettivi dopo una prima fase psicologistica espressa nella sua Filosofia dell’aritmetica, si era schierato con le Ricerche logiche sul medesimo fronte (anche se in seguito le loro strade nuovamente si divideranno). Come chiarisce Engel, «lo psicologismo designa generalmente una confusione fra ciò che è di natura non psicologica e ciò che si suppone (a torto) di natura psicologica. Più esattamente lo psicologismo è un certo tipo di spiegazione o di analisi di una nozione, di un insieme di fenomeni o di entità in termini psicologici, ovvero in termini di fenomeni o di entità che sono di pertinenza della psicologia, e questo tipo di spiegazione o di analisi è considerata illegittima»192. In particolare, per quanto riguarda la logica e la matematica Frege e Husserl denunziano la confusione tra entità, leggi e principi considerati ‘oggettivi’ e ‘ideali’ (cioè non facenti parte della ‘natura’) ed entità o principi psicologici considerati ‘soggettivi’ e ‘naturali’. È in sostanza una critica alla psicologia associazionistica del XIX secolo, per la quale le entità della logica e della matematica sono ridotte ad entità e leggi proprie della psicologia e costituirebbero una sorta di rappresentazione mentale, astratta mediante procedure di generalizzazione dalla esperienza concreta. Invece per Frege, «le entità logiche e matematiche non appartengono né al mondo delle cose naturali o fisiche, né al mondo delle rappresentazioni mentali, ma a un “terzo regno” indipendente, quello dell’“esser-vero”, completamente autonomo rispetto alla mente, che non è inventato da questa, ma ‘scoperto’, nello stesso modo in cui si può scoprire un nuovo continente»193. E’ una concezione ‘platonica’ (fatta in seguito propria anche da Russell) che fa del logico uno scienziato che, come il naturalista, ‘scopre’ le verità della logica come se descrivesse un universo non creato da noi e nel quale le dimostrazioni hanno un loro corso naturale, in cui il soggetto gioca un ruolo puramente passivo, da osservatore, in quanto la necessità logica del loro svolgimento è de re, inscritta nell’ordine delle cose.194 In quest’ottica ‘cognitivista’, «alle verità necessarie della logica (e delle matematiche) corrisponde un universo di ‘fatti’, distinti dai fatti empirici e pur tuttavia non meno reali, che ci è possibile conoscere e scoprire»195. Si comprendono pertanto le motivazioni che Critica delle correnti concestanno alla base del rifiuto fregeano di quella zioni della matematica 192 P. Engel, Filosofia e psicologia (1996), Einaudi, Torino 2000, p. 45. Ib., p. 46. 194 «Il teorema di Pitagora esprime il medesimo pensiero per tutti gli uomini, mentre ognuno ha le proprie rappresentazioni, sentimenti, decisioni, che sono diversi da quelli di ogni altro individuo. I pensieri non sono configurazioni psichiche, e il pensare non è un produrre e formare interiore, ma è invece una comprensione di pensieri oggettivamente già esistenti» (Frege, Lettera a Husserl del 30ottobre-1° novembre 1906, in G. Frege, Alle origini della nuova logica, cit., p. 82). 195 P. Engel, La norme du vrai. Philosophie de la logique, Gallimard, Paris 1989, p. 328. 193 103/229 Lezioni di logica e filosofia della scienza concezione della matematica, diffusa tra i suoi contemporanei, per la quale essa è una libera creazione dello spirito umano, non soggetta ad altro che alle limitazioni della logica. Essa considerava ‘coerenza’ ed ‘esistenza’ come sinonimi, per cui un ente matematico non logicamente contraddittorio era ritenuto esistente. Ma, ribatteva Frege, «come il geografo, neppure il matematico può creare qualcosa ad libitum; anch’egli può solo scoprire ciò che già v’è, e dargli un nome»196. E parimenti non accettava la tesi di coloro che invece ritenevano la matematica pura una mera combinatoria di simboli, senza alcun significato, così come avviene nel gioco degli scacchi, i cui pezzi hanno un valore solo per le regole di movimento cui devono obbedire: era una netta presa di posizione contro Hilbert e la sua scuola, verso la quale non si stancò di polemizzare sino alla fine della sua vita197. E si capisce anche perché ritenesse limitato e riduttivo il modo in cui Kant intendeva la nozione di analiticità, con ciò contribuendo alla leggenda della ‘sterilità’ della logica pura; per Frege una proposizione analitica non è affatto ‘vuota’, priva di contenuto cognitivo: le leggi e le deduzioni logiche che esse generano sono produttive per il fatto che descrivono una realtà obiettiva ed hanno quindi valore conoscitivo. In un giudizio analitico sono contenute sì tutte le sue conseguenze, ma «come la pianta nel seme, non come una trave nella casa»198. Quando si parla di “legge logica” si intende Carattere normativo della loqualcosa di totalmente diverso da una legge gica, la quale non descrive il psicologica: questa enuncia ciò che è, il comportamento medio degli comportamento di fatto tenuto dagli uomini, «il uomini modo comune, intermedio di pensare; allo stesso modo come potrebbe venir indicato in che modo proceda nell’uomo la digestione sana, o in che modo si parli in forma grammaticalmente esatta, o in che modo si vesta modernamente»199. Invece la legge logica enuncia ciò che deve essere, stabilisce come si debba pensare ovunque e ogniqualvolta si voglia giudicare in modo vero; essa ha carattere normativo. Insomma, lo psicologismo avrebbe il vizio capitale di confondere sistematicamente ciò che ha la natura di una regola o di una norma con ciò che invece esprime solo un principio di funzionamento o una legge psicologica; questa scelta in favore del normativismo in logica avrà anche le sue conseguenze nel futuro sviluppo della filosofia della scienza, ad esempio nella distinzione che sarà effettuata tra contesto della scoperta e contesto della giustificazione.200 196 Fondamenti, § 96. Cfr. W.C. Kneale – M. Kneale, op. cit., pp. 516-20, dove sono sintetizzate le quattro critiche fondamentali portate da Frege al formalismo. 198 Cit. in Mangione, op. cit., p. 810. 199 G. Frege, I principi dell’aritmetica (1893), in Id., Logica e aritmetica, a cura di C. Mangione, Boringhieri, Torino 1965, pp. 485-6. 200 Cfr. P. Engel, op. cit., pp. 55-7. 197 104/229 Lezioni di logica e filosofia della scienza Alla base dell’impostazione fregeana v’è una Visione oggettivistica della visione oggettivistica della verità: essa non è ciò verità, che non può ridursi che viene comunemente accettato dalla maggior all’accordo generale e non parte o anche da tutti gli uomini; essa non si dipende dal giudizio del singolo riduce all’accordo generale, come sostiene Benno Erdmann nella sua Logica. Infatti, «l’essere vero è qualcosa di completamente diverso dall’esser ritenuto vero […] Per leggi logiche io non intendo le leggi del ritener vero, ma le leggi dell’esser vero […] Se l’esser vero non dipende dall’essere ritenuto tale da chicchessia, allora anche le leggi dell’esser vero non possono risultare leggi psicologiche, ma sono pietre basilari, poggiate su una roccia eterna, pietre che possono forse venir sommerse ma non scosse dal nostro pensiero, se esso vuol raggiungere la verità»201. Ovviamente il carattere normativo che è tipico In difesa dell’oggettività: la della legge logica non impedisce che di fatto vi distinzione tra ‘senso’ e siano esseri che la rifiutino; essa però ci assicura ‘denotazione’ che questi così facendo hanno torto. Pertanto la ‘verità’ è per Frege qualcosa di oggettivo e di indipendente da chi giudica, in quanto «un pensiero vero è già vero prima di venir afferrato da un essere umano»202. Tale oggettività attribuita al vero, tuttavia, non deve essere confusa con quella tangibilità propria degli esseri concretamente esistenti, che è palpabile, occupa uno spazio. È piuttosto paragonabile a quella dell’asse terrestre, del baricentro del sistema solare o dell’equatore; sarebbe un errore pensare che queste siano entità immaginarie, create dal pensiero, frutto di un processo psichico, in quanto il pensiero ha la funzione solo di riconoscerle, di ‘afferrarle’: «è chiaro pertanto che, parlando di oggettività, io intendo una indipendenza dal nostro sentire, intuire, rappresentare, dal nostro formarci immagini mentali in base al ricordo di precedenti sensazioni, ma non indipendenza dalla ragione»203; infatti, «il pensiero riconosciuto come vero non è modificato dal giudizio». Diversamente da Erdmann, che confonde sistematicamente l’irrealtà tipica della logica con la soggettività e la riduce quindi a semplice risultato delle operazioni della mente, ad una loro espressione astratta. La difesa dell’oggettività viene da Frege perseguita anche mediante la distinzione tra senso e denotazione dei termini singolari (intendendo con ciò anche le cosiddette “descrizioni definite”, come “la montagna più alta del mondo”). Essa nasce dall’esigenza di chiarire il significato della eguaglianza, quando ad esempio distinguiamo tra a!=!a e a !=!b. Infatti, possiamo domandarci, perché riteniamo la seconda eguaglianza informativa, mentre invece la prima ci sembra un semplice truismo? La risposta sta per Frege nella distinzione tra il senso (Sinn) di un termine e la sua denotazione (Bedeutung, a volta tradotta anche con ‘significato’, ‘designazione’ o ‘riferimento’). Facciamo l’esempio di Frege: quando 201 G. Frege, op. cit., pp. 486-7. G. Frege, Scritti postumi, Bibliopolis, Napoli 1986, p. 393. 203 G. Frege, I fondamenti dell’aritmetica (1884), in Logica e aritmetica, cit., p. 258. 202 105/229 Lezioni di logica e filosofia della scienza usiamo l’espressione “la stella del mattino” evidentemente indichiamo un particolare oggetto, un determinato corpo celeste, ovvero il pianeta Venere; analogamente quando utilizziamo l’altra espressione “la stella della sera” denotiamo il medesimo oggetto, ovverossia sempre Venere. E tuttavia abbiamo fatto uso di due “descrizioni definite” il cui senso è chiaramente diverso; pertanto quando stabiliamo l’eguaglianza “la stella del mattino” = “la stella della sera” abbiamo fornito una indicazione precisa: s’è voluto indicare che due espressioni diverse per il loro senso fanno tuttavia riferimento al medesimo oggetto e non a due distinti corpi celesti. Possiamo pertanto affermare che le due espressioni portate ad esempio hanno sensi diversi ma identica denotazione. Per cui ogni ‘segno’ possiede un senso ed una denotazione: «un nome proprio (parola, segno, connessione di segni, espressione) esprime il suo senso, denota o designa la sua denotazione»204. Tale distinzione serve a Frege per trovare il luogo dove collocare l’oggettività del numero e quindi della matematica, distinguendola dai processi soggettivi. Infatti egli differenzia dal senso e dalla denotazione la ‘rappresentazione’, costituita dalla immagine interna che ciascuno si fa, in base a ricordi personali o inclinazioni soggettive, di un dato oggetto, indicato mediante un segno ed espresso da un senso oggettivo. In merito Frege è estremamente preciso: «La denotazione di un nome proprio è l’oggetto stesso che con esso designiamo; la rappresentazione che ne abbiamo è del tutto soggettiva; tra l’una e l’altra c’è il senso, che non è più soggettivo come la rappresentazione, ma non è neppure l’oggetto stesso. Per chiarire questi rapporti può forse essere utile il seguente paragone. Immaginiamo che qualcuno osservi la luna attraverso un cannocchiale. Ora, io paragono la luna alla denotazione; esso è l’oggetto di osservazione reso possibile dall’immagine reale proiettata dalla lente dell’obiettivo dentro il cannocchiale e dall’immagine retinica dell’osservatore. In questo paragone, l’immagine dell’obiettivo è il senso, e l’immagine retinica è la rappresentazione o intuizione. L’immagine del cannocchiale è cioè solo parziale poiché dipende dal punto d’osservazione, eppure è oggettiva, poiché può servire a più osservatori. Si può predisporla in modo tale che più persone contemporaneamente possano utilizzarla; l’immagine retinica è invece tale che ognuno deve avere necessariamente la sua. Sarebbe perfino difficile ottenere una congruenza geometrica, per la diversa conformazione degli occhi; una effettiva coincidenza sarebbe comunque da escludersi.»205 Delle esperienze soggettive che sono connesse alla rappresentazione si occupa la psicologia, non la logica o la scienza: viene così completato il disegno fregeano teso ad escludere l’oggettività del pensiero dal campo psicologico, assegnando a quest’ultimo una sua specifica area di competenza. In ciò, «la preoccupazione di Frege, nel sottolineare la distinzione tra senso a rappresentazione, è anzitutto quella di salvaguardare la 204 G. Frege, “Senso e denotazione” (1892), in La struttura logica del linguaggio, a cura di A. Bonomi, Bompiano, Milano 1973, p. 14. 205 Ib., p. 13. 106/229 Lezioni di logica e filosofia della scienza condivisibilità intersoggettiva del senso»206, e quindi la possibilità di una scienza che avesse come suo obiettivo il coglimento del vero e non il semplice accordo tra individui. Per poter dar corpo a tale concezione La costruzione di un linguagoggettivistica e normativa della logica Frege si gio logico adeguato, libero assume come primo compito quello di creare un dagli equivoci di quello cosimbolismo logico in grado di permettere una cor- mune e con un simbolismo retta e rigorosa espressione del pensiero e così peculiare evitare le trappole causate dall’imperfezione e dalle ambiguità del linguaggio naturale: «Se è compito della filosofia spezzare il dominio della parola sullo spirito umano svelando gli inganni che, nell’ambito delle relazioni concettuali, traggono origine, spesso quasi inevitabilmente, dall’uso della lingua e liberare così il pensiero da quanto di difettoso gli proviene soltanto dalla natura dei mezzi linguistici di espressione, ebbene: la mia ideografia, ulteriormente perfezionata a questo scopo, potrà diventare per i filosofi un utile strumento»207. Questo il programma annunciato nella L’Ideografia e la concezione Premessa della sua prima opera, la Begriffsschrift di un nuovo simbolismo pudel 1879 (tradotta in italiano col nome di ramente logico, distinto da I d e o g r a f i a ), nella quale ci si riallaccia quello matematico intenzionalmente al progetto leibniziano di una lingua characteristica universalis. Frege non esita a paragonare il rapporto tra la sua ideografia e la lingua di tutti giorni a quello esistente tra il microscopio e l’occhio: «Quest’ultimo, per l’estensione della sua applicabilità con la quale sa adattarsi alle più disparate circostanze, ha una grande superiorità nei confronti del microscopio. Considerato però come apparecchio ottico esso rivela certamente parecchie imperfezioni che di solito passano inosservate solo in conseguenza del suo intimo collegamento con la vita spirituale. Ma non appena scopi scientifici richiedano la precisione nel discernere, l’occhio si rivela insufficiente. Il microscopio invece è adatto nel modo più perfetto proprio a tali scopi, ma appunto per questo risulta inutilizzabile per tutti gli altri»208. In quest’opera di un centinaio di pagine – che da Bocheƒski è stata paragonata per importanza agli stessi Primi analitici di Aristotele e da van Heijenoort è stata ritenuta uno dei più importanti scritti in logica mai pubblicati – viene data esecuzione in maniera sistematica al progetto leibniziano, liberandolo dalla subordinazione alla matematica, come era stato per Boole. Viene così concepito per la prima volta un simbolismo che è autonomo rispetto a quello impiegato in matematica ed è proprio solo della logica, in modo che possa servire quale linguaggio universale che domini tutti quelli specialistici e particolari, ivi compreso quello matematico. I simboli in esso costruiti sono nettamente distinti da quelli 206 P. Casalegno, “Il paradigna di Frege”, in Introduzione alla filosofia analitica del linguaggio, a cura di M. Santambrogio, Laterza, Bari-Roma 1992, p. 10. 207 G. Frege, Ideografia (1879), in Id., Logica e aritmetica, cit., pp. 107-8. 208 Ib., p. 105. 107/229 Lezioni di logica e filosofia della scienza impiegati in aritmetica: non più somme, moltiplicazioni ed elevazioni a potenza, come avveniva nell’algebra della logica di Boole, con inevitabili equivoci e confusione di domini; ad essere comune era solo il modo di impiegare le lettere, che venivano intese come variabili. Tuttavia tale simbolismo si dimostrava parecchio complesso e difficile da realizzare tipograficamente, sicché esso fu poi sostituito da quello assai più intuitivo e semplice di Russell, che a sua volta si ispirò largamente a quello introdotto da Peano. Per realizzare il compito che egli si era Le innovazioni principali prefisso era anche necessario che fossero apportati della nuova logica rispetto a due perfezionamenti alla presentazione della quella tradizionale logica: «Il primo perfezionamento doveva consistere nella sistematicità: organizzare le idee tradizionali ed i nuovi contributi di Leibniz e Boole in modo da chiarire la struttura di quella scienza e la grande varietà delle forme proposizionali da considerare nella logica generale. Il secondo perfezionamento doveva consistere nel rigore: esporre esplicitamente all’inizio quanto richiesto per la dimostrazione dei teoremi e ridurre il procedimento di deduzione ad un piccolo numero di mosse standard, prevenendo così il pericolo di contrabbandare inconsciamente ciò che invece dobbiamo dimostrare»209. I capisaldi di questa nuova logica ideografica sono: ß il superamento della vecchia impostazione sino ad allora invalsa, basata sulla distinzione tra soggetto e predicato, e la sua sostituzione con quella che assume la bipartizione argomento/funzione; ß il privilegiamento della logica proposizionale su quella terministica, ovvero della proposizione sul concetto, e quindi il ricongiungimento di due tradizioni logiche – quella aristotelica e quella stoica – sino a quel momento ritenute distinte e sinora mai incontratisi; ß la trattazione degli enunciati universali e particolari della vecchia logica mediante l’introduzione dei quantificatori universali ed esistenziali. Benchè tali nuove concezioni siano state in gran parte introdotte per primo da Frege, tuttavia sono state canonizzate e rese universalmente note dall’opera di Russell, che ovviamente non mancò di apportare dei personali contributi; inoltre le acquisizioni tecniche della nuova logica così ottenute – oltre ad essere il frutto dell’evoluzione sinora tratteggiata – costituiscono ormai il patrimonio condiviso della logica matematica contemporanea, sicché è più opportuno esporle in maniera sistematica in un apposito paragrafo, piuttosto che seguire i singoli contributi apportati da Frege e dai suoi successori. Resta invece da dire, in fase di bilancio conclusivo, qualcosa sul progetto logicistico per il quale Frege aveva Il collasso del logicismo in impegnato la sua vita. Frege: la scoperta dell’antiCome abbiamo visto, la scrittura della nomia di Russell 209 W.C. Kneale, M. Kneale, op. cit., pp. 497-8. 108/229 Lezioni di logica e filosofia della scienza Ideografia era funzionale alla fondazione della matematica mediante la sua riduzione ai chiari concetti della logica e la definizione di tutte le sue procedure con gli strumenti rigorosi che questa avrebbe fornito. Tale opera è appunto quella che Frege esprime programmaticamente nel già citato Die Grundlagen der Arithmetik (I fondamenti dell’aritmetica), del 1884, e che ha una vera e propria esecuzione nei due volumi dei Grundgesetze der Arithmetik (I principi dell’aritmetica, del 1893 e 1903). Ma proprio quando Frege stava per completarne il secondo volume, riceve il 16 giugno del 1902 una lettera da parte del giovane Russell nel quale gli viene comunicata la scoperta di un’antinomia logica che si annida proprio negli assunti di fondo dei Grundgesetze (vedi riquadro)210. Nulla poteva essere più disastroso per il progetto di Frege: la logica, che doveva costituire la base sicura a cui ancorare la matematica, si dimostrava dunque uno strumento inaffidabile, addirittura contraddittorio! Frege rimane annichilito da questa notizia: «Non c’è infortunio – confessa Frege in un poscritto ai Principi – che possa colpire più duramente uno scrittore di quello di veder crollare una delle pietre basilari del suo edificio subito dopo che esso sia stato portato a termine. Tale fu la condizione in cui io stesso mi trovai quando ricevetti una lettera di B. Russell mentre la stampa di questo volume era ormai vicina alla sua conclusione»211. L’antinomia di Russell Essa si riferisce alle basi insiemistiche della logica fregeana, ma colpisce egualmente anche la nozione logica di predicazione. Si parte dalla constatazione che un insieme può essere membro di se stesso oppure può non esserlo. Ad esempio, l’insieme dei cavalli non è un cavallo e l’insieme che contiene solo Socrate non è Socrate (v’è infatti differenza tra elemento di un insieme ed insieme formato da un solo elemento). Gli insiemi con cui abbiamo di solito a che fare non sono elememti di se stessi, per cui li chiameremo ‘normali’: la maggior parte degli insiemi sono dunque ‘normali’. Tuttavia possiamo costruire degli insiemi che non sono ‘normali’, cioè che possiedono la caratteristica di contenere se stessi come elementi; li chiameremo insiemi ad ‘auto-ingerimento’. Uno di questi è l’insieme di tutti gli insiemi, cioè l’insieme che comprende tutti gli insiemi come suoi elementi. Ora costruiamo un insieme A che comprende tutti gli insiemi ‘normali’: è l’insieme così costruito ‘normale’ o ad ‘autoingerimento’? Analizziamo i due casi: • se affermiamo che A è un insieme ‘normale’ (cioè non contiene se stesso come suo elemento) allora esso dovrà contenere se stesso (in quanto abbiamo detto che A è l’insieme di tutti gli insiemi ‘normali’); ma se contiene se stesso, allora è un insieme ad ‘auto-ingerimento’; onde abbiamo negato il punto di partenza. • se affermiamo che A è un insieme ad ‘auto-ingerimento’ (cioè che contiene se stesso come proprio elemento), allora non è vero che esso è l’insieme di tutti gli insiemi ‘normali’, come avevamo dichiarato nel costruirlo. Come si vede, qualunque sia la scelta fatta, si finisce per negarla e dover ammettere la tesi opposta, sicché incorriamo in una vera e propria antinomia. 210 Il carteggio tra Russell e Frege in merito all’antinomia è riportato in Frege, Alle origini della nuova logica, cit., pp. 169-224, dove è contenuta la celebre frase con cui il logico tedesco accolse la comunicazione di Russell: «La Sua scoperta della contraddizione mi ha sorpreso al massimo e, quasi vorrei dire, mi ha costernato, perché con essa vacilla la base sulla quale pensavo si fondasse l’aritmetica» (p. 185). 211 G. Frege, Grundgesetze der Aritmetik, II vol., Jena 1903, p. 253. 109/229 Lezioni di logica e filosofia della scienza In un’affrettata appendice dei Principi egli cerca di abbozzare una risposta, che tuttavia lascia insoddisfatto innanzi tutto lui stesso. Come si rende ben conto il logico tedesco, viene così messa in discussione non solo la sua opera, ma la stessa possibilità di trovare una fondazione logica alla matematica. Il progetto logicistico sembra essere colpito al cuore ed il terzo volume di Principi che Frege progettava di scrivere non vedrà più la luce. Un colpo dal quale Frege non si riprese più. Il silenzio di Frege ed il ritorBenchè, come ci testimoniano gli scritti postumi, no alla geometria come fonte egli abbia tentato per tutta la vita di porre rimedio della intuizione matematica a questo problema – senza tuttavia trovare una risposta soddisfacente – tuttavia per oltre vent’anni non pubblicò più nulla, se non alcuni saggi di geometria e tre brevi scritti di logica filosofica. Così, «proprio nel periodo in cui, grazie a Russell, la sua opera cominciava ad essere conosciuta ed apprezzata in tutto il suo valore, Frege si ritira dalla ricerca logica attiva, quale veniva configurandosi in quel periodo, in gran parte proprio a causa dell’antinomia scoperta nel suo sistema: egli lascia il problema fondamentale […] alle nuove generazioni e si dedica alla trattazione di argomenti più filosoficamente impegnati in senso tradizionale»212. Ma è proprio alle riflessioni sulla geometria che egli dedica le sue ultime fatiche, nel tentativo di percorrere una nuova strada di fondazione della matematica: con l’ammissione che l’elemento intuitivo della geometria possa costituire una speciale “fonte conoscitiva” per l’aritmetica, il ciclo si chiude. La prospettiva di un ritorno alla tesi kantiana del carattere sintetico di tutte le proposizioni matematiche finisce per restaurare una sostanziale frattura tra logica e matematica213. L’aritmetizzazione dell’analisi –!che delle evidenze geometriche si era voluta liberare per basarsi su quelle «pietre basilari, poggiate su una roccia eterna» offerte dalla logica – sembra con Frege compiere il ritorno alla casa di partenza, riabilitando l’intuizione, dimostratasi in fin dei conti molto più salda di quanto non si fosse mai sospettato. Non sarà Frege a proseguire sulla strada del logicismo. Un suo tentativo di salvezza sarà tentato da Russell, che cercò di risolvere il problema dell’antinomia da lui scoperta costruendo la cosiddetta “teoria dei tipi”. Ora invece passiamo ad illustrare quegli strumenti tecnici propri della logistica che, creati da Frege mettendo a frutto quanto prodotto a cominciare dall’opera di Boole, e perfezionati da Russell, hanno costituito da allora in poi la “cassetta degli attrezzi” di ogni filosofo della scienza. 2. Gli strumenti della logistica Nel corso di circa tre decenni – dalla pubblicazione della Begriffsschrift di Frege nel 1879 a quella dei Principia mathematica di Russell e Whitehead nel 1910-13 – la logistica sviluppa tutti i concetti fondamentali 212 213 C. Mangione, op. cit., p. 823. Cfr. R. Blanché, op. cit., p. 372. 110/229 Lezioni di logica e filosofia della scienza del patrimonio della logica formale contemporanea, in seguito ulteriormente perfezionati tecnicamente e anche approfonditi filosoficamente (non possiamo non menzionare in proposito il Tractatus logico-philosophicus di Wittgenstein). Nella sua duplice articolazione di logica (o calcolo) proposizionale e logica dei predicati, la “nuova logica” (come viene anche chiamata dai suoi fondatori per differenziarla da quella classica e sillogistica) fornirà al filosofo ‘scientifico’, all’epistemologo e al filosofo della scienza gli strumenti fondamentali per la discussione sulla scienza e sui suoi metodi. In questo paragrafo cercheremo di presentarne i concetti di base così come essi sono di solito introdotti nei manuali odierni di logica, in maniera da offrire anche un’essenziale guida per la comprensione delle discussioni odierne nel campo della filosofia della scienza. 2.1 La preminenza della logica proposizionale. La logica tradizionale come La logica tradizionale aristotelica iniziava innanzi logica dei termini tutto con una dottrina dei termini, distinguendoli in base alla loro ‘estensione’ e ‘comprensione’; su questa base edificava la dottrina delle categorie o “sommi predicabili”. Quindi proseguiva ‘componendo’ i termini in modo da formare il giudizio; così, ad es., nell’espressione “l’uomo corre”, abbiamo due termini: ‘uomo’ e ‘corre’, la cui combinazione in una proposizione fatta di soggetto e predicato dà luogo ad un giudizio che può essere vero o falso. I diversi giudizi vengono quindi ad essere articolati in un ragionamento, la cui massima espressione è fornita dal sillogismo. Seguendo questo modello, rimasto invariato sostanzialmente per due millenni, tutti i trattati tradizionali di logica si svolgevano progressivamente partendo dall’analisi dei termini, proseguendo con quella delle proposizioni e quindi componendo queste in maniera da formare l’argomentazione logica. La “nuova logica”, in particolare con Frege, La proposizione, punto di assume come proprio punto di partenza la propo- partenza della ‘nuova logica’ sizione, con ciò riallacciandosi inconsapevolmente ad una tradizione di pensiero logico, quello stoico, che era stato minoritario lungo tutta la tarda antichità e che era stato solo in parte valorizzato nel medioevo con la dottrina delle ‘consequentiae’. In Frege tale punto di partenza era giustificato con la sua idea che fosse impossibile spiegare il significato di un’espressione isolandola dal contesto, per cui è impossibile comprendere esattamente il significato di un termine prescindendo dalla proposizione nella quale può entrare a far parte. Egli propone invece di partire dai giudizi e quindi ricavare, mediante analisi, il significato dei termini che in essi figurano: è il famoso “Principio del Contesto”. Il calcolo proposizionale assume come sua uni- Valori di verità della proposità di base la proposizione, intesa come una espres- zione, assunta nel suo uso sione linguistica dichiarativa, cioè affermante che dichiarativo qualcosa è (o non è) così e così, e pertanto tale da poter essere vera o falsa. Sono pertanto da esso esclusi gli enunciati interrogativi e quelli imperativi, che non descrivono uno stato di cose e quindi non possono essere né veri né falsi; ad es., è una proposizione 111/229 Lezioni di logica e filosofia della scienza l’espressione “la terra è un pianeta”, mentre invece non lo è la domanda “che ora è?”. Al calcolo proposizionale non interessa analizzare come una data proposizione sia costruita, in quanto esso la assume come una totalità indecomponibile. Di essa prende in considerazione solamente il valore di verità, cioè il fatto di poter essere vera o falsa (ma non entrambe). In ciò consiste il carattere bivalente del calcolo proposizionale classico: esso non ammette altri valori di verità oltre a quelli di vero o falso. Per cui, ad esempio, non sono ammissibili proposizioni probabili o incerte, cioè il cui valore di verità non sia né vero né falso. Ovviamente è anche una proposizione quella Proposizioni composte e loro formata da due o più proposizioni semplici. Così carattere estensionale “La terra è un pianeta e il sole è una stella” è una proposizione composta (o molecolare) formata da due proposizioni semplici (o atomiche), che sono rispettivamente “La terra è rotonda” e “Il sole è una stella”. In questo caso il valore di verità della proposizione composta dipende esclusivamente dai valori di verità delle proposizioni componenti. In ciò consiste appunto il carattere estensionale del calcolo proposizionale: una data proposizione composta è detta estensionale se e solo se il suo valore di verità dipende esclusivamente dai valori di verità delle proposizioni che la compongono. Data una o più proposizioni, è possibile ad esse I funtori di verità e le lettere applicare dei funtori in modo da ottenere altre proposizionali proposizioni il cui valore di verità dipende dai valori di verità delle proposizioni iniziali e dal tipo di funtore applicato. Tali funtori sono estensionali (in quanto prendono in considerazione solo i valori di verità delle proposizioni) e vengono chiamati “funtori di verità” (o anche “operatori vero-funzionali” o più brevemente ‘connettivi’). Per indicare una generica proposizione, cioè una variabile proposizionale, si usano attualmente lettere minuscole, quali p, q, r, dove a lettere diverse corrispondono proposizioni diverse. In tal modo potrà essere p = “La terra è rotonda”, q = “5 è minore di 6” ecc. Tali lettere vengono chiamate lettere proposizionali. Ovviamente seguiamo qui le convenzioni che sono attualmente in uso, per cui la simbologia usata è differente da quella introdotta da Frege e dagli altri fondatori della nuova logica. La negazione è l’esempio più semplice e La negazione, gli altri funtori comune di funtore di verità. Per indicare l’opera- biargomentali e le relative zione di negazione della proposizione p si usa tavole di verità oggi di solito il simbolo “¬”, per cui avremo: ¬p, che leggiamo “non-p”. Se p è una proposizione vera, allora la sua negazione ¬p è falsa; se p è falsa allora ¬p è vera. La relazione esistente tra i valori di verità di ¬p e p può essere rappresentata schematicamente mediante la cosiddetta tavola di verità, nozione introdotta anche per gli altri funtori o connettivi da Wittgenstein nel suo Tractatus (ed indipendentemente anche da Post e ¸ukasiewicz) ed esemplificata nella figura sotto riportata. In essa, sotto p sono riportati i suoi due possibili valori di verità , V (vero) e F (falso). Nella seconda colonna (sotto ¬p) sono riportati i valori di verità assunti da ¬p in corrispondenza dei valori di verità della pro112/229 Lezioni di logica e filosofia della scienza posizione p. 1ª colonna 2ª colonna p ¬p V F F V 1ª riga 2ª riga Altri funtori importanti sono quelli biargomentali di disgiunzione ‘o’ (non esclusiva), congiunzione ‘et’, condizionale ‘se…allora…’ e bicondizionale ‘se e solo se’, dei quali riportiamo le tavole. p q pŸq p q p⁄q p q pÆq V V V V V V V V V V V V V F F V F V V F F V F F F V F F V V F V V F V F F F F F F F F F V F F V p q p¤q Ovviamente non tutti questi connettivi sono necessari, tant’è vero che Frege ne ammetteva solo due, la negazione ed il condizionale; tuttavia è comodo averne un maggior numero a disposizione in modo da rendere meglio le inferenze che vengono svolte in matematica e nel linguaggio ordinario. A partire da essi è possibile costruire le forme proposizionali complesse, il cui valore di verità può essere facilmente calcolato, in quanto dipende dai valori di verità delle singole lettere proposizionali. Si consideri ad esempio la seguente proposizione: (pŸq)⁄(p⁄q) Costruiamo innanzi tutto la tabella ad essa corrispondente. Abbiap q (p Ÿ q) ⁄ (p ⁄ q) mo riportato i valori corrispondenti alle lettere proposizionali di sinistra 1 1 1 1 1 1 1 1 1 sotto le corrispondenti lettere a de1 0 0 1 1 1 0 1 0 stra (indicando, come è oggi con0 0 1 1 0 1 1 0 1 suetudine, il Vero con 1 e il Falso 0 0 0 1 0 0 0 0 0 con 0). Applicando i rispettivi cona a nettivi abbiamo quindi ottenuto i valori di verità delle colonne contrasse gnate con a’; ‘ quindi alle colonne ‘a’ abbiamo applicato il connettivo “o” ottenendo come risultato finale la colonna ‘b’, che ci fornisce i cercati valori di verità della forma proposizionale data. Un particolare significato hanno le forme Tautologie e contraddizioni proposizionali che sono sempre vere, indipendentemente dai valori di verità che vengono assegnati alle variabili. Tali forme 113/229 Lezioni di logica e filosofia della scienza sono chiamate, seguendo l’uso di Wittgenstein, ‘tautologie’ (o anche “leggi logiche”) e la corrispondente tavola di verità di una di esse avrà come risultato dell’ultima colonna tutti 1. È ad es. una tautologia la seguente formula: (p ⁄ q) Æ (q ⁄ p) Se costruiamo la relativa tavola di verità otterremo: p q (p ⁄ q) Æ (q ⁄ p) 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 0 0 0 0 0 1 0 0 0 La nozione opposta a quella di tautologia è la contraddizione, che assume sempre il valore 0. Le contraddizioni, a differenza delle tautologie, sono false a priori, cioè sono false qualunque sia il valore di verità delle proposizioni che le compongono. E’ una tipica contraddizione la proposizione pŸ¬p. Ovviamente basta negare una tautologia per ottenere una contraddizione; e viceversa. Due tautologie molto utili per la effettuazione di inferenze all’interno dell’argomentazione logica sono espresse dalle seguente formule: (a) [(pÆq)Ÿp)]Æq (b) [(pÆq)Ÿ¬q)]Ƭp (modus ponendo ponens) (modus tollendo tollens) Che si tratti di tautologie è facilmente constatabile mediante l’applicazione delle tavole di verità. Il modus ponens è stato assunto da Frege come l’unica regola di derivazione per la effettuazione delle inferenze, a partire dai nove assiomi da lui usati come base di partenza. Il modus tollens può essere anche espresso con la formula (pÆq)Æ(¬qƬp), la quale sta a significare che se una certa causa determina un certo effetto, allora la negazione dell’effetto determina la negazione della causa. Bisogna fare però attenzione a due forme proposizionali che potrebbero essere intuitivamente considerate delle tautologie ed invece non lo sono. Quest’inganno nasce dal loro essere apparentemente simili al modus ponens e al modus tollens. Sono le seguenti: (a’) [(pÆq)Ÿq)]Æp (fallacia dell’affermazione del conseguente) (b’) [(pÆq)Ÿ¬p)]Ƭq (fallacia della negazione dell’antecedente) Applicando le tavole di verità si vede facilmente che queste non sono delle tautologie, ma solo forme proposizionali contingenti. Centrale è il concetto di implicazione logica Implicazione logica ed (che non deve essere confuso con l’operatore del implicazione materiale 114/229 Lezioni di logica e filosofia della scienza condizionale, detto anche implicazione materiale). Essa viene definita nel modo seguente: una formula proposizionale p1 implica logicamente una forma proposizionale p2 se e solo se ogni assegnamento di valori di verità che rende vera la prima rende anche vera la seconda. Questa definizione dice, in altri termini, che la verità di p1 è condizione sufficiente perché p2 sia vera. Tutta la definizione, pertanto, si può riformulare nel modo seguente: condizione necessaria e sufficiente affinché p1 implichi p2 è che la verità di p1 sia condizione sufficiente della verità di p2. Per indicare l’implicazione logica si usa il simbolo ‘fi’ (da non confondere con ‘Æ’). E’ ad esempio una implicazione logica “pfip”, cioè “p implica p”. Infatti ogni qualvolta la prima p è vera, è vera anche la seconda. Inoltre è anche pfi(p⁄q), in quanto ogni qualvolta p è vera, è anche vera la (p⁄q) (si ricordi che affinché una disgiunzione sia vera è sufficiente che uno dei suoi termini sia vero). Uno dei più importanti teoremi della logica è Il teorema della deduzione, e quello di deduzione. Esso afferma che p1fip2 se e sua connessione col concetto solo se p1Æp2 è una tautologia. Mediante questo di tautologia teorema possiamo sempre decidere in modo effettivo se una data forma proposizionale ne implica logicamente un’altra. Infatti basta vedere se otteniamo una tautologia applicando alle due forme proposizionale il condizionale. Vogliamo sapere, ad esempio, se la proposizione (pÆq)Æp implica logicamente p, cioè se sia vero che [(pÆq)Æp]fip. Per far ciò basta sapere se la proposizione che otteniamo collegando la prima espressione alla seconda per mezzo del condizionale è o no una tautologia. Ovverossia se [(pÆq)Æp]Æp è una tautologia. Se costruiamo la tavola di verità possiamo facilmente constatare che la colonna finale contiene tutti 1 e quindi tale proposizione è una tautologia. Possiamo quindi dire, per il teorema della deduzione, che (pÆq)Æp implica logicamente p. 2.2 L’abbandono della forma predicativa. Nella La classificazione delle prologica aristotelica i termini che entrano a far parte posizioni in base alla predidelle proposizioni costituiscono l’elemento più cazione, nella logica tradizionale semplice ed il punto di inizio della logica. Nella proposizione “l’uomo corre”, abbiamo due termini: ‘uomo’ e ‘corre’; essi possono dar luogo ad un asserto vero solo quando vengono combinati in una proposizione fatta di soggetto e predicato. Tale combinazione di termini esprime un giudizio, in cui si afferma o si nega un attributo di un soggetto, per cui nella logica aristotelica è fondamentale la distinzione tra soggetto e predicato. In “tutti gli uomini sono mortali” si può distinguere un soggetto, “gli uomini”, ed un predicato, “sono mortali”, che viene attribuito al soggetto come una proprietà o qualità che appartiene a quest’ultimo o lo caratterizza. Inoltre, possiamo distinguere le proposizioni secondo la loro qualità (affermative e negative) e la loro quantità (universali e particolari); per cui abbiamo le proposizioni universali affermative (“tutti gli uomini sono mortali”), le universali negative (“nessun uomo è mortale”), le particolari affermative (“qualche uomo è mortale”) e le particolari negative (“qualche uomo non è mortale”). Tale classificazione delle 115/229 Lezioni di logica e filosofia della scienza proposizioni è stata successivamente sintetizzata nel famoso quadrato delle opposizioni, che serve a far anche vedere i rapporti reciproci tra le proposizioni (vedi la figura, con le relative spiegazioni). A Tutti gli uomini sono mortali Subalterne E Contrarie Contraddittorie Subalterne O I Qualche uomo è mortale Nessun uomo è mortale Subcontrarie Qualche uomo non è mortale Figura 1 - Il quadrato delle opposizioni . Nella figura è rappresentato il quadrato che i logici successivi (in particolare Apuleio, l’autore de L’Asino d’oro, e Severino Boezio) elaborarono per rendere graficamente i rapporti tra i vari tipi di proposizione e poi largamente utilizzato nella sillogistica medievale. In Aristotele manca ancora la indicazione della subalternità e inoltre la terminologia esprimente le relazioni tra proposizioni (‘contraddittorie’, ‘contrarie’ ecc.) è quella introdotta da Boezio, divenuta di uso comune fino ad oggi. Come viene messo in evidenza dalla nuova logica, il privilegiamento della forma soggetto- Gli inconvenienti della forma soggetto-predicato: l’impospredicato rende però impossibile (od almeno sibilità di esprimere le relaestremamente difficoltoso) il ragionamento mate- zioni matico, oltre ad avere delle indesiderate implicazioni metafisiche. Infatti essa permette solo l’attribuzione di una qualità ad un soggetto, come quando diciamo “un quadrato è rotondo”, e non riesce invece a render conto adeguatamente delle relazioni tra due enti, come quando invece affermiamo che “5 è maggiore di 4”. In quest’ultimo giudizio, secondo l’impostazione aristotelica, avremmo un soggetto (‘5’) ed un predicato, formato dall’espressione “è maggiore di 4”; per cui se diciamo “4 è maggiore di 3”, avremo ancora un altro soggetto ed un altro predicato, diversi dai precedenti. Su questa base diventa impossibile effettuare un semplice ragionamento matematico come il seguente: “se 5 è maggiore di 4 e 4 è maggiore di 3, allora 5 è maggiore di 3”. A voler seguire l’impostazione aristotelica, dovrebbe essere effettuato un sillogismo 116/229 Lezioni di logica e filosofia della scienza del seguente tipo: Ogni maggiore di 4 è maggiore di 3 Ogni maggiore o uguale a 5 è maggiore di 4 _____________________________ Quindi, ogni maggiore o uguale a 5 è maggiore di 3 Dove “ogni maggiore di 4” è il soggetto della prima premessa e costituisce quello che Aristotele chiama “termine medio”; “è maggiore di 3” rappresenta il predicato della prima premessa e della conclusione; e “ogni maggiore o uguale a 5” è il soggetto della premessa minore e della conclusione. Tale sillogismo è una esemplificazione di quella ‘figura’ sillogistica che per Aristotele sarebbe la più perfetta e che costituisce la forma cui devono essere ridotti tutti i rimanenti sillogismi affinchè siano dimostrati, in quanto è di per sé autoevidente. Dalla sua conclusione segue, con una inferenza che Aristotele chiama ‘immediata’, la proposizione che “5 è maggiore di 3”. Come si vede, una semplice inferenza mate- La svolta di Frege: alla formatica diventa nella sillogistica aristotelica un ma soggetto-predicato viene complicato ragionamento, derivante dal fatto di sostituita quella di funzioneconsiderare l’espressione “è maggiore di 3” un argomento predicato esprimente la qualità di un soggetto, differente da innumerevoli predicati ad esso simili. Tutto diverrebbe più semplice se, abbandonando la forma soggetto/predicato, si adottasse quella di argomento/funzione e di conseguenza si intendessero le espressioni simili a quella portata da esempio come casi di relazioni (o funzioni biargomentali). Questa è l’idea che sta alla base della nuova logica, esposta in maniera sistematica da Frege e quindi divenuta patrimonio comune. Consideriamo l’espressione “Tutti gli uomini sono mortali”. Se sostituiamo al soggetto “Tutti gli uomini” la variabile x e scriviamo “x sono mortali” abbiamo ottenuto una espressione per la quale non siamo in grado di dire se è vera o falsa, a meno che non sappiamo cosa sta ad indicare la variabile x. Se ad esempio x =“I Greci”, allora essa è vera; ma se x =“Gli Dei dell’Olimpo”, allora è falsa. Nell’espressione data possiamo distinguere due parti: • innanzi tutto notiamo una variabile x che può rappresentare un qualsivoglia oggetto di un certo genere (appartenente ad un dato universo) e che chiamiamo variabile individuale; • v’è poi il funtore “sono mortali” che viene applicato ad un dato argomento, costituito da un nome rappresentante un oggetto od individuo. A tale funtore ci si riferisce spesso anche col nome di predicato: nel nostro caso abbiamo un predicato monoargomentale (o unario), in quanto esso si applica ad un solo argomento rappresentato dalla variabile individuale x. L’espressione che risulta dalla unione di queste Il concetto di funzione produe parti viene chiamata funzione proposizionale: posizionale essa diventa una proposizione nel caso in cui si sostituisca la variabile individuale con una costante individuale. Per cui, più 117/229 Lezioni di logica e filosofia della scienza esattamente possiamo definire una funzione proposizionale come un’espressione che non è né vera né falsa ma può essere trasformata in una proposizione vera o falsa mediante rimpiazzamento delle sue variabili con delle costanti. La nozione di funzione proposizionale è chiaramente derivata dall’analogo concetto di funzione in matematica; qui abbiamo un’espressione del tipo y = f(x), dove il valore di y dipende dal valore assegnato a x e dall’operazione che viene indicata col simbolo ‘f’. Così, ad esempio, se x = 2 e l’operazione consiste nella “elevazione al quadrato”, allora avremo la seguente funzione: y = x2, che dà come valore y = 4. Per indicare un generico predicato vengono Predicati monoargomentali e utilizzate le così dette costanti predicative, biargomentali, che esprimaindicate di solito con le lettere P, Q, R, …. Per cui no delle relazioni la scrittura P(x) indicherà una certa funzione proposizionale formata da un predicato monoargomentale P e dalla variabile individuale x, che si potrà leggere: “x ha la proprietà P”. Inoltre le costanti individuali vengono indicate al solito modo, cioè utilizzando le lettere a, b, c, …. Per trasformare una funzione proposizionale in una proposizione basta allora sostituire in un generico predicato P(x) la variabile individuale x con una costante individuale, ottenendo P(a), che si legge: “il particolare oggetto a ha la proprietà P”. Abbiamo finora parlato di predicati monoargomentali (o monadici) che formano funzioni proposizionali del tipo P(x) e che corrispondono sul piano fisico alle proprietà che possono essere possedute da un oggetto od individuo. Vi sono però anche predicati a due argomenti, a tre argomenti e ad n argomenti. Consideriamo ad esempio la seguente funzione proposizionale: “x è padre di y” dove abbiamo due argomenti, x e y ed un funtore, “è padre di”. In genere a tali predicati corrispondono nella realtà le cosiddette relazioni, in teoria degli insiemi indicate con la lettera R. Sicché spesso le funzioni proposizionali ottenute da tali predicati biargomentali (o diadici) vengono indicate anch’esse con la lettera R. In tal caso l’espressione sopra riportata verrebbe a scriversi: R(x, y), che si legge: “x è nella relazione R con y”. È questa la base di quella teoria delle relazioni avviata da De Morgan, sviluppata da Frege e quindi sistematizzata da Russell e Whitehead, in modo da fornire alla logica uno strumento abbastanza potente per esprimere i concetti della matematica. Grazie al concetto di relazione sarà possibile affrontare in maniera efficace il tipo di argomentazione che abbiamo visto nell’esempio prima fornito del sillogismo aristotelico. Ciò grazie alla possibilità di individuare quelle proprietà formali delle relazioni che permettono di effettuare inferenze altrimenti impossibili. Possiamo infatti caratterizzare una relazione per il fatto di poter essere riflessiva, simmetrica e transitiva. Si dice che una relazione è riflessiva quando un dato elemento è nella data relazione con se stesso. Ad es., la relazione di eguaglianza è riflessiva in 118/229 Lezioni di logica e filosofia della scienza quanto ogni ente è eguale a se stesso. Una relazione si dice transitiva se R(x, y) e R(y, z), allora sarà anche R(x, z). Ad es., se Mario è fratello di Giovanni e Giovanni è fratello di Alberto, allora Mario è fratello di Alberto. Infine una relazione è simmetrica se R(x, y), allora R(y, x), come nel caso di Giovanni che è fratello di Alberto, per cui Alberto è fratello di Giovanni. In un dato insieme A possiamo tra gli elementi che vi appartengono definire delle relazioni che possono presentare delle proprietà caratteristiche, quali la riflessività, la simmetricità e la transitività. Tali proprietà formali delle relazioni ci mettono in grado di affrontare in modo molto semplice il sillogismo prima discusso. Basta rilevare che la proposizione “5 è maggiore di 4” non esprime altro che una relazione del tipo prima esposto, una volta sostituiti con delle variabili i numeri; si ottiene: “x è maggiore di y”. La semplice constatazione che la relazione “… è maggiore di …” è transitiva, ci permette di effettuare l’inferenza da “5 è maggiore di 4” e “4 è maggiore di 3” alla conclusione “5 è maggiore di 3”; ovvero: se R(5, 4) e R(4, 3), allora R(5, 3). 2.3 I quantificatori. Altro merito della nuova logica è quello di avere chiarito e definito formalmente l’uso dei quantificatori, distinguendoli funzionalmente del resto delle componenti che entrano a far parte della funzione proposizionale. Nella logica aristotelica, infatti, la quantificazione non si distingueva dalla proposizione, la quale era di per sé universale o particolare. Nel medioevo, con Guglielmo d’Ockham e Alberto di Sassonia, si era effettuata la distinzione tra termini categorematici e sincategorematici, allo scopo di differenziare le parti che all’interno della proposizione hanno un significato autonomo (sono quelle categorematiche, come i nomi e i verbi) da quelle che invece non lo hanno, ma servono per modificare o completare il significato delle prime; e tra queste ultime, oltre agli attuali connettivi, venivano indicati anche i termini utilizzati per la quantificazione, così fornendo loro una autonomia rispetto al resto della proposizione di cui entrano a far parte. Così nella proposizione “ogni uomo corre”, se consideriamo ‘ogni’ come facente parte del soggetto, allora la proposizione “qualche uomo non corre” non ha lo stesso soggetto della prima e di conseguenze queste due proposizioni non sono contraddittorie; il che è falso. Per cui le parole ‘ogni’ e ‘qualche’ rivestono solo la funzione di modificare il soggetto, distinguendosi da esso. Per chiarire la funzione dei quantificatori, os- La quantificazione trasforma serviamo che essi servono anche ad ottenere una una funzione proposizionale proposizione a partire da una funzione proposizio- in proposizione nale. Prendiamo la funzione proposizionale “x è un numero naturale”; essa può essere trasformata in una proposizione in questo modo: (a) “per ogni x, x è un numero naturale” (b) “esiste almeno un x, tale che x è un numero naturale” La (a), detto in parole semplici, sta a significare che qualunque numero 119/229 Lezioni di logica e filosofia della scienza sia x, tale x è un numero naturale. Il che è chiaramente falso, dato che ad esempio “π” non è un numero naturale. Quindi la (a) è una proposizione falsa. La (b) sta invece a significare che esiste almeno un numero che è naturale. E ciò è vero, visto che effettivamente il numero 2 (come anche il 3, il 4 ecc.) è un numero naturale. Pertanto la (b) è una proposizione vera. Ciò significa che una funzione proposizionale può esser trasformata in proposizione ‘quantificando’ la sua variabile, cioè facendo precedere all’asserto contenente la variabile le espressioni “per ogni x” oppure “esiste almeno un x tale che”. Queste espressioni sono dette quantificatori e vengono espresse simbolicamente nel modo seguente: "x $x che si legge “per ogni x” che si legge “esiste almeno un x” Il primo è chiamato quantificatore universale, il secondo quantificatore esistenziale.!Pertanto una proposizione ottenuta da una funzione proposizionale si può anche scrivere nel modo seguente: "xP(x) $xP(x) che si leggono rispettivamente: “Per ogni x, x ha la proprietà P” e “Esiste un x tale che ha la proprietà P”. Una variabile quantificata è detta vincolata. Si faccia attenzione al fatto che il quantificatore esistenziale non afferma che esiste solo un x che ha una tale proprietà, ma che esiste almeno un x che ha una certa proprietà. Per cui nel caso in cui P=“è un numero pari” è ovvio che non esiste un solo numero pari, ma un numero infinito e tuttavia non è vero che tutti i numeri sono pari! Così come nel calcolo proposizionale, anche Le tautologie nel calcolo dei nel calcolo dei predicati esistono degli schemi di predicati funzioni proposizionali che sono sempre veri. Innanzi tutto sono tautologie del calcolo dei predicati tutte le tautologie che fanno parte del calcolo proposizionale, e ciò per il motivo che quest’ultimo è contenuto nel primo. Sicché nella semplice tautologia pÆp se sostituiamo le lettere proposizionali con espressioni appartenenti al calcolo dei predicati otteniamo anche una tautologia. Oltre a queste tautologie ve ne sono altre che sono proprie del calcolo dei predicati in quanto in esse occorrono particolari modi di presentarsi dei quantificatori. In generale possiamo dire che una formula del calcolo di predicati è una tautologia se e solo se è uno schema esclusivamente vero di proposizioni o funzioni proposizionali vere. Ciò significa che, data una funzione proposizionale essa è sempre vera se, comunque scelto l’insieme entro cui variano le variabili in essa contenute e comunque scelto il predicato che ha per argomento le date variabili, un volta operate le opportune sostituzioni, si ottiene una proposizione vera. 120/229 Lezioni di logica e filosofia della scienza Ma il numero degli insiemi entro i quali Mancanza nel calcolo dei prepossono assumere valori le variabili, il numero dei dicati di un metodo effettivo loro elementi, come anche il numero di tutti i per riconoscere le tautologie possibili predicati, è infinito, sicché è impossibile e il ricorso alla assiomatizandare a vedere caso per caso se una data funzione zazione proposizionale è vera o no. Nel caso del calcolo dei predicati non esiste alcun metodo effettivo per conoscere in un certo numero limitato di passi se una data formula è o no una tautologia: ciò è stato dimostrato dal cosiddetto teorema di indecidibilità (per la logica dei predicati) dovuto a Church (1936). Abbiamo invece visto che il calcolo proposizionale godeva della proprietà della decidibilità: grazie all’impiego delle tavole di verità siamo in grado di sapere, in un numero limitato di passaggi, se una data forma proposizionale è o no una tautologia. Tuttavia, grazie alla assiomatizzazione del calcolo dei predicati è possibile individuare certi suoi sottoinsiemi decidibili, come ad es. quello in cui i predicati sono solo monadici oppure quello che assume come propri schemi gli schemi delle tautologie già note dal calcolo proposizionale. Inoltre è anche possibile cercare di individuare alcune sue non-tautologie mediante l’analisi intuitiva di certe formule che miri ad trovare un controesempio che le dimostrino false. Diamo a titolo di esempio una tipica tautologia del calcolo dei predicati, la quale è intuitivamente evidente: "xP(x) Æ P(a) legge “dictum de omni” o “principio di esemplificazione universale” (di Jaskowski) Questa legge ci dice che se tutti gli oggetti hanno la proprietà P allora un oggetto particolare a ha la stessa proprietà. Se così, ad esempio, tutti gli uomini sono mortali, allora ne segue che anche Socrate è mortale. Sulla base di queste nozioni viene edificata tutta la logica contemporanea classica ed è possibile esprimere gran parte del contenuto della matematica. 121/229